KR101477051B1 - Method for object recognition through image-code transformation - Google Patents

Method for object recognition through image-code transformation Download PDF

Info

Publication number
KR101477051B1
KR101477051B1 KR1020140000319A KR20140000319A KR101477051B1 KR 101477051 B1 KR101477051 B1 KR 101477051B1 KR 1020140000319 A KR1020140000319 A KR 1020140000319A KR 20140000319 A KR20140000319 A KR 20140000319A KR 101477051 B1 KR101477051 B1 KR 101477051B1
Authority
KR
South Korea
Prior art keywords
feature points
information code
points
minutiae
information
Prior art date
Application number
KR1020140000319A
Other languages
Korean (ko)
Inventor
김신덕
정현섭
Original Assignee
연세대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 연세대학교 산학협력단 filed Critical 연세대학교 산학협력단
Priority to KR1020140000319A priority Critical patent/KR101477051B1/en
Application granted granted Critical
Publication of KR101477051B1 publication Critical patent/KR101477051B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

The present invention relates to a method for coding an image of an object, including the steps of: extracting feature points of an object; and generating an information code to define the object using the feature points. Also, the present invention relates to a method and a device for recognizing an object using information code to define an object.

Description

객체 인식을 위한 이미지 코드화 방법{METHOD FOR OBJECT RECOGNITION THROUGH IMAGE-CODE TRANSFORMATION}{METHOD FOR OBJECT RECOGNITION THROUGH IMAGE-CODE TRANSFORMATION}

본 발명은 객체 인식을 위한 이미지 코드화 방법에 관한 것이다.The present invention relates to an image coding method for object recognition.

최근 스마트 모바일 기기의 급속한 보급 및 무선 네트워크의 실용화에 따라, 정적인 서비스 뿐만 아니라 보다 실제적으로 체감할 수 있는 다양한 실감형의 서비스에 대한 요구가 급증하고 있다. 이러한 실감형 서비스를 위한 기술의 하나가 증강 현실인데, 증강 현실이란 현실의 이미지나 배경에 3차원의 가상 이미지를 겹쳐서 하나의 영상으로 보여주는 기술을 말한다.Recently, with the rapid spread of smart mobile devices and the practical use of wireless networks, there has been a rapid increase in demands for realistic services as well as static services. One of the technologies for realistic services is augmented reality. Augmented reality refers to a technique of superimposing a three-dimensional virtual image on a realistic image or background and displaying it as a single image.

증강 현실에 대한 연구에 비해 실제 증강 현실은 현실에서 잘 활용되지 않고 있다. 증강 현실이 잘 활용되지 못하는 가장 큰 이유 중에 하나는 실시간 서비스에 적합하지 않다는 것이다.Actual augmented reality is not well utilized in reality compared with the study on augmented reality. One of the main reasons why Augmented Reality is not well utilized is that it is not suitable for real-time service.

실시간 서비스에 이용되는 객체 인식 알고리즘으로 SURF, FAST 알고리즘 등이 사용되고 있는데, 스마트폰 환경에서 두 알고리즘의 객체 인식 성능은 1~4 fps(frame per sec) 불과하다. 사용자들이 실시간으로 서비스를 체감하기 위해서는 최소 10 fps의 성능이 보장되어야 하기 때문에 기존의 알고리즘으로는 실시간 서비스를 제공하기에 부적합하다.SURF and FAST algorithms are used for real-time service recognition. In smartphone environment, object recognition performance of both algorithms is only 1 ~ 4 fps (frame per sec). In order for users to experience real-time service, minimum 10 fps performance must be guaranteed, so existing algorithms are not suitable for providing real-time service.

따라서, 모바일 환경에서 실시간 체감형 서비스를 제공하기 위해서는 보다 빠르게 객체를 인식할 수 있는 방법이 필요하다.Therefore, in order to provide a real-time sensible service in a mobile environment, a method of recognizing an object more quickly is needed.

본 발명의 목적은 모바일 환경에서 실시간으로 객체 인식을 하기 위해 객체의 이미지를 코드화하는 방법을 제공하는 데 있다.It is an object of the present invention to provide a method of encoding an image of an object in order to realize object recognition in real time in a mobile environment.

본 발명의 기술적 과제는 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The technical problem of the present invention is not limited to the above-mentioned technical problems, and other technical problems which are not mentioned can be clearly understood by those skilled in the art from the following description.

본 발명의 실시예에 따른 객체의 이미지 코드화 방법은 객체의 특징점들을 추출하는 단계 및 상기 특징점들을 이용하여 상기 객체를 정의하는 정보 코드를 생성하는 단계를 포함할 수 있다.The image coding method of an object according to an embodiment of the present invention may include extracting minutiae points of an object and generating an information code defining the object using the minutiae points.

실시예에 따르면, 상기 객체의 특징점들을 추출하는 단계 후에 추출된 상기 특징점들 중에서 최적의 특징점을 선정하는 단계를 더 포함할 수 있다.The method may further include selecting an optimal feature point among the extracted feature points after extracting the feature points of the object.

실시예에 따르면, 상기 추출된 상기 특징점들 중에서 최적의 특징점을 선정하는 단계는 추출된 상기 특징점들 중에서 밀집되어 있는 특징점들을 분류하는 단계 및 분류된 상기 밀집되어 있는 특징점들 중에서 컬러 평균 값에 가장 근접한 특징점을 상기 최적의 특징점으로 선정하는 단계를 포함할 수 있다.According to an embodiment of the present invention, the step of selecting an optimal feature point among the extracted feature points may include classifying the feature points that are concentrated among the extracted feature points, and classifying the feature points that are closest to the color average value among the classified feature points And selecting the feature point as the optimal feature point.

실시예에 따르면, 상기 정보 코드를 생성하는 단계는 상기 특징점들 간의 거리를 산출하는 단계를 포함할 수 있다.According to an embodiment, generating the information code may include calculating a distance between the minutiae points.

실시예에 따르면, 상기 정보 코드를 생성하는 단계는 상기 특징점들 주위의 컬러 평균값을 산출하는 단계를 더 포함할 수 있다.According to an embodiment, generating the information code may further comprise calculating a color average value around the feature points.

실시예에 따르면, 상기 특징점들 간의 거리 및 상기 특징점들 주위이 컬러 평균값을 이용하여 상기 객체의 정보 코드를 생성하는 단계를 더 포함할 수 있다.According to an embodiment of the present invention, the method may further include generating an information code of the object using a distance between the minutiae points and a color mean value around the minutiae points.

실시예에 따르면, 상기 정보 코드를 생성하는 단계는 이미지의 해상도, 상기 객체 주변의 상황 정보 및 상기 특징점들의 분할 정보 중 적어도 어느 하나를 획득하는 단계를 더 포함할 수 있다.According to an embodiment of the present invention, the step of generating the information code may further include obtaining at least one of resolution of the image, context information of the object, and division information of the feature points.

실시예에 따르면, 추출된 상기 객체의 특징점들, 상기 특징점들 간의 거리, 상기 특징점들 주위의 컬러 평균값, 상기 이미지의 해상도, 상기 객체 주변의 상황 정보 및 상기 특징점들의 분할 정보 중 적어도 둘 이상을 이용하여 상기 객체의 정보 코드를 생성하는 단계를 더 포함할 수 있다.According to the embodiment, at least two or more of the minutiae points of the extracted object, the distance between the minutiae points, the color average value around the minutiae points, the resolution of the image, the context information about the object, And generating an information code of the object.

본 발명의 실시예에 따른 객체 인식 방법은 객체의 특징점들을 추출하는 단계, 상기 특징점들을 이용하여 상기 객체를 정의하는 정보 코드를 추출하는 단계 및 추출된 상기 정보 코드를 이용하여 이미지가 저장된 데이터베이스로부터 상기 객체를 탐색하는 단계를 포함할 수 있다.An object recognition method according to an embodiment of the present invention includes extracting minutiae points of an object, extracting an information code defining the object using the minutiae points, and extracting an information code from the database storing the image using the extracted information code And searching for the object.

실시예에 따르면, 상기 정보 코드는 상기 객체의 최적의 특징점들, 상기 특징점들 간의 거리, 상기 특징점들 주위의 컬러 평균값, 상기 이미지의 해상도, 상기 객체 주변의 상황 정보 및 상기 특징점들의 분할 정보 중 적어도 둘 이상을 포함할 수 있다.According to an embodiment of the present invention, the information code includes at least one of an optimal feature point of the object, a distance between the feature points, a color average value around the feature points, a resolution of the image, context information about the object, And may include two or more.

실시예에 따르면, 상기 추출된 상기 정보 코드를 이용하여 이미지가 저장된 데이터베이스로부터 상기 객체를 탐색하는 단계는 상기 객체 주변의 상황 정보를 이용하는 1차 필터링 단계, 상기 특징점들의 분할 정보를 이용하는 2차 필터링 단계, 상기 최적의 특징점들을 비교하는 단계, 상기 특징점들 간의 거리를 비교하는 단계 및 상기 특징점들 주위의 컬러 평균값을 비교하는 단계를 포함할 수 있다.According to an embodiment of the present invention, the step of searching for an object from a database storing an image using the extracted information code may include a first filtering step using context information of the object, a second filtering step using division information of the feature points Comparing the optimal feature points, comparing distances between the feature points, and comparing color mean values around the feature points.

본 발명의 실시예에 따른 기록 매체는 상기 객체의 이미지 코드화 방법과 상기 객체 인식 방법을 수행하기 위한 프로그램을 기록할 수 있다.The recording medium according to the embodiment of the present invention may record a method of image coding of the object and a program for performing the object recognition method.

본 발명의 실시예에 따른 객체의 정보 코드는 객체의 특징점들을 저장하는 특징점 필드, 상기 객체의 특징점들 간의 거리를 저장하는 특징점 거리 필드 및 상기 특징점들 주위의 컬러 평균값을 저장하는 특징점 컬러 평균값 필드를 포함하여 정의될 수 있다.An information code of an object according to an embodiment of the present invention includes a feature point field for storing feature points of an object, a feature point distance field for storing a distance between feature points of the object, and a feature point color average value field for storing a color mean value around the feature points . ≪ / RTI >

실시예에 따르면, 이미지의 해상도를 저장하는 해상도 필드, 상기 객체 주변의 상황 정보를 저장하는 상황 정보 필드 및 상기 객체의 특징점들의 분할 정보를 저장하는 분할 정보 필드를 더 포함할 수 있다.According to an embodiment of the present invention, the apparatus may further include a resolution field for storing the resolution of the image, a context information field for storing context information about the object, and a partition information field for storing partition information of the object feature points.

본 발명의 실시예에 따른 객체 인식 장치는 입력된 객체의 이미지로부터 상기 객체의 특징점들을 추출하는 특징점 추출부 및 추출된 상기 특징점들로부터 상기 객체를 정의하는 정보 코드를 생성하는 정보 코드 생성부를 포함할 수 있다.An object recognition apparatus according to an embodiment of the present invention includes a feature point extraction unit that extracts feature points of the object from an image of an input object and an information code generation unit that generates an information code that defines the object from the extracted feature points .

실시예에 따르면, 상기 정보 코드 생성부는 추출된 상기 특징점들 간의 거리를 산출하는 거리 산출부 및 상기 특징점들 주위의 컬러 평균값을 산출하는 컬러 평균값 산출부를 포함할 수 있다.According to the embodiment, the information code generating unit may include a distance calculating unit for calculating the distance between the extracted feature points, and a color average value calculating unit for calculating a color average value around the feature points.

실시예에 따르면, 상기 정보 코드 생성부는 상기 객체의 이미지의 해상도를 산출하는 해상도 산출부, 상기 객체의 위치 정보를 획득하는 위치 정보 인식부 및 상기 객체의 이미지에서 상기 특징점들의 위치를 분석하는 특징점 위치 분석부를 더 포함할 수 있다.According to an embodiment of the present invention, the information code generating unit includes a resolution calculating unit for calculating a resolution of an image of the object, a position information recognizing unit for obtaining position information of the object, and a feature point position analyzing unit for analyzing a position of the feature points in the image of the object. And may further include an analysis section.

실시예에 따르면, 생성한 상기 정보 코드를 저장하는 데이터베이스를 더 포함할 수 있다.According to an embodiment, the information processing apparatus may further include a database storing the generated information codes.

실시예에 따르면, 상기 입력된 객체의 이미지를 상기 데이터베이스에서 탐색하는 객체 인식부를 더 포함하고, 상기 객체 인식부는 상기 입력된 객체의 이미지의 정보 코드와 상기 데이터베이스에 저장된 정보 코드를 비교하여 탐색할 수 있다.According to an embodiment of the present invention, the image recognition apparatus may further include an object recognition unit for searching the database for an image of the input object, wherein the object recognition unit compares the information code of the image of the input object with the information code stored in the database, have.

본 발명의 일 측면에 따르면, 객체의 이미지를 코드화하여 객체를 인식함으로써, 객체 인식에 필요한 시간을 줄일 수 있다.According to an aspect of the present invention, a time required for object recognition can be reduced by recognizing an object by encoding an image of the object.

본 발명의 일 측면에 따르면, 모바일 환경에서 실시간으로 객체를 인식할 수 있다.According to an aspect of the present invention, an object can be recognized in real time in a mobile environment.

본 발명의 효과가 상술한 효과들로 한정되는 것은 아니며, 언급되지 아니한 효과들은 본 명세서 및 첨부된 도면들로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확히 이해될 수 있을 것이다.The effects of the present invention are not limited to the above-mentioned effects, and the effects not mentioned can be clearly understood by those skilled in the art from the present specification and the accompanying drawings.

도 1은 본 발명의 실시예에 따른 객체의 이미지 코드화 방법을 설명하기 위한 도면이다.
도 2는 객체의 이미지에서 특징점 추출 결과를 나타낸 것이다.
도 3은 도 2에 도시된 특징점들 중에서 최적의 특징점을 선정한 결과를 나타낸 것이다.
도 4는 도 3에서 선정된 최적의 특징점들 간의 거리를 나타낸 것이다.
도 5는 특징점 주위의 컬러 평균값을 구하는 방법을 설명하기 위한 도면이다.
도 6은 특징점들의 분할 정보를 설명하기 위한 도면이다.
도 7은 본 발명의 실시예에 따른 이미지 코드화 방법에 의해 생성된 정보 코드를 나타낸 것이다.
도 8은 본 발명의 실시예에 따른 객체 인식 방법을 설명하기 위한 도면이다.
도 9은 본 발명의 실시예에 따른 객체 인식 장치를 나타낸 것이다.
FIG. 1 is a diagram for explaining an image coding method of an object according to an embodiment of the present invention.
2 shows a result of extracting a feature point from an image of an object.
FIG. 3 shows the result of selecting optimal feature points from the feature points shown in FIG. 2. FIG.
FIG. 4 shows the distances between the optimal feature points selected in FIG.
5 is a diagram for explaining a method of obtaining a color average value around a minutia.
6 is a diagram for explaining division information of minutiae points.
7 shows an information code generated by an image coding method according to an embodiment of the present invention.
8 is a view for explaining an object recognition method according to an embodiment of the present invention.
FIG. 9 illustrates an object recognition apparatus according to an embodiment of the present invention.

본 발명의 다른 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술 되는 실시 예를 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시 예에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예는 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.Other advantages and features of the present invention and methods of achieving them will become apparent with reference to the embodiments described below in detail with reference to the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as being limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the concept of the invention to those skilled in the art. Is provided to fully convey the scope of the invention to those skilled in the art, and the invention is only defined by the scope of the claims.

만일 정의되지 않더라도, 여기서 사용되는 모든 용어들(기술 혹은 과학 용어들을 포함)은 이 발명이 속한 종래 기술에서 보편적 기술에 의해 일반적으로 수용되는 것과 동일한 의미를 가진다. 일반적인 사전들에 의해 정의된 용어들은 관련된 기술 그리고/혹은 본 출원의 본문에 의미하는 것과 동일한 의미를 갖는 것으로 해석될 수 있고, 그리고 여기서 명확하게 정의된 표현이 아니더라도 개념화되거나 혹은 과도하게 형식적으로 해석되지 않을 것이다.Unless defined otherwise, all terms (including technical or scientific terms) used herein have the same meaning as commonly accepted by the generic art in the prior art to which this invention belongs. Terms defined by generic dictionaries may be interpreted to have the same meaning as in the related art and / or in the text of this application, and may be conceptualized or overly formalized, even if not expressly defined herein I will not.

본 명세서에서 사용된 용어는 실시 예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 '포함한다' 및/또는 이 동사의 다양한 활용형들 예를 들어, '포함', '포함하는', '포함하고', '포함하며' 등은 언급된 조성, 성분, 구성요소, 단계, 동작 및/또는 소자는 하나 이상의 다른 조성, 성분, 구성요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다.The terminology used herein is for the purpose of illustrating embodiments and is not intended to be limiting of the present invention. In the present specification, the singular form includes plural forms unless otherwise specified in the specification. As used herein, the terms' comprise 'and / or various forms of use of the verb include, for example,' including, '' including, '' including, '' including, Steps, operations, and / or elements do not preclude the presence or addition of one or more other compositions, components, components, steps, operations, and / or components.

본 명세서에서 '및/또는' 이라는 용어는 나열된 구성들 각각 또는 이들의 다양한 조합을 가리킨다.The term 'and / or' as used herein refers to each of the listed configurations or various combinations thereof.

한편, 본 명세서 전체에서 사용되는 '~부', '~기', '~블록', '~모듈' 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미할 수 있다. 예를 들어 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미할 수 있다. 그렇지만 '~부', '~기', '~블록', '~모듈' 등이 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '~부', '~기', '~블록', '~모듈'은 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '~부', '~기', '~블록', '~모듈'은 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 '~부', '~기', '~블록', '~모듈'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부', '~기', '~블록', '~모듈'들로 결합되거나 추가적인 구성요소들과 '~부', '~기', '~블록', '~모듈'들로 더 분리될 수 있다.
It should be noted that the terms such as '~', '~ period', '~ block', 'module', etc. used in the entire specification may mean a unit for processing at least one function or operation. For example, a hardware component, such as a software, FPGA, or ASIC. However, '~ part', '~ period', '~ block', '~ module' are not meant to be limited to software or hardware. Modules may be configured to be addressable storage media and may be configured to play one or more processors. ≪ RTI ID = 0.0 > Thus, by way of example, the terms 'to', 'to', 'to block', 'to module' may refer to components such as software components, object oriented software components, class components and task components Microcode, circuitry, data, databases, data structures, tables, arrays, and the like, as well as components, Variables. The functions provided in the components and in the sections ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~ ' , '~', '~', '~', '~', And '~' modules with additional components.

본 발명은 객체를 정의할 수 있는 정보 코드를 생성하는 방법에 관한 것이다. 기존의 객체 인식 방법은 특징점 추출, 디스크립터(Descriptor) 추출, 매칭 단계에 의해 이루어졌는데, 특징점 추출 시간에 비해 디스크립터를 추출하고 매칭하는 데 소요되는 시간이 매우 커서 모바일 환경에서 실시간 서비스를 제공하는데 적합하지 않았다. 하지만, 본 발명은 객체를 정보 코드로 정의하여 데이터베이스에 저장하고, 객체를 인식할 때 객체의 정보 코드와 데이터베이스에 저장된 정보 코드를 비교함으로써 객체의 인식 속도를 향상시킬 수 있다.The present invention relates to a method for generating an information code capable of defining an object. The existing object recognition method is performed by feature point extraction, descriptor extraction, and matching step. It takes a long time to extract and match the descriptor compared to the feature point extraction time, so it is suitable for providing real-time service in the mobile environment I did. However, according to the present invention, an object is defined as an information code and stored in a database, and when the object is recognized, the recognition speed of the object can be improved by comparing the information code of the object with the information code stored in the database.

도 1 내지 도 7은 본 발명의 실시예에 따른 객체의 이미지 코드화 방법을 설명하기 위한 도면이다.1 to 7 are views for explaining an image coding method of an object according to an embodiment of the present invention.

도 1에 도시된 것처럼, 본 발명의 실시예에 따른 객체의 이미지 코드화 방법은 객체의 특징점들을 추출하는 단계(S10), 추출된 특징점들 중에서 최적의 특징점을 선정하는 단계(S20) 및 특징점들을 이용하여 객체를 정의하는 정보 코드를 생성하는 단계(S30)를 포함한다.As shown in FIG. 1, an image encoding method of an object according to an embodiment of the present invention includes extracting feature points of an object (S10), selecting an optimal feature point among the extracted feature points (S20) And generating an information code (S30) for defining an object.

객체의 특징점들을 추출하는 단계(S10)는 기존의 SURF 알고리즘이나 FAST 알고리즘과 같은 특징점 추출 알고리즘에 의해 수행될 수 있다.Step S10 of extracting feature points of the object can be performed by a feature point extraction algorithm such as the existing SURF algorithm or FAST algorithm.

도 2를 참조하면, 객체의 이미지에서 특징점 추출 결과를 확인할 수 있다. 도 2에 ○표시된 부분이 객체의 특징점들이다.Referring to FIG. 2, a feature point extraction result can be confirmed from an image of an object. In Fig. 2, the marked portions are minutiae points of the object.

SURF 알고리즘이나 FAST 알고리즘은 객체에 존재하는 모든 특징점들을 추출해낸다. 본 발명에서는 객체 인식 효율을 높이기 위해서 추출된 특징점들 중에서 최적의 특징점을 선정하는 단계(S20)가 수행된다.The SURF algorithm or the FAST algorithm extracts all feature points present in the object. In the present invention, step S20 is performed to select an optimal feature point among the extracted feature points in order to increase object recognition efficiency.

추출된 특징점들 중에서 최적의 특징점을 선정하는 단계(S20)는 밀집되어 있는 특징점들을 분류하는 단계(S22) 및 분류된 특징점들 중에서 컬러 평균값에 가장 근접한 특징점을 선정하는 단계(S24)를 포함한다. 컬러 평균값이란, 특징점을 둘러싼 8개 점과 특징점의 RGB 값의 평균을 의미한다. 미리 지정된 갯수의 최적의 특징점을 선정하여 객체를 인식함으로써 객체 인식의 효율을 높일 수 있다.The step S20 of selecting the best feature point among the extracted feature points includes a step S22 of classifying the concentrated feature points and a step S24 of selecting feature points closest to the color mean value among the feature points. The color average value means an average of eight points surrounding the feature point and an RGB value of the feature point. It is possible to increase the efficiency of object recognition by recognizing objects by selecting a predetermined number of optimal feature points.

실시예에 따르면, 최적의 특징점은 4~8 개 선정될 수 있다.According to the embodiment, four to eight optimal feature points can be selected.

도 3을 참조하면, 도 2에 도시된 특징점들 중에서 최적의 특징점을 선정한 결과를 확인할 수 있다. 좌측 상단 5개의 특징점들 중에서 하나의 특징점이 최적의 특징점으로 선정되고, 좌측 하단 3개의 특징점들 중에서 하나의 특징점이 최적의 특징점으로 선정되며, 우측 상단의 하나의 특징점이 최적의 특징점으로 선정되었다.Referring to FIG. 3, the result of selecting the best feature point among the feature points shown in FIG. 2 can be confirmed. One of the five feature points on the upper left is selected as an optimal feature point, one of the three feature points on the lower left side is selected as an optimal feature point, and one feature point on the upper right side is selected as an optimal feature point.

특징점들을 이용하여 객체를 정의하는 정보 코드를 생성하는 단계(S30)는 특징점들 간의 거리를 산출하는 단계(S32), 특징점들 주위의 컬러 평균값을 산출하는 단계(S34), 이미지의 해상도, 객체 주변의 상황 정보, 특징점들의 분할 정보를 획득하는 단계(S36) 및 정보 코드 생성 단계를 포함한다.A step S30 of generating an information code for defining an object using the minutiae points includes a step S32 of calculating the distance between the minutiae points, a step S34 of calculating the color average value around the minutiae points, (S36) of obtaining the division information of the feature points, and an information code generation step.

특징점들 간의 거리를 산출하는 단계(S32)에서 특징점들 간의 거리는 이미지의 해상도를 이용하여 절대 거리로 산출될 수 있다. 특징점들 간의 거리는 정보 코드의 첫 번째 고유 필드이다. 상술한 것처럼, 최적의 특징점을 4~8개 선정하면, 특징점 간의 거리 조합의 수는 6~28개가 되어 빠르게 객체 인식을 위한 매칭을 수행할 수 있다.In the step S32 of calculating the distance between the minutiae points, the distance between the minutiae points can be calculated as an absolute distance using the resolution of the image. The distance between the minutiae points is the first unique field of the information code. As described above, when 4 to 8 optimal feature points are selected, the number of combinations of the distance between the feature points is 6 to 28, so matching for object recognition can be performed quickly.

실시예에 따르면, 1번 특징점과 2번 특징점 간의 거리는 "1-2 : 100" 형태로 데이터베이스에 저장될 수 있다.According to the embodiment, the distance between the first feature point and the second feature point may be stored in the database in the form of "1-2: 100 ".

도 4를 참조하면, 4개의 특징점들 간의 거리, 즉 6개의 특징점 간의 거리 정보가 산출된다.Referring to FIG. 4, the distance between four minutiae points, that is, distance information between six minutiae points is calculated.

특징점들 주위의 컬러 평균값을 산출하는 단계(S34)에서 특징점 주위의 컬러 평균값은 도 5에 도시된 것처럼 특징점과 특징점을 둘러싼 8개 점의 RGB 값의 평균을 이용하여 산출된다. 특징점 주위의 컬러 평균값은 정보 코드의 두 번째 고유 필드이다.In step S34 of calculating the color average value around the minutiae points, the color average value around the minutiae points is calculated using the average of the RGB values of the eight points surrounding the minutiae and the minutiae as shown in Fig. The color mean value around the minutiae is the second unique field of the information code.

실시예에 따르면, 특징점들 간의 거리와 특징점들 주위의 컬러 평균값을 이용하여 객체를 정의하는 정보 코드를 생성할 수 있다. 상기 두 가지 필드를 객체 인식에 활용함으로써 모바일 환경에서 실시간으로 객체 인식을 수행할 수 있다.According to an embodiment, an information code can be generated that defines an object using the distance between the minutiae and the color mean value around the minutiae. By using the two fields for object recognition, object recognition can be performed in real time in a mobile environment.

이미지의 해상도, 객체 주변의 상황 정보, 특징점들의 분할 정보를 획득하는 단계(S36)에서 이미지의 해상도는 획득한 객체의 이미지로부터 얻어질 수 있다.In step S36, the resolution of the image may be obtained from the image of the acquired object in the step of acquiring the resolution of the image, the context information of the object, and the division information of the minutiae points.

객체 주변의 상황 정보는 객체의 위치 정보를 포함할 수 있으며, 객체의 위치 정보는 GPS 등과 같은 위치 인식 장비에 의해 획득될 수 있다.The context information of the object may include position information of the object, and the position information of the object may be acquired by a position recognition device such as GPS.

특징점들의 분할 정보는 획득한 객체의 이미지에서 특징점들의 위치 정보를 포함하며, 특징점들의 위치 정보는 객체의 이미지를 미리 정해진 방법으로 분할하여 특징점들이 어떻게 분할되어 있는지를 확인하여 얻을 수 있다.The partition information of the feature points includes position information of the feature points in the acquired image of the object, and the position information of the feature points can be obtained by dividing the image of the object by a predetermined method to see how the feature points are divided.

실시예에 따르면, 특징점들의 분할 정보를 위한 객체의 이미지 분할은 8분할 또는 16분할에 의해 얻어질 수 있으며, 특징점들이 많이 분포되어 있는 순서대로 3개 분할 위치를 이용할 수 있다. 이를 통해, 불필요한 탐색 작업을 줄임으로써 보다 빠른 객체 인식이 가능해진다.According to the embodiment, the image segmentation of the object for the segmentation information of the minutiae points can be obtained by eight or sixteen segments, and three segmented positions can be used in the order in which the minutiae are distributed in large numbers. This enables faster object recognition by reducing unnecessary seeking operations.

도 6을 참조하면, 특징점이 추출된 이미지를 8분할한 결과를 확인할 수 있다. 도 6에서 특징점들이 많이 분포되어 있는 순서대로 3개의 분할 위치를 선택하면 3번, 7번, 1번 위치가 선택된다. 실시예에서, 특징점들의 분할 정보는 N_abc 형태로 저장될 수 있다. N은 분할의 수를 의미하며, abc는 특징점들이 많이 분포되어 있는 분할 위치를 의미한다. 따라서, 도 6의 경우 8_371 형태로 저장될 수 있다.Referring to FIG. 6, the result obtained by dividing the extracted feature point into 8 parts can be confirmed. In FIG. 6, when three divisional positions are selected in the order in which the minutiae are widely distributed, positions 3, 7, and 1 are selected. In an embodiment, the division information of the minutiae points may be stored in N_abc form. N means the number of divisions, and abc means a dividing position where many characteristic points are distributed. Therefore, in the case of FIG. 6, it can be stored in the form of 8_371.

정보 코드 생성 단계(S38)에서 정보 코드는 앞선 단계에서 산출한 특징점들, 특징점들 간의 거리, 특징점들 주위의 컬러 평균값, 이미지의 해상도, 객체 주변의 상황 정보, 특징점들의 분할 정보 중 적어도 하나 이상을 포함하도록 하여 생성될 수 있다. 상기 정보들은 예시적인 것으로, 필요에 따라 추가적인 정보를 더 포함하여 정보 코드를 생성할 수 있다.In the information code generation step S38, the information code includes at least one of minutiae calculated in the previous step, distance between minutiae points, color average value around minutiae points, resolution of image, As shown in FIG. The information is exemplary and may include additional information as needed to generate an information code.

도 7을 참조하면, 본 발명의 실시예에 따른 이미지 코드화 방법에 의해 생성된 정보 코드를 확인할 수 있다. 특징점 필드에는 4개의 최적의 특징점에 대한 x,y 좌표가 기록되고, 특징점 간의 거리 필드에는 1번 내지 4번의 특징점들 간의 거리가 기록되며, 특징점 컬러 평균값 필드에는 4개의 최적의 특징점에 대한 컬러 평균값이 기록된다. 해상도 필드에는 이미지의 해상도가 기록되며, 상황 정보 필드에는 객체의 위치 정보가 기록되며, 분할 정보 필드에는 분할의 수와 특징점이 많은 3개의 분할 위치 정보가 기록된다.Referring to FIG. 7, the information code generated by the image coding method according to the embodiment of the present invention can be confirmed. The x and y coordinates of the four optimal feature points are recorded in the feature point field, the distances between the feature points 1 to 4 are recorded in the distance field between the feature points, and the color average value of four optimal feature points Is recorded. In the resolution field, the resolution of the image is recorded. In the context information field, the position information of the object is recorded. In the division information field, three pieces of division position information having the number of division and the minutiae point are recorded.

상술한 방법에 의해 정보 코드가 생성된 객체들은 데이터베이스에 저장되며, 사용자가 객체를 인식할 때 사용될 수 있다.
Objects in which the information code is generated by the above method are stored in the database and can be used when the user recognizes the object.

도 8은 본 발명의 실시예에 따른 객체 인식 방법을 설명하기 위한 도면이다.8 is a view for explaining an object recognition method according to an embodiment of the present invention.

도 8에 도시된 것처럼, 본 발명의 실시예에 따른 객체 인식 방법은 객체의 특징점들을 추출하는 단계(S110), 특징점들을 이용하여 객체를 정의하는 정보 코드를 추출하는 단계(S120) 및 추출된 정보 코드를 이용하여 데이터베이스로부터 객체를 탐색하는 단계(S130)를 포함한다.As shown in FIG. 8, an object recognition method according to an embodiment of the present invention includes extracting feature points of an object (S110), extracting an information code defining an object using feature points (S120) And searching for an object from the database using the code (S130).

객체의 특징점들을 추출하는 단계(S110)는 도 1의 객체의 특징점들을 추출하는 단계(S10)와 유사하게 수행될 수 있다.Step S110 of extracting feature points of the object may be performed similarly to step (S10) of extracting feature points of the object of Fig.

특징점들을 이용하여 객체를 정의하는 정보 코드를 추출하는 단계(S120)는 도 1의 특징점들을 이용하여 객체를 정의하는 정보 코드를 생성하는 단계(S30)과 유사하게 수행될 수 있다. 즉, 정보 코드는 최적의 특징점들, 특징점들 간의 거리, 특징점들 주위의 컬러 평균값, 이미지의 해상도, 객체 주변의 상황 정보, 특징점들의 분할 정보 중 적어도 하나 이상을 포함할 수 있다.Step S120 of extracting an information code defining an object using the minutiae points may be performed similarly to step S30 of generating an information code defining an object using the minutiae of Fig. That is, the information code may include at least one of the optimum feature points, the distance between the feature points, the color average value around the feature points, the resolution of the image, the context information about the object, and the division information of the feature points.

추출된 정보 코드를 이용하여 데이터베이스로부터 객체를 탐색하는 단계(S130)는 객체 주변의 상황 정보를 이용하는 1차 필터링 단계(S131), 특징점들의 분할 정보를 이용하는 2차 필터링 단계(S132), 최적의 특징점을 비교하는 단계(S133), 특징점들 간의 거리를 비교하는 단계(S134) 및 특징점들 주위의 컬러 평균값을 비교하는 단계(S135)를 포함한다.Step S130 of searching an object from the database using the extracted information code includes a first filtering step S131 using context information around the object, a second filtering step using the division information of the feature points S132, (S133) comparing the distance between the minutiae points, a step (S134) comparing the distance between the minutiae points, and a step S135 comparing the color average values around the minutiae points.

데이터베이스에 저장된 많은 객체 정보들 중에서 객체의 위치 정보를 포함하는 객체 주변의 상황 정보를 통해 1차 필터링을 하고, 특징점들의 분할 정보를 통해 2차 필터링을 하여 보다 빠른 탐색이 가능하도록 할 수 있다.Among the many object information stored in the database, primary filtering is performed through the context information of the object including the object location information, and secondary filtering is performed through the partition information of the minutiae points, thereby enabling faster searching.

필터링이 수행된 후, 최적의 특징점, 특징점들 간의 거리와 특징점들 주위의 컬러 평균 값을 이용하여 매칭하고, 각각의 매칭율을 산출한다. 매칭율의 평균값이 기설정된 매칭율 보다 높은 경우 객체 인식을 성공한 것으로 판단하고, 매칭율의 평균값이 기설정된 매칭율 보다 낮은 경우 객체 인식을 실패한 것으로 판단한다. 기설정된 매칭율은 필요에 따라 다양하게 설정될 수 있다.
After the filtering is performed, matching is performed using the optimal feature points, the distance between the feature points, and the color average value around the feature points, and the matching rates are calculated. If the average value of the matching rate is higher than the predetermined matching rate, it is determined that the object recognition is successful. If the average value of the matching rate is lower than the predetermined matching rate, the object recognition is determined to be failed. The predetermined matching rate can be set variously as needed.

도 9은 본 발명의 실시예에 따른 객체 인식 장치(100)를 나타낸 것이다.FIG. 9 shows an object recognition apparatus 100 according to an embodiment of the present invention.

도 9에 도시된 것처럼, 본 발명의 실시예에 따른 객체 인식 장치(100)는 특징점 추출부(10), 정보 코드 생성부(20), 데이터베이스(30), 객체 인식부(40)를 포함한다. 상술한 객체의 이미지 코드화 방법 및 객체 인식 방법은 도 9에 도시된 객체 인식 장치(100)에 의해 수행될 수 있다.9, the object recognition apparatus 100 according to the embodiment of the present invention includes a feature point extraction unit 10, an information code generation unit 20, a database 30, and an object recognition unit 40 . The image encoding method and object recognition method of the object described above can be performed by the object recognition apparatus 100 shown in FIG.

특징점 추출부(10)는 객체의 특징점을 추출할 수 있다.The feature point extraction unit 10 can extract the feature points of the object.

정보 코드 생성부(20)는 거리 산출부(21), 컬러 평균값 산출부(22), 해상도 산출부(23), 위치 정보 인식부(24) 및 특징점 위치 분석부(25)를 포함한다.The information code generating section 20 includes a distance calculating section 21, a color average value calculating section 22, a resolution calculating section 23, a position information recognizing section 24 and a minutia point position analyzing section 25.

거리 산출부(21)는 특징점들 간의 거리를 산출할 수 있고, 컬러 평균값 산출부(22)는 특징점 주위의 컬러 평균값을 산출할 수 있다. 해상도 산출부(23)는 객체의 이미지의 해상도를 산출하며, 위치 정보 인식부(24)는 객체의 위치 정보를 획득할 수 있다. 실시예에 따르면, 위치 정보 인식부(24)는 GPS 장비를 포함할 수 있다. 특징점 위치 분석부(25)는 객체의 이미지를 분할하고, 특징점이 많이 분포된 분할 위치를 분석할 수 있다.The distance calculating unit 21 can calculate the distance between the minutiae points and the color average value calculating unit 22 can calculate the color average value around the minutiae. The resolution calculating unit 23 calculates the resolution of the image of the object, and the positional information recognizing unit 24 can obtain the positional information of the object. According to the embodiment, the location information recognizing unit 24 may include GPS equipment. The minutia point position analyzing unit 25 can divide the image of the object and analyze the split position where the minutiae are widely distributed.

데이터베이스(30)는 정보 코드 생성부(20)에 의해 생성된 객체의 정보 코드를 저장할 수 있다.The database 30 may store an information code of an object generated by the information code generating unit 20. [

객체 인식부(40)는 정보 코드 생성부(20)에 의해 생성된 객체의 정보 코드와 데이터베이스에 저장된 정보 코드를 비교하여 객체 인식을 수행할 수 있다.
The object recognition unit 40 can perform object recognition by comparing the information code of the object generated by the information code generation unit 20 with the information code stored in the database.

전술한 본 발명의 실시예에 따른 객체의 이미지 코드화 방법 및 객체 인식 방법은 컴퓨터에서 실행되기 위한 프로그램으로 제작되어 컴퓨터가 읽을 수 있는 기록 매체에 저장될 수 있다. 상기 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 저장 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장 장치 등이 있다.
The image encoding method and the object recognition method of an object according to an embodiment of the present invention can be stored in a computer-readable recording medium that is manufactured as a program to be executed in a computer. The computer-readable recording medium includes all kinds of storage devices in which data that can be read by a computer system is stored. Examples of the computer-readable recording medium include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage, and the like.

이상의 실시예들은 본 발명의 이해를 돕기 위하여 제시된 것으로, 본 발명의 범위를 제한하지 않으며, 이로부터 다양한 변형 가능한 실시예들도 본 발명의 범위에 속할 수 있음을 이해하여야 한다. 예를 들어, 본 발명의 실시예에 도시된 각 구성 요소는 분산되어 실시될 수도 있으며, 반대로 여러 개로 분산된 구성 요소들은 결합되어 실시될 수 있다. 따라서, 본 발명의 기술적 보호범위는 특허청구범위의 기술적 사상에 의해 정해져야 할 것이며, 본 발명의 기술적 보호범위는 특허청구범위의 문언적 기재 그 자체로 한정되는 것이 아니라 실질적으로는 기술적 가치가 균등한 범주의 발명에 대하여까지 미치는 것임을 이해하여야 한다.
It is to be understood that the above-described embodiments are provided to facilitate understanding of the present invention, and do not limit the scope of the present invention, and it is to be understood that various modifications may be made within the scope of the present invention. For example, each component shown in the embodiment of the present invention may be distributed and implemented, and conversely, a plurality of distributed components may be combined. Therefore, the technical protection scope of the present invention should be determined by the technical idea of the claims, and the technical protection scope of the present invention is not limited to the literary description of the claims, The invention of a category.

10: 특징점 추출부
20: 정보 코드 생성부
30: 데이터베이스
40: 객체 인식부
10: Feature point extraction unit
20: Information code generating section
30: Database
40: Object recognition unit

Claims (19)

객체의 특징점들을 추출하는 단계; 및
상기 특징점들을 이용하여 상기 객체를 정의하는 정보 코드를 생성하는 단계;
를 포함하며,
상기 정보 코드를 생성하는 단계는
상기 특징점들 간의 거리를 산출하는 단계;
를 포함하는 객체의 이미지 코드화 방법.
Extracting feature points of an object; And
Generating an information code defining the object using the minutiae points;
/ RTI >
The step of generating the information code
Calculating a distance between the minutiae points;
/ RTI >
제1항에 있어서,
상기 객체의 특징점들을 추출하는 단계 후에
추출된 상기 특징점들 중에서 최적의 특징점을 선정하는 단계;
를 더 포함하는 객체의 이미지 코드화 방법.
The method according to claim 1,
After extracting minutiae points of the object
Selecting optimal feature points from the extracted feature points;
The method comprising the steps of:
객체의 특징점들을 추출하는 단계;
추출된 상기 특징점들 중에서 최적의 특징점을 선정하는 단계; 및
상기 특징점들을 이용하여 상기 객체를 정의하는 정보 코드를 생성하는 단계;
를 포함하며,
상기 추출된 상기 특징점들 중에서 최적의 특징점을 선정하는 단계는
추출된 상기 특징점들 중에서 밀집되어 있는 특징점들을 분류하는 단계; 및
분류된 상기 밀집되어 있는 특징점들 중에서 컬러 평균 값에 가장 근접한 특징점을 상기 최적의 특징점으로 선정하는 단계;
를 포함하는 객체의 이미지 코드화 방법.
Extracting feature points of an object;
Selecting optimal feature points from the extracted feature points; And
Generating an information code defining the object using the minutiae points;
/ RTI >
Wherein the step of selecting an optimal feature point among the extracted feature points comprises:
Classifying the minutiae among the extracted minutiae; And
Selecting a feature point closest to the color average value among the classified feature points as the optimal feature point;
/ RTI >
삭제delete 제1항에 있어서,
상기 정보 코드를 생성하는 단계는
상기 특징점들 주위의 컬러 평균값을 산출하는 단계;
를 더 포함하는 객체의 이미지 코드화 방법.
The method according to claim 1,
The step of generating the information code
Calculating a color average value around the feature points;
The method comprising the steps of:
제5항에 있어서,
상기 특징점들 간의 거리 및 상기 특징점들 주위이 컬러 평균값을 이용하여 상기 객체의 정보 코드를 생성하는 단계;
를 더 포함하는 객체의 이미지 코드화 방법.
6. The method of claim 5,
Generating an information code of the object using a distance between the minutiae points and a color average value around the minutiae points;
The method comprising the steps of:
제5항에 있어서,
상기 정보 코드를 생성하는 단계는
이미지의 해상도, 상기 객체 주변의 상황 정보 및 상기 특징점들의 분할 정보 중 적어도 어느 하나를 획득하는 단계;
를 더 포함하는 객체의 이미지 코드화 방법.
6. The method of claim 5,
The step of generating the information code
Obtaining at least one of resolution of an image, context information of the object, and division information of the minutiae points;
The method comprising the steps of:
제7항에 있어서,
추출된 상기 객체의 특징점들, 상기 특징점들 간의 거리, 상기 특징점들 주위의 컬러 평균값, 상기 이미지의 해상도, 상기 객체 주변의 상황 정보 및 상기 특징점들의 분할 정보 중 적어도 둘 이상을 이용하여 상기 객체의 정보 코드를 생성하는 단계;
를 더 포함하는 객체의 이미지 코드화 방법.
8. The method of claim 7,
Using at least two or more of the extracted feature points of the object, the distance between the feature points, the color average value around the feature points, the resolution of the image, the context information about the object, Generating a code;
The method comprising the steps of:
객체의 특징점들을 추출하는 단계;
상기 특징점들을 이용하여 상기 객체를 정의하는 정보 코드를 추출하는 단계; 및
추출된 상기 정보 코드를 이용하여 이미지가 저장된 데이터베이스로부터 상기 객체를 탐색하는 단계;
를 포함하며,
상기 정보 코드를 생성하는 단계는
상기 특징점들 간의 거리를 산출하는 단계;
를 포함하는 객체 인식 방법.
Extracting feature points of an object;
Extracting an information code defining the object using the minutiae points; And
Searching the object from the database storing the image using the extracted information code;
/ RTI >
The step of generating the information code
Calculating a distance between the minutiae points;
/ RTI >
객체의 특징점들을 추출하는 단계;
상기 특징점들을 이용하여 상기 객체를 정의하는 정보 코드를 추출하는 단계; 및
추출된 상기 정보 코드를 이용하여 이미지가 저장된 데이터베이스로부터 상기 객체를 탐색하는 단계;
를 포함하며,
상기 정보 코드는
상기 객체의 최적의 특징점들, 상기 특징점들 간의 거리, 상기 특징점들 주위의 컬러 평균값, 상기 이미지의 해상도, 상기 객체 주변의 상황 정보 및 상기 특징점들의 분할 정보 중 적어도 둘 이상을 포함하는 객체 인식 방법.
Extracting feature points of an object;
Extracting an information code defining the object using the minutiae points; And
Searching the object from the database storing the image using the extracted information code;
/ RTI >
The information code
Wherein at least two of the optimal feature points of the object, the distance between the feature points, the color average value around the feature points, the resolution of the image, the context information about the object, and the division information of the feature points are included.
제10항에 있어서,
상기 추출된 상기 정보 코드를 이용하여 이미지가 저장된 데이터베이스로부터 상기 객체를 탐색하는 단계는
상기 객체 주변의 상황 정보를 이용하는 1차 필터링 단계;
상기 특징점들의 분할 정보를 이용하는 2차 필터링 단계;
상기 최적의 특징점들을 비교하는 단계;
상기 특징점들 간의 거리를 비교하는 단계; 및
상기 특징점들 주위의 컬러 평균값을 비교하는 단계;
를 포함하는 객체 인식 방법.
11. The method of claim 10,
The step of searching for the object from the database in which the image is stored using the extracted information code
A first filtering step using context information around the object;
A second filtering step using division information of the minutiae points;
Comparing the optimal feature points;
Comparing distances between the minutiae points; And
Comparing color mean values around the feature points;
/ RTI >
제1항 내지 제3항, 제5항 내지 제11항의 방법 중 어느 한 항의 방법을 수행하기 위한 프로그램을 기록한 기록 매체.
A recording medium on which a program for performing the method according to any one of claims 1 to 3 and 5 to 11 is recorded.
객체의 특징점들을 저장하는 특징점 필드;
상기 객체의 특징점들 간의 거리를 저장하는 특징점 거리 필드; 및
상기 특징점들 주위의 컬러 평균값을 저장하는 특징점 컬러 평균값 필드;
를 포함하여 정의되는 객체의 정보 코드.
A feature point field for storing feature points of an object;
A feature point distance field storing a distance between the feature points of the object; And
A feature point color average value field for storing a color mean value around the feature points;
The information code of the object to be defined, including.
제13항에 있어서,
이미지의 해상도를 저장하는 해상도 필드;
상기 객체 주변의 상황 정보를 저장하는 상황 정보 필드; 및
상기 객체의 특징점들의 분할 정보를 저장하는 분할 정보 필드;
를 더 포함하여 정의되는 객체의 정보 코드.
14. The method of claim 13,
A resolution field for storing the resolution of the image;
A context information field for storing context information about the object; And
A division information field for storing division information of the minutiae points of the object;
The information code of the object that is further defined.
입력된 객체의 이미지로부터 상기 객체의 특징점들을 추출하는 특징점 추출부; 및
추출된 상기 특징점들로부터 상기 객체를 정의하는 정보 코드를 생성하는 정보 코드 생성부;
를 포함하며,
상기 정보 코드 생성부는
추출된 상기 특징점들 간의 거리를 산출하는 거리 산출부;
를 포함하는 객체 인식 장치.
A feature point extracting unit for extracting feature points of the object from an image of an input object; And
An information code generating unit for generating an information code defining the object from the extracted minutiae;
/ RTI >
The information code generation unit
A distance calculating unit for calculating a distance between the extracted minutiae points;
The object recognition apparatus comprising:
입력된 객체의 이미지로부터 상기 객체의 특징점들을 추출하는 특징점 추출부; 및
추출된 상기 특징점들로부터 상기 객체를 정의하는 정보 코드를 생성하는 정보 코드 생성부;
를 포함하며,
상기 정보 코드 생성부는
상기 특징점들 주위의 컬러 평균값을 산출하는 컬러 평균값 산출부;
를 포함하는 객체 인식 장치.
A feature point extracting unit for extracting feature points of the object from an image of an input object; And
An information code generating unit for generating an information code defining the object from the extracted minutiae;
/ RTI >
The information code generation unit
A color average value calculation unit for calculating a color average value around the minutiae points;
The object recognition apparatus comprising:
제16항에 있어서,
상기 정보 코드 생성부는
상기 객체의 이미지의 해상도를 산출하는 해상도 산출부;
상기 객체의 위치 정보를 획득하는 위치 정보 인식부; 및
상기 객체의 이미지에서 상기 특징점들의 위치를 분석하는 특징점 위치 분석부;
를 더 포함하는 객체 인식 장치.
17. The method of claim 16,
The information code generation unit
A resolution calculating unit for calculating a resolution of an image of the object;
A position information recognition unit for acquiring position information of the object; And
A feature point position analyzer for analyzing the position of the feature points in the image of the object;
The object recognition apparatus comprising:
입력된 객체의 이미지로부터 상기 객체의 특징점들을 추출하는 특징점 추출부;
추출된 상기 특징점들로부터 상기 객체를 정의하는 정보 코드를 생성하는 정보 코드 생성부; 및
생성한 상기 정보 코드를 저장하는 데이터베이스;
를 포함하는 객체 인식 장치.
A feature point extracting unit for extracting feature points of the object from an image of an input object;
An information code generating unit for generating an information code defining the object from the extracted minutiae; And
A database storing the generated information codes;
The object recognition apparatus comprising:
제18항에 있어서,
상기 입력된 객체의 이미지를 상기 데이터베이스에서 탐색하는 객체 인식부;
를 더 포함하고,
상기 객체 인식부는 상기 입력된 객체의 이미지의 정보 코드와 상기 데이터베이스에 저장된 정보 코드를 비교하여 탐색하는 객체 인식 장치.
19. The method of claim 18,
An object recognition unit for searching an image of the input object in the database;
Further comprising:
Wherein the object recognition unit compares an information code of an image of the input object with an information code stored in the database and searches for the information code.
KR1020140000319A 2014-01-02 2014-01-02 Method for object recognition through image-code transformation KR101477051B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140000319A KR101477051B1 (en) 2014-01-02 2014-01-02 Method for object recognition through image-code transformation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140000319A KR101477051B1 (en) 2014-01-02 2014-01-02 Method for object recognition through image-code transformation

Publications (1)

Publication Number Publication Date
KR101477051B1 true KR101477051B1 (en) 2014-12-30

Family

ID=52680118

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140000319A KR101477051B1 (en) 2014-01-02 2014-01-02 Method for object recognition through image-code transformation

Country Status (1)

Country Link
KR (1) KR101477051B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102516091B1 (en) * 2021-11-26 2023-03-30 대한민국 Micr0pest image diagnosis device in greenhouse using tag and operation method thereof

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012083855A (en) * 2010-10-07 2012-04-26 Toyota Motor Corp Object recognition device and object recognition method
KR101244934B1 (en) * 2011-12-06 2013-03-19 경북대학교 산학협력단 Object recognition apparatus using codebook, object recognition method and computer-readable recording medium
KR20130091918A (en) * 2012-02-09 2013-08-20 한국전자통신연구원 Apparatus and method for recognizing object

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012083855A (en) * 2010-10-07 2012-04-26 Toyota Motor Corp Object recognition device and object recognition method
KR101244934B1 (en) * 2011-12-06 2013-03-19 경북대학교 산학협력단 Object recognition apparatus using codebook, object recognition method and computer-readable recording medium
KR20130091918A (en) * 2012-02-09 2013-08-20 한국전자통신연구원 Apparatus and method for recognizing object

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102516091B1 (en) * 2021-11-26 2023-03-30 대한민국 Micr0pest image diagnosis device in greenhouse using tag and operation method thereof

Similar Documents

Publication Publication Date Title
KR101729195B1 (en) System and Method for Searching Choreography Database based on Motion Inquiry
JP4553650B2 (en) Image group representation method, descriptor derived by representation method, search method, apparatus, computer program, and storage medium
KR101289085B1 (en) Images searching system based on object and method thereof
Dollár et al. Fast edge detection using structured forests
CN108229504B (en) Image analysis method and device
KR101636370B1 (en) Image processing apparatus and method
US8077930B2 (en) Method for recognizing content in an image sequence
Ejaz et al. Feature aggregation based visual attention model for video summarization
CN102222111B (en) Method for retrieving high-definition video content
US8504546B2 (en) Method and system for searching multimedia content
WO2007072947A1 (en) Image retrieval device and image retrieval method
CN111160243A (en) Passenger flow volume statistical method and related product
CN105069457B (en) Image recognition method and device
CN108563651B (en) Multi-video target searching method, device and equipment
CN112487886A (en) Method and device for identifying face with shielding, storage medium and terminal
CN114465737A (en) Data processing method and device, computer equipment and storage medium
CN109948450A (en) A kind of user behavior detection method, device and storage medium based on image
KR102468309B1 (en) Method for searching building based on image and apparatus for the same
CN105760844A (en) Video stream data processing method, apparatus and system
KR20120090101A (en) Digital video fast matching system using key-frame index method
US20160182769A1 (en) Apparatus and method for generating motion effects by analyzing motions of objects
US9836666B2 (en) High speed searching for large-scale image databases
KR101477051B1 (en) Method for object recognition through image-code transformation
JP6822484B2 (en) Information processing equipment, information processing methods and programs
CN106162222A (en) A kind of method and device of video lens cutting

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20171218

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20190114

Year of fee payment: 5