KR101477051B1 - 객체 인식을 위한 이미지 코드화 방법 - Google Patents

객체 인식을 위한 이미지 코드화 방법 Download PDF

Info

Publication number
KR101477051B1
KR101477051B1 KR1020140000319A KR20140000319A KR101477051B1 KR 101477051 B1 KR101477051 B1 KR 101477051B1 KR 1020140000319 A KR1020140000319 A KR 1020140000319A KR 20140000319 A KR20140000319 A KR 20140000319A KR 101477051 B1 KR101477051 B1 KR 101477051B1
Authority
KR
South Korea
Prior art keywords
feature points
information code
points
minutiae
information
Prior art date
Application number
KR1020140000319A
Other languages
English (en)
Inventor
김신덕
정현섭
Original Assignee
연세대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 연세대학교 산학협력단 filed Critical 연세대학교 산학협력단
Priority to KR1020140000319A priority Critical patent/KR101477051B1/ko
Application granted granted Critical
Publication of KR101477051B1 publication Critical patent/KR101477051B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 객체의 특징점들을 추출하는 단계 및 상기 특징점들을 이용하여 객체를 정의하는 정보 코드를 생성하는 단계를 포함하는 객체의 이미지 코드화 방법과 객체를 정의하는 정보 코드를 이용하여 객체를 인식하는 방법 및 이를 이용하는 객체 인식 장치에 관한 것이다.

Description

객체 인식을 위한 이미지 코드화 방법{METHOD FOR OBJECT RECOGNITION THROUGH IMAGE-CODE TRANSFORMATION}
본 발명은 객체 인식을 위한 이미지 코드화 방법에 관한 것이다.
최근 스마트 모바일 기기의 급속한 보급 및 무선 네트워크의 실용화에 따라, 정적인 서비스 뿐만 아니라 보다 실제적으로 체감할 수 있는 다양한 실감형의 서비스에 대한 요구가 급증하고 있다. 이러한 실감형 서비스를 위한 기술의 하나가 증강 현실인데, 증강 현실이란 현실의 이미지나 배경에 3차원의 가상 이미지를 겹쳐서 하나의 영상으로 보여주는 기술을 말한다.
증강 현실에 대한 연구에 비해 실제 증강 현실은 현실에서 잘 활용되지 않고 있다. 증강 현실이 잘 활용되지 못하는 가장 큰 이유 중에 하나는 실시간 서비스에 적합하지 않다는 것이다.
실시간 서비스에 이용되는 객체 인식 알고리즘으로 SURF, FAST 알고리즘 등이 사용되고 있는데, 스마트폰 환경에서 두 알고리즘의 객체 인식 성능은 1~4 fps(frame per sec) 불과하다. 사용자들이 실시간으로 서비스를 체감하기 위해서는 최소 10 fps의 성능이 보장되어야 하기 때문에 기존의 알고리즘으로는 실시간 서비스를 제공하기에 부적합하다.
따라서, 모바일 환경에서 실시간 체감형 서비스를 제공하기 위해서는 보다 빠르게 객체를 인식할 수 있는 방법이 필요하다.
본 발명의 목적은 모바일 환경에서 실시간으로 객체 인식을 하기 위해 객체의 이미지를 코드화하는 방법을 제공하는 데 있다.
본 발명의 기술적 과제는 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
본 발명의 실시예에 따른 객체의 이미지 코드화 방법은 객체의 특징점들을 추출하는 단계 및 상기 특징점들을 이용하여 상기 객체를 정의하는 정보 코드를 생성하는 단계를 포함할 수 있다.
실시예에 따르면, 상기 객체의 특징점들을 추출하는 단계 후에 추출된 상기 특징점들 중에서 최적의 특징점을 선정하는 단계를 더 포함할 수 있다.
실시예에 따르면, 상기 추출된 상기 특징점들 중에서 최적의 특징점을 선정하는 단계는 추출된 상기 특징점들 중에서 밀집되어 있는 특징점들을 분류하는 단계 및 분류된 상기 밀집되어 있는 특징점들 중에서 컬러 평균 값에 가장 근접한 특징점을 상기 최적의 특징점으로 선정하는 단계를 포함할 수 있다.
실시예에 따르면, 상기 정보 코드를 생성하는 단계는 상기 특징점들 간의 거리를 산출하는 단계를 포함할 수 있다.
실시예에 따르면, 상기 정보 코드를 생성하는 단계는 상기 특징점들 주위의 컬러 평균값을 산출하는 단계를 더 포함할 수 있다.
실시예에 따르면, 상기 특징점들 간의 거리 및 상기 특징점들 주위이 컬러 평균값을 이용하여 상기 객체의 정보 코드를 생성하는 단계를 더 포함할 수 있다.
실시예에 따르면, 상기 정보 코드를 생성하는 단계는 이미지의 해상도, 상기 객체 주변의 상황 정보 및 상기 특징점들의 분할 정보 중 적어도 어느 하나를 획득하는 단계를 더 포함할 수 있다.
실시예에 따르면, 추출된 상기 객체의 특징점들, 상기 특징점들 간의 거리, 상기 특징점들 주위의 컬러 평균값, 상기 이미지의 해상도, 상기 객체 주변의 상황 정보 및 상기 특징점들의 분할 정보 중 적어도 둘 이상을 이용하여 상기 객체의 정보 코드를 생성하는 단계를 더 포함할 수 있다.
본 발명의 실시예에 따른 객체 인식 방법은 객체의 특징점들을 추출하는 단계, 상기 특징점들을 이용하여 상기 객체를 정의하는 정보 코드를 추출하는 단계 및 추출된 상기 정보 코드를 이용하여 이미지가 저장된 데이터베이스로부터 상기 객체를 탐색하는 단계를 포함할 수 있다.
실시예에 따르면, 상기 정보 코드는 상기 객체의 최적의 특징점들, 상기 특징점들 간의 거리, 상기 특징점들 주위의 컬러 평균값, 상기 이미지의 해상도, 상기 객체 주변의 상황 정보 및 상기 특징점들의 분할 정보 중 적어도 둘 이상을 포함할 수 있다.
실시예에 따르면, 상기 추출된 상기 정보 코드를 이용하여 이미지가 저장된 데이터베이스로부터 상기 객체를 탐색하는 단계는 상기 객체 주변의 상황 정보를 이용하는 1차 필터링 단계, 상기 특징점들의 분할 정보를 이용하는 2차 필터링 단계, 상기 최적의 특징점들을 비교하는 단계, 상기 특징점들 간의 거리를 비교하는 단계 및 상기 특징점들 주위의 컬러 평균값을 비교하는 단계를 포함할 수 있다.
본 발명의 실시예에 따른 기록 매체는 상기 객체의 이미지 코드화 방법과 상기 객체 인식 방법을 수행하기 위한 프로그램을 기록할 수 있다.
본 발명의 실시예에 따른 객체의 정보 코드는 객체의 특징점들을 저장하는 특징점 필드, 상기 객체의 특징점들 간의 거리를 저장하는 특징점 거리 필드 및 상기 특징점들 주위의 컬러 평균값을 저장하는 특징점 컬러 평균값 필드를 포함하여 정의될 수 있다.
실시예에 따르면, 이미지의 해상도를 저장하는 해상도 필드, 상기 객체 주변의 상황 정보를 저장하는 상황 정보 필드 및 상기 객체의 특징점들의 분할 정보를 저장하는 분할 정보 필드를 더 포함할 수 있다.
본 발명의 실시예에 따른 객체 인식 장치는 입력된 객체의 이미지로부터 상기 객체의 특징점들을 추출하는 특징점 추출부 및 추출된 상기 특징점들로부터 상기 객체를 정의하는 정보 코드를 생성하는 정보 코드 생성부를 포함할 수 있다.
실시예에 따르면, 상기 정보 코드 생성부는 추출된 상기 특징점들 간의 거리를 산출하는 거리 산출부 및 상기 특징점들 주위의 컬러 평균값을 산출하는 컬러 평균값 산출부를 포함할 수 있다.
실시예에 따르면, 상기 정보 코드 생성부는 상기 객체의 이미지의 해상도를 산출하는 해상도 산출부, 상기 객체의 위치 정보를 획득하는 위치 정보 인식부 및 상기 객체의 이미지에서 상기 특징점들의 위치를 분석하는 특징점 위치 분석부를 더 포함할 수 있다.
실시예에 따르면, 생성한 상기 정보 코드를 저장하는 데이터베이스를 더 포함할 수 있다.
실시예에 따르면, 상기 입력된 객체의 이미지를 상기 데이터베이스에서 탐색하는 객체 인식부를 더 포함하고, 상기 객체 인식부는 상기 입력된 객체의 이미지의 정보 코드와 상기 데이터베이스에 저장된 정보 코드를 비교하여 탐색할 수 있다.
본 발명의 일 측면에 따르면, 객체의 이미지를 코드화하여 객체를 인식함으로써, 객체 인식에 필요한 시간을 줄일 수 있다.
본 발명의 일 측면에 따르면, 모바일 환경에서 실시간으로 객체를 인식할 수 있다.
본 발명의 효과가 상술한 효과들로 한정되는 것은 아니며, 언급되지 아니한 효과들은 본 명세서 및 첨부된 도면들로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확히 이해될 수 있을 것이다.
도 1은 본 발명의 실시예에 따른 객체의 이미지 코드화 방법을 설명하기 위한 도면이다.
도 2는 객체의 이미지에서 특징점 추출 결과를 나타낸 것이다.
도 3은 도 2에 도시된 특징점들 중에서 최적의 특징점을 선정한 결과를 나타낸 것이다.
도 4는 도 3에서 선정된 최적의 특징점들 간의 거리를 나타낸 것이다.
도 5는 특징점 주위의 컬러 평균값을 구하는 방법을 설명하기 위한 도면이다.
도 6은 특징점들의 분할 정보를 설명하기 위한 도면이다.
도 7은 본 발명의 실시예에 따른 이미지 코드화 방법에 의해 생성된 정보 코드를 나타낸 것이다.
도 8은 본 발명의 실시예에 따른 객체 인식 방법을 설명하기 위한 도면이다.
도 9은 본 발명의 실시예에 따른 객체 인식 장치를 나타낸 것이다.
본 발명의 다른 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술 되는 실시 예를 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시 예에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예는 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.
만일 정의되지 않더라도, 여기서 사용되는 모든 용어들(기술 혹은 과학 용어들을 포함)은 이 발명이 속한 종래 기술에서 보편적 기술에 의해 일반적으로 수용되는 것과 동일한 의미를 가진다. 일반적인 사전들에 의해 정의된 용어들은 관련된 기술 그리고/혹은 본 출원의 본문에 의미하는 것과 동일한 의미를 갖는 것으로 해석될 수 있고, 그리고 여기서 명확하게 정의된 표현이 아니더라도 개념화되거나 혹은 과도하게 형식적으로 해석되지 않을 것이다.
본 명세서에서 사용된 용어는 실시 예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 '포함한다' 및/또는 이 동사의 다양한 활용형들 예를 들어, '포함', '포함하는', '포함하고', '포함하며' 등은 언급된 조성, 성분, 구성요소, 단계, 동작 및/또는 소자는 하나 이상의 다른 조성, 성분, 구성요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다.
본 명세서에서 '및/또는' 이라는 용어는 나열된 구성들 각각 또는 이들의 다양한 조합을 가리킨다.
한편, 본 명세서 전체에서 사용되는 '~부', '~기', '~블록', '~모듈' 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미할 수 있다. 예를 들어 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미할 수 있다. 그렇지만 '~부', '~기', '~블록', '~모듈' 등이 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '~부', '~기', '~블록', '~모듈'은 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '~부', '~기', '~블록', '~모듈'은 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 '~부', '~기', '~블록', '~모듈'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부', '~기', '~블록', '~모듈'들로 결합되거나 추가적인 구성요소들과 '~부', '~기', '~블록', '~모듈'들로 더 분리될 수 있다.
본 발명은 객체를 정의할 수 있는 정보 코드를 생성하는 방법에 관한 것이다. 기존의 객체 인식 방법은 특징점 추출, 디스크립터(Descriptor) 추출, 매칭 단계에 의해 이루어졌는데, 특징점 추출 시간에 비해 디스크립터를 추출하고 매칭하는 데 소요되는 시간이 매우 커서 모바일 환경에서 실시간 서비스를 제공하는데 적합하지 않았다. 하지만, 본 발명은 객체를 정보 코드로 정의하여 데이터베이스에 저장하고, 객체를 인식할 때 객체의 정보 코드와 데이터베이스에 저장된 정보 코드를 비교함으로써 객체의 인식 속도를 향상시킬 수 있다.
도 1 내지 도 7은 본 발명의 실시예에 따른 객체의 이미지 코드화 방법을 설명하기 위한 도면이다.
도 1에 도시된 것처럼, 본 발명의 실시예에 따른 객체의 이미지 코드화 방법은 객체의 특징점들을 추출하는 단계(S10), 추출된 특징점들 중에서 최적의 특징점을 선정하는 단계(S20) 및 특징점들을 이용하여 객체를 정의하는 정보 코드를 생성하는 단계(S30)를 포함한다.
객체의 특징점들을 추출하는 단계(S10)는 기존의 SURF 알고리즘이나 FAST 알고리즘과 같은 특징점 추출 알고리즘에 의해 수행될 수 있다.
도 2를 참조하면, 객체의 이미지에서 특징점 추출 결과를 확인할 수 있다. 도 2에 ○표시된 부분이 객체의 특징점들이다.
SURF 알고리즘이나 FAST 알고리즘은 객체에 존재하는 모든 특징점들을 추출해낸다. 본 발명에서는 객체 인식 효율을 높이기 위해서 추출된 특징점들 중에서 최적의 특징점을 선정하는 단계(S20)가 수행된다.
추출된 특징점들 중에서 최적의 특징점을 선정하는 단계(S20)는 밀집되어 있는 특징점들을 분류하는 단계(S22) 및 분류된 특징점들 중에서 컬러 평균값에 가장 근접한 특징점을 선정하는 단계(S24)를 포함한다. 컬러 평균값이란, 특징점을 둘러싼 8개 점과 특징점의 RGB 값의 평균을 의미한다. 미리 지정된 갯수의 최적의 특징점을 선정하여 객체를 인식함으로써 객체 인식의 효율을 높일 수 있다.
실시예에 따르면, 최적의 특징점은 4~8 개 선정될 수 있다.
도 3을 참조하면, 도 2에 도시된 특징점들 중에서 최적의 특징점을 선정한 결과를 확인할 수 있다. 좌측 상단 5개의 특징점들 중에서 하나의 특징점이 최적의 특징점으로 선정되고, 좌측 하단 3개의 특징점들 중에서 하나의 특징점이 최적의 특징점으로 선정되며, 우측 상단의 하나의 특징점이 최적의 특징점으로 선정되었다.
특징점들을 이용하여 객체를 정의하는 정보 코드를 생성하는 단계(S30)는 특징점들 간의 거리를 산출하는 단계(S32), 특징점들 주위의 컬러 평균값을 산출하는 단계(S34), 이미지의 해상도, 객체 주변의 상황 정보, 특징점들의 분할 정보를 획득하는 단계(S36) 및 정보 코드 생성 단계를 포함한다.
특징점들 간의 거리를 산출하는 단계(S32)에서 특징점들 간의 거리는 이미지의 해상도를 이용하여 절대 거리로 산출될 수 있다. 특징점들 간의 거리는 정보 코드의 첫 번째 고유 필드이다. 상술한 것처럼, 최적의 특징점을 4~8개 선정하면, 특징점 간의 거리 조합의 수는 6~28개가 되어 빠르게 객체 인식을 위한 매칭을 수행할 수 있다.
실시예에 따르면, 1번 특징점과 2번 특징점 간의 거리는 "1-2 : 100" 형태로 데이터베이스에 저장될 수 있다.
도 4를 참조하면, 4개의 특징점들 간의 거리, 즉 6개의 특징점 간의 거리 정보가 산출된다.
특징점들 주위의 컬러 평균값을 산출하는 단계(S34)에서 특징점 주위의 컬러 평균값은 도 5에 도시된 것처럼 특징점과 특징점을 둘러싼 8개 점의 RGB 값의 평균을 이용하여 산출된다. 특징점 주위의 컬러 평균값은 정보 코드의 두 번째 고유 필드이다.
실시예에 따르면, 특징점들 간의 거리와 특징점들 주위의 컬러 평균값을 이용하여 객체를 정의하는 정보 코드를 생성할 수 있다. 상기 두 가지 필드를 객체 인식에 활용함으로써 모바일 환경에서 실시간으로 객체 인식을 수행할 수 있다.
이미지의 해상도, 객체 주변의 상황 정보, 특징점들의 분할 정보를 획득하는 단계(S36)에서 이미지의 해상도는 획득한 객체의 이미지로부터 얻어질 수 있다.
객체 주변의 상황 정보는 객체의 위치 정보를 포함할 수 있으며, 객체의 위치 정보는 GPS 등과 같은 위치 인식 장비에 의해 획득될 수 있다.
특징점들의 분할 정보는 획득한 객체의 이미지에서 특징점들의 위치 정보를 포함하며, 특징점들의 위치 정보는 객체의 이미지를 미리 정해진 방법으로 분할하여 특징점들이 어떻게 분할되어 있는지를 확인하여 얻을 수 있다.
실시예에 따르면, 특징점들의 분할 정보를 위한 객체의 이미지 분할은 8분할 또는 16분할에 의해 얻어질 수 있으며, 특징점들이 많이 분포되어 있는 순서대로 3개 분할 위치를 이용할 수 있다. 이를 통해, 불필요한 탐색 작업을 줄임으로써 보다 빠른 객체 인식이 가능해진다.
도 6을 참조하면, 특징점이 추출된 이미지를 8분할한 결과를 확인할 수 있다. 도 6에서 특징점들이 많이 분포되어 있는 순서대로 3개의 분할 위치를 선택하면 3번, 7번, 1번 위치가 선택된다. 실시예에서, 특징점들의 분할 정보는 N_abc 형태로 저장될 수 있다. N은 분할의 수를 의미하며, abc는 특징점들이 많이 분포되어 있는 분할 위치를 의미한다. 따라서, 도 6의 경우 8_371 형태로 저장될 수 있다.
정보 코드 생성 단계(S38)에서 정보 코드는 앞선 단계에서 산출한 특징점들, 특징점들 간의 거리, 특징점들 주위의 컬러 평균값, 이미지의 해상도, 객체 주변의 상황 정보, 특징점들의 분할 정보 중 적어도 하나 이상을 포함하도록 하여 생성될 수 있다. 상기 정보들은 예시적인 것으로, 필요에 따라 추가적인 정보를 더 포함하여 정보 코드를 생성할 수 있다.
도 7을 참조하면, 본 발명의 실시예에 따른 이미지 코드화 방법에 의해 생성된 정보 코드를 확인할 수 있다. 특징점 필드에는 4개의 최적의 특징점에 대한 x,y 좌표가 기록되고, 특징점 간의 거리 필드에는 1번 내지 4번의 특징점들 간의 거리가 기록되며, 특징점 컬러 평균값 필드에는 4개의 최적의 특징점에 대한 컬러 평균값이 기록된다. 해상도 필드에는 이미지의 해상도가 기록되며, 상황 정보 필드에는 객체의 위치 정보가 기록되며, 분할 정보 필드에는 분할의 수와 특징점이 많은 3개의 분할 위치 정보가 기록된다.
상술한 방법에 의해 정보 코드가 생성된 객체들은 데이터베이스에 저장되며, 사용자가 객체를 인식할 때 사용될 수 있다.
도 8은 본 발명의 실시예에 따른 객체 인식 방법을 설명하기 위한 도면이다.
도 8에 도시된 것처럼, 본 발명의 실시예에 따른 객체 인식 방법은 객체의 특징점들을 추출하는 단계(S110), 특징점들을 이용하여 객체를 정의하는 정보 코드를 추출하는 단계(S120) 및 추출된 정보 코드를 이용하여 데이터베이스로부터 객체를 탐색하는 단계(S130)를 포함한다.
객체의 특징점들을 추출하는 단계(S110)는 도 1의 객체의 특징점들을 추출하는 단계(S10)와 유사하게 수행될 수 있다.
특징점들을 이용하여 객체를 정의하는 정보 코드를 추출하는 단계(S120)는 도 1의 특징점들을 이용하여 객체를 정의하는 정보 코드를 생성하는 단계(S30)과 유사하게 수행될 수 있다. 즉, 정보 코드는 최적의 특징점들, 특징점들 간의 거리, 특징점들 주위의 컬러 평균값, 이미지의 해상도, 객체 주변의 상황 정보, 특징점들의 분할 정보 중 적어도 하나 이상을 포함할 수 있다.
추출된 정보 코드를 이용하여 데이터베이스로부터 객체를 탐색하는 단계(S130)는 객체 주변의 상황 정보를 이용하는 1차 필터링 단계(S131), 특징점들의 분할 정보를 이용하는 2차 필터링 단계(S132), 최적의 특징점을 비교하는 단계(S133), 특징점들 간의 거리를 비교하는 단계(S134) 및 특징점들 주위의 컬러 평균값을 비교하는 단계(S135)를 포함한다.
데이터베이스에 저장된 많은 객체 정보들 중에서 객체의 위치 정보를 포함하는 객체 주변의 상황 정보를 통해 1차 필터링을 하고, 특징점들의 분할 정보를 통해 2차 필터링을 하여 보다 빠른 탐색이 가능하도록 할 수 있다.
필터링이 수행된 후, 최적의 특징점, 특징점들 간의 거리와 특징점들 주위의 컬러 평균 값을 이용하여 매칭하고, 각각의 매칭율을 산출한다. 매칭율의 평균값이 기설정된 매칭율 보다 높은 경우 객체 인식을 성공한 것으로 판단하고, 매칭율의 평균값이 기설정된 매칭율 보다 낮은 경우 객체 인식을 실패한 것으로 판단한다. 기설정된 매칭율은 필요에 따라 다양하게 설정될 수 있다.
도 9은 본 발명의 실시예에 따른 객체 인식 장치(100)를 나타낸 것이다.
도 9에 도시된 것처럼, 본 발명의 실시예에 따른 객체 인식 장치(100)는 특징점 추출부(10), 정보 코드 생성부(20), 데이터베이스(30), 객체 인식부(40)를 포함한다. 상술한 객체의 이미지 코드화 방법 및 객체 인식 방법은 도 9에 도시된 객체 인식 장치(100)에 의해 수행될 수 있다.
특징점 추출부(10)는 객체의 특징점을 추출할 수 있다.
정보 코드 생성부(20)는 거리 산출부(21), 컬러 평균값 산출부(22), 해상도 산출부(23), 위치 정보 인식부(24) 및 특징점 위치 분석부(25)를 포함한다.
거리 산출부(21)는 특징점들 간의 거리를 산출할 수 있고, 컬러 평균값 산출부(22)는 특징점 주위의 컬러 평균값을 산출할 수 있다. 해상도 산출부(23)는 객체의 이미지의 해상도를 산출하며, 위치 정보 인식부(24)는 객체의 위치 정보를 획득할 수 있다. 실시예에 따르면, 위치 정보 인식부(24)는 GPS 장비를 포함할 수 있다. 특징점 위치 분석부(25)는 객체의 이미지를 분할하고, 특징점이 많이 분포된 분할 위치를 분석할 수 있다.
데이터베이스(30)는 정보 코드 생성부(20)에 의해 생성된 객체의 정보 코드를 저장할 수 있다.
객체 인식부(40)는 정보 코드 생성부(20)에 의해 생성된 객체의 정보 코드와 데이터베이스에 저장된 정보 코드를 비교하여 객체 인식을 수행할 수 있다.
전술한 본 발명의 실시예에 따른 객체의 이미지 코드화 방법 및 객체 인식 방법은 컴퓨터에서 실행되기 위한 프로그램으로 제작되어 컴퓨터가 읽을 수 있는 기록 매체에 저장될 수 있다. 상기 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 저장 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장 장치 등이 있다.
이상의 실시예들은 본 발명의 이해를 돕기 위하여 제시된 것으로, 본 발명의 범위를 제한하지 않으며, 이로부터 다양한 변형 가능한 실시예들도 본 발명의 범위에 속할 수 있음을 이해하여야 한다. 예를 들어, 본 발명의 실시예에 도시된 각 구성 요소는 분산되어 실시될 수도 있으며, 반대로 여러 개로 분산된 구성 요소들은 결합되어 실시될 수 있다. 따라서, 본 발명의 기술적 보호범위는 특허청구범위의 기술적 사상에 의해 정해져야 할 것이며, 본 발명의 기술적 보호범위는 특허청구범위의 문언적 기재 그 자체로 한정되는 것이 아니라 실질적으로는 기술적 가치가 균등한 범주의 발명에 대하여까지 미치는 것임을 이해하여야 한다.
10: 특징점 추출부
20: 정보 코드 생성부
30: 데이터베이스
40: 객체 인식부

Claims (19)

  1. 객체의 특징점들을 추출하는 단계; 및
    상기 특징점들을 이용하여 상기 객체를 정의하는 정보 코드를 생성하는 단계;
    를 포함하며,
    상기 정보 코드를 생성하는 단계는
    상기 특징점들 간의 거리를 산출하는 단계;
    를 포함하는 객체의 이미지 코드화 방법.
  2. 제1항에 있어서,
    상기 객체의 특징점들을 추출하는 단계 후에
    추출된 상기 특징점들 중에서 최적의 특징점을 선정하는 단계;
    를 더 포함하는 객체의 이미지 코드화 방법.
  3. 객체의 특징점들을 추출하는 단계;
    추출된 상기 특징점들 중에서 최적의 특징점을 선정하는 단계; 및
    상기 특징점들을 이용하여 상기 객체를 정의하는 정보 코드를 생성하는 단계;
    를 포함하며,
    상기 추출된 상기 특징점들 중에서 최적의 특징점을 선정하는 단계는
    추출된 상기 특징점들 중에서 밀집되어 있는 특징점들을 분류하는 단계; 및
    분류된 상기 밀집되어 있는 특징점들 중에서 컬러 평균 값에 가장 근접한 특징점을 상기 최적의 특징점으로 선정하는 단계;
    를 포함하는 객체의 이미지 코드화 방법.
  4. 삭제
  5. 제1항에 있어서,
    상기 정보 코드를 생성하는 단계는
    상기 특징점들 주위의 컬러 평균값을 산출하는 단계;
    를 더 포함하는 객체의 이미지 코드화 방법.
  6. 제5항에 있어서,
    상기 특징점들 간의 거리 및 상기 특징점들 주위이 컬러 평균값을 이용하여 상기 객체의 정보 코드를 생성하는 단계;
    를 더 포함하는 객체의 이미지 코드화 방법.
  7. 제5항에 있어서,
    상기 정보 코드를 생성하는 단계는
    이미지의 해상도, 상기 객체 주변의 상황 정보 및 상기 특징점들의 분할 정보 중 적어도 어느 하나를 획득하는 단계;
    를 더 포함하는 객체의 이미지 코드화 방법.
  8. 제7항에 있어서,
    추출된 상기 객체의 특징점들, 상기 특징점들 간의 거리, 상기 특징점들 주위의 컬러 평균값, 상기 이미지의 해상도, 상기 객체 주변의 상황 정보 및 상기 특징점들의 분할 정보 중 적어도 둘 이상을 이용하여 상기 객체의 정보 코드를 생성하는 단계;
    를 더 포함하는 객체의 이미지 코드화 방법.
  9. 객체의 특징점들을 추출하는 단계;
    상기 특징점들을 이용하여 상기 객체를 정의하는 정보 코드를 추출하는 단계; 및
    추출된 상기 정보 코드를 이용하여 이미지가 저장된 데이터베이스로부터 상기 객체를 탐색하는 단계;
    를 포함하며,
    상기 정보 코드를 생성하는 단계는
    상기 특징점들 간의 거리를 산출하는 단계;
    를 포함하는 객체 인식 방법.
  10. 객체의 특징점들을 추출하는 단계;
    상기 특징점들을 이용하여 상기 객체를 정의하는 정보 코드를 추출하는 단계; 및
    추출된 상기 정보 코드를 이용하여 이미지가 저장된 데이터베이스로부터 상기 객체를 탐색하는 단계;
    를 포함하며,
    상기 정보 코드는
    상기 객체의 최적의 특징점들, 상기 특징점들 간의 거리, 상기 특징점들 주위의 컬러 평균값, 상기 이미지의 해상도, 상기 객체 주변의 상황 정보 및 상기 특징점들의 분할 정보 중 적어도 둘 이상을 포함하는 객체 인식 방법.
  11. 제10항에 있어서,
    상기 추출된 상기 정보 코드를 이용하여 이미지가 저장된 데이터베이스로부터 상기 객체를 탐색하는 단계는
    상기 객체 주변의 상황 정보를 이용하는 1차 필터링 단계;
    상기 특징점들의 분할 정보를 이용하는 2차 필터링 단계;
    상기 최적의 특징점들을 비교하는 단계;
    상기 특징점들 간의 거리를 비교하는 단계; 및
    상기 특징점들 주위의 컬러 평균값을 비교하는 단계;
    를 포함하는 객체 인식 방법.
  12. 제1항 내지 제3항, 제5항 내지 제11항의 방법 중 어느 한 항의 방법을 수행하기 위한 프로그램을 기록한 기록 매체.
  13. 객체의 특징점들을 저장하는 특징점 필드;
    상기 객체의 특징점들 간의 거리를 저장하는 특징점 거리 필드; 및
    상기 특징점들 주위의 컬러 평균값을 저장하는 특징점 컬러 평균값 필드;
    를 포함하여 정의되는 객체의 정보 코드.
  14. 제13항에 있어서,
    이미지의 해상도를 저장하는 해상도 필드;
    상기 객체 주변의 상황 정보를 저장하는 상황 정보 필드; 및
    상기 객체의 특징점들의 분할 정보를 저장하는 분할 정보 필드;
    를 더 포함하여 정의되는 객체의 정보 코드.
  15. 입력된 객체의 이미지로부터 상기 객체의 특징점들을 추출하는 특징점 추출부; 및
    추출된 상기 특징점들로부터 상기 객체를 정의하는 정보 코드를 생성하는 정보 코드 생성부;
    를 포함하며,
    상기 정보 코드 생성부는
    추출된 상기 특징점들 간의 거리를 산출하는 거리 산출부;
    를 포함하는 객체 인식 장치.
  16. 입력된 객체의 이미지로부터 상기 객체의 특징점들을 추출하는 특징점 추출부; 및
    추출된 상기 특징점들로부터 상기 객체를 정의하는 정보 코드를 생성하는 정보 코드 생성부;
    를 포함하며,
    상기 정보 코드 생성부는
    상기 특징점들 주위의 컬러 평균값을 산출하는 컬러 평균값 산출부;
    를 포함하는 객체 인식 장치.
  17. 제16항에 있어서,
    상기 정보 코드 생성부는
    상기 객체의 이미지의 해상도를 산출하는 해상도 산출부;
    상기 객체의 위치 정보를 획득하는 위치 정보 인식부; 및
    상기 객체의 이미지에서 상기 특징점들의 위치를 분석하는 특징점 위치 분석부;
    를 더 포함하는 객체 인식 장치.
  18. 입력된 객체의 이미지로부터 상기 객체의 특징점들을 추출하는 특징점 추출부;
    추출된 상기 특징점들로부터 상기 객체를 정의하는 정보 코드를 생성하는 정보 코드 생성부; 및
    생성한 상기 정보 코드를 저장하는 데이터베이스;
    를 포함하는 객체 인식 장치.
  19. 제18항에 있어서,
    상기 입력된 객체의 이미지를 상기 데이터베이스에서 탐색하는 객체 인식부;
    를 더 포함하고,
    상기 객체 인식부는 상기 입력된 객체의 이미지의 정보 코드와 상기 데이터베이스에 저장된 정보 코드를 비교하여 탐색하는 객체 인식 장치.
KR1020140000319A 2014-01-02 2014-01-02 객체 인식을 위한 이미지 코드화 방법 KR101477051B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140000319A KR101477051B1 (ko) 2014-01-02 2014-01-02 객체 인식을 위한 이미지 코드화 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140000319A KR101477051B1 (ko) 2014-01-02 2014-01-02 객체 인식을 위한 이미지 코드화 방법

Publications (1)

Publication Number Publication Date
KR101477051B1 true KR101477051B1 (ko) 2014-12-30

Family

ID=52680118

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140000319A KR101477051B1 (ko) 2014-01-02 2014-01-02 객체 인식을 위한 이미지 코드화 방법

Country Status (1)

Country Link
KR (1) KR101477051B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102516091B1 (ko) * 2021-11-26 2023-03-30 대한민국 태그를 이용한 온실 내의 미소해충 이미지 진단 장치 및 그 동작 방법

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012083855A (ja) * 2010-10-07 2012-04-26 Toyota Motor Corp 物体認識装置及び物体認識方法
KR101244934B1 (ko) * 2011-12-06 2013-03-19 경북대학교 산학협력단 코드북을 이용한 객체 인식 장치, 객체 인식 방법 및 기록 매체
KR20130091918A (ko) * 2012-02-09 2013-08-20 한국전자통신연구원 오브젝트 인식 장치 및 방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012083855A (ja) * 2010-10-07 2012-04-26 Toyota Motor Corp 物体認識装置及び物体認識方法
KR101244934B1 (ko) * 2011-12-06 2013-03-19 경북대학교 산학협력단 코드북을 이용한 객체 인식 장치, 객체 인식 방법 및 기록 매체
KR20130091918A (ko) * 2012-02-09 2013-08-20 한국전자통신연구원 오브젝트 인식 장치 및 방법

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102516091B1 (ko) * 2021-11-26 2023-03-30 대한민국 태그를 이용한 온실 내의 미소해충 이미지 진단 장치 및 그 동작 방법

Similar Documents

Publication Publication Date Title
KR101729195B1 (ko) 질의동작기반 안무 검색 시스템 및 방법
JP4553650B2 (ja) 画像グループの表現方法および表現方法によって導出される記述子、探索方法、装置、コンピュータプログラム、ならびに記憶媒体
KR101289085B1 (ko) 객체 기반 영상 검색시스템 및 검색방법
Dollár et al. Fast edge detection using structured forests
US8077930B2 (en) Method for recognizing content in an image sequence
KR101636370B1 (ko) 영상 처리 장치 및 방법
Ejaz et al. Feature aggregation based visual attention model for video summarization
CN102222111B (zh) 一种高清视频内容检索方法
US8504546B2 (en) Method and system for searching multimedia content
CN114465737B (zh) 一种数据处理方法、装置、计算机设备及存储介质
WO2007072947A1 (ja) 画像検索装置および画像検索方法
CN111160243A (zh) 客流量统计方法及相关产品
CN105069457B (zh) 图像识别方法和装置
CN108563651B (zh) 一种多视频的目标搜索方法、装置及设备
CN112487886A (zh) 一种有遮挡的人脸识别方法、装置、存储介质及终端
CN109948450A (zh) 一种基于图像的用户行为检测方法、装置和存储介质
KR102468309B1 (ko) 영상 기반 건물 검색 방법 및 장치
CN105760844A (zh) 一种视频流数据的处理方法、设备和系统
KR20120090101A (ko) 디지털 비디오 고속 정합 시스템
US20160182769A1 (en) Apparatus and method for generating motion effects by analyzing motions of objects
CN106033613B (zh) 目标跟踪方法及装置
KR101477051B1 (ko) 객체 인식을 위한 이미지 코드화 방법
JP6822484B2 (ja) 情報処理装置、情報処理方法及びプログラム
CN106162222A (zh) 一种视频镜头切分的方法及装置
CN109033264B (zh) 视频分析方法及装置、电子设备和存储介质

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20171218

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20190114

Year of fee payment: 5