KR20150104857A - Object identification apparatus, method thereof and computer readable medium having computer program recorded therefor - Google Patents

Object identification apparatus, method thereof and computer readable medium having computer program recorded therefor Download PDF

Info

Publication number
KR20150104857A
KR20150104857A KR1020140026749A KR20140026749A KR20150104857A KR 20150104857 A KR20150104857 A KR 20150104857A KR 1020140026749 A KR1020140026749 A KR 1020140026749A KR 20140026749 A KR20140026749 A KR 20140026749A KR 20150104857 A KR20150104857 A KR 20150104857A
Authority
KR
South Korea
Prior art keywords
image
feature
region
feature information
information
Prior art date
Application number
KR1020140026749A
Other languages
Korean (ko)
Other versions
KR102203000B1 (en
Inventor
장언동
전혁준
신형철
전병기
Original Assignee
에스케이플래닛 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에스케이플래닛 주식회사 filed Critical 에스케이플래닛 주식회사
Priority to KR1020140026749A priority Critical patent/KR102203000B1/en
Priority to PCT/KR2014/010555 priority patent/WO2015133699A1/en
Publication of KR20150104857A publication Critical patent/KR20150104857A/en
Application granted granted Critical
Publication of KR102203000B1 publication Critical patent/KR102203000B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • G06V10/464Salient features, e.g. scale invariant feature transforms [SIFT] using a plurality of salient features, e.g. bag-of-words [BoW] representations

Abstract

The present invention discloses an apparatus for identifying an object, a method thereof, and a recording medium having a computer program recorded therefor. In other words, when learning a key point for identifying an object, the apparatus calculates feature information for an image by applying a feature pattern wherein a region is divided in the shape of a circle or a ring for the image and performs learning and object identification based on the calculated feature information, thereby improving a feature extracting performance for the object including a curved surface.

Description

객체 식별 장치, 그 방법 및 컴퓨터 프로그램이 기록된 기록매체{Object identification apparatus, method thereof and computer readable medium having computer program recorded therefor}BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an object identification apparatus, an object identification apparatus, a method thereof, and a recording medium on which a computer program is recorded.

본 발명은 객체 식별 장치, 그 방법 및 컴퓨터 프로그램이 기록된 기록매체에 관한 것으로, 특히 이미지에 대해서 원 또는 링의 형상으로 구역이 나누어진 특징 패턴을 적용하여 이미지에 대한 특징 정보를 산출하고, 산출된 특징 정보를 근거로 학습 및 객체 식별을 수행하는 객체 식별 장치, 그 방법 및 컴퓨터 프로그램이 기록된 기록매체에 관한 것이다.The present invention relates to an object identification apparatus, a method thereof, and a recording medium on which a computer program is recorded. More particularly, the present invention relates to a method and apparatus for calculating feature information on an image by applying a feature pattern, An object identification device for performing learning and object identification on the basis of the feature information, a method thereof, and a recording medium on which a computer program is recorded.

학습 방식 객체 식별은 이미지(또는 영상)로부터 획득되는 특징(또는 특징점)을 근거로 이루어지며, 각 특징을 다양한 형태의 디스크립터로 표현한다.Learning method Object identification is based on features (or feature points) obtained from an image (or image), and expresses each feature with various types of descriptors.

이러한 학습 방식 객체 식별은 하 라이크 피처(Harr-like feature) 방식을 이용하며, 해당 하 라이크 피처 방식은 사각형을 기준으로 구성되므로 대부분 곡면으로 이루어진 사람이나 차량 등의 물체(또는 객체)를 검색하기 위해서는 많은 트레이닝을 필요로 한다.This learning method object identification uses a Harr-like feature method. Since the corresponding halftone feature method is based on a quadrangle, in order to search an object (or object) such as a person or a vehicle It requires a lot of training.

한국등록특허 제10-0752251호 [명칭: 객체 선택 방법 및 시스템]Korean Patent No. 10-0752251 [Title: Object selection method and system]

본 발명의 목적은 이미지에 대해서 원 또는 링의 형상으로 구역이 나누어진 특징 패턴을 적용하여 이미지에 대한 특징 정보를 산출하는 객체 식별 장치, 그 방법 및 컴퓨터 프로그램이 기록된 기록매체를 제공하는 데 있다.An object of the present invention is to provide an object identifying device for calculating feature information on an image by applying a feature pattern in which regions are divided in the form of a circle or a ring for an image, a method thereof, and a recording medium on which a computer program is recorded .

본 발명의 다른 목적은 원 또는 링의 형상으로 구역이 나누어진 특징 패턴에 대해서 랜덤하게 미리 설정된(또는 배열된) 특징맵을 통해 이미지에 대한 특징 정보를 산출하는 객체 식별 장치, 그 방법 및 컴퓨터 프로그램이 기록된 기록매체를 제공하는 데 있다.Another object of the present invention is to provide an object identification device for calculating feature information on an image through a randomly preset (or arranged) feature map for a feature pattern divided into zones in the shape of a circle or a ring, And a recording medium on which the recording medium is recorded.

본 발명의 실시예에 따른 객체 식별 장치는 이미지에 대해 복수의 구역으로 나뉜 원형 또는 도넛형의 특징 패턴을 적용하고, 특징 패턴에 대응하는 미리 설정된 특징맵을 근거로 특징맵의 단위 항목에 포함된 구역들 중에서 미리 설정된 기준에 해당하는 구역을 선택하고, 특징맵에 포함된 복수의 단위 항목별로 각각 선택된 구역의 위치 정보를 이미지에서 특징 패턴이 위치한 영역의 이미지 특징 정보로 산출하는 제어부; 및 산출된 특징 패턴이 위치한 영역의 이미지 특징 정보를 저장하는 저장부를 포함할 수 있다.The object identification apparatus according to the embodiment of the present invention applies a circular or donut-shaped characteristic pattern divided into a plurality of zones to an image, and based on the preset characteristic map corresponding to the characteristic pattern, A control unit for selecting a zone corresponding to a preset reference among the zones and calculating position information of a zone selected for each of the plurality of unit items included in the feature map as image feature information of an area where the feature pattern is located in the image; And a storage unit for storing image feature information of an area where the calculated feature pattern is located.

본 발명과 관련된 일 예로서 미리 설정된 기준은 단위 항목에 대응한 구역들 중에서 가장 밝은 구역 또는 가장 어두운 구역일 수 있다.As an example related to the present invention, a preset reference may be the brightest or darkest zone among the zones corresponding to the unit item.

본 발명과 관련된 일 예로서 제어부는 특징맵에 포함된 복수의 단위 항목에 대해서 단위 항목별로 기준에 해당하는 구역을 선택하는 과정을 반복 수행할 수 있다.As an example related to the present invention, the controller may repeat the process of selecting a zone corresponding to a reference for each of a plurality of unit items included in the feature map.

본 발명과 관련된 일 예로서 제어부는, 특징 패턴이 위치한 영역의 이미지 특징 정보를 산출할 때, 복수의 단위 항목별로 각각 선택된 구역에 대응하는 특징 패턴의 구역 정보를 특징 패턴이 위치한 영역의 이미지 특징 정보로 산출할 수 있다.As an example related to the present invention, when calculating image feature information of a region in which a feature pattern is located, zone information of a feature pattern corresponding to a zone selected for each of the plurality of unit items is divided into image feature information .

본 발명과 관련된 일 예로서 제어부는 이미지 중 나머지 모든 영역에 대해서 원형 또는 도넛형의 특징 패턴을 슬라이딩하면서 적용하여, 전체 이미지의 복수의 영역에 대해서 복수의 영역별 이미지 특징 정보를 산출하고, 산출된 전체 이미지에 대한 복수의 영역별 이미지 특징 정보를 근거로 학습을 수행할 수 있다.As an example related to the present invention, the controller may apply a circular or donut-shaped feature pattern to all the remaining regions of the image while sliding, and calculate a plurality of region-specific image feature information for a plurality of regions of the entire image, Learning can be performed on the basis of a plurality of region-by-region image feature information for the entire image.

본 발명의 실시예에 따른 객체 식별 장치는 복수의 이미지에 대한 복수의 영역별 이미지 특징 정보를 저장하는 저장부; 및 이미지에 대해서 원형 또는 도넛형의 특징 패턴을 적용하여 산출된 복수의 영역별 이미지 특징 정보와 저장부에 저장된 복수의 이미지에 대한 각각의 복수의 영역별 이미지 특징 정보 간의 유사도를 확인하고, 확인된 유사도를 근거로 이미지 내에 목적으로 하는 객체의 존재 여부를 판단하는 제어부를 포함할 수 있다.An object identification apparatus according to an exemplary embodiment of the present invention includes a storage unit for storing a plurality of image feature information for each of a plurality of images; And a degree of similarity between a plurality of image feature information for each area calculated by applying a feature pattern of a circular or donut shape to the image and a plurality of image feature information for each region for a plurality of images stored in the storage unit, And a controller for determining whether the object exists in the image based on the similarity.

본 발명과 관련된 일 예로서 제어부는 확인된 유사도가 미리 설정된 기준값 이상인지 여부를 판단할 수 있다.As an example related to the present invention, the controller may determine whether the determined similarity degree is equal to or greater than a preset reference value.

본 발명과 관련된 일 예로서 제어부는, 확인된 유사도가 미리 설정된 기준값 이상일 때, 이미지 내에 목적으로 하는 객체의 존재 여부를 판단하고, 이미지 내에서 객체를 식별할 수 있다.As an example related to the present invention, when the identified similarity degree is equal to or greater than a preset reference value, the controller can determine whether or not a target object exists in the image and identify the object in the image.

본 발명과 관련된 일 예로서 제어부는, 확인된 유사도가 미리 설정된 기준값보다 작을 때, 이미지 내에 목적으로 하는 객체가 존재하지 않는 것으로 판단할 수 있다.As an example related to the present invention, when the determined similarity degree is smaller than a preset reference value, it can be determined that there is no object in the image.

본 발명의 실시예에 따른 객체 식별 방법은 제어부를 통해 이미지에 대해 복수의 구역으로 나뉜 원형 또는 도넛형의 특징 패턴을 적용하는 단계; 제어부를 통해 특징 패턴에 대응하는 미리 설정된 특징맵을 근거로 특징맵의 단위 항목에 포함된 구역들 중에서 미리 설정된 기준에 해당하는 구역을 선택하는 단계; 제어부를 통해 특징맵에 포함된 복수의 단위 항목별로 각각 선택된 구역의 위치 정보를 이미지에서 특징 패턴이 위치한 영역의 이미지 특징 정보로 산출하는 단계; 및 저장부에 산출된 특징 패턴이 위치한 영역의 이미지 특징 정보를 저장하는 단계를 포함할 수 있다.According to an embodiment of the present invention, there is provided a method for identifying an object, comprising: applying a feature pattern of a circle or a donut shape divided into a plurality of regions to an image through a control unit; Selecting a zone corresponding to a preset reference among the zones included in the unit item of the feature map based on a preset feature map corresponding to the feature pattern through the control unit; Calculating position information of a zone selected for each of the plurality of unit items included in the feature map through the control unit from the image as image feature information of the region where the feature pattern is located; And storing image feature information of an area in which the feature pattern calculated in the storage unit is located.

본 발명과 관련된 일 예로서 제어부를 통해 특징맵에 포함된 복수의 단위 항목에 대해서 단위 항목별로 기준에 해당하는 구역을 선택하는 과정을 반복 수행하는 단계; 제어부를 통해 이미지 중 나머지 모든 영역에 대해서 원형 또는 도넛형의 특징 패턴을 슬라이딩하면서 적용하여, 전체 이미지의 복수의 영역에 대해서 복수의 영역별 이미지 특징 정보를 산출하는 단계; 및 제어부를 통해 산출된 전체 이미지에 대한 복수의 영역별 이미지 특징 정보를 근거로 학습을 수행하는 단계;를 더 포함할 수 있다.As an example related to the present invention, there is provided a method for searching a feature map, the method comprising: repeatedly performing a process of selecting a region corresponding to a reference for each of a plurality of unit items included in a feature map through a controller; Calculating a plurality of image feature information for each of a plurality of regions of the entire image by applying a circular or toroidal feature pattern to all remaining regions of the image through a control unit; And performing a learning based on a plurality of image feature information for each region of the entire image calculated through the control unit.

본 발명과 관련된 일 예로서 이미지에서 특징 패턴이 위치한 영역의 이미지 특징 정보로 산출하는 단계는, 특징 패턴이 위치한 영역의 이미지 특징 정보를 산출할 때, 복수의 단위 항목별로 각각 선택된 구역에 대응하는 특징 패턴의 구역 정보를 특징 패턴이 위치한 영역의 이미지 특징 정보로 산출할 수 있다.The step of calculating image feature information of an area where the feature pattern is located in the image may include calculating a feature corresponding to a zone selected for each of the plurality of unit items, The zone information of the pattern can be calculated as the image feature information of the region where the feature pattern is located.

본 발명의 실시예에 따른 객체 식별 방법은 제어부를 통해 이미지에 대해서 원형 또는 도넛형의 특징 패턴을 적용하여 복수의 영역별 이미지 특징 정보를 산출하는 단계; 제어부를 통해 산출된 복수의 영역별 이미지 특징 정보와 저장부에 저장된 복수의 이미지에 대한 각각의 복수의 영역별 이미지 특징 정보 간의 유사도를 확인하는 단계; 및 제어부를 통해 확인된 유사도를 근거로 이미지 내에 목적으로 하는 객체의 존재 여부를 판단하는 단계를 포함할 수 있다.According to an embodiment of the present invention, there is provided a method for identifying an object, the method comprising: calculating a plurality of image feature information for each region by applying a circular or toroidal feature pattern to the image through a controller; Checking the similarity between a plurality of image feature information for each region calculated through the control unit and a plurality of image feature information for each region for a plurality of images stored in the storage unit; And determining whether a target object exists in the image based on the similarity determined through the control unit.

본 발명과 관련된 일 예로서 객체의 존재 여부를 판단하는 단계는, 제어부를 통해 확인된 유사도가 미리 설정된 기준값 이상인지 여부를 판단하는 과정; 판단 결과, 확인된 유사도가 미리 설정된 기준값 이상일 때, 제어부를 통해 이미지 내에 목적으로 하는 객체의 존재 여부를 판단하고, 이미지 내에서 객체를 식별하는 과정; 및 판단 결과, 확인된 유사도가 미리 설정된 기준값보다 작을 때, 제어부를 통해 영상 내에 목적으로 하는 객체가 존재하지 않는 것으로 판단하는 과정;을 포함할 수 있다.According to an embodiment of the present invention, the step of determining whether an object exists may include determining whether the degree of similarity determined through the control unit is equal to or greater than a preset reference value; Determining whether a target object exists in the image through the control unit when the determined similarity is equal to or greater than a preset reference value, and identifying the object in the image; And determining that the target object does not exist in the image through the control unit when the determined similarity is smaller than a preset reference value.

본 발명의 실시예에 따른 컴퓨터 프로그램이 기록된 기록매체에는 상술한 실시예에 따른 방법을 수행하는 컴퓨터 프로그램이 저장될 수 있다.A computer program for carrying out the method according to the above-described embodiment may be stored in the recording medium on which the computer program according to the embodiment of the present invention is recorded.

본 발명은 이미지에 대해서 원 또는 링의 형상으로 구역이 나누어진 특징 패턴을 적용하여 이미지에 대한 특징 정보를 산출함으로써, 곡면을 포함하는 객체에 대한 특징 추출 성능을 향상시키는 효과가 있다.The present invention has an effect of improving feature extraction performance for an object including a curved surface by calculating feature information on an image by applying a feature pattern in which regions are divided in a circle or ring shape with respect to the image.

또한, 본 발명은 원 또는 링의 형상으로 구역이 나누어진 특징 패턴에 대해서 랜덤하게 미리 설정된(또는 배열된) 특징맵을 통해 이미지에 대한 특징 정보를 산출함으로써, 곡면을 포함하는 객체의 식별 효율을 향상시키고, 한 번에 특징을 추출할 수 있는 영역이 넓어 빠른 처리를 수행하는 효과가 있다.Further, according to the present invention, feature information on an image is calculated through a feature map that is randomly preset (or arranged) with respect to a feature pattern divided into regions in the shape of a circle or a ring, And the area where the feature can be extracted at a time is wide, so that there is an effect of performing a fast process.

도 1은 본 발명의 실시예에 따른 객체 식별 장치의 구성을 나타낸 블록도이다.
도 2 내지 도 4는 본 발명의 실시예에 따른 특징 패턴의 예를 나타낸 도이다.
도 5는 본 발명의 실시예에 따른 특징맵의 예를 나타낸 도이다.
도 6은 본 발명의 실시예에 따른 특징맵과 특징 정보의 예를 나타낸 도이다.
도 7은 본 발명의 제 1 실시예에 따른 객체 식별 방법을 나타낸 흐름도이다.
도 8은 본 발명의 실시예에 따른 이미지를 나타낸 도이다.
도 9는 본 발명의 제 2 실시예에 따른 객체 식별 방법을 나타낸 흐름도이다.
1 is a block diagram illustrating a configuration of an object identification apparatus according to an embodiment of the present invention.
Figures 2 to 4 show FIG. 8 is a diagram illustrating an example of a feature pattern according to an embodiment of the present invention.
5 is a diagram illustrating an example of a feature map according to an embodiment of the present invention.
6 is a diagram illustrating an example of a feature map and feature information according to an embodiment of the present invention.
Figure 7 1 is a flowchart illustrating an object identification method according to a first embodiment of the present invention.
8 is a diagram illustrating an image according to an embodiment of the present invention.
9 is a cross- 5 is a flowchart illustrating an object identification method according to a second embodiment of the present invention.

본 발명에서 사용되는 기술적 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아님을 유의해야 한다. 또한, 본 발명에서 사용되는 기술적 용어는 본 발명에서 특별히 다른 의미로 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 의미로 해석되어야 하며, 과도하게 포괄적인 의미로 해석되거나, 과도하게 축소된 의미로 해석되지 않아야 한다. 또한, 본 발명에서 사용되는 기술적인 용어가 본 발명의 사상을 정확하게 표현하지 못하는 잘못된 기술적 용어일 때에는 당업자가 올바르게 이해할 수 있는 기술적 용어로 대체되어 이해되어야 할 것이다. 또한, 본 발명에서 사용되는 일반적인 용어는 사전에 정의되어 있는 바에 따라, 또는 전후 문맥상에 따라 해석되어야 하며, 과도하게 축소된 의미로 해석되지 않아야 한다.It is noted that the technical terms used in the present invention are used only to describe specific embodiments and are not intended to limit the present invention. In addition, the technical terms used in the present invention should be construed in a sense generally understood by a person having ordinary skill in the art to which the present invention belongs, unless otherwise defined in the present invention, Should not be construed to mean, or be interpreted in an excessively reduced sense. In addition, when a technical term used in the present invention is an erroneous technical term that does not accurately express the concept of the present invention, it should be understood that technical terms that can be understood by a person skilled in the art can be properly understood. In addition, the general terms used in the present invention should be interpreted according to a predefined or prior context, and should not be construed as being excessively reduced.

또한, 본 발명에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함한다. 본 발명에서 "구성된다" 또는 "포함한다" 등의 용어는 발명에 기재된 여러 구성 요소들 또는 여러 단계를 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다.Furthermore, the singular expressions used in the present invention include plural expressions unless the context clearly dictates otherwise. The term "comprising" or "comprising" or the like in the present invention should not be construed as necessarily including the various elements or steps described in the invention, Or may further include additional components or steps.

또한, 본 발명에서 사용되는 제 1, 제 2 등과 같이 서수를 포함하는 용어는 구성 요소들을 설명하는데 사용될 수 있지만, 구성 요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제 1 구성 요소는 제 2 구성 요소로 명명될 수 있고, 유사하게 제 2 구성 요소도 제 1 구성 요소로 명명될 수 있다.Furthermore, terms including ordinals such as first, second, etc. used in the present invention can be used to describe elements, but the elements should not be limited by terms. Terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component.

이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성 요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings, wherein like reference numerals refer to like or similar elements throughout the several views, and redundant description thereof will be omitted.

또한, 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 발명의 사상을 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 발명의 사상이 제한되는 것으로 해석되어서는 아니 됨을 유의해야 한다.In the following description, well-known functions or constructions are not described in detail since they would obscure the invention in unnecessary detail. It is to be noted that the accompanying drawings are only for the purpose of facilitating understanding of the present invention, and should not be construed as limiting the scope of the present invention with reference to the accompanying drawings.

도 1은 본 발명의 실시예에 따른 객체 식별 장치(10)의 구성을 나타낸 블록도이다.1 is a block diagram showing the configuration of an object identifying apparatus 10 according to an embodiment of the present invention.

도 1에 도시된 바와 같이, 객체 식별 장치(10)는 저장부(100) 및 제어부(200)로 구성된다. 도 1에 도시된 객체 식별 장치(10)의 구성 요소 모두가 필수 구성 요소인 것은 아니며, 도 1에 도시된 구성 요소보다 많은 구성 요소에 의해 객체 식별 장치(10)가 구현될 수도 있고, 그보다 적은 구성 요소에 의해서도 객체 식별 장치(10)가 구현될 수도 있다.As shown in FIG. 1, the object identification apparatus 10 includes a storage unit 100 and a control unit 200. Not all of the components of the object identification apparatus 10 shown in Fig. 1 are essential components, and the object identification apparatus 10 may be implemented by more components than the components shown in Fig. 1, The object identifying device 10 may also be implemented by a component.

제어부(200)는 이미지(또는 영상)에 대해 복수의 구역으로 나뉜 원형 또는 도넛형(또는 링형)의 특징 패턴을 적용한다. 이후, 제어부(200)는 특징 패턴에 대응하여 미리 설정된 특징맵에 포함된 단위 항목에 해당하는 구역들 중에서 미리 설정된 기준에 해당하는 구역을 선택한다. 이후, 제어부(200)는 복수의 단위 항목별로 각각 선택되는 복수의 구역의 위치 정보를 이미지에서 특징 패턴이 위치한 영역의 이미지 특징 정보로 산출한다. 또한, 제어부(200)는 이미지 중 나머지 모든 영역에 대해서도 복수의 구역으로 나뉜 원형 또는 도넛형(또는 링형)의 특징 패턴을 슬라이딩하면서 적용하여 전체 원본 이미지의 복수의 영역에 대해서 각각 이미지 특징 정보(또는 복수의 영역별 이미지 특징 정보)를 산출한다. 이후, 제어부(200)는 산출된 원본 이미지에 대한 복수의 영역별 이미지 특징 정보를 근거로 학습을 한다. 또한, 제어부(200)는 미리 학습된 복수의 이미지에 대한 복수의 영역별 이미지 특징 정보를 근거로 다른 이미지로부터 산출된 복수의 영역별 이미지 특징 정보에 대한 객체 식별 기능을 수행한다.The control unit 200 applies a circular or toroidal (or ring-like) feature pattern divided into a plurality of regions to an image (or image). Thereafter, the controller 200 selects a region corresponding to a preset reference among the regions corresponding to the unit items included in the feature map that is set in advance in correspondence with the feature pattern. Then, the controller 200 calculates the position information of the plurality of zones, which are selected for each of the plurality of unit items, as the image feature information of the region where the feature pattern is located in the image. In addition, the control unit 200 slides and applies a circular or donut-shaped (or ring-like) feature pattern divided into a plurality of regions to all the remaining regions of the image, A plurality of image feature information for each area). Thereafter, the control unit 200 learns based on the plurality of image feature information for each region of the original image. In addition, the control unit 200 performs an object identification function for a plurality of image feature information for each region calculated from other images based on the plurality of image characteristic information for each region of the plurality of learned images.

저장부(100)는 사용자 인터페이스(UI), 그래픽 사용자 인터페이스(GUI) 등을 저장한다.The storage unit 100 stores a user interface (UI), a graphical user interface (GUI), and the like.

또한, 저장부(100)는 객체 식별 장치(10)가 동작하는데 필요한 데이터와 프로그램 등을 저장한다.In addition, the storage unit 100 stores data and programs necessary for the object identification apparatus 10 to operate.

또한, 저장부(100)는 객체 식별 장치(10)에 포함된 입력부(미도시)(또는 카메라(미도시))를 통해 촬영되는 영상(또는 이미지), 객체 식별 장치(10)에 포함된 통신부(미도시)를 통해 수신되는 영상 등을 저장한다.The storage unit 100 stores an image (or an image) captured through an input unit (not shown) (or a camera (not shown)) included in the object identification apparatus 10, (Not shown), and the like.

또한, 저장부(100)는 복수의 구역으로 나뉜 원형 또는 도넛형(또는 링형)의 특징 패턴, 해당 특징 패턴에 대응하는 미리 설정된 특징맵, 해당 특징맵에 포함되는 복수의(또는 하나 이상의) 단위 항목, 해당 단위 항목에 포함되는 원형 또는 도넛형의 특징 패턴에 포함된 복수의 구역 중에서 선택되는 하나 이상의 구역 정보 등을 저장한다. 여기서, 원형 또는 도넛형의 특징 패턴은 서로 다른 크기의 복수의 원본 이미지에 대해서 각각의 특징 정보를 산출할 수 있도록 설계자의 설계에 따라 다양한 크기로 설정할 수 있다.The storage unit 100 stores a feature pattern of a circular or toroidal shape (or ring shape) divided into a plurality of zones, a preset feature map corresponding to the feature pattern, a plurality of (or more) Item, one or more zone information selected from a plurality of zones included in a characteristic pattern of a circle or a donut included in the unit item, and the like. Here, the circular or toroidal feature patterns can be set to various sizes according to the designer's design so that the feature information can be calculated for a plurality of original images of different sizes.

또한, 저장부(100)는 제어부(200)의 제어에 의해 생성되는 이미지에 대한 복수의 영역별 이미지 특징 정보, 학습 결과, 식별된(또는 인식된) 객체 정보 등을 저장한다.Also, the storage unit 100 stores a plurality of image feature information, a learning result, an identified (or recognized) object information for an image generated by the control unit 200, and the like.

제어부(200)는 객체 식별 장치(10)의 전반적인 제어 기능을 실행한다.The control unit 200 executes the overall control function of the object identification device 10. [

또한, 제어부(200)는 저장부(100)에 미리 저장된 이미지(또는 영상) 또는 통신부나 입력부를 통해 수신되는 이미지에 대해서 복수의 구역으로 나뉜 원형 또는 도넛형(또는 링형)의 특징 패턴을 적용한다.The controller 200 also applies a circular or donut-shaped (or ring-shaped) feature pattern divided into a plurality of regions to an image (or image) stored in the storage unit 100 or an image received through the communication unit or the input unit .

즉, 도 2에 도시된 바와 같이, 제어부(200)는 이미지에 대해서 원형의 특징 패턴(210)을 적용한다. 이때, 특징 패턴은 도 2에 도시된 원형뿐만 아니라, 도 3에 도시된 도넛형(310), 도 4에 도시된 이중 도넛형(410) 등과 같이, 설계자의 설계에 따라 곡선이 포함된 도형으로 다양하게 설계 변경하여 설정할 수도 있다.That is, as shown in FIG. 2, the controller 200 applies a circular feature pattern 210 to an image. At this time, the feature pattern is not limited to the circle shown in FIG. 2, but may be a figure including a curve according to the designer's design, such as the donut shape 310 shown in FIG. 3, the double donut shape 410 shown in FIG. It is possible to design and change variously.

또한, 제어부(200)는 해당 특징 패턴에 대응하는 특징맵을 설정한다. 여기서, 해당 특징맵은 이미지에 대한 특징 정보를 추출하기 위해서 다른 객체 식별 장치들 간에 상호 공유될 수 있다. 또한, 객체 식별 장치(10)에서 사용되는 특징맵은 다른 객체 식별 장치로부터 제공받은(공유된) 특징맵일 수도 있다.Also, the control unit 200 sets a feature map corresponding to the feature pattern. Here, the feature map may be mutually shared among different object identification devices in order to extract feature information on the image. In addition, the feature map used in the object identifying apparatus 10 may be a feature map provided (shared) from another object identifying apparatus.

또한, 도 5에 도시된 바와 같이, 해당 특징맵(500)은 복수의(또는 하나 이상의) 단위 항목(510)을 포함한다. 여기서, 각각의 단위 항목(510)은 복수의 구역(511, 512, 513)으로 나뉘며, 각 구역(511, 512, 513)에는 원형 또는 도넛형의 특징 패턴에 포함된 복수의 구역 중에서 선택되는 구역 정보가 할당(또는 설정)(521, 522, 523)된다. 이때, 특징맵에 포함되는 단위 항목의 수와 해당 단위 항목에 포함되는 구역의 수는 설계자의 설계에 따라 다양하게 설정할 수 있다.Also, as shown in FIG. 5, the feature map 500 includes a plurality of (or more) unit items 510. Here, each unit item 510 is divided into a plurality of zones 511, 512, and 513, and each zone 511, 512, and 513 includes a zone selected from a plurality of zones included in a circular or donut- (Or settings) 521, 522, and 523. At this time, the number of unit items included in the feature map and the number of zones included in the unit item can be variously set according to the designer's design.

또한, 제어부(200)는 해당 특징 패턴에 대응하는 미리 설정된 특징맵을 근거로 특징맵에 포함된 단위 항목에 해당하는 구역들 중에서 미리 설정된 기준에 해당하는(또는 적합한/만족하는) 구역을 선택한다. 여기서, 미리 설정된 기준은 단위 항목에 포함된 구역들 중에서 가장 밝은 영역 또는 가장 어두운 영역인지 여부를 확인하는 정보를 포함한다. 이때, 단위 항목이 복수인 경우, 제어부(200)는 복수의 단위 항목에 대해서 각각 미리 설정된 기준에 해당하는 구역을 선택하는 과정을 반복 수행한다.In addition, the controller 200 selects a zone corresponding to a preset reference (or appropriate / satisfactory) among the zones corresponding to the unit items included in the feature map, based on a preset feature map corresponding to the feature pattern . Here, the preset reference includes information for confirming whether the region is the brightest region or the darkest region among the regions included in the unit item. At this time, when there are a plurality of unit items, the control unit 200 repeatedly performs a process of selecting a zone corresponding to a preset reference for each of a plurality of unit items.

즉, 도 6에 도시된 바와 같이, 제어부(200)는 5개의 단위 항목 중에서 미리 설정된 기준인 가장 밝은 영역(또는 가장 어두운 영역)에 해당되는 구역(611, 612, 613, 614, 615)을 선택한다.6, the controller 200 selects the regions 611, 612, 613, 614, and 615 corresponding to the brightest region (or the darkest region) do.

또한, 제어부(200)는 복수의(또는 하나 이상의) 단위 항목 중에서 각각 선택된 구역의 위치 정보를 해당 특징 패턴이 위치한 영역의 이미지 특징 정보로 산출(또는 설정)한다.In addition, the control unit 200 calculates (or sets) the position information of each of the plurality of (or more than one) unit items as the image feature information of the region where the feature pattern is located.

즉, 도 6에 도시된 바와 같이, 제어부(200)는 5개의 단위 항목 중에서 각각 선택된 구역(예를 들어 각 단위 항목별로 빗금 친 구역/영역)의 위치 정보(620)를 해당 특징 패턴이 위치한 영역의 이미지 특징 정보로 산출한다.That is, as shown in FIG. 6, the controller 200 determines the position information 620 of each of the five unit items (for example, the area / area hatched by each unit item) As shown in Fig.

또한, 본 발명의 실시예에서는, 해당 특징 패턴이 위치한 영역의 이미지 특징 정보가 단위 항목 중에서 각각 선택된 구역이 위치하는 위치 정보들의 조합인 것으로 설명하고 있으나, 이에 한정되는 것은 아니며, 해당 특징 패턴이 위치한 영역의 이미지 특징 정보는 단위 항목 중에서 각각 선택된 구역에 대응하는 특징 패턴의 구역 정보들의 조합일 수도 있다.In the embodiment of the present invention, it is described that the image feature information of the region in which the feature pattern is located is a combination of position information in which each selected region of the unit item is located. However, the present invention is not limited thereto. The image feature information of the region may be a combination of region information of the feature pattern corresponding to each selected region of the unit items.

즉, 도 6에 도시된 첫 번째 단위 항목에 포함된 (0, 2, 5)의 구역 중에서 가장 밝은 영역(또는 가장 어두운 영역)에 해당하는 특징 패턴의 5 구역을 선택하고, 두 번째 단위 항목에 포함된 (1, 4, 7)의 구역 중에서 가장 밝은 영역에 해당하는 특징 패턴의 1 구역을 선택하고, 세 번째 단위 항목에 포함된 (2, 3, 6)의 구역 중에서 가장 밝은 영역에 해당하는 특징 패턴의 3 구역을 선택하고, 네 번째 단위 항목에 포함된 (4, 6, 7)의 구역 중에서 가장 밝은 영역에 해당하는 특징 패턴의 6 구역을 선택하고, 다섯 번째 단위 항목에 포함된 (0, 3, 5)의 구역 중에서 가장 밝은 영역에 해당하는 특징 패턴의 5 구역이 선택된 상태에서, 제어부(200)는 5개의 단위 항목 중에서 각각 선택된 특징 패턴의 구역 정보(예를 들어 5 구역, 1 구역, 3 구역, 6 구역, 5 구역)인 '51365'를 해당 원형의 특징 패턴이 위치한 일부 영역의 이미지 특징 정보로 산출할 수도 있다.That is, five regions of the feature pattern corresponding to the brightest region (or the darkest region) among the regions of (0, 2, 5) included in the first unit item shown in FIG. 6 are selected, A region of the feature pattern corresponding to the brightest region among the regions of (1, 4, 7) included is selected, and a region corresponding to the brightest region among the regions of (2, 3, 6) 6 zones of the feature pattern corresponding to the brightest region among the zones of (4, 6, 7) included in the fourth unit item are selected and the 6 zones of the feature pattern corresponding to the The controller 200 selects one of the five unit patterns, that is, the zone information of the selected feature pattern (for example, five zones, one zone , 3 zone, 6 zone, 5 zone), the corresponding circle The features in the pattern may be calculated by the image feature information of the partial region.

또한, 제어부(200)는 이미지 중 나머지 모든 영역에 대해서도 해당 원형 또는 도넛형의 특징 패턴을 슬라이딩하면서 적용하여, 전체 원본 이미지의 복수의 영역에 대해서 각각 이미지 특징 정보(또는 복수의 영역별 이미지 특징 정보)를 산출(또는 추출/설정)한다.In addition, the control unit 200 slides and applies a feature pattern of a corresponding circle or donut shape to all the remaining regions of the image, and applies the feature pattern to the plurality of regions of the entire original image, ) (Or extracts / sets).

또한, 제어부(200)는 산출된 원본 이미지에 대한 복수의 영역별 이미지 특징 정보를 저장부(100)에 저장한다.In addition, the control unit 200 stores a plurality of image feature information for each region of the original image in the storage unit 100.

또한, 제어부(200)는 산출된 이미지에 대한 복수의 영역별 이미지 특징 정보를 근거로 학습을 한다. 이때, 해당 이미지의 경우, 제어부(200)는 미리 설정된 복수의 서로 다른 크기로 정규화한 후, 정규화된 복수의 이미지 각각에 대해서 복수의 영역별 이미지 특정 정보를 산출할 수도 있다.In addition, the controller 200 learns based on a plurality of image characteristic information for each area of the calculated image. At this time, in the case of the corresponding image, the control unit 200 may normalize the image to a plurality of predetermined sizes, and then calculate a plurality of image-specific image-specific information for each of the plurality of normalized images.

또한, 제어부(200)는 산출된 복수의 이미지 각각에 대한 복수의 영역별 이미지 특징 정보를 근거로 학습을 수행할 수도 있다.In addition, the controller 200 may perform learning based on a plurality of image feature information for each of the plurality of images.

또한, 제어부(200)는 학습 결과를 저장부(100)에 저장한다.In addition, the control unit 200 stores the learning result in the storage unit 100. [

또한, 제어부(200)는 저장부(100)에 미리 저장된 다른 이미지(또는 영상) 또는 통신부(미도시)나 입력부(미도시)를 통해 수신되는 다른 이미지에 대해서 복수의 구역으로 나뉜 원형 또는 도넛형의 특징 패턴을 적용하여 복수의 영역별 이미지 특징 정보를 산출한다. 또한, 제어부(200)는 산출된 영상에 대한 복수의 영역별 이미지 특징 정보를 저장부(100)에 저장한다.The control unit 200 may further include a circular or donut-shaped (e.g., rectangular) shape divided into a plurality of zones for another image (or image) stored in the storage unit 100 or another image received through a communication unit (not shown) A plurality of image feature information for each region is calculated by applying the feature pattern of the region. In addition, the control unit 200 stores a plurality of image feature information for each region in the storage unit 100.

또한, 제어부(200)는 저장부(100)에 미리 저장된(또는 학습된/등록된) 복수의 이미지에 대한 각각의 복수의 영역별 이미지 특징 정보와, 다른 이미지에 대해 산출된 복수의 영역별 이미지 특징 정보 간의 유사도를 각각 확인(또는 비교)한다.In addition, the control unit 200 may store each of a plurality of image feature information for each region for a plurality of images stored (or learned / registered) in advance in the storage unit 100 and a plurality of images for each region (Or compares) the degree of similarity between feature information.

또한, 제어부(200)는 확인된 산출된 복수의 영역별 이미지 특징 정보와 저장부(100)에 미리 저장된 복수의 이미지에 대한 각각의 복수의 영역별 이미지 특징 정보 간의 유사도가 미리 설정된 기준값 이상인지 여부를 판단(또는 확인)한다.In addition, the control unit 200 determines whether the similarity between the plurality of image feature information of each region calculated and the plurality of images stored in the storage unit 100 is equal to or greater than a preset reference value (Or confirms).

즉, 제어부(200)는 확인된 복수의 유사도가 미리 설정된 기준값 이상인지 여부를 각각 판단한다.That is, the control unit 200 determines whether each of the plurality of similarity degrees detected is equal to or greater than a preset reference value.

판단 결과, 확인된 복수의 유사도 중에서 미리 설정된 기준값 이상인 유사도가 존재하는 경우, 해당 유사도에 대응하는 해당 이미지 내에 목적으로 하는 객체가 존재하는 것으로 분류(또는 판단/확인)하고, 해당 이미지 내에서 해당 객체를 식별(또는 인식)하고, 식별된 객체를 저장부(100)에 저장한다.As a result of the determination, if there is a similarity that is equal to or greater than a preset reference value among a plurality of similarity levels that have been confirmed, classification (or determination / verification) is made as a target object exists in the corresponding image corresponding to the similarity degree, (Or recognizes) the identified object, and stores the identified object in the storage unit 100.

또한, 판단 결과, 확인된 복수의 유사도 중에서 미리 설정된 기준값 이상인 유사도가 존재하지 않는 경우, 즉 확인된 복수의 유사도 모두 미리 설정된 기준값보다 작은 경우, 제어부(200)는 해당 이미지 내에 객체가 존재하지 않는 것으로 분류한다.If it is determined that there is no similarity that is equal to or greater than a preset reference value among the plurality of similarity levels that have been checked, that is, if all of the plurality of similarity levels are smaller than a preset reference value, the control unit 200 determines that no object exists in the corresponding image Classify.

이와 같이, 이미지에 대해서 원 또는 링의 형상으로 구역이 나누어진 특징 패턴을 적용하여 이미지에 대한 특징 정보를 산출할 수 있다.In this manner, feature information about an image can be calculated by applying a feature pattern in which regions are divided into a circle or a ring shape with respect to the image.

또한, 이와 같이, 원 또는 링의 형상으로 구역이 나누어진 특징 패턴에 대해서 랜덤하게 미리 설정된(또는 배열된) 특징맵을 통해 이미지에 대한 특징 정보를 산출할 수 있다.In this way, feature information on an image can be calculated through a feature map that is randomly preset (or arranged) with respect to a feature pattern in which regions are divided in the shape of a circle or a ring.

이하에서는, 본 발명에 따른 객체 식별 방법을 도 1 내지 도 9를 참조하여 상세히 설명한다.Hereinafter, an object identification method according to the present invention will be described in detail with reference to FIGS. 1 to 9. FIG.

도 7은 본 발명의 제 1 실시예에 따른 객체 식별 방법을 나타낸 흐름도이다.Figure 7 1 is a flowchart illustrating an object identification method according to a first embodiment of the present invention.

먼저, 제어부(200)는 원본 이미지 중 일부 영역에 대해서 복수의 구역으로 나뉜 원형 또는 도넛형(또는 링형)의 특징 패턴을 적용한다. 여기서, 특징 패턴은 미리 설정된 크기를 갖는다.First, the control unit 200 applies a circular or donut-shaped (or ring-like) feature pattern divided into a plurality of zones to a partial area of the original image. Here, the feature pattern has a predetermined size.

일 예로, 도 8에 도시한 바와 같이, 제어부(200)는 원본 이미지 중 일부 영역(810)에 대해서 복수의 구역으로 나뉜 원형의 특징 패턴(820)을 적용한다(S710).For example, as shown in FIG. 8, the control unit 200 applies a circular feature pattern 820 divided into a plurality of regions to a partial region 810 of the original image (S710).

이후, 제어부(200)는 해당 특징 패턴에 대응하는 미리 설정된 특징맵을 근거로 해당 특징맵에 포함된 단위 항목에 해당하는 구역들 중에서 미리 설정된 기준에 해당하는(또는 적합한) 구역을 선택한다. 이때, 제어부(200)는 해당 특징맵에 포함된 복수의(또는 하나 이상의) 단위 항목에 대해서 미리 설정된 기준에 해당하는 구역을 선택하는 과정을 반복 수행한다. 여기서, 미리 설정된 기준은 단위 항목에 포함된 구역들 중에서 가장 밝은 영역 또는 가장 어두운 영역인지 여부를 확인하는 것일 수 있다.Thereafter, the controller 200 selects a region corresponding to (or suitable to) a predetermined criterion among the regions corresponding to the unit items included in the feature map, based on a preset feature map corresponding to the feature pattern. At this time, the controller 200 repeatedly performs a process of selecting a zone corresponding to a preset reference for a plurality of (or more than one) unit items included in the feature map. Here, the preset reference may be to check whether it is the brightest region or the darkest region among the regions included in the unit item.

일 예로, 도 5에 도시된 바와 같이, 제어부(200)는 도 2에 도시된 원형의 특징 패턴(210)에 대응하는 미리 설정된 특징맵(500)을 근거로 해당 특징맵(500)에 포함된 단위 항목(510)에 해당하는 구역들(511, 512, 513) 중에서 미리 설정된 기준에 해당하는 구역을 선택한다.5, the control unit 200 determines whether or not the characteristic map 500 included in the feature map 500 has been generated based on the preset feature map 500 corresponding to the circular feature pattern 210 shown in FIG. A zone corresponding to a preset reference among the zones 511, 512, and 513 corresponding to the unit item 510 is selected.

즉, 도 5에 도시된 바와 같이, 특징맵(500)은 첫 번째 단위 항목이 원형의 특징 패턴 중에서 (0, 2, 5)의 구역을 포함하고, 두 번째 단위 항목이 원형의 특징 패턴 중에서 (1, 4, 7)의 구역을 포함하고, 세 번째 단위 항목이 원형의 특징 패턴 중에서 (2, 3, 6)의 구역을 포함하고, 네 번째 단위 항목이 원형의 특징 패턴 중에서 (4, 6, 7)의 구역을 포함하고, 다섯 번째 단위 항목이 원형의 특징 패턴 중에서 (0, 3, 5)의 구역을 포함하는 총 5개의 단위 항목으로 구성된다. 또한, 제어부(200)는 5개의 단위 항목에 각각 포함된 구역들 중에서 미리 설정된 기준인 해당 구역들 중에서 가장 밝은 영역에 해당하는 구역을 선택한다. 즉, 도 6에 도시된 바와 같이, 제어부(200)는 첫 번째 단위 항목에 포함된 (0, 2, 5)의 구역 중에서 가장 밝은 영역인 5를 갖는 제2구역(611)을 선택(예를 들어 도 6에서는 빗금으로 표시)하고, 두 번째 단위 항목에 포함된 (1, 4, 7)의 구역 중에서 가장 밝은 영역인 1을 갖는 제0 구역(612)을 선택하고, 세 번째 단위 항목에 포함된 (2, 3, 6)의 구역 중에서 가장 밝은 영역인 3을 갖는 제1 구역(613)을 선택하고, 네 번째 단위 항목에 포함된 (4, 6, 7)의 구역 중에서 가장 밝은 영역인 6을 갖는 제1 구역(614)을 선택하고, 다섯 번째 단위 항목에 포함된 (0, 3, 5)의 구역 중에서 가장 밝은 영역인 5를 갖는 제2 구역(615)을 선택한다(S720).That is, as shown in FIG. 5, the feature map 500 is a feature map 500 in which the first unit item includes a region of (0, 2, 5) among the feature patterns of the circular shape, 3, 6) among the feature patterns of the circular shape and the fourth unit item includes the region of the feature patterns of the circle (4, 6, 7), and the fifth unit item is composed of a total of five unit items including a zone of (0, 3, 5) among the circular feature patterns. Also, the control unit 200 selects a region corresponding to the brightest region among the corresponding regions, which is a preset reference among the regions included in the five unit items. 6, the control unit 200 selects the second zone 611 having the brightest region 5 among the zones of 0, 2, 5 included in the first unit item (for example, 6), and the 0th region 612 having 1, which is the brightest region among the (1, 4, 7) regions included in the second unit item, is selected and included in the third unit item The first region 613 having the brightest region 3 is selected from among the regions of (4, 6, 7) included in the fourth unit item, and the brightest region 6 And selects the second zone 615 having the brightest region 5 among the zones (0, 3, 5) included in the fifth unit item (S720).

이후, 제어부(200)는 복수의(또는 하나 이상의) 단위 항목 중에서 각각 선택된 구역의 위치 정보를 해당 이미지에서 특징 패턴이 위치한 영역의 이미지 특징 정보로 산출(또는 설정)한다. 이때, 제어부(200)는 단위 항목 중에서 각각 선택된 구역에 대응하는 특징 패턴의 구역 정보를 해당 이미지에서 특징 패턴이 위치한 영역의 이미지 특징 정보로 산출할 수도 있다.Then, the control unit 200 calculates (or sets) the positional information of each of the plurality of (or more than one) unit items as the image feature information of the region where the feature pattern is located in the corresponding image. At this time, the controller 200 may calculate the zone information of the feature pattern corresponding to the zone selected from the unit items as the image feature information of the region where the feature pattern is located in the corresponding image.

일 예로, 도 6에 도시된 바와 같이, 제어부(200)는 5개의 단위 항목 중에서 각각 선택된 구역(예를 들어 제2 구역, 제0 구역, 제1 구역, 제1 구역 및 제2 구역)의 위치 정보인 '20112'(620)을 해당 이미지에서 원형의 특징 패턴이 위치한 일부 영역의 이미지 특징 정보로 산출한다(S730).For example, as shown in FIG. 6, the control unit 200 determines the position of each of the five unit items (for example, the second zone, the zeroth zone, the first zone, the first zone, and the second zone) Information '20112' 620 is calculated as image feature information of a partial region in which a circular feature pattern is located (S730).

이후, 제어부(200)는 원본 이미지 중 나머지 모든 영역에 대해서도 해당 원형 또는 도넛형의 특징 패턴을 슬라이딩하면서 적용하여, 전체 원본 이미지의 복수의 영역에 대해서 각각 이미지 특징 정보(또는 복수의 영역별 이미지 특징 정보)를 산출(또는 추출/설정)한다.Then, the control unit 200 slides and applies the characteristic pattern of the circle or the donut type to all the remaining regions of the original image, and applies the characteristic pattern of the original image to the plurality of regions of the entire original image, Information) is extracted (or extracted / set).

또한, 제어부(200)는 산출된 원본 이미지에 대한 복수의 영역별 이미지 특징 정보를 저장부(100)에 저장한다(S740).In addition, the controller 200 stores a plurality of image feature information for each of the regions of the original image in the storage unit 100 (S740).

이후, 제어부(200)는 산출된 원본 이미지에 대한 복수의 영역별 이미지 특징 정보를 근거로 학습을 한다.Thereafter, the control unit 200 learns based on the plurality of image feature information for each region of the original image.

또한, 제어부(200)는 학습 결과를 저장부(100)에 저장한다(S750).In addition, the control unit 200 stores the learning result in the storage unit 100 (S750).

도 9는 본 발명의 제 2 실시예에 따른 객체 식별 방법을 나타낸 흐름도이다.9 is a cross- 5 is a flowchart illustrating an object identification method according to a second embodiment of the present invention.

먼저, 제어부(200)는 저장부(100)에 미리 저장된 이미지(또는 영상) 또는 통신부(미도시)나 입력부(미도시)를 통해 수신되는 이미지에 대해서 복수의 구역으로 나뉜 원형 또는 도넛형(또는 링형)의 특징 패턴을 적용하여 복수의 영역별 이미지 특징 정보를 산출한다.First, the control unit 200 displays a circle or a donut shape (or a circle or a circle) divided into a plurality of regions with respect to an image (or an image) stored in the storage unit 100 or an image received through a communication unit (not shown) or an input unit Ring type) feature pattern is applied to calculate a plurality of image feature information for each region.

또한, 제어부(200)는 산출된 이미지에 대한 복수의 영역별 이미지 특징 정보를 저장부(100)에 저장한다(S910).In addition, the controller 200 stores a plurality of image feature information for each of the images in the storage unit 100 (S910).

이후, 제어부(200)는 산출된 복수의 영역별 이미지 특징 정보와 저장부(100)에 미리 저장된(또는 학습된/등록된) 복수의 이미지에 대한 각각의 복수의 영역별 이미지 특징 정보 간의 유사도를 각각 확인(또는 비교)한다.Thereafter, the controller 200 calculates the similarity between the calculated image feature information of each of the plurality of regions and the plurality of image characteristic information of each region of the plurality of images stored (or learned / registered) in the storage unit 100 Confirm (or compare) each.

일 예로, 제어부(200)는 산출된 복수의 영역별 이미지 특징 정보와 저장부(100)에 미리 학습된 ○○개의 이미지에 대한 각각의 복수의 영역별 이미지 특징 정보 간의 유사도를 각각 확인한다(S920).For example, the control unit 200 checks the similarity between the calculated image feature information of each of the plurality of regions and the image feature information of each of the plurality of regions with respect to the ◯◯ images previously learned in the storage unit 100 (S920 ).

이후, 제어부(200)는 확인된 산출된 복수의 영역별 이미지 특징 정보와 저장부(100)에 미리 저장된 복수의 이미지에 대한 각각의 복수의 영역별 이미지 특징 정보 간의 유사도가 미리 설정된 기준값 이상인지 여부를 판단(또는 확인)한다.Thereafter, the control unit 200 determines whether the similarity between the plurality of image feature information of each area calculated and the plurality of image characteristic information of each of the plurality of images stored in the storage unit 100 is equal to or greater than a preset reference value (Or confirms).

즉, 제어부(200)는 확인된 복수의 유사도가 미리 설정된 기준값 이상인지 여부를 각각 판단한다.That is, the control unit 200 determines whether each of the plurality of similarity degrees detected is equal to or greater than a preset reference value.

일 예로, 제어부(200)는 확인된 ○○개의 유사도가 미리 설정된 기준값 이상인지 여부를 각각 판단한다(S930).For example, the control unit 200 determines whether the determined degree of similarity is equal to or greater than a preset reference value (S930).

판단 결과, 확인된 유사도가 미리 설정된 기준값 이상인 경우, 제어부(200)는 해당 이미지 내에 목적으로 하는 객체가 존재하는 것으로 분류(또는 판단/확인)하고, 해당 이미지 내에서 해당 객체를 식별(또는 인식)하고, 식별된 객체를 저장부(100)에 저장한다.As a result of the determination, if the determined similarity is equal to or greater than a preset reference value, the control unit 200 classifies (or judges / confirms) the object as a target object in the image, identifies (or recognizes) And stores the identified object in the storage unit 100.

일 예로, 판단 결과, 확인된 ○○개의 유사도 중에서 미리 설정된 기준값 이상인 유사도가 존재할 때, 제어부(200)는 해당 기준값 이상인 유사도에 대응하는 저장부(100)에 미리 학습된 복수의 영역별 이미지 특징 정보를 근거로 입력 이미지 내에서 해당 객체를 식별하고, 식별된 객체를 저장부(100)에 저장한다(S940).For example, when there is a degree of similarity that is equal to or greater than a preset reference value out of the identified similarity degrees, the controller 200 determines a plurality of region-based image feature information , Identifies the object in the input image, and stores the identified object in the storage unit 100 (S940).

또한, 판단 결과, 확인된 유사도가 미리 설정된 기준값보다 작은 경우, 제어부(200)는 해당 이미지 내에 목적으로 하는 객체가 존재하지 않는 것으로 분류한다.If the determined similarity is smaller than a preset reference value, the control unit 200 classifies the object as having no object in the image.

일 예로, 판단 결과, 확인된 ○○개의 유사도 모두가 미리 설정된 기준값보다 작을 때, 제어부(200)는 해당 이미지 내에 객체가 존재하지 않는 것으로 분류한다(S950).For example, when all of the determined similarity levels are less than a preset reference value, the control unit 200 classifies the object as not existing in the image (S950).

본 발명의 실시예에 따른 객체 식별 장치 및 그 방법은 컴퓨터 프로그램으로 작성 가능하며, 컴퓨터 프로그램을 구성하는 코드들 및 코드 세그먼트들은 당해 분야의 컴퓨터 프로그래머에 의하여 용이하게 추론될 수 있다. 또한, 해당 컴퓨터 프로그램은 컴퓨터가 읽을 수 있는 정보저장매체(computer readable media)에 저장되고, 컴퓨터나 본 발명의 실시예에 따른 객체 식별 장치, 사용자 장치(또는 단말) 등에 의하여 읽혀지고 실행됨으로써 객체 식별 장치 및 그 방법을 구현할 수 있다.The object identification apparatus and method according to the embodiment of the present invention can be written in a computer program, and the codes and code segments constituting the computer program can be easily deduced by a computer programmer in the field. In addition, the computer program is stored in a computer readable medium readable by a computer and read and executed by a computer, an object identification device, a user device (or a terminal) according to an embodiment of the present invention, Device and method thereof.

정보저장매체는 자기 기록매체, 광 기록매체 및 캐리어 웨이브 매체를 포함한다. 본 발명의 실시예에 따른 객체 식별 장치 및 그 방법을 구현하는 컴퓨터 프로그램은 객체 식별 장치, 사용자 장치 등의 내장 메모리에 저장 및 설치될 수 있다. 또는, 본 발명의 실시예에 따른 객체 식별 장치 및 그 방법을 구현하는 컴퓨터 프로그램을 저장 및 설치한 스마트 카드 등의 외장 메모리가 인터페이스를 통해 객체 식별 장치, 사용자 장치 등에 장착될 수도 있다.The information storage medium includes a magnetic recording medium, an optical recording medium, and a carrier wave medium. The object identification apparatus according to an embodiment of the present invention and a computer program implementing the method can be stored and installed in an internal memory such as an object identification apparatus, a user apparatus, and the like. Alternatively, an external memory such as a smart card storing and installing an object identifying device according to an embodiment of the present invention and a computer program implementing the method may be mounted on an object identifying device, a user device, or the like through an interface.

본 발명의 실시예는 앞서 설명된 바와 같이, 이미지에 대해서 원 또는 링의 형상으로 구역이 나누어진 특징 패턴을 적용하여 이미지에 대한 특징 정보를 산출하여, 곡면을 포함하는 객체에 대한 특징 추출 성능을 향상시킬 수 있다.As described above, in the embodiment of the present invention, feature information on an image is calculated by applying a feature pattern in which regions are divided in a circle or a ring shape with respect to the image, Can be improved.

또한, 본 발명의 실시예는 앞서 설명된 바와 같이, 원 또는 링의 형상으로 구역이 나누어진 특징 패턴에 대해서 랜덤하게 미리 설정된(또는 배열된) 특징맵을 통해 이미지에 대한 특징 정보를 산출하여, 곡면을 포함하는 객체의 식별 효율을 향상시키고, 한 번에 특징을 추출할 수 있는 영역이 넓어 빠른 처리를 수행할 수 있다.In the embodiment of the present invention, as described above, feature information on an image is calculated through a feature map that is randomly preset (or arranged) with respect to a feature pattern in which regions are divided in the shape of a circle or a ring, It is possible to improve the identification efficiency of an object including a curved surface and to perform fast processing because the area where features can be extracted at a time is wide.

전술된 내용은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.It will be apparent to those skilled in the art that various modifications and variations can be made in the present invention without departing from the spirit or essential characteristics thereof. Therefore, the embodiments disclosed in the present invention are intended to illustrate rather than limit the scope of the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments. The scope of protection of the present invention should be construed according to the following claims, and all technical ideas within the scope of equivalents should be construed as falling within the scope of the present invention.

본 발명은 객체 식별을 위한 특징점 학습 시, 이미지에 대해서 원 또는 링의 형상으로 구역이 나누어진 특징 패턴을 적용하여 이미지에 대한 특징 정보를 산출하고, 산출된 특징 정보를 근거로 학습 및 객체 식별을 수행함으로써 곡면을 포함하는 객체에 대한 특징 추출 성능을 향상시키고 곡면을 포함하는 객체의 식별 효율을 향상시키고, 한 번에 특징을 추출할 수 있는 영역이 넓어 빠른 처리를 수행하는 것으로, 영상 처리 분야, 객체 식별/인식 분야 등에서 광범위하게 이용될 수 있다.The present invention is characterized in that, when learning a feature point for object identification, characteristic information about an image is calculated by applying a feature pattern in which regions are divided in a circle or a ring shape to an image, and learning and object identification are performed based on the calculated feature information The present invention can improve the feature extraction performance of an object including a curved surface and enhance the identification efficiency of an object including a curved surface and perform fast processing by broadening the area where features can be extracted at a time. Object identification / recognition field, and the like.

10: 객체 식별 장치 100: 저장부
200: 제어부
10: Object identifying apparatus 100:
200:

Claims (15)

이미지에 대해 복수의 구역으로 나뉜 원형 또는 도넛형의 특징 패턴을 적용하고, 상기 특징 패턴에 대응하는 미리 설정된 특징맵을 근거로 상기 특징맵의 단위 항목에 포함된 구역들 중에서 미리 설정된 기준에 해당하는 구역을 선택하고, 상기 특징맵에 포함된 복수의 단위 항목별로 각각 선택된 구역의 위치 정보를 상기 이미지에서 상기 특징 패턴이 위치한 영역의 이미지 특징 정보로 산출하는 제어부; 및
상기 산출된 특징 패턴이 위치한 영역의 이미지 특징 정보를 저장하는 저장부를 포함하는 객체 식별 장치.
A method of applying a feature pattern of a circle or donut shape divided into a plurality of zones to an image and setting a feature map corresponding to a preset reference among the zones included in the unit item of the feature map on the basis of a preset feature map corresponding to the feature pattern A controller for selecting a zone and calculating position information of a zone selected for each of the plurality of unit items included in the feature map from the image as image feature information of an area in which the feature pattern is located; And
And a storage unit for storing image feature information of an area where the calculated feature pattern is located.
제1항에 있어서,
상기 미리 설정된 기준은 상기 단위 항목에 대응한 구역들 중에서 가장 밝은 구역 또는 가장 어두운 구역인 것을 특징으로 하는 객체 식별 장치.
The method according to claim 1,
Wherein the predetermined criterion is the brightest or darkest zone among the zones corresponding to the unit item.
제1항에 있어서,
상기 제어부는 상기 특징맵에 포함된 복수의 단위 항목에 대해서 상기 단위 항목별로 상기 기준에 해당하는 구역을 선택하는 과정을 반복 수행하는 것을 특징으로 하는 객체 식별 장치.
The method according to claim 1,
Wherein the controller repeatedly performs a process of selecting a zone corresponding to the reference for each of the plurality of unit items included in the feature map.
제1항에 있어서,
상기 제어부는, 상기 특징 패턴이 위치한 영역의 이미지 특징 정보를 산출할 때, 상기 복수의 단위 항목별로 각각 선택된 구역에 대응하는 상기 특징 패턴의 구역 정보를 상기 특징 패턴이 위치한 영역의 이미지 특징 정보로 산출하는 것을 특징으로 하는 객체 식별 장치.
The method according to claim 1,
Wherein the control unit calculates the region information of the feature pattern corresponding to the region selected for each of the plurality of unit items as the image feature information of the region where the feature pattern is located when calculating the image feature information of the region in which the feature pattern is located The object identification apparatus comprising:
제1항에 있어서,
상기 제어부는 상기 이미지 중 나머지 모든 영역에 대해서 상기 원형 또는 도넛형의 특징 패턴을 슬라이딩하면서 적용하여, 전체 이미지의 복수의 영역에 대해서 복수의 영역별 이미지 특징 정보를 산출하고, 상기 산출된 전체 이미지에 대한 복수의 영역별 이미지 특징 정보를 근거로 학습을 수행하는 것을 특징으로 하는 객체 식별 장치.
The method according to claim 1,
Wherein the controller slides and applies the circular or toroidal feature pattern to all the remaining areas of the image to calculate a plurality of image feature information for each area of the entire image, Wherein the learning unit performs learning based on a plurality of region-by-region image feature information.
복수의 이미지에 대한 복수의 영역별 이미지 특징 정보를 저장하는 저장부; 및
이미지에 대해서 원형 또는 도넛형의 특징 패턴을 적용하여 산출된 복수의 영역별 이미지 특징 정보와 상기 저장부에 저장된 복수의 이미지에 대한 각각의 복수의 영역별 이미지 특징 정보 간의 유사도를 확인하고, 상기 확인된 유사도를 근거로 상기 이미지 내에 목적으로 하는 객체의 존재 여부를 판단하는 제어부를 포함하는 객체 식별 장치.
A storage unit for storing a plurality of region-by-region image feature information for a plurality of images; And
The degree of similarity between a plurality of image feature information for each region calculated by applying a feature pattern of a circular or donut type to an image and a plurality of image feature information for each region for a plurality of images stored in the storage unit, And determining whether there is an object in the image based on the degree of similarity.
제6항에 있어서,
상기 제어부는 상기 확인된 유사도가 미리 설정된 기준값 이상인지 여부를 판단하는 것을 특징으로 하는 객체 식별 장치.
The method according to claim 6,
Wherein the controller determines whether the determined similarity is equal to or greater than a preset reference value.
제7항에 있어서,
상기 제어부는, 상기 확인된 유사도가 상기 미리 설정된 기준값 이상일 때, 상기 이미지 내에 목적으로 하는 객체의 존재 여부를 판단하고, 상기 이미지 내에서 객체를 식별하는 것을 특징으로 하는 객체 식별 장치.
8. The method of claim 7,
Wherein the control unit determines whether a target object exists in the image when the determined similarity degree is equal to or greater than the predetermined reference value and identifies an object in the image.
제7항에 있어서,
상기 제어부는, 상기 확인된 유사도가 상기 미리 설정된 기준값보다 작을 때, 상기 이미지 내에 목적으로 하는 객체가 존재하지 않는 것으로 판단하는 것을 특징으로 하는 객체 식별 장치.
8. The method of claim 7,
Wherein the controller determines that a target object does not exist in the image when the determined similarity is smaller than the preset reference value.
제어부를 통해 이미지에 대해 복수의 구역으로 나뉜 원형 또는 도넛형의 특징 패턴을 적용하는 단계;
상기 제어부를 통해 상기 특징 패턴에 대응하는 미리 설정된 특징맵을 근거로 상기 특징맵의 단위 항목에 포함된 구역들 중에서 미리 설정된 기준에 해당하는 구역을 선택하는 단계;
상기 제어부를 통해 상기 특징맵에 포함된 복수의 단위 항목별로 각각 선택된 구역의 위치 정보를 상기 이미지에서 상기 특징 패턴이 위치한 영역의 이미지 특징 정보로 산출하는 단계; 및
저장부에 상기 산출된 특징 패턴이 위치한 영역의 이미지 특징 정보를 저장하는 단계를 포함하는 객체 식별 방법.
Applying a circular or toroidal feature pattern divided into a plurality of zones to an image through a control unit;
Selecting a region corresponding to a preset reference among the regions included in the unit item of the feature map based on a preset feature map corresponding to the feature pattern through the control unit;
Calculating position information of a zone selected for each of a plurality of unit items included in the feature map through the controller as image feature information of an area where the feature pattern is located in the image; And
And storing image feature information of an area where the calculated feature pattern is located in the storage unit.
제10항에 있어서,
상기 제어부를 통해 상기 특징맵에 포함된 복수의 단위 항목에 대해서 상기 단위 항목별로 상기 기준에 해당하는 구역을 선택하는 과정을 반복 수행하는 단계;
상기 제어부를 통해 상기 이미지 중 나머지 모든 영역에 대해서 상기 원형 또는 도넛형의 특징 패턴을 슬라이딩하면서 적용하여, 전체 이미지의 복수의 영역에 대해서 복수의 영역별 이미지 특징 정보를 산출하는 단계; 및
상기 제어부를 통해 상기 산출된 전체 이미지에 대한 복수의 영역별 이미지 특징 정보를 근거로 학습을 수행하는 단계;를 더 포함하는 것을 특징으로 하는 객체 식별 방법.
11. The method of claim 10,
Repeating the step of selecting a zone corresponding to the reference for each of the plurality of unit items included in the feature map through the control unit;
Calculating a plurality of image feature information for each of a plurality of regions of the entire image by applying the circular or toroidal feature pattern to all remaining regions of the image while sliding the feature pattern through the controller; And
And performing learning based on a plurality of image feature information for each region of the entire image through the control unit.
제10항에 있어서,
상기 이미지에서 상기 특징 패턴이 위치한 영역의 이미지 특징 정보로 산출하는 단계는, 상기 특징 패턴이 위치한 영역의 이미지 특징 정보를 산출할 때, 상기 복수의 단위 항목별로 각각 선택된 구역에 대응하는 상기 특징 패턴의 구역 정보를 상기 특징 패턴이 위치한 영역의 이미지 특징 정보로 산출하는 것을 특징으로 하는 객체 식별 방법.
11. The method of claim 10,
Wherein the step of calculating image feature information of an area in which the feature pattern is located comprises the steps of calculating image feature information of an area where the feature pattern is located, Wherein zone information is calculated as image feature information of an area where the feature pattern is located.
제어부를 통해 이미지에 대해서 원형 또는 도넛형의 특징 패턴을 적용하여 복수의 영역별 이미지 특징 정보를 산출하는 단계;
상기 제어부를 통해 상기 산출된 복수의 영역별 이미지 특징 정보와 저장부에 저장된 복수의 이미지에 대한 각각의 복수의 영역별 이미지 특징 정보 간의 유사도를 확인하는 단계; 및
상기 제어부를 통해 상기 확인된 유사도를 근거로 상기 이미지 내에 목적으로 하는 객체의 존재 여부를 판단하는 단계를 포함하는 객체 식별 방법.
Calculating a plurality of image feature information for each region by applying a circular or toroidal feature pattern to the image through the control unit;
Confirming the similarity between the calculated image feature information for each region and the plurality of image feature information for each region for a plurality of images stored in the storage unit through the control unit; And
And determining whether a target object exists in the image based on the determined similarity through the control unit.
제13항에 있어서,
상기 객체의 존재 여부를 판단하는 단계는,
상기 제어부를 통해 상기 확인된 유사도가 미리 설정된 기준값 이상인지 여부를 판단하는 과정;
상기 판단 결과, 상기 확인된 유사도가 상기 미리 설정된 기준값 이상일 때, 상기 제어부를 통해 상기 이미지 내에 목적으로 하는 객체의 존재 여부를 판단하고, 상기 이미지 내에서 객체를 식별하는 과정; 및
상기 판단 결과, 상기 확인된 유사도가 상기 미리 설정된 기준값보다 작을 때, 상기 제어부를 통해 상기 영상 내에 목적으로 하는 객체가 존재하지 않는 것으로 판단하는 과정;을 포함하는 것을 특징으로 하는 객체 식별 방법.
14. The method of claim 13,
Wherein the step of determining whether the object is present comprises:
Determining whether the determined similarity is equal to or greater than a preset reference value through the controller;
Determining whether a target object exists in the image through the control unit when the determined similarity is equal to or greater than the preset reference value and identifying an object in the image; And
And determining that a target object does not exist in the image through the control unit when the determined similarity is smaller than the preset reference value.
제10항 내지 제14항 중 어느 한 항에 따른 방법을 수행하는 컴퓨터 프로그램이 기록된 기록매체.15. A recording medium on which a computer program for performing the method according to any one of claims 10 to 14 is recorded.
KR1020140026749A 2014-03-06 2014-03-06 Object identification apparatus, method thereof and computer readable medium having computer program recorded therefor KR102203000B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020140026749A KR102203000B1 (en) 2014-03-06 2014-03-06 Object identification apparatus, method thereof and computer readable medium having computer program recorded therefor
PCT/KR2014/010555 WO2015133699A1 (en) 2014-03-06 2014-11-05 Object recognition apparatus, and recording medium in which method and computer program therefor are recorded

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140026749A KR102203000B1 (en) 2014-03-06 2014-03-06 Object identification apparatus, method thereof and computer readable medium having computer program recorded therefor

Publications (2)

Publication Number Publication Date
KR20150104857A true KR20150104857A (en) 2015-09-16
KR102203000B1 KR102203000B1 (en) 2021-01-14

Family

ID=54244404

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140026749A KR102203000B1 (en) 2014-03-06 2014-03-06 Object identification apparatus, method thereof and computer readable medium having computer program recorded therefor

Country Status (1)

Country Link
KR (1) KR102203000B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101940800B1 (en) * 2018-09-19 2019-01-22 주식회사 한국에스지티 Editing system for drawing image by synthesize part of image

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR0167585B1 (en) * 1993-08-31 1999-01-15 모리시타 요이찌 Position recognizing method
JP2001101405A (en) * 1999-09-30 2001-04-13 Matsushita Electric Ind Co Ltd Method and device for recognizing image
KR100752251B1 (en) 1999-09-17 2007-08-29 실버브룩 리서치 피티와이 리미티드 Method and system for object selection
US20090232403A1 (en) * 2005-06-15 2009-09-17 Matsushita Electric Industrial Co., Ltd. Object detecting apparatus and learning apparatus for the same
US20120269384A1 (en) * 2011-04-19 2012-10-25 Jones Michael J Object Detection in Depth Images

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR0167585B1 (en) * 1993-08-31 1999-01-15 모리시타 요이찌 Position recognizing method
KR100752251B1 (en) 1999-09-17 2007-08-29 실버브룩 리서치 피티와이 리미티드 Method and system for object selection
JP2001101405A (en) * 1999-09-30 2001-04-13 Matsushita Electric Ind Co Ltd Method and device for recognizing image
US20090232403A1 (en) * 2005-06-15 2009-09-17 Matsushita Electric Industrial Co., Ltd. Object detecting apparatus and learning apparatus for the same
US20120269384A1 (en) * 2011-04-19 2012-10-25 Jones Michael J Object Detection in Depth Images

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101940800B1 (en) * 2018-09-19 2019-01-22 주식회사 한국에스지티 Editing system for drawing image by synthesize part of image

Also Published As

Publication number Publication date
KR102203000B1 (en) 2021-01-14

Similar Documents

Publication Publication Date Title
KR102415503B1 (en) Method for training classifier and detecting object
KR101499379B1 (en) System and method for recognizing text information in object
US9014480B2 (en) Identifying a maximally stable extremal region (MSER) in an image by skipping comparison of pixels in the region
CN108664364B (en) Terminal testing method and device
JP5929896B2 (en) Image recognition system, image recognition method, and image recognition program
CN112052834B (en) Face recognition method, device and equipment based on privacy protection
US9575566B2 (en) Technologies for robust two-dimensional gesture recognition
US20140022406A1 (en) Automatic correction of skew in natural images and video
KR102655789B1 (en) Face detecting method and apparatus
US9667880B2 (en) Activating flash for capturing images with text
US9396407B2 (en) Image recognition device, recording medium, and image recognition method
KR102224936B1 (en) Learning apparatus and method for detecting features in an extended region for object recognition and computer readable medium having computer program recorded therefor
KR20150108565A (en) Apparatus for searching image based on template, method thereof and computer readable medium having computer program recorded therefor
CN106384071A (en) Two-dimensional code scanning recognition processing method and device
KR102203000B1 (en) Object identification apparatus, method thereof and computer readable medium having computer program recorded therefor
JP2009104244A (en) Information processor and method, and program
KR102238672B1 (en) Multiclass classification apparatus, method thereof and computer readable medium having computer program recorded therefor
US10977527B2 (en) Method and apparatus for detecting door image by using machine learning algorithm
JP2023104424A (en) Estimation device, estimation method, and program
CN103123691A (en) Moire fringe filtering method and device
KR102223684B1 (en) Object identification apparatus, method thereof and computer readable medium having computer program recorded therefor
KR102256057B1 (en) Apparatus for providing a search result based on posture of object, method thereof and computer readable medium having computer program recorded therefor
US10832415B2 (en) Window image detection method and device
KR20190122178A (en) Method and apparatus for preprocessing image for recognition of character
KR102232797B1 (en) Object identification apparatus, method thereof and computer readable medium having computer program recorded therefor

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right