KR102203000B1 - Object identification apparatus, method thereof and computer readable medium having computer program recorded therefor - Google Patents

Object identification apparatus, method thereof and computer readable medium having computer program recorded therefor Download PDF

Info

Publication number
KR102203000B1
KR102203000B1 KR1020140026749A KR20140026749A KR102203000B1 KR 102203000 B1 KR102203000 B1 KR 102203000B1 KR 1020140026749 A KR1020140026749 A KR 1020140026749A KR 20140026749 A KR20140026749 A KR 20140026749A KR 102203000 B1 KR102203000 B1 KR 102203000B1
Authority
KR
South Korea
Prior art keywords
image
feature
control unit
information
unit
Prior art date
Application number
KR1020140026749A
Other languages
Korean (ko)
Other versions
KR20150104857A (en
Inventor
장언동
전혁준
신형철
전병기
Original Assignee
에스케이플래닛 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에스케이플래닛 주식회사 filed Critical 에스케이플래닛 주식회사
Priority to KR1020140026749A priority Critical patent/KR102203000B1/en
Priority to PCT/KR2014/010555 priority patent/WO2015133699A1/en
Publication of KR20150104857A publication Critical patent/KR20150104857A/en
Application granted granted Critical
Publication of KR102203000B1 publication Critical patent/KR102203000B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • G06V10/464Salient features, e.g. scale invariant feature transforms [SIFT] using a plurality of salient features, e.g. bag-of-words [BoW] representations

Abstract

본 발명은 객체 식별 장치, 그 방법 및 컴퓨터 프로그램이 기록된 기록매체를 개시한다. 즉, 본 발명은 객체 식별을 위한 특징점 학습 시, 이미지에 대해서 원 또는 링의 형상으로 구역이 나누어진 특징 패턴을 적용하여 이미지에 대한 특징 정보를 산출하고, 산출된 특징 정보를 근거로 학습 및 객체 식별을 수행함으로써 곡면을 포함하는 객체에 대한 특징 추출 성능을 향상시킬 수 있다.The present invention discloses an object identification apparatus, a method thereof, and a recording medium in which a computer program is recorded. That is, the present invention calculates feature information for an image by applying a feature pattern divided into a circle or ring shape to an image when learning feature points for object identification, and based on the calculated feature information, learning and object By performing identification, it is possible to improve feature extraction performance for an object including a curved surface.

Description

객체 식별 장치, 그 방법 및 컴퓨터 프로그램이 기록된 기록매체{Object identification apparatus, method thereof and computer readable medium having computer program recorded therefor}BACKGROUND OF THE INVENTION 1. Object identification apparatus, method thereof and computer readable medium having computer program recorded therefor.

본 발명은 객체 식별 장치, 그 방법 및 컴퓨터 프로그램이 기록된 기록매체에 관한 것으로, 특히 이미지에 대해서 원 또는 링의 형상으로 구역이 나누어진 특징 패턴을 적용하여 이미지에 대한 특징 정보를 산출하고, 산출된 특징 정보를 근거로 학습 및 객체 식별을 수행하는 객체 식별 장치, 그 방법 및 컴퓨터 프로그램이 기록된 기록매체에 관한 것이다.The present invention relates to an object identification apparatus, a method thereof, and a recording medium on which a computer program is recorded, and in particular, by applying a feature pattern divided into a circle or a ring shape to an image, feature information for an image is calculated and calculated. The present invention relates to an object identification apparatus, a method for learning and object identification, and a recording medium in which a computer program is recorded based on the recorded characteristic information.

학습 방식 객체 식별은 이미지(또는 영상)로부터 획득되는 특징(또는 특징점)을 근거로 이루어지며, 각 특징을 다양한 형태의 디스크립터로 표현한다.Learning method object identification is made based on features (or feature points) acquired from images (or images), and each feature is expressed as descriptors of various types.

이러한 학습 방식 객체 식별은 하 라이크 피처(Harr-like feature) 방식을 이용하며, 해당 하 라이크 피처 방식은 사각형을 기준으로 구성되므로 대부분 곡면으로 이루어진 사람이나 차량 등의 물체(또는 객체)를 검색하기 위해서는 많은 트레이닝을 필요로 한다.This learning method object identification uses the Harr-like feature method, and the Harr-like feature method is composed of a rectangle, so in order to search for an object (or object) such as a person or vehicle made of mostly curved surfaces. It requires a lot of training.

한국등록특허 제10-0752251호 [명칭: 객체 선택 방법 및 시스템]Korean Patent Registration No. 10-0752251 [Name: Object Selection Method and System]

본 발명의 목적은 이미지에 대해서 원 또는 링의 형상으로 구역이 나누어진 특징 패턴을 적용하여 이미지에 대한 특징 정보를 산출하는 객체 식별 장치, 그 방법 및 컴퓨터 프로그램이 기록된 기록매체를 제공하는 데 있다.An object of the present invention is to provide an object identification device for calculating feature information for an image by applying a feature pattern divided into a circle or a ring shape to an image, a method thereof, and a recording medium in which a computer program is recorded. .

본 발명의 다른 목적은 원 또는 링의 형상으로 구역이 나누어진 특징 패턴에 대해서 랜덤하게 미리 설정된(또는 배열된) 특징맵을 통해 이미지에 대한 특징 정보를 산출하는 객체 식별 장치, 그 방법 및 컴퓨터 프로그램이 기록된 기록매체를 제공하는 데 있다.Another object of the present invention is an object identification device, method and computer program for calculating feature information for an image through a feature map set in advance (or arranged) at random for feature patterns divided into circles or rings It is to provide this recorded recording medium.

본 발명의 실시예에 따른 객체 식별 장치는 이미지에 대해 복수의 구역으로 나뉜 원형 또는 도넛형의 특징 패턴을 적용하고, 특징 패턴에 대응하는 미리 설정된 특징맵을 근거로 특징맵의 단위 항목에 포함된 구역들 중에서 미리 설정된 기준에 해당하는 구역을 선택하고, 특징맵에 포함된 복수의 단위 항목별로 각각 선택된 구역의 위치 정보를 이미지에서 특징 패턴이 위치한 영역의 이미지 특징 정보로 산출하는 제어부; 및 산출된 특징 패턴이 위치한 영역의 이미지 특징 정보를 저장하는 저장부를 포함할 수 있다.An object identification device according to an embodiment of the present invention applies a circular or donut-shaped feature pattern divided into a plurality of zones to an image, and is included in a unit item of the feature map based on a preset feature map corresponding to the feature pattern. A control unit that selects a region corresponding to a preset reference from among the regions, and calculates location information of each selected region for each of a plurality of unit items included in the feature map as image feature information of the region where the feature pattern is located in the image; And a storage unit that stores image feature information of an area in which the calculated feature pattern is located.

본 발명과 관련된 일 예로서 미리 설정된 기준은 단위 항목에 대응한 구역들 중에서 가장 밝은 구역 또는 가장 어두운 구역일 수 있다.As an example related to the present invention, the preset criterion may be the brightest area or the darkest area among areas corresponding to the unit item.

본 발명과 관련된 일 예로서 제어부는 특징맵에 포함된 복수의 단위 항목에 대해서 단위 항목별로 기준에 해당하는 구역을 선택하는 과정을 반복 수행할 수 있다.As an example related to the present invention, the control unit may repeatedly perform a process of selecting a region corresponding to the reference for each unit item for a plurality of unit items included in the feature map.

본 발명과 관련된 일 예로서 제어부는, 특징 패턴이 위치한 영역의 이미지 특징 정보를 산출할 때, 복수의 단위 항목별로 각각 선택된 구역에 대응하는 특징 패턴의 구역 정보를 특징 패턴이 위치한 영역의 이미지 특징 정보로 산출할 수 있다.As an example related to the present invention, when calculating the image feature information of the region where the feature pattern is located, the control unit may convert region information of the feature pattern corresponding to each selected region for each of a plurality of unit items to the image feature information of the region where the feature pattern is located. Can be calculated as

본 발명과 관련된 일 예로서 제어부는 이미지 중 나머지 모든 영역에 대해서 원형 또는 도넛형의 특징 패턴을 슬라이딩하면서 적용하여, 전체 이미지의 복수의 영역에 대해서 복수의 영역별 이미지 특징 정보를 산출하고, 산출된 전체 이미지에 대한 복수의 영역별 이미지 특징 정보를 근거로 학습을 수행할 수 있다.As an example related to the present invention, the control unit applies a circular or donut-shaped feature pattern to all remaining areas of the image while sliding, and calculates image feature information for a plurality of areas for a plurality of areas of the entire image. Learning can be performed based on image feature information for each area of the entire image.

본 발명의 실시예에 따른 객체 식별 장치는 복수의 이미지에 대한 복수의 영역별 이미지 특징 정보를 저장하는 저장부; 및 이미지에 대해서 원형 또는 도넛형의 특징 패턴을 적용하여 산출된 복수의 영역별 이미지 특징 정보와 저장부에 저장된 복수의 이미지에 대한 각각의 복수의 영역별 이미지 특징 정보 간의 유사도를 확인하고, 확인된 유사도를 근거로 이미지 내에 목적으로 하는 객체의 존재 여부를 판단하는 제어부를 포함할 수 있다.An object identification apparatus according to an embodiment of the present invention includes: a storage unit for storing image characteristic information for a plurality of areas for a plurality of images; And a degree of similarity between image feature information for a plurality of areas calculated by applying a circular or donut-shaped feature pattern to the image and image feature information for each plurality of areas for a plurality of images stored in the storage unit. It may include a control unit that determines whether a target object exists in the image based on the similarity.

본 발명과 관련된 일 예로서 제어부는 확인된 유사도가 미리 설정된 기준값 이상인지 여부를 판단할 수 있다.As an example related to the present invention, the controller may determine whether the checked similarity is equal to or greater than a preset reference value.

본 발명과 관련된 일 예로서 제어부는, 확인된 유사도가 미리 설정된 기준값 이상일 때, 이미지 내에 목적으로 하는 객체의 존재 여부를 판단하고, 이미지 내에서 객체를 식별할 수 있다.As an example related to the present invention, when the confirmed similarity is greater than or equal to a preset reference value, the controller may determine whether an object of interest exists in the image and identify the object within the image.

본 발명과 관련된 일 예로서 제어부는, 확인된 유사도가 미리 설정된 기준값보다 작을 때, 이미지 내에 목적으로 하는 객체가 존재하지 않는 것으로 판단할 수 있다.As an example related to the present invention, when the confirmed similarity is less than a preset reference value, the controller may determine that the target object does not exist in the image.

본 발명의 실시예에 따른 객체 식별 방법은 제어부를 통해 이미지에 대해 복수의 구역으로 나뉜 원형 또는 도넛형의 특징 패턴을 적용하는 단계; 제어부를 통해 특징 패턴에 대응하는 미리 설정된 특징맵을 근거로 특징맵의 단위 항목에 포함된 구역들 중에서 미리 설정된 기준에 해당하는 구역을 선택하는 단계; 제어부를 통해 특징맵에 포함된 복수의 단위 항목별로 각각 선택된 구역의 위치 정보를 이미지에서 특징 패턴이 위치한 영역의 이미지 특징 정보로 산출하는 단계; 및 저장부에 산출된 특징 패턴이 위치한 영역의 이미지 특징 정보를 저장하는 단계를 포함할 수 있다.An object identification method according to an embodiment of the present invention includes the steps of applying a circular or donut-shaped feature pattern divided into a plurality of zones to an image through a control unit; Selecting an area corresponding to a preset reference from among areas included in a unit item of the feature map based on a preset feature map corresponding to the feature pattern through a control unit; Calculating, through a control unit, location information of each selected area for each of a plurality of unit items included in the feature map as image feature information of an area where the feature pattern is located in the image; And storing image feature information of an area in which the calculated feature pattern is located in the storage unit.

본 발명과 관련된 일 예로서 제어부를 통해 특징맵에 포함된 복수의 단위 항목에 대해서 단위 항목별로 기준에 해당하는 구역을 선택하는 과정을 반복 수행하는 단계; 제어부를 통해 이미지 중 나머지 모든 영역에 대해서 원형 또는 도넛형의 특징 패턴을 슬라이딩하면서 적용하여, 전체 이미지의 복수의 영역에 대해서 복수의 영역별 이미지 특징 정보를 산출하는 단계; 및 제어부를 통해 산출된 전체 이미지에 대한 복수의 영역별 이미지 특징 정보를 근거로 학습을 수행하는 단계;를 더 포함할 수 있다.As an example related to the present invention, repeatedly performing a process of selecting a region corresponding to a reference for each unit item for a plurality of unit items included in the feature map through a control unit; Calculating feature information of a plurality of areas for a plurality of areas of the entire image by sliding and applying a circular or donut-shaped feature pattern to all remaining areas of the image through a control unit; And performing learning based on image feature information for each region of the entire image calculated through the control unit.

본 발명과 관련된 일 예로서 이미지에서 특징 패턴이 위치한 영역의 이미지 특징 정보로 산출하는 단계는, 특징 패턴이 위치한 영역의 이미지 특징 정보를 산출할 때, 복수의 단위 항목별로 각각 선택된 구역에 대응하는 특징 패턴의 구역 정보를 특징 패턴이 위치한 영역의 이미지 특징 정보로 산출할 수 있다.As an example related to the present invention, the step of calculating image feature information of an area in which a feature pattern is located in an image is a feature corresponding to each selected area for each of a plurality of unit items when calculating image feature information of an area in which the feature pattern is located. The region information of the pattern may be calculated as image feature information of the region where the feature pattern is located.

본 발명의 실시예에 따른 객체 식별 방법은 제어부를 통해 이미지에 대해서 원형 또는 도넛형의 특징 패턴을 적용하여 복수의 영역별 이미지 특징 정보를 산출하는 단계; 제어부를 통해 산출된 복수의 영역별 이미지 특징 정보와 저장부에 저장된 복수의 이미지에 대한 각각의 복수의 영역별 이미지 특징 정보 간의 유사도를 확인하는 단계; 및 제어부를 통해 확인된 유사도를 근거로 이미지 내에 목적으로 하는 객체의 존재 여부를 판단하는 단계를 포함할 수 있다.An object identification method according to an embodiment of the present invention includes: calculating image feature information for each of a plurality of areas by applying a circular or donut-shaped feature pattern to an image through a control unit; Checking a degree of similarity between the image characteristic information for each region calculated by the control unit and the image characteristic information for each region for the plurality of images stored in the storage unit; And determining whether an object of interest exists in the image based on the degree of similarity checked through the control unit.

본 발명과 관련된 일 예로서 객체의 존재 여부를 판단하는 단계는, 제어부를 통해 확인된 유사도가 미리 설정된 기준값 이상인지 여부를 판단하는 과정; 판단 결과, 확인된 유사도가 미리 설정된 기준값 이상일 때, 제어부를 통해 이미지 내에 목적으로 하는 객체의 존재 여부를 판단하고, 이미지 내에서 객체를 식별하는 과정; 및 판단 결과, 확인된 유사도가 미리 설정된 기준값보다 작을 때, 제어부를 통해 영상 내에 목적으로 하는 객체가 존재하지 않는 것으로 판단하는 과정;을 포함할 수 있다.As an example related to the present invention, the determining whether an object exists may include: determining whether the similarity checked through the control unit is equal to or greater than a preset reference value; When the determined similarity is greater than or equal to a preset reference value, determining whether a target object exists in the image through a control unit, and identifying the object in the image; And a process of determining that the target object does not exist in the image through the control unit when the determined similarity is less than the preset reference value.

본 발명의 실시예에 따른 컴퓨터 프로그램이 기록된 기록매체에는 상술한 실시예에 따른 방법을 수행하는 컴퓨터 프로그램이 저장될 수 있다.A computer program for performing the method according to the above-described embodiment may be stored in the recording medium on which the computer program according to the embodiment of the present invention is recorded.

본 발명은 이미지에 대해서 원 또는 링의 형상으로 구역이 나누어진 특징 패턴을 적용하여 이미지에 대한 특징 정보를 산출함으로써, 곡면을 포함하는 객체에 대한 특징 추출 성능을 향상시키는 효과가 있다.The present invention has an effect of improving feature extraction performance for an object including a curved surface by calculating feature information for an image by applying a feature pattern divided into a circle or a ring shape to an image.

또한, 본 발명은 원 또는 링의 형상으로 구역이 나누어진 특징 패턴에 대해서 랜덤하게 미리 설정된(또는 배열된) 특징맵을 통해 이미지에 대한 특징 정보를 산출함으로써, 곡면을 포함하는 객체의 식별 효율을 향상시키고, 한 번에 특징을 추출할 수 있는 영역이 넓어 빠른 처리를 수행하는 효과가 있다.In addition, the present invention calculates feature information for an image through a feature map randomly preset (or arranged) for feature patterns divided into circles or rings, thereby improving the identification efficiency of objects including curved surfaces. It has the effect of performing fast processing because the area in which features can be improved and features can be extracted at a time is wide.

도 1은 본 발명의 실시예에 따른 객체 식별 장치의 구성을 나타낸 블록도이다.
도 2 내지 도 4는 본 발명의 실시예에 따른 특징 패턴의 예를 나타낸 도이다.
도 5는 본 발명의 실시예에 따른 특징맵의 예를 나타낸 도이다.
도 6은 본 발명의 실시예에 따른 특징맵과 특징 정보의 예를 나타낸 도이다.
도 7은 본 발명의 제 1 실시예에 따른 객체 식별 방법을 나타낸 흐름도이다.
도 8은 본 발명의 실시예에 따른 이미지를 나타낸 도이다.
도 9는 본 발명의 제 2 실시예에 따른 객체 식별 방법을 나타낸 흐름도이다.
1 is a block diagram showing the configuration of an object identification device according to an embodiment of the present invention.
2 to 4 A diagram showing an example of a feature pattern according to an embodiment of the present invention.
5 is a diagram showing an example of a feature map according to an embodiment of the present invention.
6 is a diagram showing an example of a feature map and feature information according to an embodiment of the present invention.
Figure 7 A flowchart showing an object identification method according to the first embodiment of the present invention.
8 is a diagram showing an image according to an embodiment of the present invention.
9 is A flowchart showing an object identification method according to a second embodiment of the present invention.

본 발명에서 사용되는 기술적 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아님을 유의해야 한다. 또한, 본 발명에서 사용되는 기술적 용어는 본 발명에서 특별히 다른 의미로 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 의미로 해석되어야 하며, 과도하게 포괄적인 의미로 해석되거나, 과도하게 축소된 의미로 해석되지 않아야 한다. 또한, 본 발명에서 사용되는 기술적인 용어가 본 발명의 사상을 정확하게 표현하지 못하는 잘못된 기술적 용어일 때에는 당업자가 올바르게 이해할 수 있는 기술적 용어로 대체되어 이해되어야 할 것이다. 또한, 본 발명에서 사용되는 일반적인 용어는 사전에 정의되어 있는 바에 따라, 또는 전후 문맥상에 따라 해석되어야 하며, 과도하게 축소된 의미로 해석되지 않아야 한다.It should be noted that the technical terms used in the present invention are used only to describe specific embodiments, and are not intended to limit the present invention. In addition, the technical terms used in the present invention should be interpreted as generally understood by those of ordinary skill in the technical field to which the present invention belongs, unless otherwise defined in the present invention, and is excessively comprehensive. It should not be construed as a human meaning or an excessively reduced meaning. In addition, when a technical term used in the present invention is an incorrect technical term that does not accurately express the spirit of the present invention, it should be replaced with a technical term that can be correctly understood by those skilled in the art. In addition, general terms used in the present invention should be interpreted as defined in the dictionary or according to the context before and after, and should not be interpreted as an excessively reduced meaning.

또한, 본 발명에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함한다. 본 발명에서 "구성된다" 또는 "포함한다" 등의 용어는 발명에 기재된 여러 구성 요소들 또는 여러 단계를 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다.In addition, the singular expression used in the present invention includes a plurality of expressions unless the context clearly indicates otherwise. In the present invention, terms such as “consisting of” or “comprising” should not be construed as necessarily including all of the various components or steps described in the invention, and some components or some steps may not be included. It should be construed that it may or may further include additional components or steps.

또한, 본 발명에서 사용되는 제 1, 제 2 등과 같이 서수를 포함하는 용어는 구성 요소들을 설명하는데 사용될 수 있지만, 구성 요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제 1 구성 요소는 제 2 구성 요소로 명명될 수 있고, 유사하게 제 2 구성 요소도 제 1 구성 요소로 명명될 수 있다.In addition, terms including ordinal numbers such as first and second used in the present invention may be used to describe the constituent elements, but the constituent elements should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, a first component may be referred to as a second component, and similarly, a second component may be referred to as a first component.

이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성 요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings, but the same or similar components are assigned the same reference numerals regardless of the reference numerals, and redundant descriptions thereof will be omitted.

또한, 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 발명의 사상을 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 발명의 사상이 제한되는 것으로 해석되어서는 아니 됨을 유의해야 한다.In addition, in describing the present invention, when it is determined that a detailed description of a related known technology may obscure the subject matter of the present invention, a detailed description thereof will be omitted. In addition, it should be noted that the accompanying drawings are only for easily understanding the spirit of the present invention and should not be construed as limiting the spirit of the present invention by the accompanying drawings.

도 1은 본 발명의 실시예에 따른 객체 식별 장치(10)의 구성을 나타낸 블록도이다.1 is a block diagram showing the configuration of an object identification device 10 according to an embodiment of the present invention.

도 1에 도시된 바와 같이, 객체 식별 장치(10)는 저장부(100) 및 제어부(200)로 구성된다. 도 1에 도시된 객체 식별 장치(10)의 구성 요소 모두가 필수 구성 요소인 것은 아니며, 도 1에 도시된 구성 요소보다 많은 구성 요소에 의해 객체 식별 장치(10)가 구현될 수도 있고, 그보다 적은 구성 요소에 의해서도 객체 식별 장치(10)가 구현될 수도 있다.As shown in FIG. 1, the object identification device 10 includes a storage unit 100 and a control unit 200. Not all of the components of the object identification device 10 shown in FIG. 1 are essential components, and the object identification device 10 may be implemented by more components than the components shown in FIG. 1, or less. The object identification device 10 may also be implemented by a component.

제어부(200)는 이미지(또는 영상)에 대해 복수의 구역으로 나뉜 원형 또는 도넛형(또는 링형)의 특징 패턴을 적용한다. 이후, 제어부(200)는 특징 패턴에 대응하여 미리 설정된 특징맵에 포함된 단위 항목에 해당하는 구역들 중에서 미리 설정된 기준에 해당하는 구역을 선택한다. 이후, 제어부(200)는 복수의 단위 항목별로 각각 선택되는 복수의 구역의 위치 정보를 이미지에서 특징 패턴이 위치한 영역의 이미지 특징 정보로 산출한다. 또한, 제어부(200)는 이미지 중 나머지 모든 영역에 대해서도 복수의 구역으로 나뉜 원형 또는 도넛형(또는 링형)의 특징 패턴을 슬라이딩하면서 적용하여 전체 원본 이미지의 복수의 영역에 대해서 각각 이미지 특징 정보(또는 복수의 영역별 이미지 특징 정보)를 산출한다. 이후, 제어부(200)는 산출된 원본 이미지에 대한 복수의 영역별 이미지 특징 정보를 근거로 학습을 한다. 또한, 제어부(200)는 미리 학습된 복수의 이미지에 대한 복수의 영역별 이미지 특징 정보를 근거로 다른 이미지로부터 산출된 복수의 영역별 이미지 특징 정보에 대한 객체 식별 기능을 수행한다.The controller 200 applies a circular or donut-shaped (or ring-shaped) characteristic pattern divided into a plurality of zones with respect to the image (or image). Thereafter, the controller 200 selects an area corresponding to a preset reference from among areas corresponding to a unit item included in a preset feature map in response to the feature pattern. Thereafter, the controller 200 calculates the location information of a plurality of areas, each selected for each of the plurality of unit items, as image feature information of a region in which the feature pattern is located in the image. In addition, the controller 200 applies the circular or donut-shaped (or ring-shaped) characteristic pattern divided into a plurality of regions while sliding to all the remaining regions of the image, so that the image characteristic information (or Image feature information for each region) is calculated. Thereafter, the controller 200 learns based on image feature information for each of a plurality of regions for the calculated original image. In addition, the controller 200 performs an object identification function for image feature information for each region calculated from another image based on image feature information for each region for a plurality of images that have been learned in advance.

저장부(100)는 사용자 인터페이스(UI), 그래픽 사용자 인터페이스(GUI) 등을 저장한다.The storage unit 100 stores a user interface (UI), a graphic user interface (GUI), and the like.

또한, 저장부(100)는 객체 식별 장치(10)가 동작하는데 필요한 데이터와 프로그램 등을 저장한다.In addition, the storage unit 100 stores data and programs necessary for the object identification device 10 to operate.

또한, 저장부(100)는 객체 식별 장치(10)에 포함된 입력부(미도시)(또는 카메라(미도시))를 통해 촬영되는 영상(또는 이미지), 객체 식별 장치(10)에 포함된 통신부(미도시)를 통해 수신되는 영상 등을 저장한다.In addition, the storage unit 100 includes an image (or image) photographed through an input unit (not shown) (or a camera (not shown)) included in the object identification device 10, and a communication unit included in the object identification device 10 It stores images received through (not shown).

또한, 저장부(100)는 복수의 구역으로 나뉜 원형 또는 도넛형(또는 링형)의 특징 패턴, 해당 특징 패턴에 대응하는 미리 설정된 특징맵, 해당 특징맵에 포함되는 복수의(또는 하나 이상의) 단위 항목, 해당 단위 항목에 포함되는 원형 또는 도넛형의 특징 패턴에 포함된 복수의 구역 중에서 선택되는 하나 이상의 구역 정보 등을 저장한다. 여기서, 원형 또는 도넛형의 특징 패턴은 서로 다른 크기의 복수의 원본 이미지에 대해서 각각의 특징 정보를 산출할 수 있도록 설계자의 설계에 따라 다양한 크기로 설정할 수 있다.In addition, the storage unit 100 includes a circular or donut-shaped (or ring-shaped) feature pattern divided into a plurality of zones, a preset feature map corresponding to the feature pattern, and a plurality (or one or more) units included in the feature map. It stores an item, information of one or more areas selected from a plurality of areas included in a circular or donut-shaped characteristic pattern included in a corresponding unit item, and the like. Here, the circular or donut-shaped feature pattern may be set to various sizes according to the design of the designer so that feature information can be calculated for a plurality of original images having different sizes.

또한, 저장부(100)는 제어부(200)의 제어에 의해 생성되는 이미지에 대한 복수의 영역별 이미지 특징 정보, 학습 결과, 식별된(또는 인식된) 객체 정보 등을 저장한다.In addition, the storage unit 100 stores image feature information for each region, learning results, and identified (or recognized) object information, for an image generated under the control of the controller 200.

제어부(200)는 객체 식별 장치(10)의 전반적인 제어 기능을 실행한다.The control unit 200 executes an overall control function of the object identification device 10.

또한, 제어부(200)는 저장부(100)에 미리 저장된 이미지(또는 영상) 또는 통신부나 입력부를 통해 수신되는 이미지에 대해서 복수의 구역으로 나뉜 원형 또는 도넛형(또는 링형)의 특징 패턴을 적용한다.In addition, the controller 200 applies a circular or donut-shaped (or ring-shaped) characteristic pattern divided into a plurality of zones to an image (or image) previously stored in the storage unit 100 or an image received through a communication unit or an input unit. .

즉, 도 2에 도시된 바와 같이, 제어부(200)는 이미지에 대해서 원형의 특징 패턴(210)을 적용한다. 이때, 특징 패턴은 도 2에 도시된 원형뿐만 아니라, 도 3에 도시된 도넛형(310), 도 4에 도시된 이중 도넛형(410) 등과 같이, 설계자의 설계에 따라 곡선이 포함된 도형으로 다양하게 설계 변경하여 설정할 수도 있다.That is, as shown in FIG. 2, the controller 200 applies the circular feature pattern 210 to the image. In this case, the characteristic pattern is a shape including a curve according to the designer's design, such as a donut shape 310 shown in FIG. 3 and a double donut shape 410 shown in FIG. 4, as well as the circular shape shown in FIG. It can be set by changing various designs.

또한, 제어부(200)는 해당 특징 패턴에 대응하는 특징맵을 설정한다. 여기서, 해당 특징맵은 이미지에 대한 특징 정보를 추출하기 위해서 다른 객체 식별 장치들 간에 상호 공유될 수 있다. 또한, 객체 식별 장치(10)에서 사용되는 특징맵은 다른 객체 식별 장치로부터 제공받은(공유된) 특징맵일 수도 있다.In addition, the control unit 200 sets a feature map corresponding to the corresponding feature pattern. Here, the corresponding feature map may be shared with other object identification devices in order to extract feature information for the image. In addition, the feature map used in the object identification device 10 may be a feature map provided (shared) from another object identification device.

또한, 도 5에 도시된 바와 같이, 해당 특징맵(500)은 복수의(또는 하나 이상의) 단위 항목(510)을 포함한다. 여기서, 각각의 단위 항목(510)은 복수의 구역(511, 512, 513)으로 나뉘며, 각 구역(511, 512, 513)에는 원형 또는 도넛형의 특징 패턴에 포함된 복수의 구역 중에서 선택되는 구역 정보가 할당(또는 설정)(521, 522, 523)된다. 이때, 특징맵에 포함되는 단위 항목의 수와 해당 단위 항목에 포함되는 구역의 수는 설계자의 설계에 따라 다양하게 설정할 수 있다.In addition, as shown in FIG. 5, the feature map 500 includes a plurality (or one or more) unit items 510. Here, each unit item 510 is divided into a plurality of zones 511, 512, 513, and each zone 511, 512, 513 is a zone selected from a plurality of zones included in a circular or donut-shaped characteristic pattern. Information is assigned (or set) 521, 522, 523. In this case, the number of unit items included in the feature map and the number of areas included in the unit item may be variously set according to the design of the designer.

또한, 제어부(200)는 해당 특징 패턴에 대응하는 미리 설정된 특징맵을 근거로 특징맵에 포함된 단위 항목에 해당하는 구역들 중에서 미리 설정된 기준에 해당하는(또는 적합한/만족하는) 구역을 선택한다. 여기서, 미리 설정된 기준은 단위 항목에 포함된 구역들 중에서 가장 밝은 영역 또는 가장 어두운 영역인지 여부를 확인하는 정보를 포함한다. 이때, 단위 항목이 복수인 경우, 제어부(200)는 복수의 단위 항목에 대해서 각각 미리 설정된 기준에 해당하는 구역을 선택하는 과정을 반복 수행한다.In addition, the controller 200 selects an area corresponding to a preset criterion (or suitable/satisfied) from among areas corresponding to unit items included in the feature map based on a preset feature map corresponding to the corresponding feature pattern. . Here, the preset criterion includes information for determining whether the area is the brightest area or the darkest area among areas included in the unit item. In this case, when there are a plurality of unit items, the control unit 200 repeatedly performs a process of selecting an area corresponding to a preset reference for each of the plurality of unit items.

즉, 도 6에 도시된 바와 같이, 제어부(200)는 5개의 단위 항목 중에서 미리 설정된 기준인 가장 밝은 영역(또는 가장 어두운 영역)에 해당되는 구역(611, 612, 613, 614, 615)을 선택한다.That is, as shown in Fig. 6, the control unit 200 selects the areas 611, 612, 613, 614, and 615 corresponding to the brightest area (or darkest area) that is a preset reference among 5 unit items. do.

또한, 제어부(200)는 복수의(또는 하나 이상의) 단위 항목 중에서 각각 선택된 구역의 위치 정보를 해당 특징 패턴이 위치한 영역의 이미지 특징 정보로 산출(또는 설정)한다.In addition, the controller 200 calculates (or sets) the location information of each selected area among a plurality (or one or more) unit items as image feature information of the area where the corresponding feature pattern is located.

즉, 도 6에 도시된 바와 같이, 제어부(200)는 5개의 단위 항목 중에서 각각 선택된 구역(예를 들어 각 단위 항목별로 빗금 친 구역/영역)의 위치 정보(620)를 해당 특징 패턴이 위치한 영역의 이미지 특징 정보로 산출한다.That is, as shown in FIG. 6, the control unit 200 stores the location information 620 of each selected area (for example, a hatched area/area for each unit item) among five unit items. It is calculated as image feature information of.

또한, 본 발명의 실시예에서는, 해당 특징 패턴이 위치한 영역의 이미지 특징 정보가 단위 항목 중에서 각각 선택된 구역이 위치하는 위치 정보들의 조합인 것으로 설명하고 있으나, 이에 한정되는 것은 아니며, 해당 특징 패턴이 위치한 영역의 이미지 특징 정보는 단위 항목 중에서 각각 선택된 구역에 대응하는 특징 패턴의 구역 정보들의 조합일 수도 있다.In addition, in the embodiment of the present invention, the image feature information of an area in which a corresponding feature pattern is located is described as a combination of location information in which each selected area is located among unit items, but is not limited thereto, and The image feature information of the region may be a combination of region information of a feature pattern corresponding to each selected region among the unit items.

즉, 도 6에 도시된 첫 번째 단위 항목에 포함된 (0, 2, 5)의 구역 중에서 가장 밝은 영역(또는 가장 어두운 영역)에 해당하는 특징 패턴의 5 구역을 선택하고, 두 번째 단위 항목에 포함된 (1, 4, 7)의 구역 중에서 가장 밝은 영역에 해당하는 특징 패턴의 1 구역을 선택하고, 세 번째 단위 항목에 포함된 (2, 3, 6)의 구역 중에서 가장 밝은 영역에 해당하는 특징 패턴의 3 구역을 선택하고, 네 번째 단위 항목에 포함된 (4, 6, 7)의 구역 중에서 가장 밝은 영역에 해당하는 특징 패턴의 6 구역을 선택하고, 다섯 번째 단위 항목에 포함된 (0, 3, 5)의 구역 중에서 가장 밝은 영역에 해당하는 특징 패턴의 5 구역이 선택된 상태에서, 제어부(200)는 5개의 단위 항목 중에서 각각 선택된 특징 패턴의 구역 정보(예를 들어 5 구역, 1 구역, 3 구역, 6 구역, 5 구역)인 '51365'를 해당 원형의 특징 패턴이 위치한 일부 영역의 이미지 특징 정보로 산출할 수도 있다.That is, 5 areas of the feature pattern corresponding to the brightest area (or darkest area) are selected among the areas of (0, 2, 5) included in the first unit item shown in FIG. 6, and Select 1 area of the feature pattern corresponding to the brightest area among the included areas of (1, 4, 7), and select the area corresponding to the brightest area among areas of (2, 3, 6) included in the third unit item. Select 3 areas of the feature pattern, select 6 areas of the feature pattern corresponding to the brightest area among the areas of (4, 6, 7) included in the fourth unit item, and select (0 , 3, 5) in a state in which 5 areas of the feature pattern corresponding to the brightest area are selected, the control unit 200 provides area information of each selected feature pattern among 5 unit items (for example, 5 areas, 1 area , Zone 3, Zone 6, Zone 5), '51365' may be calculated as image feature information of a partial area in which a corresponding circular feature pattern is located.

또한, 제어부(200)는 이미지 중 나머지 모든 영역에 대해서도 해당 원형 또는 도넛형의 특징 패턴을 슬라이딩하면서 적용하여, 전체 원본 이미지의 복수의 영역에 대해서 각각 이미지 특징 정보(또는 복수의 영역별 이미지 특징 정보)를 산출(또는 추출/설정)한다.In addition, the control unit 200 applies the circular or donut-shaped characteristic pattern while sliding to all the remaining regions of the image, so that image characteristic information (or image characteristic information for each region) is applied to a plurality of regions of the entire original image. ) Is calculated (or extracted/set).

또한, 제어부(200)는 산출된 원본 이미지에 대한 복수의 영역별 이미지 특징 정보를 저장부(100)에 저장한다.In addition, the control unit 200 stores image characteristic information for each region of the calculated original image in the storage unit 100.

또한, 제어부(200)는 산출된 이미지에 대한 복수의 영역별 이미지 특징 정보를 근거로 학습을 한다. 이때, 해당 이미지의 경우, 제어부(200)는 미리 설정된 복수의 서로 다른 크기로 정규화한 후, 정규화된 복수의 이미지 각각에 대해서 복수의 영역별 이미지 특정 정보를 산출할 수도 있다.In addition, the control unit 200 learns based on image feature information for each region of the calculated image. In this case, in the case of the image, the controller 200 may normalize to a plurality of preset different sizes, and then calculate image specific information for each of a plurality of regions for each of the normalized images.

또한, 제어부(200)는 산출된 복수의 이미지 각각에 대한 복수의 영역별 이미지 특징 정보를 근거로 학습을 수행할 수도 있다.In addition, the controller 200 may perform learning based on image feature information for each of a plurality of areas for each of the calculated plurality of images.

또한, 제어부(200)는 학습 결과를 저장부(100)에 저장한다.In addition, the control unit 200 stores the learning result in the storage unit 100.

또한, 제어부(200)는 저장부(100)에 미리 저장된 다른 이미지(또는 영상) 또는 통신부(미도시)나 입력부(미도시)를 통해 수신되는 다른 이미지에 대해서 복수의 구역으로 나뉜 원형 또는 도넛형의 특징 패턴을 적용하여 복수의 영역별 이미지 특징 정보를 산출한다. 또한, 제어부(200)는 산출된 영상에 대한 복수의 영역별 이미지 특징 정보를 저장부(100)에 저장한다.In addition, the control unit 200 is divided into a plurality of zones for other images (or images) previously stored in the storage unit 100 or other images received through a communication unit (not shown) or an input unit (not shown). By applying the feature pattern of, image feature information for each region is calculated. In addition, the control unit 200 stores image characteristic information for each region of the calculated image in the storage unit 100.

또한, 제어부(200)는 저장부(100)에 미리 저장된(또는 학습된/등록된) 복수의 이미지에 대한 각각의 복수의 영역별 이미지 특징 정보와, 다른 이미지에 대해 산출된 복수의 영역별 이미지 특징 정보 간의 유사도를 각각 확인(또는 비교)한다.In addition, the control unit 200 includes image characteristic information for each of a plurality of regions for a plurality of images previously stored (or learned/registered) in the storage unit 100, and a plurality of images for each region calculated for other images. Each of the similarities between feature information is checked (or compared).

또한, 제어부(200)는 확인된 산출된 복수의 영역별 이미지 특징 정보와 저장부(100)에 미리 저장된 복수의 이미지에 대한 각각의 복수의 영역별 이미지 특징 정보 간의 유사도가 미리 설정된 기준값 이상인지 여부를 판단(또는 확인)한다.In addition, the control unit 200 determines whether the similarity between the calculated image feature information for each region and the image feature information for each region for a plurality of images previously stored in the storage unit 100 is greater than or equal to a preset reference value. Judge (or confirm)

즉, 제어부(200)는 확인된 복수의 유사도가 미리 설정된 기준값 이상인지 여부를 각각 판단한다.That is, the control unit 200 determines whether or not the plurality of confirmed similarities are equal to or greater than a preset reference value.

판단 결과, 확인된 복수의 유사도 중에서 미리 설정된 기준값 이상인 유사도가 존재하는 경우, 해당 유사도에 대응하는 해당 이미지 내에 목적으로 하는 객체가 존재하는 것으로 분류(또는 판단/확인)하고, 해당 이미지 내에서 해당 객체를 식별(또는 인식)하고, 식별된 객체를 저장부(100)에 저장한다.As a result of the determination, if there is a similarity greater than or equal to a preset reference value among a plurality of confirmed similarities, the object is classified (or judged/confirmed) as having the target object in the image corresponding to the similarity, and the object within the image To identify (or recognize) and store the identified object in the storage unit 100.

또한, 판단 결과, 확인된 복수의 유사도 중에서 미리 설정된 기준값 이상인 유사도가 존재하지 않는 경우, 즉 확인된 복수의 유사도 모두 미리 설정된 기준값보다 작은 경우, 제어부(200)는 해당 이미지 내에 객체가 존재하지 않는 것으로 분류한다.In addition, as a result of the determination, if there is no similarity greater than or equal to a preset reference value among the plurality of confirmed similarities, that is, if all the confirmed similarities are less than the preset reference value, the controller 200 determines that the object does not exist in the image. Classify.

이와 같이, 이미지에 대해서 원 또는 링의 형상으로 구역이 나누어진 특징 패턴을 적용하여 이미지에 대한 특징 정보를 산출할 수 있다.In this way, the feature information for the image may be calculated by applying the feature pattern in which the area is divided into a circle or ring shape to the image.

또한, 이와 같이, 원 또는 링의 형상으로 구역이 나누어진 특징 패턴에 대해서 랜덤하게 미리 설정된(또는 배열된) 특징맵을 통해 이미지에 대한 특징 정보를 산출할 수 있다.In addition, as described above, feature information for an image may be calculated through a feature map set in advance (or arranged) randomly with respect to a feature pattern in which a region is divided into a shape of a circle or a ring.

이하에서는, 본 발명에 따른 객체 식별 방법을 도 1 내지 도 9를 참조하여 상세히 설명한다.Hereinafter, an object identification method according to the present invention will be described in detail with reference to FIGS. 1 to 9.

도 7은 본 발명의 제 1 실시예에 따른 객체 식별 방법을 나타낸 흐름도이다.Figure 7 A flowchart showing an object identification method according to the first embodiment of the present invention.

먼저, 제어부(200)는 원본 이미지 중 일부 영역에 대해서 복수의 구역으로 나뉜 원형 또는 도넛형(또는 링형)의 특징 패턴을 적용한다. 여기서, 특징 패턴은 미리 설정된 크기를 갖는다.First, the controller 200 applies a circular or donut-shaped (or ring-shaped) characteristic pattern divided into a plurality of regions to a partial region of the original image. Here, the feature pattern has a preset size.

일 예로, 도 8에 도시한 바와 같이, 제어부(200)는 원본 이미지 중 일부 영역(810)에 대해서 복수의 구역으로 나뉜 원형의 특징 패턴(820)을 적용한다(S710).As an example, as shown in FIG. 8, the control unit 200 applies a circular feature pattern 820 divided into a plurality of areas to a partial area 810 of the original image (S710).

이후, 제어부(200)는 해당 특징 패턴에 대응하는 미리 설정된 특징맵을 근거로 해당 특징맵에 포함된 단위 항목에 해당하는 구역들 중에서 미리 설정된 기준에 해당하는(또는 적합한) 구역을 선택한다. 이때, 제어부(200)는 해당 특징맵에 포함된 복수의(또는 하나 이상의) 단위 항목에 대해서 미리 설정된 기준에 해당하는 구역을 선택하는 과정을 반복 수행한다. 여기서, 미리 설정된 기준은 단위 항목에 포함된 구역들 중에서 가장 밝은 영역 또는 가장 어두운 영역인지 여부를 확인하는 것일 수 있다.Thereafter, the controller 200 selects an area corresponding to (or suitable for) a preset criterion from among areas corresponding to unit items included in the corresponding feature map based on a preset feature map corresponding to the corresponding feature pattern. In this case, the control unit 200 repeatedly performs a process of selecting an area corresponding to a preset reference for a plurality of (or one or more) unit items included in the corresponding feature map. Here, the preset criterion may be to check whether the area is the brightest area or the darkest area among areas included in the unit item.

일 예로, 도 5에 도시된 바와 같이, 제어부(200)는 도 2에 도시된 원형의 특징 패턴(210)에 대응하는 미리 설정된 특징맵(500)을 근거로 해당 특징맵(500)에 포함된 단위 항목(510)에 해당하는 구역들(511, 512, 513) 중에서 미리 설정된 기준에 해당하는 구역을 선택한다.For example, as shown in FIG. 5, the controller 200 includes a feature map 500 included in the corresponding feature map 500 based on a preset feature map 500 corresponding to the circular feature pattern 210 shown in FIG. An area corresponding to a preset standard is selected from among areas 511, 512, and 513 corresponding to the unit item 510.

즉, 도 5에 도시된 바와 같이, 특징맵(500)은 첫 번째 단위 항목이 원형의 특징 패턴 중에서 (0, 2, 5)의 구역을 포함하고, 두 번째 단위 항목이 원형의 특징 패턴 중에서 (1, 4, 7)의 구역을 포함하고, 세 번째 단위 항목이 원형의 특징 패턴 중에서 (2, 3, 6)의 구역을 포함하고, 네 번째 단위 항목이 원형의 특징 패턴 중에서 (4, 6, 7)의 구역을 포함하고, 다섯 번째 단위 항목이 원형의 특징 패턴 중에서 (0, 3, 5)의 구역을 포함하는 총 5개의 단위 항목으로 구성된다. 또한, 제어부(200)는 5개의 단위 항목에 각각 포함된 구역들 중에서 미리 설정된 기준인 해당 구역들 중에서 가장 밝은 영역에 해당하는 구역을 선택한다. 즉, 도 6에 도시된 바와 같이, 제어부(200)는 첫 번째 단위 항목에 포함된 (0, 2, 5)의 구역 중에서 가장 밝은 영역인 5를 갖는 제2구역(611)을 선택(예를 들어 도 6에서는 빗금으로 표시)하고, 두 번째 단위 항목에 포함된 (1, 4, 7)의 구역 중에서 가장 밝은 영역인 1을 갖는 제0 구역(612)을 선택하고, 세 번째 단위 항목에 포함된 (2, 3, 6)의 구역 중에서 가장 밝은 영역인 3을 갖는 제1 구역(613)을 선택하고, 네 번째 단위 항목에 포함된 (4, 6, 7)의 구역 중에서 가장 밝은 영역인 6을 갖는 제1 구역(614)을 선택하고, 다섯 번째 단위 항목에 포함된 (0, 3, 5)의 구역 중에서 가장 밝은 영역인 5를 갖는 제2 구역(615)을 선택한다(S720).That is, as shown in FIG. 5, in the feature map 500, the first unit item includes an area of (0, 2, 5) in the circular feature pattern, and the second unit item is ( 1, 4, 7), the third unit item includes (2, 3, 6) of the circular feature pattern, and the fourth unit item contains (4, 6, 6) of the circular feature pattern. 7), and the fifth unit is composed of a total of 5 unit items including (0, 3, 5) of the circular feature pattern. In addition, the control unit 200 selects a region corresponding to the brightest region among corresponding regions, which are preset standards, among regions included in each of the five unit items. That is, as shown in Fig. 6, the control unit 200 selects the second area 611 having the brightest area 5, among the areas of (0, 2, 5) included in the first unit item (for example, For example, in Fig. 6), select the 0th area 612 with 1, the brightest area among the areas of (1, 4, 7) included in the second unit item, and include it in the third unit item. Select the first area (613) with 3, the brightest area among the areas of (2, 3, 6), and select 6, the brightest area among the areas of (4, 6, 7) included in the fourth unit item. A first area 614 having a is selected, and a second area 615 having 5, which is the brightest area, among (0, 3, 5) areas included in the fifth unit item is selected (S720).

이후, 제어부(200)는 복수의(또는 하나 이상의) 단위 항목 중에서 각각 선택된 구역의 위치 정보를 해당 이미지에서 특징 패턴이 위치한 영역의 이미지 특징 정보로 산출(또는 설정)한다. 이때, 제어부(200)는 단위 항목 중에서 각각 선택된 구역에 대응하는 특징 패턴의 구역 정보를 해당 이미지에서 특징 패턴이 위치한 영역의 이미지 특징 정보로 산출할 수도 있다.Thereafter, the controller 200 calculates (or sets) the location information of each selected area from among a plurality of (or one or more) unit items as image feature information of the area where the feature pattern is located in the corresponding image. In this case, the controller 200 may calculate area information of a feature pattern corresponding to each selected area from among the unit items as image feature information of an area in which the feature pattern is located in the corresponding image.

일 예로, 도 6에 도시된 바와 같이, 제어부(200)는 5개의 단위 항목 중에서 각각 선택된 구역(예를 들어 제2 구역, 제0 구역, 제1 구역, 제1 구역 및 제2 구역)의 위치 정보인 '20112'(620)을 해당 이미지에서 원형의 특징 패턴이 위치한 일부 영역의 이미지 특징 정보로 산출한다(S730).As an example, as shown in FIG. 6, the control unit 200 is the location of each selected area (for example, the second area, the 0 area, the first area, the first area, and the second area) among five unit items. Information '20112' (620) is calculated as image feature information of a partial area in which a circular feature pattern is located in the image (S730).

이후, 제어부(200)는 원본 이미지 중 나머지 모든 영역에 대해서도 해당 원형 또는 도넛형의 특징 패턴을 슬라이딩하면서 적용하여, 전체 원본 이미지의 복수의 영역에 대해서 각각 이미지 특징 정보(또는 복수의 영역별 이미지 특징 정보)를 산출(또는 추출/설정)한다.Thereafter, the control unit 200 applies the circular or donut-shaped feature pattern while sliding the corresponding circular or donut-shaped feature pattern to all the remaining regions of the original image, and image feature information (or image feature for each region) is Information) is calculated (or extracted/set).

또한, 제어부(200)는 산출된 원본 이미지에 대한 복수의 영역별 이미지 특징 정보를 저장부(100)에 저장한다(S740).In addition, the control unit 200 stores image characteristic information for each region of the calculated original image in the storage unit 100 (S740).

이후, 제어부(200)는 산출된 원본 이미지에 대한 복수의 영역별 이미지 특징 정보를 근거로 학습을 한다.Thereafter, the controller 200 learns based on image feature information for each of a plurality of regions for the calculated original image.

또한, 제어부(200)는 학습 결과를 저장부(100)에 저장한다(S750).In addition, the control unit 200 stores the learning result in the storage unit 100 (S750).

도 9는 본 발명의 제 2 실시예에 따른 객체 식별 방법을 나타낸 흐름도이다.9 is A flowchart showing an object identification method according to a second embodiment of the present invention.

먼저, 제어부(200)는 저장부(100)에 미리 저장된 이미지(또는 영상) 또는 통신부(미도시)나 입력부(미도시)를 통해 수신되는 이미지에 대해서 복수의 구역으로 나뉜 원형 또는 도넛형(또는 링형)의 특징 패턴을 적용하여 복수의 영역별 이미지 특징 정보를 산출한다.First, the controller 200 is divided into a plurality of zones for an image (or image) previously stored in the storage unit 100 or an image received through a communication unit (not shown) or an input unit (not shown). Ring-shaped) feature pattern is applied to calculate image feature information for a plurality of areas.

또한, 제어부(200)는 산출된 이미지에 대한 복수의 영역별 이미지 특징 정보를 저장부(100)에 저장한다(S910).In addition, the control unit 200 stores image characteristic information for each region of the calculated image in the storage unit 100 (S910).

이후, 제어부(200)는 산출된 복수의 영역별 이미지 특징 정보와 저장부(100)에 미리 저장된(또는 학습된/등록된) 복수의 이미지에 대한 각각의 복수의 영역별 이미지 특징 정보 간의 유사도를 각각 확인(또는 비교)한다.Thereafter, the control unit 200 determines the similarity between the calculated image feature information for each region and the image feature information for each region for a plurality of images previously stored (or learned/registered) in the storage unit 100. Check (or compare) each.

일 예로, 제어부(200)는 산출된 복수의 영역별 이미지 특징 정보와 저장부(100)에 미리 학습된 ○○개의 이미지에 대한 각각의 복수의 영역별 이미지 특징 정보 간의 유사도를 각각 확인한다(S920).For example, the control unit 200 checks the similarity between the calculated image feature information for each region and the image feature information for each region for the ○○ images that have been learned in advance in the storage unit 100 (S920). ).

이후, 제어부(200)는 확인된 산출된 복수의 영역별 이미지 특징 정보와 저장부(100)에 미리 저장된 복수의 이미지에 대한 각각의 복수의 영역별 이미지 특징 정보 간의 유사도가 미리 설정된 기준값 이상인지 여부를 판단(또는 확인)한다.Thereafter, the control unit 200 determines whether the similarity between the calculated image feature information for each region and the image feature information for each region for a plurality of images previously stored in the storage unit 100 is greater than or equal to a preset reference value. Judge (or confirm)

즉, 제어부(200)는 확인된 복수의 유사도가 미리 설정된 기준값 이상인지 여부를 각각 판단한다.That is, the control unit 200 determines whether or not the plurality of confirmed similarities are equal to or greater than a preset reference value.

일 예로, 제어부(200)는 확인된 ○○개의 유사도가 미리 설정된 기준값 이상인지 여부를 각각 판단한다(S930).As an example, the control unit 200 determines whether the confirmed similarity of ○○ is equal to or greater than a preset reference value (S930).

판단 결과, 확인된 유사도가 미리 설정된 기준값 이상인 경우, 제어부(200)는 해당 이미지 내에 목적으로 하는 객체가 존재하는 것으로 분류(또는 판단/확인)하고, 해당 이미지 내에서 해당 객체를 식별(또는 인식)하고, 식별된 객체를 저장부(100)에 저장한다.As a result of the determination, if the confirmed similarity is greater than or equal to a preset reference value, the controller 200 classifies (or judges/confirms) the target object as being present in the image, and identifies (or recognizes) the object within the image. And, the identified object is stored in the storage unit 100.

일 예로, 판단 결과, 확인된 ○○개의 유사도 중에서 미리 설정된 기준값 이상인 유사도가 존재할 때, 제어부(200)는 해당 기준값 이상인 유사도에 대응하는 저장부(100)에 미리 학습된 복수의 영역별 이미지 특징 정보를 근거로 입력 이미지 내에서 해당 객체를 식별하고, 식별된 객체를 저장부(100)에 저장한다(S940).For example, as a result of the determination, when there is a similarity greater than or equal to a preset reference value among the confirmed ○○ similarity, the control unit 200 pre-learns image feature information for a plurality of areas previously learned in the storage unit 100 corresponding to the similarity greater than or equal to the reference value. Based on, the object is identified in the input image, and the identified object is stored in the storage unit 100 (S940).

또한, 판단 결과, 확인된 유사도가 미리 설정된 기준값보다 작은 경우, 제어부(200)는 해당 이미지 내에 목적으로 하는 객체가 존재하지 않는 것으로 분류한다.In addition, as a result of the determination, when the confirmed similarity is less than a preset reference value, the controller 200 classifies that the target object does not exist in the image.

일 예로, 판단 결과, 확인된 ○○개의 유사도 모두가 미리 설정된 기준값보다 작을 때, 제어부(200)는 해당 이미지 내에 객체가 존재하지 않는 것으로 분류한다(S950).For example, as a result of the determination, when all of the confirmed similarities of ○○ are smaller than a preset reference value, the controller 200 classifies that the object does not exist in the corresponding image (S950).

본 발명의 실시예에 따른 객체 식별 장치 및 그 방법은 컴퓨터 프로그램으로 작성 가능하며, 컴퓨터 프로그램을 구성하는 코드들 및 코드 세그먼트들은 당해 분야의 컴퓨터 프로그래머에 의하여 용이하게 추론될 수 있다. 또한, 해당 컴퓨터 프로그램은 컴퓨터가 읽을 수 있는 정보저장매체(computer readable media)에 저장되고, 컴퓨터나 본 발명의 실시예에 따른 객체 식별 장치, 사용자 장치(또는 단말) 등에 의하여 읽혀지고 실행됨으로써 객체 식별 장치 및 그 방법을 구현할 수 있다.The object identification apparatus and method according to an embodiment of the present invention can be written in a computer program, and codes and code segments constituting the computer program can be easily inferred by a computer programmer in the art. In addition, the computer program is stored in a computer readable media and is read and executed by a computer, an object identification device according to an embodiment of the present invention, a user device (or terminal), etc. The device and the method can be implemented.

정보저장매체는 자기 기록매체, 광 기록매체 및 캐리어 웨이브 매체를 포함한다. 본 발명의 실시예에 따른 객체 식별 장치 및 그 방법을 구현하는 컴퓨터 프로그램은 객체 식별 장치, 사용자 장치 등의 내장 메모리에 저장 및 설치될 수 있다. 또는, 본 발명의 실시예에 따른 객체 식별 장치 및 그 방법을 구현하는 컴퓨터 프로그램을 저장 및 설치한 스마트 카드 등의 외장 메모리가 인터페이스를 통해 객체 식별 장치, 사용자 장치 등에 장착될 수도 있다.Information storage media include magnetic recording media, optical recording media, and carrier wave media. An object identification device and a computer program implementing the method according to an embodiment of the present invention may be stored and installed in an internal memory such as an object identification device or a user device. Alternatively, an object identification device according to an embodiment of the present invention and an external memory such as a smart card in which a computer program implementing the method is stored and installed may be mounted on an object identification device or a user device through an interface.

본 발명의 실시예는 앞서 설명된 바와 같이, 이미지에 대해서 원 또는 링의 형상으로 구역이 나누어진 특징 패턴을 적용하여 이미지에 대한 특징 정보를 산출하여, 곡면을 포함하는 객체에 대한 특징 추출 성능을 향상시킬 수 있다.As described above, an embodiment of the present invention calculates feature information for an image by applying a feature pattern divided into a circle or a ring shape to an image, and thus provides feature extraction performance for an object including a curved surface. Can be improved.

또한, 본 발명의 실시예는 앞서 설명된 바와 같이, 원 또는 링의 형상으로 구역이 나누어진 특징 패턴에 대해서 랜덤하게 미리 설정된(또는 배열된) 특징맵을 통해 이미지에 대한 특징 정보를 산출하여, 곡면을 포함하는 객체의 식별 효율을 향상시키고, 한 번에 특징을 추출할 수 있는 영역이 넓어 빠른 처리를 수행할 수 있다.In addition, as described above, the embodiment of the present invention calculates feature information for an image through a feature map set in advance (or arranged) randomly for a feature pattern divided into a shape of a circle or a ring, It is possible to improve the identification efficiency of an object including a curved surface, and to perform fast processing because the area in which features can be extracted at a time is wide.

전술된 내용은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above contents may be modified and modified without departing from the essential characteristics of the present invention by those of ordinary skill in the technical field to which the present invention belongs. Accordingly, the embodiments disclosed in the present invention are not intended to limit the technical idea of the present invention, but to explain the technical idea, and the scope of the technical idea of the present invention is not limited by these embodiments. The scope of protection of the present invention should be interpreted by the following claims, and all technical ideas within the scope equivalent thereto should be interpreted as being included in the scope of the present invention.

본 발명은 객체 식별을 위한 특징점 학습 시, 이미지에 대해서 원 또는 링의 형상으로 구역이 나누어진 특징 패턴을 적용하여 이미지에 대한 특징 정보를 산출하고, 산출된 특징 정보를 근거로 학습 및 객체 식별을 수행함으로써 곡면을 포함하는 객체에 대한 특징 추출 성능을 향상시키고 곡면을 포함하는 객체의 식별 효율을 향상시키고, 한 번에 특징을 추출할 수 있는 영역이 넓어 빠른 처리를 수행하는 것으로, 영상 처리 분야, 객체 식별/인식 분야 등에서 광범위하게 이용될 수 있다.The present invention calculates feature information for an image by applying a feature pattern divided into a circle or ring shape to an image when learning feature points for object identification, and performs learning and object identification based on the calculated feature information. By doing so, it improves the feature extraction performance for the object including the curved surface, improves the identification efficiency of the object including the curved surface, and performs fast processing due to a wide area in which features can be extracted at a time. It can be widely used in the field of object identification/recognition.

10: 객체 식별 장치 100: 저장부
200: 제어부
10: object identification device 100: storage
200: control unit

Claims (15)

이미지에 대해 복수의 구역으로 나뉜 원형 또는 도넛형의 특징 패턴을 적용하고, 상기 특징 패턴에 대응하는 미리 설정된 특징맵을 근거로 상기 특징맵의 단위 항목에 포함된 구역들 중에서 미리 설정된 기준에 해당하는 구역을 선택하고, 상기 특징맵에 포함된 복수의 단위 항목별로 각각 선택된 구역의 위치 정보를 상기 이미지에서 상기 특징 패턴이 위치한 영역의 이미지 특징 정보로 산출하는 제어부; 및
상기 산출된 특징 패턴이 위치한 영역의 이미지 특징 정보를 저장하는 저장부를 포함하며,
상기 제어부는, 상기 특징 패턴이 위치한 영역의 이미지 특징 정보를 산출할 때, 상기 복수의 단위 항목별로 각각 선택된 구역에 대응하는 상기 특징 패턴의 구역 정보를 상기 특징 패턴이 위치한 영역의 이미지 특징 정보로 산출하는 것을 특징으로 하는 객체 식별 장치.
A circular or donut-shaped feature pattern divided into a plurality of areas is applied to an image, and based on a preset feature map corresponding to the feature pattern, a preset criterion is applied among the areas included in the unit item of the feature map. A control unit that selects a region and calculates location information of each selected region for each of a plurality of unit items included in the feature map as image feature information of a region where the feature pattern is located in the image; And
And a storage unit for storing image feature information of an area in which the calculated feature pattern is located,
When calculating the image feature information of the region where the feature pattern is located, the control unit calculates region information of the feature pattern corresponding to each selected region for each of the plurality of unit items as image feature information of the region where the feature pattern is located. Object identification device, characterized in that.
삭제delete 삭제delete 삭제delete 삭제delete 제1항에 있어서,
상기 저장부는 복수의 이미지에 대한 복수의 영역별 이미지 특징 정보가 저장되며,
상기 제어부는, 특정 이미지에 대해서 상기 원형 또는 도넛형의 특징 패턴을 적용하여 산출된 복수의 영역별 이미지 특징 정보와 상기 저장부에 저장된 복수의 이미지에 대한 각각의 복수의 영역별 이미지 특징 정보 간의 유사도를 확인하고, 상기 확인된 유사도를 근거로 상기 특정 이미지 내에 목적으로 하는 객체의 존재 여부를 판단하는 것을 특징으로 하는 객체 식별 장치.
The method of claim 1,
The storage unit stores image characteristic information for a plurality of areas for a plurality of images,
The control unit includes a degree of similarity between image feature information for a plurality of areas calculated by applying the circular or donut-shaped feature pattern to a specific image and image feature information for each of a plurality of areas for a plurality of images stored in the storage unit. And determining whether a target object exists in the specific image based on the checked similarity.
삭제delete 삭제delete 삭제delete 제어부를 통해 이미지에 대해 복수의 구역으로 나뉜 원형 또는 도넛형의 특징 패턴을 적용하는 단계;
상기 제어부를 통해 상기 특징 패턴에 대응하는 미리 설정된 특징맵을 근거로 상기 특징맵의 단위 항목에 포함된 구역들 중에서 미리 설정된 기준에 해당하는 구역을 선택하는 단계;
상기 제어부를 통해 상기 특징맵에 포함된 복수의 단위 항목별로 각각 선택된 구역의 위치 정보를 상기 이미지에서 상기 특징 패턴이 위치한 영역의 이미지 특징 정보로 산출하는 단계; 및
저장부에 상기 산출된 특징 패턴이 위치한 영역의 이미지 특징 정보를 저장하는 단계를 포함하며,
상기 이미지에서 상기 특징 패턴이 위치한 영역의 이미지 특징 정보로 산출하는 단계는, 상기 특징 패턴이 위치한 영역의 이미지 특징 정보를 산출할 때, 상기 복수의 단위 항목별로 각각 선택된 구역에 대응하는 상기 특징 패턴의 구역 정보를 상기 특징 패턴이 위치한 영역의 이미지 특징 정보로 산출하는 것을 특징으로 하는 객체 식별 방법.
Applying a circular or donut-shaped feature pattern divided into a plurality of zones to the image through a control unit;
Selecting an area corresponding to a preset reference from among areas included in a unit item of the feature map based on a preset feature map corresponding to the feature pattern through the control unit;
Calculating, through the control unit, location information of each selected area for each of a plurality of unit items included in the feature map as image feature information of an area in which the feature pattern is located in the image; And
And storing image feature information of an area in which the calculated feature pattern is located in a storage unit,
The calculating of the image characteristic information of the region where the characteristic pattern is located in the image may include, when calculating image characteristic information of the region where the characteristic pattern is located, the characteristic pattern corresponding to each selected region for each of the plurality of unit items. The object identification method, characterized in that calculating area information as image feature information of an area in which the feature pattern is located.
제10항에 있어서,
상기 제어부를 통해 상기 특징맵에 포함된 복수의 단위 항목에 대해서 상기 단위 항목별로 상기 기준에 해당하는 구역을 선택하는 과정을 반복 수행하는 단계;
상기 제어부를 통해 상기 이미지 중 나머지 모든 영역에 대해서 상기 원형 또는 도넛형의 특징 패턴을 슬라이딩하면서 적용하여, 전체 이미지의 복수의 영역에 대해서 복수의 영역별 이미지 특징 정보를 산출하는 단계; 및
상기 제어부를 통해 상기 산출된 전체 이미지에 대한 복수의 영역별 이미지 특징 정보를 근거로 학습을 수행하는 단계;를 더 포함하는 것을 특징으로 하는 객체 식별 방법.
The method of claim 10,
Repeatedly performing a process of selecting an area corresponding to the reference for each unit item for a plurality of unit items included in the feature map through the control unit;
Calculating image feature information for a plurality of areas for a plurality of areas of the entire image by sliding and applying the circular or donut-shaped feature pattern to all remaining areas of the image through the control unit; And
And performing learning based on image feature information for each of a plurality of regions with respect to the calculated whole image through the control unit.
삭제delete 제10항에 있어서,
상기 제어부를 통해 상기 이미지에 대해서 원형 또는 도넛형의 특징 패턴을 적용하여 산출된 복수의 영역별 이미지 특징 정보와 상기 저장부에 저장된 복수의 이미지에 대한 각각의 복수의 영역별 이미지 특징 정보 간의 유사도를 확인하는 단계; 및
상기 제어부를 통해 상기 확인된 유사도를 근거로 상기 이미지 내에 목적으로 하는 객체의 존재 여부를 판단하는 단계를 더 포함하는 것을 특징으로 하는 객체 식별 방법.
The method of claim 10,
The similarity between image feature information for each of a plurality of regions calculated by applying a circular or donut-shaped feature pattern to the image through the control unit and image feature information for each of a plurality of regions for a plurality of images stored in the storage unit Confirming; And
And determining whether or not a target object exists in the image based on the confirmed similarity through the control unit.
제13항에 있어서,
상기 객체의 존재 여부를 판단하는 단계는,
상기 제어부를 통해 상기 확인된 유사도가 미리 설정된 기준값 이상인지 여부를 판단하는 과정;
상기 판단 결과, 상기 확인된 유사도가 상기 미리 설정된 기준값 이상일 때, 상기 제어부를 통해 상기 이미지 내에 목적으로 하는 객체의 존재 여부를 판단하고, 상기 이미지 내에서 객체를 식별하는 과정; 및
상기 판단 결과, 상기 확인된 유사도가 상기 미리 설정된 기준값보다 작을 때, 상기 제어부를 통해 상기 이미지 내에 목적으로 하는 객체가 존재하지 않는 것으로 판단하는 과정;을 포함하는 것을 특징으로 하는 객체 식별 방법.
The method of claim 13,
The step of determining whether the object exists,
Determining whether the checked similarity is greater than or equal to a preset reference value through the control unit;
When the determined similarity is greater than or equal to the preset reference value, determining whether a target object exists in the image through the control unit, and identifying an object in the image; And
And determining that a target object does not exist in the image through the control unit when the determined similarity is less than the preset reference value as a result of the determination.
삭제delete
KR1020140026749A 2014-03-06 2014-03-06 Object identification apparatus, method thereof and computer readable medium having computer program recorded therefor KR102203000B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020140026749A KR102203000B1 (en) 2014-03-06 2014-03-06 Object identification apparatus, method thereof and computer readable medium having computer program recorded therefor
PCT/KR2014/010555 WO2015133699A1 (en) 2014-03-06 2014-11-05 Object recognition apparatus, and recording medium in which method and computer program therefor are recorded

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140026749A KR102203000B1 (en) 2014-03-06 2014-03-06 Object identification apparatus, method thereof and computer readable medium having computer program recorded therefor

Publications (2)

Publication Number Publication Date
KR20150104857A KR20150104857A (en) 2015-09-16
KR102203000B1 true KR102203000B1 (en) 2021-01-14

Family

ID=54244404

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140026749A KR102203000B1 (en) 2014-03-06 2014-03-06 Object identification apparatus, method thereof and computer readable medium having computer program recorded therefor

Country Status (1)

Country Link
KR (1) KR102203000B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101940800B1 (en) * 2018-09-19 2019-01-22 주식회사 한국에스지티 Editing system for drawing image by synthesize part of image

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001101405A (en) * 1999-09-30 2001-04-13 Matsushita Electric Ind Co Ltd Method and device for recognizing image
US20090232403A1 (en) 2005-06-15 2009-09-17 Matsushita Electric Industrial Co., Ltd. Object detecting apparatus and learning apparatus for the same
US20120269384A1 (en) 2011-04-19 2012-10-25 Jones Michael J Object Detection in Depth Images

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0765175A (en) * 1993-08-31 1995-03-10 Matsushita Electric Ind Co Ltd Position recognizing method
AUPQ291299A0 (en) 1999-09-17 1999-10-07 Silverbrook Research Pty Ltd A self mapping surface and related applications

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001101405A (en) * 1999-09-30 2001-04-13 Matsushita Electric Ind Co Ltd Method and device for recognizing image
US20090232403A1 (en) 2005-06-15 2009-09-17 Matsushita Electric Industrial Co., Ltd. Object detecting apparatus and learning apparatus for the same
US20120269384A1 (en) 2011-04-19 2012-10-25 Jones Michael J Object Detection in Depth Images

Also Published As

Publication number Publication date
KR20150104857A (en) 2015-09-16

Similar Documents

Publication Publication Date Title
CN108460389B (en) Type prediction method and device for identifying object in image and electronic equipment
CN106446816B (en) Face recognition method and device
JP5775225B2 (en) Text detection using multi-layer connected components with histograms
CN104217203B (en) Complex background card face information identifying method and system
JP5929896B2 (en) Image recognition system, image recognition method, and image recognition program
EP3203417B1 (en) Method for detecting texts included in an image and apparatus using the same
US20140023278A1 (en) Feature Extraction And Use With A Probability Density Function (PDF) Divergence Metric
WO2013112753A1 (en) Rules for merging blocks of connected components in natural images
EP2875470A1 (en) Parameter selection and coarse localization of regions of interest for mser!processing
KR102655789B1 (en) Face detecting method and apparatus
US9396407B2 (en) Image recognition device, recording medium, and image recognition method
CN114238904B (en) Identity recognition method, and training method and device of dual-channel hyper-resolution model
KR102224936B1 (en) Learning apparatus and method for detecting features in an extended region for object recognition and computer readable medium having computer program recorded therefor
CN110717484B (en) Image processing method and system
KR20150108565A (en) Apparatus for searching image based on template, method thereof and computer readable medium having computer program recorded therefor
KR102203000B1 (en) Object identification apparatus, method thereof and computer readable medium having computer program recorded therefor
US10977527B2 (en) Method and apparatus for detecting door image by using machine learning algorithm
KR102238672B1 (en) Multiclass classification apparatus, method thereof and computer readable medium having computer program recorded therefor
Yamamoto et al. A proposal for the global and collaborative PBL learning environment where all global members on different campuses are
KR102221684B1 (en) Multiclass classification apparatus, method thereof and computer readable medium having computer program recorded therefor
KR102223684B1 (en) Object identification apparatus, method thereof and computer readable medium having computer program recorded therefor
US10832415B2 (en) Window image detection method and device
US8903170B2 (en) Image processing apparatus, image processing method, and non-transitory computer readable medium
KR102256057B1 (en) Apparatus for providing a search result based on posture of object, method thereof and computer readable medium having computer program recorded therefor
WO2013154062A1 (en) Image recognition system, image recognition method, and program

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right