KR20150108567A - Object identification apparatus, method thereof and computer readable medium having computer program recorded therefor - Google Patents

Object identification apparatus, method thereof and computer readable medium having computer program recorded therefor Download PDF

Info

Publication number
KR20150108567A
KR20150108567A KR1020140031510A KR20140031510A KR20150108567A KR 20150108567 A KR20150108567 A KR 20150108567A KR 1020140031510 A KR1020140031510 A KR 1020140031510A KR 20140031510 A KR20140031510 A KR 20140031510A KR 20150108567 A KR20150108567 A KR 20150108567A
Authority
KR
South Korea
Prior art keywords
image
pattern
regions
feature
region
Prior art date
Application number
KR1020140031510A
Other languages
Korean (ko)
Other versions
KR102223684B1 (en
Inventor
장언동
전혁준
신형철
전병기
Original Assignee
에스케이플래닛 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에스케이플래닛 주식회사 filed Critical 에스케이플래닛 주식회사
Priority to KR1020140031510A priority Critical patent/KR102223684B1/en
Priority to PCT/KR2014/010555 priority patent/WO2015133699A1/en
Publication of KR20150108567A publication Critical patent/KR20150108567A/en
Application granted granted Critical
Publication of KR102223684B1 publication Critical patent/KR102223684B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures

Abstract

In the present invention, disclosed are an object identification apparatus, a method thereof, and a recording medium recorded with a computer program. Accordingly, the present invention, in learning features for object identification, applies a random pattern map on an image with respect to a pixel in a dead zone, and calculates the average brightness of the dead zone by designating a white pattern and a black pattern to have a feature index expressed, thereby rapidly calculating the brightness of a partial region by applying a descriptor of a high velocity average method.

Description

객체 식별 장치, 그 방법 및 컴퓨터 프로그램이 기록된 기록매체{Object identification apparatus, method thereof and computer readable medium having computer program recorded therefor}BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an object identification apparatus, an object identification apparatus, a method thereof, and a recording medium on which a computer program is recorded.

본 발명은 객체 식별 장치, 그 방법 및 컴퓨터 프로그램이 기록된 기록매체에 관한 것으로, 특히 이미지에 대해서 사각 영역의 픽셀에 대한 랜덤 패턴 맵을 적용하며, 화이트 패턴과 블랙 패턴을 지정하여 특징 인덱스를 표현하도록 하여 사각 영역의 밝기 평균을 산출하는 객체 식별 장치, 그 방법 및 컴퓨터 프로그램이 기록된 기록매체에 관한 것이다.The present invention relates to an object identification apparatus, a method thereof, and a recording medium on which a computer program is recorded. In particular, a random pattern map for pixels in a rectangular area is applied to an image, a white pattern and a black pattern are designated, An object identification device for calculating a brightness average of a rectangular area, a method thereof, and a recording medium on which a computer program is recorded.

학습 방식 객체 식별은 이미지(또는 영상)로부터 획득되는 특징(또는 특징점)을 근거로 이루어지며, 각 특징을 다양한 형태의 디스크립터로 표현한다.Learning method Object identification is based on features (or feature points) obtained from an image (or image), and expresses each feature with various types of descriptors.

이러한 학습 방식 객체 식별은 하 라이크 피처(Harr-like feature) 방식을 이용하며, 해당 하 라이크 피처 방식은 이미지에 대해서 특정 패턴을 적용함에 따라 연산 시간이 증가하고 많은 트레이닝을 필요로 한다.This learning method object identification uses a Harr-like feature method, and the corresponding halftone feature method increases computation time and requires a lot of training by applying a specific pattern to an image.

한국등록특허 제10-1064080호 [명칭: 자기 공명 영상에서 밝기 값 분포 및 기울기 정보를 이용한 활성 형상 모델 기반 적립선 영상 자동 분할 장치 및 방법]Korean Registered Patent No. 10-1064080 [Title: An Automatic Shape-Based Fill-Line Image Separation Device and Method Using Brightness Value Distribution and Slope Information in Magnetic Resonance Imaging]

본 발명의 목적은 이미지에 대해서 복수 구역으로 나누어진 특징 패턴을 적용하여 이미지에 대한 특징 정보를 산출하는 객체 식별 장치, 그 방법 및 컴퓨터 프로그램이 기록된 기록매체를 제공하는 데 있다.It is an object of the present invention to provide an object identifying apparatus for calculating feature information on an image by applying a feature pattern divided into a plurality of regions to an image, a method thereof, and a recording medium on which a computer program is recorded.

본 발명의 다른 목적은 복수 구역으로 나누어진 특징 패턴에 대해서 랜덤하게 화이트 패턴과 블랙 패턴으로 미리 설정된(또는 배열된) 특징맵을 통해 이미지의 일부 영역에 대한 밝기 평균을 산출하여 해당 이미지에 대한 특징 정보를 산출하는 객체 식별 장치, 그 방법 및 컴퓨터 프로그램이 기록된 기록매체를 제공하는 데 있다.Another object of the present invention is to provide a method and apparatus for calculating a brightness average for a partial area of an image through a feature map that is preset (or arranged) in a random pattern of white patterns and black patterns, An object identifying device for calculating information, a method thereof, and a recording medium on which a computer program is recorded.

본 발명의 실시예에 따른 객체 식별 장치는 이미지에 대해 복수의 구역으로 나뉜 사각형의 특징 패턴을 적용하고, 특징 패턴에 대응하는 미리 설정된 특징맵을 근거로 특징맵의 단위 항목에 포함된 하나 이상의 화이트 패턴 구역 및 하나 이상의 블랙 패턴 구역을 각각 선택하고, 특징맵에 포함된 하나 이상의 단위 항목별로 각각 선택된 하나 이상의 화이트 패턴 구역 및 하나 이상의 블랙 패턴 구역에 대한 정보를 이미지에서 특징 패턴이 위치한 영역의 이미지 특징 정보로 산출하는 제어부; 및 산출된 특징 패턴이 위치한 영역의 이미지 특징 정보를 저장하는 저장부를 포함할 수 있다.The object identification apparatus according to an embodiment of the present invention applies a feature pattern of a quadrangle divided into a plurality of regions to an image and generates a feature map including at least one white Pattern regions and one or more black pattern regions, respectively, and information on one or more white pattern regions and one or more black pattern regions selected for each of the one or more unit items included in the feature map, A control unit for calculating information; And a storage unit for storing image feature information of an area where the calculated feature pattern is located.

본 발명과 관련된 일 예로서 특징 패턴에 포함되는 복수의 구역 각각은 하나의 픽셀 또는 복수의 픽셀로 형성할 수 있다.As an example related to the present invention, each of the plurality of regions included in the characteristic pattern may be formed of one pixel or a plurality of pixels.

본 발명과 관련된 일 예로서 화이트 패턴 구역 및 블랙 패턴 구역은 특징맵에 포함된 복수의 구역 중 하나 이상의 구역에 대한 정보를 각각 포함할 수 있다.As an example related to the present invention, the white pattern area and the black pattern area may each include information on one or more of the plurality of areas included in the feature map.

본 발명과 관련된 일 예로서 제어부는 하나 이상의 단위 항목별로 각각 선택된 하나 이상의 화이트 패턴 구역의 휘도값의 평균값 및 하나 이상의 블랙 패턴 구역의 휘도값의 평균값을 특징 패턴이 위치한 영역의 이미지 특징 정보로 산출할 수 있다.As an example related to the present invention, the controller calculates the average value of the luminance values of one or more white pattern regions and the average value of the luminance values of one or more black pattern regions, which are respectively selected for one or more unit items, .

본 발명과 관련된 일 예로서 제어부는 단위 항목별로 하나 이상의 화이트 패턴 구역의 휘도값의 평균값 및 하나 이상의 블랙 패턴 구역의 휘도값의 평균값을 각각 산출하고, 산출된 화이트 패턴 구역의 휘도값의 평균값과 산출된 블랙 패턴 구역의 휘도값의 평균값 간의 차이를 특징 패턴이 위치한 영역의 이미지 특징 정보로 산출할 수 있다.As an example related to the present invention, the controller may calculate an average value of the luminance values of one or more white pattern regions and an average value of the luminance values of one or more black pattern regions for each unit item, and calculate an average value of the luminance values of the calculated white pattern region, The difference between the average values of the luminance values of the black pattern regions can be calculated as the image characteristic information of the region where the characteristic pattern is located.

본 발명과 관련된 일 예로서 제어부는 이미지 중 나머지 모든 영역에 대해서 복수의 구역으로 나뉜 사각형의 특징 패턴을 슬라이딩하면서 적용하여, 전체 이미지의 복수의 영역에 대해서 복수의 영역별 이미지 특징 정보를 산출하고, 산출된 전체 이미지에 대한 복수의 영역별 이미지 특징 정보를 근거로 학습을 수행할 수 있다.As an example related to the present invention, the control unit slides and applies a feature pattern of a quadrangle divided into a plurality of regions to all the remaining regions of the image, calculates a plurality of regions image feature information for a plurality of regions of the entire image, Learning can be performed on the basis of a plurality of region-by-region image feature information for the entire image.

본 발명의 실시예에 따른 객체 식별 장치는 미리 설정된 특징 맵을 구성하는 단위 항목별 하나 이상의 화이트 패턴 구역의 휘도값의 평균값 및 하나 이상의 블랙 패턴 구역의 휘도값의 평균값으로 설정된 복수의 이미지에 대한 복수의 영역별 이미지 특징 정보를 저장하는 저장부; 및 이미지에 대해서 복수의 구역으로 나뉜 사각형의 특징 패턴을 적용하여 산출된 복수의 영역별 이미지 특징 정보와 저장부에 저장된 복수의 이미지에 대한 각각의 복수의 영역별 이미지 특징 정보 간의 유사도를 확인하고, 확인된 유사도를 근거로 이미지 내에 목적으로 하는 객체의 존재 여부를 판단하는 제어부를 포함할 수 있다.The object identification apparatus according to an embodiment of the present invention may include a plurality of image patterns for a plurality of images set as an average value of luminance values of one or more white pattern regions and unit luminance values of one or more black pattern regions, A storage unit for storing image characteristic information for each region of the image; And a similarity between a plurality of image feature information for each region calculated by applying a feature pattern of a quadrangle divided into a plurality of regions to an image and a plurality of image feature information for each region for a plurality of images stored in the storage, And a controller for determining whether a target object exists in the image based on the determined similarity.

본 발명과 관련된 일 예로서 제어부는, 확인된 유사도가 미리 설정된 기준값 이상일 때, 이미지 내에 목적으로 하는 객체의 존재 여부를 판단하고, 이미지 내에서 객체를 식별할 수 있다.As an example related to the present invention, when the identified similarity degree is equal to or greater than a preset reference value, the controller can determine whether or not a target object exists in the image and identify the object in the image.

본 발명과 관련된 일 예로서 제어부는, 확인된 유사도가 미리 설정된 기준값보다 작을 때, 이미지 내에 목적으로 하는 객체가 존재하지 않는 것으로 판단할 수 있다.As an example related to the present invention, when the determined similarity degree is smaller than a preset reference value, it can be determined that there is no object in the image.

본 발명의 실시예에 따른 객체 식별 방법은 제어부를 통해 이미지에 대해 복수의 구역으로 나뉜 사각형의 특징 패턴을 적용하는 단계; 제어부를 통해 특징 패턴에 대응하는 미리 설정된 특징맵을 근거로 특징맵의 단위 항목에 포함된 하나 이상의 화이트 패턴 구역 및 하나 이상의 블랙 패턴 구역을 각각 선택하는 단계; 제어부를 통해 특징맵에 포함된 하나 이상의 단위 항목별로 각각 선택된 하나 이상의 화이트 패턴 구역 및 하나 이상의 블랙 패턴 구역에 대한 정보를 이미지에서 특징 패턴이 위치한 영역의 이미지 특징 정보로 산출하는 단계; 및 저장부에 산출된 특징 패턴이 위치한 영역의 이미지 특징 정보를 저장하는 단계를 포함할 수 있다.According to an embodiment of the present invention, there is provided a method for identifying an object, the method comprising: applying a feature pattern of a rectangle divided into a plurality of regions to an image through a control unit; Selecting at least one white pattern area and at least one black pattern area included in a unit item of the feature map based on a preset feature map corresponding to the feature pattern through the control unit; Calculating at least one white pattern area and at least one black pattern area selected for each of the one or more unit items included in the feature map through the controller as image feature information of an area where the feature pattern is located in the image; And storing image feature information of an area in which the feature pattern calculated in the storage unit is located.

본 발명과 관련된 일 예로서 특징 패턴이 위치한 영역의 이미지 특징 정보로 산출하는 단계는 하나 이상의 단위 항목별로 각각 선택된 하나 이상의 화이트 패턴 구역의 휘도값의 평균값 및 하나 이상의 블랙 패턴 구역의 휘도값의 평균값을 특징 패턴이 위치한 영역의 이미지 특징 정보로 산출할 수 있다.As an example related to the present invention, the step of calculating image feature information of a region in which a feature pattern is located may include calculating an average value of brightness values of at least one white pattern region and brightness values of at least one black pattern region, It can be calculated as the image feature information of the region where the feature pattern is located.

본 발명과 관련된 일 예로서 특징 패턴이 위치한 영역의 이미지 특징 정보로 산출하는 단계는, 단위 항목별로 하나 이상의 화이트 패턴 구역의 휘도값의 평균값 및 하나 이상의 블랙 패턴 구역의 휘도값의 평균값을 각각 산출하는 과정; 및 산출된 화이트 패턴 구역의 휘도값의 평균값과 산출된 블랙 패턴 구역의 휘도값의 평균값 간의 차이를 특징 패턴이 위치한 영역의 이미지 특징 정보로 산출하는 과정을 포함할 수 있다.As an example related to the present invention, the step of calculating image feature information of an area in which a feature pattern is located may include calculating an average value of luminance values of one or more white pattern regions and an average value of luminance values of one or more black pattern regions, process; And calculating a difference between an average value of the luminance values of the calculated white pattern region and an average value of the luminance values of the calculated black pattern region as the image characteristic information of the region where the characteristic pattern is located.

본 발명과 관련된 일 예로서 제어부를 통해 특징맵에 포함된 복수의 단위 항목에 대해서 단위 항목별로 하나 이상의 화이트 패턴 구역 및 하나 이상의 블랙 패턴 구역을 각각 선택하는 과정을 반복 수행하는 단계; 제어부를 통해 이미지 중 나머지 모든 영역에 대해서 복수의 구역으로 나뉜 사각형의 특징 패턴을 슬라이딩하면서 적용하여, 전체 이미지의 복수의 영역에 대해서 복수의 영역별 이미지 특징 정보를 산출하는 단계; 및 제어부를 통해 산출된 전체 이미지에 대한 복수의 영역별 이미지 특징 정보를 근거로 학습을 수행하는 단계;를 더 포함할 수 있다.Selecting one or more white pattern regions and one or more black pattern regions for each unit item for each of the plurality of unit items included in the feature map through the control unit as an example related to the present invention; Calculating a plurality of image feature information for each of a plurality of regions of the entire image by sliding a feature pattern of a quadrangle divided into a plurality of regions into all the remaining regions of the image through a control unit; And performing a learning based on a plurality of image feature information for each region of the entire image calculated through the control unit.

본 발명의 실시예에 따른 객체 식별 방법은 제어부를 통해 이미지에 대해서 복수의 구역으로 나뉜 사각형의 특징 패턴을 적용하여, 특징 패턴에 대응하여 미리 설정된 특징 맵을 구성하는 단위 항목별 하나 이상의 화이트 패턴 구역의 휘도값의 평균값 및 하나 이상의 블랙 패턴 구역의 휘도값의 평균값으로 표현되는 복수의 영역별 이미지 특징 정보를 산출하는 단계; 제어부를 통해 산출된 복수의 영역별 이미지 특징 정보와 저장부에 저장된 복수의 이미지에 대한 각각의 복수의 영역별 이미지 특징 정보 간의 유사도를 확인하는 단계; 및 제어부를 통해 확인된 유사도를 근거로 이미지 내에 목적으로 하는 객체의 존재 여부를 판단하는 단계를 포함할 수 있다.The object identification method according to an embodiment of the present invention applies a feature pattern of a quadrangle divided into a plurality of regions to an image through a control unit to generate at least one white pattern area for each unit item constituting a feature map previously set corresponding to the feature pattern Calculating a plurality of image feature information for each region represented by an average value of the brightness values of the black pattern regions and an average value of the brightness values of the at least one black pattern region; Checking the similarity between a plurality of image feature information for each region calculated through the control unit and a plurality of image feature information for each region for a plurality of images stored in the storage unit; And determining whether a target object exists in the image based on the similarity determined through the control unit.

본 발명과 관련된 일 예로서 객체의 존재 여부를 판단하는 단계는, 제어부를 통해 확인된 유사도가 미리 설정된 기준값 이상인지 여부를 판단하는 과정; 판단 결과, 확인된 유사도가 미리 설정된 기준값 이상일 때, 제어부를 통해 이미지 내에 목적으로 하는 객체의 존재 여부를 판단하고, 이미지 내에서 객체를 식별하는 과정; 및 판단 결과, 확인된 유사도가 미리 설정된 기준값보다 작을 때, 제어부를 통해 영상 내에 목적으로 하는 객체가 존재하지 않는 것으로 판단하는 과정을 포함할 수 있다.According to an embodiment of the present invention, the step of determining whether an object exists may include determining whether the degree of similarity determined through the control unit is equal to or greater than a preset reference value; Determining whether a target object exists in the image through the control unit when the determined similarity is equal to or greater than a preset reference value, and identifying the object in the image; And determining that the target object does not exist in the image through the control unit when the determined similarity is smaller than a preset reference value.

본 발명의 실시예에 따른 컴퓨터 프로그램이 기록된 기록매체에는 상술한 실시예에 따른 방법을 수행하는 컴퓨터 프로그램이 저장될 수 있다.A computer program for carrying out the method according to the above-described embodiment may be stored in the recording medium on which the computer program according to the embodiment of the present invention is recorded.

본 발명은 이미지에 대해서 복수 구역으로 나누어진 특징 패턴을 적용하여 이미지에 대한 특징 정보를 산출함으로써, 한 번에 특징을 추출할 수 있는 영역이 넓어 빠른 처리를 수행하며, 특징 추출 성능을 향상시키는 효과가 있다.According to the present invention, by applying feature patterns divided into a plurality of regions to an image, feature information on the image is calculated, so that a region where features can be extracted at one time is wide, .

또한, 본 발명은 복수 구역으로 나누어진 특징 패턴에 대해서 랜덤하게 화이트 패턴과 블랙 패턴으로 미리 설정된(또는 배열된) 특징맵을 통해 이미지의 일부 영역에 대한 밝기 평균을 산출하여 해당 이미지에 대한 특징 정보를 산출함으로써, 고속 평균 방식의 디스크립터 적용을 통해 일부 영역의 밝기를 빠르게 산출하는 효과가 있다.In addition, the present invention calculates the brightness average for a partial area of an image through a feature map that is preset (or arranged) in a white pattern and a black pattern at random for a feature pattern divided into a plurality of regions, The brightness of a certain area can be calculated quickly by applying a descriptor of a fast average method.

도 1은 본 발명의 실시예에 따른 객체 식별 장치(10)의 구성을 나타낸 블록도이다.
도 2는 본 발명의 실시예에 따른 특징 패턴의 예를 나타낸 도이다.
도 3은 본 발명의 실시예에 따른 특징맵의 예를 나타낸 도이다.
도 4는 본 발명의 제 1 실시예에 따른 객체 식별 방법을 나타낸 흐름도이다.
도 5는 본 발명의 실시예에 따른 이미지를 나타낸 도이다.
도 6은 본 발명의 제 2 실시예에 따른 객체 식별 방법을 나타낸 흐름도이다.
1 is a block diagram showing the configuration of an object identifying apparatus 10 according to an embodiment of the present invention.
2 is a cross- FIG. 8 is a diagram illustrating an example of a feature pattern according to an embodiment of the present invention.
3 is a diagram illustrating an example of a feature map according to an embodiment of the present invention.
Figure 4 1 is a flowchart illustrating an object identification method according to a first embodiment of the present invention.
5 illustrates an image according to an embodiment of the present invention.
6, 5 is a flowchart illustrating an object identification method according to a second embodiment of the present invention.

본 발명에서 사용되는 기술적 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아님을 유의해야 한다. 또한, 본 발명에서 사용되는 기술적 용어는 본 발명에서 특별히 다른 의미로 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 의미로 해석되어야 하며, 과도하게 포괄적인 의미로 해석되거나, 과도하게 축소된 의미로 해석되지 않아야 한다. 또한, 본 발명에서 사용되는 기술적인 용어가 본 발명의 사상을 정확하게 표현하지 못하는 잘못된 기술적 용어일 때에는 당업자가 올바르게 이해할 수 있는 기술적 용어로 대체되어 이해되어야 할 것이다. 또한, 본 발명에서 사용되는 일반적인 용어는 사전에 정의되어 있는 바에 따라, 또는 전후 문맥상에 따라 해석되어야 하며, 과도하게 축소된 의미로 해석되지 않아야 한다.It is noted that the technical terms used in the present invention are used only to describe specific embodiments and are not intended to limit the present invention. In addition, the technical terms used in the present invention should be construed in a sense generally understood by a person having ordinary skill in the art to which the present invention belongs, unless otherwise defined in the present invention, Should not be construed to mean, or be interpreted in an excessively reduced sense. In addition, when a technical term used in the present invention is an erroneous technical term that does not accurately express the concept of the present invention, it should be understood that technical terms that can be understood by a person skilled in the art can be properly understood. In addition, the general terms used in the present invention should be interpreted according to a predefined or prior context, and should not be construed as being excessively reduced.

또한, 본 발명에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함한다. 본 발명에서 "구성된다" 또는 "포함한다" 등의 용어는 발명에 기재된 여러 구성 요소들 또는 여러 단계를 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다.Furthermore, the singular expressions used in the present invention include plural expressions unless the context clearly dictates otherwise. The term "comprising" or "comprising" or the like in the present invention should not be construed as necessarily including the various elements or steps described in the invention, Or may further include additional components or steps.

또한, 본 발명에서 사용되는 제 1, 제 2 등과 같이 서수를 포함하는 용어는 구성 요소들을 설명하는데 사용될 수 있지만, 구성 요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제 1 구성 요소는 제 2 구성 요소로 명명될 수 있고, 유사하게 제 2 구성 요소도 제 1 구성 요소로 명명될 수 있다.Furthermore, terms including ordinals such as first, second, etc. used in the present invention can be used to describe elements, but the elements should not be limited by terms. Terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component.

이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성 요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings, wherein like reference numerals refer to like or similar elements throughout the several views, and redundant description thereof will be omitted.

또한, 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 발명의 사상을 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 발명의 사상이 제한되는 것으로 해석되어서는 아니 됨을 유의해야 한다.In the following description, well-known functions or constructions are not described in detail since they would obscure the invention in unnecessary detail. It is to be noted that the accompanying drawings are only for the purpose of facilitating understanding of the present invention, and should not be construed as limiting the scope of the present invention with reference to the accompanying drawings.

도 1은 본 발명의 실시예에 따른 객체 식별 장치(10)의 구성을 나타낸 블록도이다.1 is a block diagram showing the configuration of an object identifying apparatus 10 according to an embodiment of the present invention.

도 1에 도시된 바와 같이, 객체 식별 장치(10)는 저장부(100) 및 제어부(200)로 구성된다. 도 1에 도시된 객체 식별 장치(10)의 구성 요소 모두가 필수 구성 요소인 것은 아니며, 도 1에 도시된 구성 요소보다 많은 구성 요소에 의해 객체 식별 장치(10)가 구현될 수도 있고, 그보다 적은 구성 요소에 의해서도 객체 식별 장치(10)가 구현될 수도 있다.As shown in FIG. 1, the object identification apparatus 10 includes a storage unit 100 and a control unit 200. Not all of the components of the object identification apparatus 10 shown in Fig. 1 are essential components, and the object identification apparatus 10 may be implemented by more components than the components shown in Fig. 1, The object identifying device 10 may also be implemented by a component.

제어부(200)는 이미지(또는 영상)에 대해 복수의 구역으로 나뉜 사각형의 특징 패턴을 적용한다. 이후, 제어부(200)는 특징 패턴에 대응하여 미리 설정된 특징맵을 구성하는 단위 항목에 포함된 하나 이상의 화이트 패턴 구역 및 하나 이상의 블랙 패턴 구역을 선택한다. 이후, 제어부(200)는 복수의 단위 항목별로 각각 선택되는 하나 이상의 화이트 패턴 구역 및 하나 이상의 블랙 패턴 구역의 정보(또는 휘도값의 평균값)를 해당 특징 패턴이 위치한 이미지 영역에서의 특징 정보(또는 이미지 특징 정보)로 산출한다. 또한, 제어부(200)는 이미지 중 나머지 모든 영역에 대해서도 복수의 구역으로 나뉜 사각형의 특징 패턴을 슬라이딩하면서 적용하여 전체 원본 이미지의 복수의 영역에 대해서 각각 이미지 특징 정보(또는 복수의 영역별 이미지 특징 정보)를 산출한다. 이후, 제어부(200)는 산출된 원본 이미지에 대한 복수의 영역별 이미지 특징 정보를 근거로 학습을 한다. 또한, 제어부(200)는 미리 학습된 복수의 이미지에 대한 복수의 영역별 이미지 특징 정보를 근거로 다른 이미지로부터 산출된 복수의 영역별 이미지 특징 정보에 대한 객체 식별 기능을 수행한다.The control unit 200 applies a feature pattern of a quadrangle divided into a plurality of regions to an image (or image). Thereafter, the control unit 200 selects one or more white pattern regions and one or more black pattern regions included in the unit items constituting the feature map, which correspond to the feature patterns. Thereafter, the control unit 200 compares the information (or the average value of the luminance values) of the at least one white pattern area and one or more black pattern areas selected for each of the plurality of unit items with the feature information Feature information). In addition, the controller 200 slides and applies a feature pattern of a quadrangle divided into a plurality of regions to all of the remaining regions of the image so as to apply image characteristic information (or a plurality of regions of image feature information ). Thereafter, the control unit 200 learns based on the plurality of image feature information for each region of the original image. In addition, the control unit 200 performs an object identification function for a plurality of image feature information for each region calculated from other images based on the plurality of image characteristic information for each region of the plurality of learned images.

저장부(100)는 사용자 인터페이스(UI), 그래픽 사용자 인터페이스(GUI) 등을 저장한다.The storage unit 100 stores a user interface (UI), a graphical user interface (GUI), and the like.

또한, 저장부(100)는 객체 식별 장치(10)가 동작하는데 필요한 데이터와 프로그램 등을 저장한다.In addition, the storage unit 100 stores data and programs necessary for the object identification apparatus 10 to operate.

또한, 저장부(100)는 객체 식별 장치(10)에 포함된 입력부(미도시)(또는 카메라(미도시))를 통해 촬영되는 영상(또는 이미지), 객체 식별 장치(10)에 포함된 통신부(미도시)를 통해 수신되는 영상 등을 저장한다.The storage unit 100 stores an image (or an image) captured through an input unit (not shown) (or a camera (not shown)) included in the object identification apparatus 10, (Not shown), and the like.

또한, 저장부(100)는 복수의 구역으로 나뉜 사각형의 특징 패턴, 해당 특징 패턴에 대응하는 미리 설정된 특징맵, 해당 특징맵에 포함되는 복수의(또는 하나 이상의) 단위 항목, 해당 단위 항목에 포함되는 하나 이상의 화이트 패턴 구역 및 하나 이상의 블랙 패턴 구역 등을 저장한다. 여기서, 화이트 패턴 구역 또는 블랙 패턴 구역은 하나의 픽셀 또는 복수의 픽셀로 형성한다. 이때, 화이트 패턴 구역 또는 블랙 패턴 구역이 하나의 픽셀로 형성된 경우, 해당 화이트 패턴 구역 또는 블랙 패턴 구역은 해당 픽셀의 휘도값을 저장(또는 관리)한다. 또한, 화이트 패턴 구역 또는 블랙 패턴 구역이 복수의 픽셀로 형성된 경우, 해당 화이트 패턴 구역 또는 블랙 패턴 구역은 복수의 픽셀의 휘도값의 평균을 저장한다.In addition, the storage unit 100 may store a feature pattern of a quadrangle divided into a plurality of regions, a preset feature map corresponding to the feature pattern, a plurality of (or more) unit items included in the feature map, One or more white pattern regions and one or more black pattern regions or the like. Here, the white pattern area or the black pattern area is formed by one pixel or a plurality of pixels. At this time, if the white pattern area or the black pattern area is formed of one pixel, the corresponding white pattern area or the black pattern area stores (or manages) the luminance value of the corresponding pixel. Further, when the white pattern region or the black pattern region is formed of a plurality of pixels, the white pattern region or the black pattern region stores an average of the brightness values of the plurality of pixels.

또한, 저장부(100)는 제어부(200)의 제어에 의해 생성되는 이미지에 대한 복수의 영역별 이미지 특징 정보, 학습 결과, 식별된(또는 인식된) 객체 정보 등을 저장한다.Also, the storage unit 100 stores a plurality of image feature information, a learning result, an identified (or recognized) object information for an image generated by the control unit 200, and the like.

제어부(200)는 객체 식별 장치(10)의 전반적인 제어 기능을 실행한다.The control unit 200 executes the overall control function of the object identification device 10. [

또한, 제어부(200)는 저장부(100)에 미리 저장된 이미지(또는 영상) 또는 통신부나 입력부를 통해 수신되는 이미지에 대해서 복수의 구역으로 나뉜 사각형의 특징 패턴을 적용한다. 여기서, 특징 패턴은 미리 설정된 크기를 갖는다.In addition, the controller 200 applies a rectangular feature pattern divided into a plurality of regions to an image (or image) stored in the storage unit 100 or an image received through the communication unit or the input unit. Here, the feature pattern has a predetermined size.

즉, 도 2에 도시된 바와 같이, 제어부(200)는 이미지에 대해서 복수의 구역으로 나뉜 사각형의 특징 패턴(210)을 적용한다.That is, as shown in FIG. 2, the controller 200 applies a rectangular feature pattern 210 divided into a plurality of regions to an image.

본 발명의 실시예에서는 5×5 매트릭스 형태의 사각형의 특징 패턴에 대해서 설명하고 있으나, 이에 한정되는 것은 아니며, 설계자의 설계에 따라 다양한 크기의 사각형의 특징 패턴으로 다양하게 설계 변경하여 설정할 수도 있다. 또한, 해당 특징 패턴 내의 번호(또는 구역 번호)는 설계자의 설계에 따라 서로 다른 위치로 재설정할 수도 있다.In the embodiment of the present invention, the 5 × 5 matrix type feature pattern is described, but the present invention is not limited thereto, and the design pattern may be variously changed according to the designer's design. In addition, the number (or zone number) in the feature pattern may be reset to different positions according to the designer's design.

또한, 제어부(200)는 해당 특징 패턴에 대응하는 특징맵을 설정한다. 여기서, 해당 특징맵은 이미지에 대한 특징 정보를 추출하기 위해서 다른 객체 식별 장치들 간에 상호 공유될 수 있다. 또한, 객체 식별 장치(10)에서 사용되는 특징맵은 다른 객체 식별 장치로부터 제공받은(공유된) 특징맵일 수도 있다.Also, the control unit 200 sets a feature map corresponding to the feature pattern. Here, the feature map may be mutually shared among different object identification devices in order to extract feature information on the image. In addition, the feature map used in the object identifying apparatus 10 may be a feature map provided (shared) from another object identifying apparatus.

또한, 도 3에 도시된 바와 같이, 해당 특징맵(300)은 복수의(또는 하나 이상의) 단위 항목(310, 320, 330 등 포함)을 포함한다. 여기서, 각각의 단위 항목(310, 320, 330)은 해당 특징맵(300)에 포함된 복수의 구역 중 하나 이상의 구역에 대한 정보를 포함하는 화이트 패턴 구역(302) 및 블랙 패턴 구역(303)을 포함한다. 이때, 특징맵에 포함되는 단위 항목의 수(또는 특징 인덱스(301)의 수)와 해당 단위 항목에 포함되는 화이트 패턴 구역 및 블랙 패턴 구역에 포함되는 구역의 수는 설계자의 설계에 따라 다양하게 설정할 수 있다.Also, as shown in FIG. 3, the feature map 300 includes a plurality of (or one or more) unit items (including 310, 320, 330, etc.). Herein, each unit item 310, 320, and 330 includes a white pattern area 302 and a black pattern area 303 including information on at least one of a plurality of areas included in the feature map 300 . At this time, the number of unit items included in the feature map (or the number of the feature indexes 301) and the number of regions included in the white pattern area and the black pattern area included in the unit item are variously set according to the designer's design .

즉, 도 3에 도시된 바와 같이, 제어부(200)는 3개의 단위 항목(310, 320, 330)에 대해서, 제 1 단위 항목(또는 첫 번째 단위 항목/특징 인덱스가 0인 단위 항목)(510)에 포함되는 하나 이상의 화이트 패턴 구역(예를 들어 0, 6, 7, 8, 9 구역) 및 하나 이상의 블랙 패턴 구역(예를 들어 15, 16, 17 구역)을 선택하고, 제 2 단위 항목(또는 두 번째 단위 항목/특징 인덱스가 1인 단위 항목)(520)에 포함되는 하나 이상의 화이트 패턴 구역(예를 들어 6, 19, 20, 24 구역) 및 하나의 블랙 패턴 구역(예를 들어 0 구역)을 선택하고, 제 3 단위 항목(또는 세 번째 단위 항목/특징 인덱스가 2인 단위 항목)(530)에 포함되는 하나의 화이트 패턴 구역(예를 들어 19 구역) 및 하나 이상의 블랙 패턴 구역(예를 들어 5, 6, 7, 8, 24 구역)을 각각 선택한다.3, the control unit 200 determines whether or not the first unit item (or the unit item having the first unit item / feature index of 0) 510 (E.g., 0, 6, 7, 8, 9 zones) and one or more black pattern zones (e.g., 15, 16, 17 zones) included in the second unit item (E.g., 6, 19, 20, and 24 zones) and one black pattern zone (e.g., 0 zone) included in 520 the second unit item / ) And one white pattern area (e.g., area 19) included in the third unit item (or a unit item of the third unit item / feature index 2) 530 and one or more black pattern areas For example, 5, 6, 7, 8, and 24 zones, respectively.

또한, 제어부(200)는 복수의(또는 하나 이상의) 단위 항목 중에서 각각 선택된 단위 항목별 하나 이상의 화이트 패턴 구역 및 하나 이상의 블랙 패턴 구역에 대한 정보(또는 해당 구역의 휘도값의 평균값)를 해당 특징 패턴이 위치한 영역의 특징 정보로 산출(또는 설정)한다.Also, the control unit 200 may convert information (or an average value of luminance values of the corresponding area) of one or more white pattern areas and one or more black pattern areas of each unit item selected from among a plurality of (or one or more) (Or sets) the feature information of the region in which the image is located.

즉, 제어부(200)는 단위 항목별로 하나 이상의 화이트 패턴 구역의 휘도값의 평균값을 산출하고, 단위 항목별로 하나 이상의 블랙 패턴 구역의 휘도값의 평균값을 산출한다. 이후, 제어부(200)는 산출된 화이트 패턴 구역 및 블랙 패턴 구역의 각각의 휘도값의 평균값을 해당 특징 패턴이 위치한 영역의 특징 정보로 산출(또는 설정)한다.That is, the control unit 200 calculates an average value of luminance values of one or more white pattern regions for each unit item, and calculates an average value of luminance values of one or more black pattern regions for each unit item. Then, the controller 200 calculates (or sets) the average value of the luminance values of the calculated white pattern area and the calculated black pattern area as the feature information of the area in which the feature pattern is located.

예를 들어, 제어부(200)는 도 3에 도시된 제 1 단위 항목(510)을 구성하는 화이트 패턴 구역에 포함된 0, 6, 7, 8, 9 구역의 휘도값의 평균을 산출하고, 제 1 단위 항목(510)을 구성하는 블랙 패턴 구역에 포함된 15, 16, 17 구역의 휘도값의 평균을 산출하고, 산출된 화이트 패턴 구역 및 블랙 패턴 구역의 평균값을 특징 정보로 산출할 수 있다.For example, the control unit 200 calculates the average of the luminance values of the 0, 6, 7, 8, and 9 regions included in the white pattern area constituting the first unit item 510 shown in FIG. 3, The average value of the luminance values of the 15th, 16th, and 17th regions included in the black pattern region constituting the 1 unit item 510 can be calculated and the average value of the calculated white pattern region and the black pattern region can be calculated as the characteristic information.

또한, 제어부(200)는 이미지 중 나머지 모든 영역에 대해서도 해당 복수의 구역으로 나뉜 사각형의 특징 패턴을 슬라이딩하면서 적용하여, 전체 원본 이미지의 복수의 영역에 대해서 각각 이미지 특징 정보(또는 복수의 영역별 이미지 특징 정보)를 산출(또는 추출/설정)한다.Also, the controller 200 slides and applies a feature pattern of a quadrangle divided into the plurality of regions to all the remaining regions of the image, so that the image feature information (or a plurality of region-specific images (Or extracting / setting) the feature information.

또한, 제어부(200)는 산출된 원본 이미지에 대한 복수의 영역별 이미지 특징 정보를 저장부(100)에 저장한다.In addition, the control unit 200 stores a plurality of image feature information for each region of the original image in the storage unit 100.

또한, 제어부(200)는 산출된 이미지에 대한 복수의 영역별 이미지 특징 정보를 근거로 학습을 한다. 이때, 해당 이미지의 경우, 제어부(200)는 미리 설정된 복수의 서로 다른 크기로 정규화한 후, 정규화된 복수의 이미지 각각에 대해서 복수의 영역별 이미지 특정 정보를 산출할 수도 있다.In addition, the controller 200 learns based on a plurality of image characteristic information for each area of the calculated image. At this time, in the case of the corresponding image, the control unit 200 may normalize the image to a plurality of predetermined sizes, and then calculate a plurality of image-specific image-specific information for each of the plurality of normalized images.

또한, 제어부(200)는 산출된 복수의 이미지 각각에 대한 복수의 영역별 이미지 특징 정보를 근거로 학습을 수행할 수도 있다.In addition, the controller 200 may perform learning based on a plurality of image feature information for each of the plurality of images.

또한, 제어부(200)는 학습 결과를 저장부(100)에 저장한다.In addition, the control unit 200 stores the learning result in the storage unit 100. [

또한, 제어부(200)는 저장부(100)에 미리 저장된 다른 이미지(또는 영상) 또는 통신부(미도시)나 입력부(미도시)를 통해 수신되는 다른 이미지에 대해서 복수의 구역으로 나뉜 사각형의 특징 패턴을 적용하여 복수의 영역별 이미지 특징 정보를 산출한다. 여기서, 이미지 특징 정보는 복수의 구역으로 나뉜 사각형의 특징 패턴에 대응하는 미리 설정된 특징 맵을 구성하는 단위 항목별 하나 이상의 화이트 패턴 구역의 휘도값의 평균값 및 하나 이상의 블랙 패턴 구역의 휘도값의 평균값일 수 있다. 또한, 해당 이미지 특징 정보는 단위 항목별 하나 이상의 화이트 패턴 구역의 휘도값의 평균값 및 하나 이상의 블랙 패턴 구역의 휘도값의 평균값 간의 차이일 수도 있다.The control unit 200 may also store a feature pattern of a rectangle divided into a plurality of regions with respect to other images (or images) stored in the storage unit 100 or other images received through a communication unit (not shown) or an input unit To thereby calculate a plurality of image feature information for each area. Here, the image characteristic information may include an average value of luminance values of one or more white pattern regions and a mean value of luminance values of one or more black pattern regions per unit item constituting a preset characteristic map corresponding to a characteristic pattern of a square divided into a plurality of regions . The image feature information may also be a difference between the average value of the luminance values of one or more white pattern regions and the average value of the luminance values of one or more black pattern regions per unit item.

또한, 제어부(200)는 산출된 이미지에 대한 복수의 영역별 이미지 특징 정보를 저장부(100)에 저장한다.In addition, the controller 200 stores a plurality of image feature information for each region in the storage unit 100.

또한, 제어부(200)는 저장부(100)에 미리 저장된(또는 학습된/등록된) 복수의 이미지에 대한 각각의 복수의 영역별 이미지 특징 정보와, 다른 이미지에 대해 산출된 복수의 영역별 이미지 특징 정보 간의 유사도를 각각 확인(또는 비교)한다.In addition, the control unit 200 may store each of a plurality of image feature information for each region for a plurality of images stored (or learned / registered) in advance in the storage unit 100 and a plurality of images for each region (Or compares) the degree of similarity between feature information.

또한, 제어부(200)는 확인된 산출된 복수의 영역별 이미지 특징 정보와 저장부(100)에 미리 저장된 복수의 이미지에 대한 각각의 복수의 영역별 이미지 특징 정보 간의 유사도가 미리 설정된 기준값 이상인지 여부를 판단(또는 확인)한다.In addition, the control unit 200 determines whether the similarity between the plurality of image feature information of each region calculated and the plurality of images stored in the storage unit 100 is equal to or greater than a preset reference value (Or confirms).

즉, 제어부(200)는 확인된 복수의 유사도가 미리 설정된 기준값 이상인지 여부를 각각 판단한다.That is, the control unit 200 determines whether each of the plurality of similarity degrees detected is equal to or greater than a preset reference value.

판단 결과, 확인된 유사도가 미리 설정된 기준값 이상인 경우, 제어부(200)는 해당 이미지 내에 목적으로 하는 객체가 존재하는 것으로 분류(또는 판단/확인)하고, 해당 이미지 내에서 해당 객체를 식별(또는 인식)하고, 식별된 객체를 저장부(100)에 저장한다.As a result of the determination, if the determined similarity is equal to or greater than a preset reference value, the control unit 200 classifies (or judges / confirms) the object as a target object in the image, identifies (or recognizes) And stores the identified object in the storage unit 100.

또한, 판단 결과, 확인된 유사도가 미리 설정된 기준값보다 작은 경우, 제어부(200)는 해당 이미지 내에 목적으로 하는 객체가 존재하지 않는 것으로 분류한다.If the determined similarity is smaller than a preset reference value, the control unit 200 classifies the object as having no object in the image.

이와 같이, 이미지에 대해서 복수 구역으로 나누어진 특징 패턴을 적용하여 이미지에 대한 특징 정보를 산출할 수 있다.In this manner, feature information about an image can be calculated by applying a feature pattern divided into a plurality of regions to the image.

또한, 이와 같이, 복수 구역으로 나누어진 특징 패턴에 대해서 랜덤하게 화이트 패턴과 블랙 패턴으로 미리 설정된(또는 배열된) 특징맵을 통해 이미지의 일부 영역에 대한 밝기 평균을 산출하여 해당 이미지에 대한 특징 정보를 산출할 수 있다.In this manner, the brightness average for a partial area of the image is calculated through feature maps that are preset (or arranged) in a random pattern of white patterns and black patterns with respect to feature patterns divided into a plurality of regions, Can be calculated.

이하에서는, 본 발명에 따른 객체 식별 방법을 도 1 내지 도 6을 참조하여 상세히 설명한다.Hereinafter, an object identification method according to the present invention will be described in detail with reference to FIGS. 1 to 6. FIG.

도 4는 본 발명의 제 1 실시예에 따른 객체 식별 방법을 나타낸 흐름도이다.Figure 4 1 is a flowchart illustrating an object identification method according to a first embodiment of the present invention.

먼저, 제어부(200)는 원본 이미지 중 일부 영역에 대해서 복수의 구역으로 나뉜 사각형의 특징 패턴을 적용한다. 여기서, 특징 패턴은 미리 설정된 크기를 갖는다. 또한, 해당 구역은 하나의 픽셀 또는 복수의 픽셀로 형성한다.First, the control unit 200 applies a feature pattern of a quadrangle divided into a plurality of regions to a partial area of the original image. Here, the feature pattern has a predetermined size. Further, the region is formed by one pixel or a plurality of pixels.

일 예로, 도 5에 도시한 바와 같이, 제어부(200)는 원본 이미지 중 일부 영역(510)에 대해서 복수의 구역으로 나뉜 사각형의 특징 패턴(520)을 적용한다(S410).For example, as shown in FIG. 5, the controller 200 applies a rectangular feature pattern 520 divided into a plurality of regions to a partial area 510 of the original image (S410).

이후, 제어부(200)는 해당 특징 패턴에 대응하는 미리 설정된 특징 맵을 근거로 해당 특징맵을 구성하는 단위 항목에 포함된 하나 이상의 화이트 패턴 구역 및 하나 이상의 블랙 패턴 구역을 각각 선택(또는 확인)한다. 이때, 제어부(200)는 해당 특징맵에 포함된 복수의(또는 하나 이상의) 단위 항목에 대해서 단위 항목별로 각각 포함된 하나 이상의 화이트 패턴 구역 및 하나 이상의 블랙 패턴 구역을 선택하는 과정을 반복 수행한다.Thereafter, the control unit 200 selects (or confirms) one or more white pattern regions and one or more black pattern regions included in the unit items constituting the feature map, based on a preset feature map corresponding to the feature pattern . At this time, the controller 200 repeats the process of selecting at least one white pattern area and at least one black pattern area included in each of the plurality of (or one or more) unit items included in the feature map.

일 예로, 도 3에 도시된 바와 같이, 제어부(200)는 도 2에 도시된 사각형의 특징 패턴(210)에 대응하는 미리 설정된 특징맵(300)을 근거로 해당 특징맵(300)에 포함된 제 1 단위 항목(310), 제 2 단위 항목(320) 및 제 3 단위 항목(330)에 해당하는 하나 이상의 화이트 패턴 구역(302) 및 하나 이상의 블랙 패턴 구역(303)을 각각 선택한다.For example, as shown in FIG. 3, the controller 200 determines whether the feature map 300 included in the feature map 300 has been generated based on the preset feature map 300 corresponding to the feature pattern 210 of the rectangle shown in FIG. One or more white pattern areas 302 and one or more black pattern areas 303 corresponding to the first unit item 310, the second unit item 320 and the third unit item 330, respectively.

즉, 도 3에 도시된 바와 같이, 제어부(200)는 특징맵(300)에서 제 1 단위 항목(또는 첫 번째 단위 항목/특징 인덱스가 0인 단위 항목)(310)에 포함되는 하나 이상의 화이트 패턴 구역(예를 들어 0, 6, 7, 8, 9 구역) 및 하나 이상의 블랙 패턴 구역(예를 들어 15, 16, 17 구역)을 선택하고, 제 2 단위 항목(또는 두 번째 단위 항목/특징 인덱스가 1인 단위 항목)(320)에 포함되는 하나 이상의 화이트 패턴 구역(예를 들어 6, 19, 20, 24 구역) 및 하나의 블랙 패턴 구역(예를 들어 0 구역)을 선택하고, 제 3 단위 항목(또는 세 번째 단위 항목/특징 인덱스가 2인 단위 항목)(330)에 포함되는 하나의 화이트 패턴 구역(예를 들어 19 구역) 및 하나 이상의 블랙 패턴 구역(예를 들어 5, 6, 7, 8, 24 구역)을 각각 선택한다(S420).That is, as shown in FIG. 3, the control unit 200 displays one or more white patterns included in the first unit item (or the unit item having the first unit item / feature index 0) 310 in the feature map 300 (E.g., zones 0, 6, 7, 8, 9) and one or more black pattern zones (e.g., zones 15, 16, 17) (E.g., 6, 19, 20, and 24 zones) and one black pattern zone (e.g., 0 zone) included in the third unit (E.g., 19 zones) and one or more black pattern zones (e.g., 5, 6, 7, and 8) included in the item (or unit item with the third unit item / 8, and 24) are selected (S420).

이후, 제어부(200)는 복수의(또는 하나 이상의) 단위 항목 중에서 각각 선택된 단위 항목별 하나 이상의 화이트 패턴 구역 및 하나 이상의 블랙 패턴 구역에 대한 정보(또는 해당 구역의 휘도값의 평균값)를 해당 특징 패턴이 위치한 영역의 특징 정보로 산출한다.Thereafter, the control unit 200 converts information (or an average value of the luminance values of the corresponding area) of one or more white pattern areas and one or more black pattern areas for each selected unit item among the plurality of (or one or more) Is calculated as the feature information of the area in which the "

즉, 제어부(200)는 단위 항목별로 하나 이상의 화이트 패턴 구역의 휘도값의 평균값을 산출하고, 단위 항목별로 하나 이상의 블랙 패턴 구역의 휘도값의 평균값을 산출한다. 이후, 제어부(200)는 산출된 화이트 패턴 구역 및 블랙 패턴 구역의 각각의 휘도값의 평균값을 해당 특징 패턴이 위치한 영역의 특징 정보로 산출(또는 설정)한다. 이때, 제어부(200)는 산출된 화이트 패턴 구역의 휘도값의 평균값과 산출된 블랙 패턴 구역의 휘도값의 평균값 간의 차이를 해당 특징 패턴이 위치한 영역의 특징 정보로 산출할 수도 있다.That is, the control unit 200 calculates an average value of luminance values of one or more white pattern regions for each unit item, and calculates an average value of luminance values of one or more black pattern regions for each unit item. Then, the controller 200 calculates (or sets) the average value of the luminance values of the calculated white pattern area and the calculated black pattern area as the feature information of the area in which the feature pattern is located. At this time, the controller 200 may calculate the difference between the average value of the luminance values of the calculated white pattern region and the average value of the luminance values of the calculated black pattern region as the feature information of the region where the feature pattern is located.

일 예로, 제어부(200)는 도 3에 도시된 제 1 단위 항목(310)에 포함된 하나 이상의 화이트 패턴 구역(예를 들어 0, 6, 7, 8, 9 구역) 및 하나 이상의 블랙 패턴 구역(예를 들어 15, 16, 17 구역)에 대한 제 1 화이트 패턴 구역 평균값 및 제 1 블랙 패턴 구역 평균값을 산출한다. 또한, 제어부(200)는 도 3에 도시된 제 2 단위 항목(320)에 포함된 하나 이상의 화이트 패턴 구역(예를 들어 6, 19, 20, 24 구역) 및 하나의 블랙 패턴 구역(예를 들어 0 구역)에 대한 제 2 화이트 패턴 구역 평균값 및 제 2 블랙 패턴 구역 평균값을 산출한다. 또한, 제어부(200)는 도 3에 도시된 제 3 단위 항목(330)에 포함된 하나의 화이트 패턴 구역(예를 들어 19 구역) 및 하나 이상의 블랙 패턴 구역(예를 들어 5, 6, 7, 8, 24 구역)에 대한 제 3 화이트 패턴 구역 평균값 및 제 3 블랙 패턴 구역 평균값을 산출한다. 이후, 제어부(200)는 제 1 단위 항목(310)에 대해 산출된 제 1 화이트 패턴 구역 평균값 및 제 1 블랙 패턴 구역 평균값, 제 2 단위 항목(320)에 대해 산출된 제 2 화이트 패턴 구역 평균값 및 제 2 블랙 패턴 구역 평균값, 제 3 단위 항목(330)에 대해 산출된 제 3 화이트 패턴 구역 평균값 및 제 3 블랙 패턴 구역 평균값을 해당 이미지에서 사각형의 특징 패턴이 위치한 일부 영역의 이미지 특징 정보로 산출한다.For example, the control unit 200 may include one or more white pattern areas (e.g., 0, 6, 7, 8, 9 areas) and one or more black pattern areas For example, 15, 16, and 17 zones) and the first black pattern zone average value. In addition, the control unit 200 may include one or more white pattern regions (e.g., 6, 19, 20, and 24 zones) and one black pattern zone (e.g., 0 zone) and the second black pattern zone average value. In addition, the control unit 200 may include one white pattern area (for example, area 19) and one or more black pattern areas (for example, 5, 6, 7, 8, and 24) and the third black pattern zone average value. Thereafter, the control unit 200 calculates a first white pattern zone average value and a first black pattern zone average value calculated for the first unit item 310, a second white pattern zone average value calculated for the second unit item 320, The second black pattern zone average value, the third black pattern zone average value, the third white pattern zone average value, and the third black pattern zone average value calculated for the third unit item 330 are calculated as the image feature information of the partial region in which the quadrangular feature pattern is located .

또한, 제어부(200)는 산출된 제 1 화이트 패턴 구역 평균값 및 제 1 블랙 패턴 구역 평균값 간의 차이, 산출된 제 2 화이트 패턴 구역 평균값 및 제 2 블랙 패턴 구역 평균값 간의 차이, 산출된 제 3 화이트 패턴 구역 평균값 및 제 3 블랙 패턴 구역 평균값 간의 차이를 해당 이미지에서 사각형의 특징 패턴이 위치한 일부 영역의 이미지 특징 정보로 산출할 수도 있다(S430).Further, the control unit 200 calculates the difference between the calculated first white pattern zone average value and the first black pattern zone average value, the calculated difference between the calculated second white pattern zone average value and the second black pattern zone average value, The difference between the average value and the average value of the third black pattern zone may be calculated as image feature information of a partial region where the feature pattern of the quadrangle is located in the corresponding image (S430).

이후, 제어부(200)는 원본 이미지 중 나머지 모든 영역에 대해서도 해당 복수의 구역으로 나뉜 사각형의 특징 패턴을 슬라이딩하면서 적용하여, 전체 원본 이미지의 복수의 영역에 대해서 각각 이미지 특징 정보(또는 복수의 영역별 이미지 특징 정보)를 산출(또는 추출/설정)한다.Then, the control unit 200 slides and applies a feature pattern of a quadrangle divided into the plurality of regions to all the remaining regions of the original image, (Or extracting / setting) the image feature information.

또한, 제어부(200)는 산출된 원본 이미지에 대한 복수의 영역별 이미지 특징 정보를 저장부(100)에 저장한다(S440).In addition, the controller 200 stores a plurality of image feature information for each of the regions of the original image in the storage unit 100 (S440).

이후, 제어부(200)는 산출된 원본 이미지에 대한 복수의 영역별 이미지 특징 정보를 근거로 학습을 한다.Thereafter, the control unit 200 learns based on the plurality of image feature information for each region of the original image.

또한, 제어부(200)는 학습 결과를 저장부(100)에 저장한다(S450).In addition, the control unit 200 stores the learning result in the storage unit 100 (S450).

도 6은 본 발명의 제 2 실시예에 따른 객체 식별 방법을 나타낸 흐름도이다.6, 5 is a flowchart illustrating an object identification method according to a second embodiment of the present invention.

먼저, 제어부(200)는 저장부(100)에 미리 저장된 이미지(또는 영상) 또는 통신부(미도시)나 입력부(미도시)를 통해 수신되는 이미지에 대해서 복수의 구역으로 나뉜 사각형의 특징 패턴을 적용하여 복수의 영역별 이미지 특징 정보를 산출한다. 여기서, 이미지 특징 정보는 복수의 구역으로 나뉜 사각형의 특징 패턴에 대응하는 미리 설정된 특징 맵을 구성하는 단위 항목별 하나 이상의 화이트 패턴 구역의 휘도값의 평균값 및 하나 이상의 블랙 패턴 구역의 휘도값의 평균값일 수 있다. 또한, 해당 이미지 특징 정보는 단위 항목별 하나 이상의 화이트 패턴 구역의 휘도값의 평균값 및 하나 이상의 블랙 패턴 구역의 휘도값의 평균값 간의 차이일 수도 있다.First, the control unit 200 applies a feature pattern of a quadrangle divided into a plurality of regions to an image (or image) stored in the storage unit 100 or an image received through a communication unit (not shown) or an input unit To thereby calculate a plurality of image feature information for each area. Here, the image characteristic information may include an average value of luminance values of one or more white pattern regions and a mean value of luminance values of one or more black pattern regions per unit item constituting a preset characteristic map corresponding to a characteristic pattern of a square divided into a plurality of regions . The image feature information may also be a difference between the average value of the luminance values of one or more white pattern regions and the average value of the luminance values of one or more black pattern regions per unit item.

또한, 제어부(200)는 산출된 이미지에 대한 복수의 영역별 이미지 특징 정보를 저장부(100)에 저장한다(S610).In addition, the controller 200 stores a plurality of image feature information for each region in the storage unit 100 (S610).

이후, 제어부(200)는 산출된 복수의 영역별 이미지 특징 정보와 저장부(100)에 미리 저장된(또는 학습된/등록된) 복수의 이미지에 대한 각각의 복수의 영역별 이미지 특징 정보 간의 유사도를 각각 확인(또는 비교)한다.Thereafter, the controller 200 calculates the similarity between the calculated image feature information of each of the plurality of regions and the plurality of image characteristic information of each region of the plurality of images stored (or learned / registered) in the storage unit 100 Confirm (or compare) each.

일 예로, 제어부(200)는 산출된 복수의 영역별 이미지 특징 정보와 저장부(100)에 미리 학습된 ○○개의 이미지에 대한 각각의 복수의 영역별 이미지 특징 정보 간의 유사도를 각각 확인한다(S620).For example, the controller 200 checks the similarity between the calculated image feature information of each of the plurality of regions and the image characteristic information of each of the plurality of regions with respect to the ◯◯ images previously learned in the storage unit 100 (S620 ).

이후, 제어부(200)는 확인된 산출된 복수의 영역별 이미지 특징 정보와 저장부(100)에 미리 저장된 복수의 이미지에 대한 각각의 복수의 영역별 이미지 특징 정보 간의 유사도가 미리 설정된 기준값 이상인지 여부를 판단(또는 확인)한다.Thereafter, the control unit 200 determines whether the similarity between the plurality of image feature information of each area calculated and the plurality of image characteristic information of each of the plurality of images stored in the storage unit 100 is equal to or greater than a preset reference value (Or confirms).

즉, 제어부(200)는 확인된 복수의 유사도가 미리 설정된 기준값 이상인지 여부를 각각 판단한다.That is, the control unit 200 determines whether each of the plurality of similarity degrees detected is equal to or greater than a preset reference value.

일 예로, 제어부(200)는 확인된 ○○개의 유사도가 미리 설정된 기준값 이상인지 여부를 각각 판단한다(S630).For example, the control unit 200 determines whether the determined degree of similarity is equal to or greater than a preset reference value (S630).

판단 결과, 확인된 유사도가 미리 설정된 기준값 이상인 경우, 제어부(200)는 해당 이미지 내에 목적으로 하는 객체가 존재하는 것으로 분류(또는 판단/확인)하고, 해당 이미지 내에서 해당 객체를 식별(또는 인식)하고, 식별된 객체를 저장부(100)에 저장한다.As a result of the determination, if the determined similarity is equal to or greater than a preset reference value, the control unit 200 classifies (or judges / confirms) the object as a target object in the image, identifies (or recognizes) And stores the identified object in the storage unit 100.

일 예로, 판단 결과, 확인된 ○○개의 유사도 중에서 미리 설정된 기준값 이상인 유사도가 존재할 때, 제어부(200)는 해당 기준값 이상인 유사도에 대응하는 저장부(100)에 미리 학습된 복수의 영역별 이미지 특징 정보를 근거로 입력 이미지 내에서 해당 객체를 식별하고, 식별된 객체를 저장부(100)에 저장한다(S640).For example, when there is a degree of similarity that is equal to or greater than a preset reference value out of the identified similarity degrees, the controller 200 determines a plurality of region-based image feature information And identifies the object in the input image, and stores the identified object in the storage unit 100 (S640).

또한, 판단 결과, 확인된 유사도가 미리 설정된 기준값보다 작은 경우, 제어부(200)는 해당 이미지 내에 목적으로 하는 객체가 존재하지 않는 것으로 분류한다.If the determined similarity is smaller than a preset reference value, the control unit 200 classifies the object as having no object in the image.

일 예로, 판단 결과, 확인된 ○○개의 유사도 모두가 미리 설정된 기준값보다 작을 때, 제어부(200)는 해당 이미지 내에 객체가 존재하지 않는 것으로 분류한다(S650).For example, when all of the determined similarity degrees are less than a preset reference value, the control unit 200 classifies the object as not existing in the corresponding image (S650).

본 발명의 실시예에 따른 객체 식별 장치 및 그 방법은 컴퓨터 프로그램으로 작성 가능하며, 컴퓨터 프로그램을 구성하는 코드들 및 코드 세그먼트들은 당해 분야의 컴퓨터 프로그래머에 의하여 용이하게 추론될 수 있다. 또한, 해당 컴퓨터 프로그램은 컴퓨터가 읽을 수 있는 정보저장매체(computer readable media)에 저장되고, 컴퓨터나 본 발명의 실시예에 따른 객체 식별 장치, 사용자 장치(또는 단말) 등에 의하여 읽혀지고 실행됨으로써 객체 식별 장치 및 그 방법을 구현할 수 있다.The object identification apparatus and method according to the embodiment of the present invention can be written in a computer program, and the codes and code segments constituting the computer program can be easily deduced by a computer programmer in the field. In addition, the computer program is stored in a computer readable medium readable by a computer and read and executed by a computer, an object identification device, a user device (or a terminal) according to an embodiment of the present invention, Device and method thereof.

정보저장매체는 자기 기록매체, 광 기록매체 및 캐리어 웨이브 매체를 포함한다. 본 발명의 실시예에 따른 객체 식별 장치 및 그 방법을 구현하는 컴퓨터 프로그램은 객체 식별 장치, 사용자 장치 등의 내장 메모리에 저장 및 설치될 수 있다. 또는, 본 발명의 실시예에 따른 객체 식별 장치 및 그 방법을 구현하는 컴퓨터 프로그램을 저장 및 설치한 스마트 카드 등의 외장 메모리가 인터페이스를 통해 객체 식별 장치, 사용자 장치 등에 장착될 수도 있다.The information storage medium includes a magnetic recording medium, an optical recording medium, and a carrier wave medium. The object identification apparatus according to an embodiment of the present invention and a computer program implementing the method can be stored and installed in an internal memory such as an object identification apparatus, a user apparatus, and the like. Alternatively, an external memory such as a smart card storing and installing an object identifying device according to an embodiment of the present invention and a computer program implementing the method may be mounted on an object identifying device, a user device, or the like through an interface.

본 발명의 실시예는 앞서 설명된 바와 같이, 이미지에 대해서 복수 구역으로 나누어진 특징 패턴을 적용하여 이미지에 대한 특징 정보를 산출하여, 한 번에 특징을 추출할 수 있는 영역이 넓어 빠른 처리를 수행하며, 특징 추출 성능을 향상시킬 수 있다.As described above, in the embodiment of the present invention, characteristic information about an image is calculated by applying a feature pattern divided into a plurality of regions with respect to an image, and a region where features can be extracted at one time is wide, , And feature extraction performance can be improved.

또한, 본 발명의 실시예는 앞서 설명된 바와 같이, 복수 구역으로 나누어진 특징 패턴에 대해서 랜덤하게 화이트 패턴과 블랙 패턴으로 미리 설정된(또는 배열된) 특징맵을 통해 이미지의 일부 영역에 대한 밝기 평균을 산출하여 해당 이미지에 대한 특징 정보를 산출하여, 고속 평균 방식의 디스크립터 적용을 통해 일부 영역의 밝기를 빠르게 산출할 수 있다.In addition, as described above, in the embodiment of the present invention, the brightness average (brightness) of a partial area of an image through a feature map that is preset (or arranged) in a random pattern of white patterns and black patterns The feature information of the image is calculated, and the brightness of some areas can be calculated quickly by applying the descriptor of the fast average method.

전술된 내용은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.It will be apparent to those skilled in the art that various modifications and variations can be made in the present invention without departing from the spirit or essential characteristics thereof. Therefore, the embodiments disclosed in the present invention are intended to illustrate rather than limit the scope of the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments. The scope of protection of the present invention should be construed according to the following claims, and all technical ideas within the scope of equivalents should be construed as falling within the scope of the present invention.

본 발명은 객체 식별을 위한 특징점 학습 시, 이미지에 대해서 사각 영역의 픽셀에 대한 랜덤 패턴 맵을 적용하며, 화이트 패턴과 블랙 패턴을 지정하여 특징 인덱스를 표현하도록 하여 사각 영역의 밝기 평균을 산출함으로써 고속 평균 방식의 디스크립터 적용을 통해 일부 영역의 밝기를 빠르게 산출하는 것으로, 영상 처리 분야, 객체 식별/인식 분야 등에서 광범위하게 이용될 수 있다.The present invention applies a random pattern map for pixels in a rectangular area to an image in learning of feature points for object identification, calculates a brightness index of a rectangular area by expressing a feature index by designating a white pattern and a black pattern, It can be used widely in image processing field, object identification / recognition field, etc., by calculating the brightness of some areas quickly by applying an average method descriptor.

10: 객체 식별 장치 100: 저장부
200: 제어부
10: Object identifying apparatus 100:
200:

Claims (16)

이미지에 대해 복수의 구역으로 나뉜 사각형의 특징 패턴을 적용하고, 상기 특징 패턴에 대응하는 미리 설정된 특징맵을 근거로 상기 특징맵의 단위 항목에 포함된 하나 이상의 화이트 패턴 구역 및 하나 이상의 블랙 패턴 구역을 각각 선택하고, 상기 특징맵에 포함된 하나 이상의 단위 항목별로 각각 선택된 하나 이상의 화이트 패턴 구역 및 하나 이상의 블랙 패턴 구역에 대한 정보를 상기 이미지에서 상기 특징 패턴이 위치한 영역의 이미지 특징 정보로 산출하는 제어부; 및
상기 산출된 특징 패턴이 위치한 영역의 이미지 특징 정보를 저장하는 저장부를 포함하는 객체 식별 장치.
Applying a feature pattern of a quadrangle divided into a plurality of regions to an image and designating one or more white pattern regions and one or more black pattern regions included in a unit item of the feature map based on a predetermined feature map corresponding to the feature pattern A control unit for selecting at least one white pattern area and at least one black pattern area selected respectively for one or more unit items included in the feature map from the image to image feature information of an area where the feature pattern is located; And
And a storage unit for storing image feature information of an area where the calculated feature pattern is located.
제1항에 있어서,
상기 특징 패턴에 포함되는 복수의 구역 각각은 하나의 픽셀 또는 복수의 픽셀로 형성하는 것을 특징으로 하는 객체 식별 장치.
The method according to claim 1,
Wherein each of the plurality of regions included in the feature pattern is formed of one pixel or a plurality of pixels.
제1항에 있어서,
상기 화이트 패턴 구역 및 상기 블랙 패턴 구역은 상기 특징맵에 포함된 복수의 구역 중 하나 이상의 구역에 대한 정보를 각각 포함하는 것을 특징으로 하는 객체 식별 장치.
The method according to claim 1,
Wherein the white pattern area and the black pattern area each include information on at least one of a plurality of areas included in the feature map.
제1항에 있어서,
상기 제어부는 상기 하나 이상의 단위 항목별로 각각 선택된 하나 이상의 화이트 패턴 구역의 휘도값의 평균값 및 하나 이상의 블랙 패턴 구역의 휘도값의 평균값을 상기 특징 패턴이 위치한 영역의 이미지 특징 정보로 산출하는 것을 특징으로 하는 객체 식별 장치.
The method according to claim 1,
Wherein the controller calculates the average value of the luminance values of one or more white pattern regions and the average value of the luminance values of one or more black pattern regions each selected for the one or more unit items as image feature information of the region in which the feature pattern is located Object identification device.
제1항에 있어서,
상기 제어부는 상기 단위 항목별로 하나 이상의 화이트 패턴 구역의 휘도값의 평균값 및 하나 이상의 블랙 패턴 구역의 휘도값의 평균값을 각각 산출하고, 상기 산출된 화이트 패턴 구역의 휘도값의 평균값과 산출된 블랙 패턴 구역의 휘도값의 평균값 간의 차이를 상기 특징 패턴이 위치한 영역의 이미지 특징 정보로 산출하는 것을 특징으로 하는 객체 식별 장치.
The method according to claim 1,
Wherein the control unit calculates the average value of the luminance values of one or more white pattern regions and the average value of the luminance values of the at least one black pattern region for each unit item and calculates an average value of the luminance values of the calculated white pattern region, And calculates the difference between the average values of the luminance values of the characteristic pattern as the image characteristic information of the region where the characteristic pattern is located.
제1항에 있어서,
상기 제어부는 상기 이미지 중 나머지 모든 영역에 대해서 상기 복수의 구역으로 나뉜 사각형의 특징 패턴을 슬라이딩하면서 적용하여, 전체 이미지의 복수의 영역에 대해서 복수의 영역별 이미지 특징 정보를 산출하고, 상기 산출된 전체 이미지에 대한 복수의 영역별 이미지 특징 정보를 근거로 학습을 수행하는 것을 특징으로 하는 객체 식별 장치.
The method according to claim 1,
Wherein the control unit slides and applies a feature pattern of a quadrangle divided into the plurality of regions to all the remaining regions of the image to calculate a plurality of image feature information for each region for a plurality of regions of the entire image, And performs learning based on a plurality of region-by-region image feature information on the image.
미리 설정된 특징 맵을 구성하는 단위 항목별 하나 이상의 화이트 패턴 구역의 휘도값의 평균값 및 하나 이상의 블랙 패턴 구역의 휘도값의 평균값으로 설정된 복수의 이미지에 대한 복수의 영역별 이미지 특징 정보를 저장하는 저장부; 및
이미지에 대해서 복수의 구역으로 나뉜 사각형의 특징 패턴을 적용하여 산출된 복수의 영역별 이미지 특징 정보와 상기 저장부에 저장된 복수의 이미지에 대한 각각의 복수의 영역별 이미지 특징 정보 간의 유사도를 확인하고, 상기 확인된 유사도를 근거로 상기 이미지 내에 목적으로 하는 객체의 존재 여부를 판단하는 제어부를 포함하는 객체 식별 장치.
A storage unit for storing a plurality of image feature information for each of a plurality of images set to a mean value of luminance values of one or more white pattern regions and a mean value of luminance values of at least one black pattern region, ; And
A similarity between a plurality of image feature information of each region calculated by applying a feature pattern of a quadrangle divided into a plurality of regions to an image and a plurality of image feature information of each region of a plurality of images stored in the storage unit, And a controller for determining whether a target object exists in the image based on the determined similarity.
제7항에 있어서,
상기 제어부는, 상기 확인된 유사도가 미리 설정된 기준값 이상일 때, 상기 이미지 내에 목적으로 하는 객체의 존재 여부를 판단하고, 상기 이미지 내에서 객체를 식별하는 것을 특징으로 하는 객체 식별 장치.
8. The method of claim 7,
Wherein the control unit determines whether a target object exists in the image when the determined similarity degree is equal to or greater than a preset reference value, and identifies an object in the image.
제7항에 있어서,
상기 제어부는, 상기 확인된 유사도가 미리 설정된 기준값보다 작을 때, 상기 이미지 내에 목적으로 하는 객체가 존재하지 않는 것으로 판단하는 것을 특징으로 하는 객체 식별 장치.
8. The method of claim 7,
Wherein the controller determines that a target object does not exist in the image when the determined similarity is smaller than a preset reference value.
제어부를 통해 이미지에 대해 복수의 구역으로 나뉜 사각형의 특징 패턴을 적용하는 단계;
상기 제어부를 통해 상기 특징 패턴에 대응하는 미리 설정된 특징맵을 근거로 상기 특징맵의 단위 항목에 포함된 하나 이상의 화이트 패턴 구역 및 하나 이상의 블랙 패턴 구역을 각각 선택하는 단계;
상기 제어부를 통해 상기 특징맵에 포함된 하나 이상의 단위 항목별로 각각 선택된 하나 이상의 화이트 패턴 구역 및 하나 이상의 블랙 패턴 구역에 대한 정보를 상기 이미지에서 상기 특징 패턴이 위치한 영역의 이미지 특징 정보로 산출하는 단계; 및
저장부에 상기 산출된 특징 패턴이 위치한 영역의 이미지 특징 정보를 저장하는 단계를 포함하는 객체 식별 방법.
Applying a feature pattern of a quadrangle divided into a plurality of regions to an image through a control unit;
Selecting at least one white pattern area and at least one black pattern area included in a unit item of the feature map based on a preset feature map corresponding to the feature pattern through the controller;
Calculating information on at least one white pattern area and at least one black pattern area selected for each of the one or more unit items included in the feature map through the controller as image feature information of an area where the feature pattern is located in the image; And
And storing image feature information of an area where the calculated feature pattern is located in the storage unit.
제10항에 있어서,
상기 특징 패턴이 위치한 영역의 이미지 특징 정보로 산출하는 단계는 상기 하나 이상의 단위 항목별로 각각 선택된 하나 이상의 화이트 패턴 구역의 휘도값의 평균값 및 하나 이상의 블랙 패턴 구역의 휘도값의 평균값을 상기 특징 패턴이 위치한 영역의 이미지 특징 정보로 산출하는 것을 특징으로 하는 객체 식별 방법.
11. The method of claim 10,
Wherein the calculating of the image feature information of the region in which the feature pattern is located includes calculating an average value of the brightness values of one or more white pattern regions and a mean value of brightness values of the at least one black pattern region, And calculating the image feature information of the region.
제10항에 있어서,
상기 특징 패턴이 위치한 영역의 이미지 특징 정보로 산출하는 단계는,
상기 단위 항목별로 하나 이상의 화이트 패턴 구역의 휘도값의 평균값 및 하나 이상의 블랙 패턴 구역의 휘도값의 평균값을 각각 산출하는 과정; 및
상기 산출된 화이트 패턴 구역의 휘도값의 평균값과 산출된 블랙 패턴 구역의 휘도값의 평균값 간의 차이를 상기 특징 패턴이 위치한 영역의 이미지 특징 정보로 산출하는 과정을 포함하는 것을 특징으로 하는 객체 식별 방법.
11. The method of claim 10,
Wherein the step of calculating, as image feature information of an area in which the feature pattern is located,
Calculating an average value of luminance values of one or more white pattern regions and an average value of luminance values of one or more black pattern regions for each unit item; And
And calculating a difference between an average value of the luminance values of the calculated white pattern region and an average value of the luminance values of the calculated black pattern region as image feature information of the region where the characteristic pattern is located.
제10항에 있어서,
상기 제어부를 통해 상기 특징맵에 포함된 복수의 단위 항목에 대해서 상기 단위 항목별로 하나 이상의 화이트 패턴 구역 및 하나 이상의 블랙 패턴 구역을 각각 선택하는 과정을 반복 수행하는 단계;
상기 제어부를 통해 상기 이미지 중 나머지 모든 영역에 대해서 상기 복수의 구역으로 나뉜 사각형의 특징 패턴을 슬라이딩하면서 적용하여, 전체 이미지의 복수의 영역에 대해서 복수의 영역별 이미지 특징 정보를 산출하는 단계; 및
상기 제어부를 통해 상기 산출된 전체 이미지에 대한 복수의 영역별 이미지 특징 정보를 근거로 학습을 수행하는 단계;를 더 포함하는 것을 특징으로 하는 객체 식별 방법.
11. The method of claim 10,
Repeating the process of selecting one or more white pattern areas and one or more black pattern areas for each of the plurality of unit items included in the feature map through the controller;
Calculating a plurality of image feature information for each of a plurality of regions of the entire image by sliding and applying a feature pattern of a quadrangle divided into the plurality of regions to all remaining regions of the image through the controller; And
And performing learning based on a plurality of image feature information for each region of the entire image through the control unit.
제어부를 통해 이미지에 대해서 복수의 구역으로 나뉜 사각형의 특징 패턴을 적용하여, 상기 특징 패턴에 대응하여 미리 설정된 특징 맵을 구성하는 단위 항목별 하나 이상의 화이트 패턴 구역의 휘도값의 평균값 및 하나 이상의 블랙 패턴 구역의 휘도값의 평균값으로 표현되는 복수의 영역별 이미지 특징 정보를 산출하는 단계;
상기 제어부를 통해 상기 산출된 복수의 영역별 이미지 특징 정보와 저장부에 저장된 복수의 이미지에 대한 각각의 복수의 영역별 이미지 특징 정보 간의 유사도를 확인하는 단계; 및
상기 제어부를 통해 상기 확인된 유사도를 근거로 상기 이미지 내에 목적으로 하는 객체의 존재 여부를 판단하는 단계를 포함하는 객체 식별 방법.
A characteristic pattern of a quadrangle divided into a plurality of regions with respect to the image is applied to the image through the control unit so that the average value of the luminance values of one or more white pattern regions for each unit item constituting the characteristic map set in advance corresponding to the characteristic pattern, Calculating a plurality of image feature information for each region represented by an average value of luminance values of the region;
Confirming the similarity between the calculated image feature information for each region and the plurality of image feature information for each region for a plurality of images stored in the storage unit through the control unit; And
And determining whether a target object exists in the image based on the determined similarity through the control unit.
제14항에 있어서,
상기 객체의 존재 여부를 판단하는 단계는,
상기 제어부를 통해 상기 확인된 유사도가 미리 설정된 기준값 이상인지 여부를 판단하는 과정;
상기 판단 결과, 상기 확인된 유사도가 상기 미리 설정된 기준값 이상일 때, 상기 제어부를 통해 상기 이미지 내에 목적으로 하는 객체의 존재 여부를 판단하고, 상기 이미지 내에서 객체를 식별하는 과정; 및
상기 판단 결과, 상기 확인된 유사도가 상기 미리 설정된 기준값보다 작을 때, 상기 제어부를 통해 상기 영상 내에 목적으로 하는 객체가 존재하지 않는 것으로 판단하는 과정을 포함하는 것을 특징으로 하는 객체 식별 방법.
15. The method of claim 14,
Wherein the step of determining whether the object is present comprises:
Determining whether the determined similarity is equal to or greater than a preset reference value through the controller;
Determining whether a target object exists in the image through the control unit when the determined similarity is equal to or greater than the preset reference value and identifying an object in the image; And
And determining that a target object does not exist in the image through the control unit when the determined similarity is less than the preset reference value.
제10항 내지 제15항 중 어느 한 항에 따른 방법을 수행하는 컴퓨터 프로그램이 기록된 기록매체.16. A recording medium on which a computer program for performing the method according to any one of claims 10 to 15 is recorded.
KR1020140031510A 2014-03-06 2014-03-18 Object identification apparatus, method thereof and computer readable medium having computer program recorded therefor KR102223684B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020140031510A KR102223684B1 (en) 2014-03-18 2014-03-18 Object identification apparatus, method thereof and computer readable medium having computer program recorded therefor
PCT/KR2014/010555 WO2015133699A1 (en) 2014-03-06 2014-11-05 Object recognition apparatus, and recording medium in which method and computer program therefor are recorded

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140031510A KR102223684B1 (en) 2014-03-18 2014-03-18 Object identification apparatus, method thereof and computer readable medium having computer program recorded therefor

Publications (2)

Publication Number Publication Date
KR20150108567A true KR20150108567A (en) 2015-09-30
KR102223684B1 KR102223684B1 (en) 2021-03-04

Family

ID=54246498

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140031510A KR102223684B1 (en) 2014-03-06 2014-03-18 Object identification apparatus, method thereof and computer readable medium having computer program recorded therefor

Country Status (1)

Country Link
KR (1) KR102223684B1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0921610A (en) * 1995-07-04 1997-01-21 N T T Data Tsushin Kk Image-processing apparatus and image-processing method
JP2001101405A (en) * 1999-09-30 2001-04-13 Matsushita Electric Ind Co Ltd Method and device for recognizing image
JP2006350645A (en) * 2005-06-15 2006-12-28 Matsushita Electric Ind Co Ltd Object detection device and learning device for the same
JP2008152672A (en) * 2006-12-19 2008-07-03 Fujitsu Ten Ltd Image recognition apparatus, image recognition method and electronic control apparatus
KR101064080B1 (en) 2009-08-18 2011-09-08 서울여자대학교 산학협력단 Automatic Segmentation Apparatus and Method Based on Active Shape Model Using Brightness Distribution and Slope Information in MR Image

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0921610A (en) * 1995-07-04 1997-01-21 N T T Data Tsushin Kk Image-processing apparatus and image-processing method
JP2001101405A (en) * 1999-09-30 2001-04-13 Matsushita Electric Ind Co Ltd Method and device for recognizing image
JP2006350645A (en) * 2005-06-15 2006-12-28 Matsushita Electric Ind Co Ltd Object detection device and learning device for the same
JP2008152672A (en) * 2006-12-19 2008-07-03 Fujitsu Ten Ltd Image recognition apparatus, image recognition method and electronic control apparatus
KR101064080B1 (en) 2009-08-18 2011-09-08 서울여자대학교 산학협력단 Automatic Segmentation Apparatus and Method Based on Active Shape Model Using Brightness Distribution and Slope Information in MR Image

Also Published As

Publication number Publication date
KR102223684B1 (en) 2021-03-04

Similar Documents

Publication Publication Date Title
CN106254933B (en) Subtitle extraction method and device
JP5775225B2 (en) Text detection using multi-layer connected components with histograms
CN110853033B (en) Video detection method and device based on inter-frame similarity
CN103955660B (en) Method for recognizing batch two-dimension code images
US9235779B2 (en) Method and apparatus for recognizing a character based on a photographed image
US20150379371A1 (en) Object Detection Utilizing Geometric Information Fused With Image Data
KR102655789B1 (en) Face detecting method and apparatus
US10438376B2 (en) Image processing apparatus replacing color of portion in image into single color, image processing method, and storage medium
US9171224B2 (en) Method of improving contrast for text extraction and recognition applications
US10528844B2 (en) Method and apparatus for distance measurement
KR20090027373A (en) System and mthod for labeling of image and detecting object with labeling of image and computer readable medium stored thereon computer executable instruction recorded with time-series data structure
US20150146991A1 (en) Image processing apparatus and image processing method of identifying object in image
CN112633313B (en) Bad information identification method of network terminal and local area network terminal equipment
CN109344824A (en) A kind of line of text method for detecting area, device, medium and electronic equipment
CN102473311B (en) Marker generateon device, marker generateon detection system, marker generation detection device, marker, marker generateon method and program therefor
CN113192081A (en) Image recognition method and device, electronic equipment and computer-readable storage medium
Moseva et al. Development of a System for Fixing Road Markings in Real Time
CN111539390A (en) Small target image identification method, equipment and system based on Yolov3
US20160358039A1 (en) Apparatus and method for detecting object
EP4332910A1 (en) Behavior detection method, electronic device, and computer readable storage medium
CN105825161A (en) Image skin color detection method and system thereof
KR102223684B1 (en) Object identification apparatus, method thereof and computer readable medium having computer program recorded therefor
US10402704B1 (en) Object recognition with attribute-based cells
KR102203000B1 (en) Object identification apparatus, method thereof and computer readable medium having computer program recorded therefor
CN115965848B (en) Image processing method and related device

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant