KR102232797B1 - Object identification apparatus, method thereof and computer readable medium having computer program recorded therefor - Google Patents

Object identification apparatus, method thereof and computer readable medium having computer program recorded therefor Download PDF

Info

Publication number
KR102232797B1
KR102232797B1 KR1020140024918A KR20140024918A KR102232797B1 KR 102232797 B1 KR102232797 B1 KR 102232797B1 KR 1020140024918 A KR1020140024918 A KR 1020140024918A KR 20140024918 A KR20140024918 A KR 20140024918A KR 102232797 B1 KR102232797 B1 KR 102232797B1
Authority
KR
South Korea
Prior art keywords
input image
feature point
image
control unit
feature points
Prior art date
Application number
KR1020140024918A
Other languages
Korean (ko)
Other versions
KR20150103444A (en
Inventor
신형철
전혁준
장언동
전병기
Original Assignee
에스케이플래닛 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에스케이플래닛 주식회사 filed Critical 에스케이플래닛 주식회사
Priority to KR1020140024918A priority Critical patent/KR102232797B1/en
Publication of KR20150103444A publication Critical patent/KR20150103444A/en
Application granted granted Critical
Publication of KR102232797B1 publication Critical patent/KR102232797B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/36Applying a local operator, i.e. means to operate on image points situated in the vicinity of a given point; Non-linear local filtering operations, e.g. median filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/192Recognition using electronic means using simultaneous comparisons or correlations of the image signals with a plurality of references
    • G06V30/194References adjustable by an adaptive method, e.g. learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Nonlinear Science (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 객체 식별 장치, 그 방법 및 컴퓨터 프로그램이 기록된 기록매체를 개시한다. 즉, 본 발명은 객체 식별을 위한 특징점 학습 시, 인접한 특징점과의 관계 정보도 함께 학습하고, 학습된 특징점 및 인접한 특징점과의 관계 정보를 근거로 입력 영상에서 추출된 특정 특징점에 대한 객체 여부를 식별함으로써 강한 특징점을 중심으로 하는 영역에 대한 HOG(Histogram of Gradient) 특성을 효율적으로 획득할 수 있다.The present invention discloses an object identification apparatus, a method thereof, and a recording medium in which a computer program is recorded. That is, in the present invention, when learning feature points for object identification, relationship information with adjacent feature points is also learned, and based on the learned feature point and relationship information between adjacent feature points, the object for a specific feature point extracted from the input image is identified. By doing so, it is possible to efficiently obtain a Histogram of Gradient (HOG) characteristic for a region centered on a strong feature point.

Description

객체 식별 장치, 그 방법 및 컴퓨터 프로그램이 기록된 기록매체{Object identification apparatus, method thereof and computer readable medium having computer program recorded therefor}Object identification apparatus, method thereof and computer readable medium having computer program recorded therefor

본 발명은 객체 식별 장치, 그 방법 및 컴퓨터 프로그램이 기록된 기록매체에 관한 것으로, 특히 객체 식별을 위한 특징점 학습 시, 인접한 특징점과의 관계 정보도 함께 학습하고, 학습된 특징점 및 인접한 특징점과의 관계 정보를 근거로 입력 영상에서 추출된 특정 특징점에 대한 객체 여부를 식별하는 객체 식별 장치, 그 방법 및 컴퓨터 프로그램이 기록된 기록매체에 관한 것이다.The present invention relates to an object identification apparatus, a method thereof, and a recording medium in which a computer program is recorded. In particular, when learning feature points for object identification, relationship information with adjacent feature points is also learned, and the relationship between the learned feature points and adjacent feature points The present invention relates to an object identification apparatus for identifying whether an object is an object for a specific feature point extracted from an input image based on information, a method thereof, and a recording medium in which a computer program is recorded.

학습 방식 객체 식별은 이미지(또는 영상)로부터 획득되는 특징(또는 특징점)을 근거로 이루어지며, 각 특징을 다양한 형태의 디스크립터로 표현한다.Learning method object identification is made based on features (or feature points) acquired from images (or images), and each feature is expressed as descriptors of various types.

이러한 학습 방식 객체 식별은 가려짐 등에 의해 일부 특징이 검출되지 않는 경우, 해당 객체를 정상적으로 식별할 수 없다.In this learning method object identification, if some features are not detected due to obscuration or the like, the object cannot be normally identified.

또한, 가려짐 등에 의해 일부 특징이 검출되지 않더라도 특정 객체로 추정하여 객체 식별 기능을 향상시키는 방법의 경우에 있어서도 인접한 공간 정보를 활용하지 않기 때문에 기존 디스크립터 자체의 식별 오류 확률이 높다.In addition, even in the case of a method of improving an object identification function by estimating a specific object even if some features are not detected due to obscuration or the like, the probability of an identification error of the existing descriptor itself is high because adjacent spatial information is not used.

한국공개특허 제10-2013-0095727호 [명칭: 비디오 내 객체들의 시맨틱 파싱]Korean Patent Laid-Open Patent No. 10-2013-0095727 [Name: Semantic parsing of objects in video]

본 발명의 목적은 객체 식별을 위한 특징점 학습 시, 인접한 특징점과의 관계 정보도 함께 학습하는 객체 식별 장치, 그 방법 및 컴퓨터 프로그램이 기록된 기록매체를 제공하는 데 있다.It is an object of the present invention to provide an object identification apparatus, a method thereof, and a recording medium in which a computer program is recorded, which also learns relationship information with adjacent feature points when learning feature points for object identification.

본 발명의 다른 목적은 학습된 특징점 및 인접한 특징점과의 관계 정보를 근거로 입력 영상에서 추출된 특정 특징점에 대한 객체 여부를 식별하는 객체 식별 장치, 그 방법 및 컴퓨터 프로그램이 기록된 기록매체를 제공하는 데 있다.Another object of the present invention is to provide an object identification device for identifying whether an object exists for a specific feature point extracted from an input image based on the learned feature point and relationship information between adjacent feature points, a method thereof, and a recording medium in which a computer program is recorded. Have.

본 발명의 실시예에 따른 객체 식별 장치는 영상에서 중심 특징점을 추출하고, 추출된 중심 특징점을 기준으로 미리 설정된 영역 내에 위치한 하나 이상의 인접 특징점을 검색하고, 중심 특징점과 검색된 하나 이상의 인접 특징점 간의 관계성 벡터를 산출하고, 중심 특징점과 산출된 관계성 벡터를 근거로 학습을 수행하는 제어부; 및 산출된 관계성 벡터와 학습 수행 결과를 저장하는 저장부를 포함할 수 있다.An object identification device according to an embodiment of the present invention extracts a central feature point from an image, searches for one or more adjacent feature points located in a preset area based on the extracted central feature point, and the relationship between the central feature point and the searched one or more adjacent feature points. A control unit that calculates a vector and performs learning based on a central feature point and the calculated relationship vector; And a storage unit for storing the calculated relational vector and the result of performing the learning.

본 발명과 관련된 일 예로서 관계성 벡터는 인접 특징점을 기준으로 중심 특징점에 대한 거리 및 방향 정보를 포함할 수 있다.As an example related to the present invention, the relationship vector may include distance and direction information for a central feature point based on an adjacent feature point.

본 발명의 실시예에 따른 객체 식별 장치는 복수의 인접 특징점에 각각 대응되는 관계성 벡터를 저장하는 저장부; 및 영상에서 추출된 중심 특징점을 기준으로 미리 설정된 영역 내에 위치한 하나 이상의 인접 특징점을 검색하고, 저장부에 저장된 복수의 관계성 벡터 중에서 검색된 하나 이상의 인접 특징점에 각각 대응되는 하나 이상의 관계성 벡터를 확인하고, 확인된 관계성 벡터의 히팅 수를 누적하고, 누적된 히팅 수를 근거로 영상 내에 목적으로 하는 객체의 존재 여부를 판단하는 제어부를 포함할 수 있다.An object identification device according to an embodiment of the present invention includes: a storage unit for storing a relationship vector corresponding to each of a plurality of adjacent feature points; And searching for one or more adjacent feature points located in a preset area based on the central feature point extracted from the image, and checking one or more relationship vectors each corresponding to the searched one or more adjacent feature points among a plurality of relationship vectors stored in the storage unit. And a control unit that accumulates the number of hittings of the checked relationship vector and determines whether or not a target object exists in the image based on the accumulated hitting number.

본 발명과 관련된 일 예로서 제어부는 누적된 히팅 수가 미리 설정된 기준값 이상인지 여부를 판단할 수 있다.As an example related to the present invention, the controller may determine whether the accumulated heating number is equal to or greater than a preset reference value.

본 발명과 관련된 일 예로서 제어부는, 누적된 히팅 수가 미리 설정된 기준값 이상일 때, 영상 내에 목적으로 하는 객체가 존재하는 것으로 판단하고, 영상 내에서 객체를 식별할 수 있다.As an example related to the present invention, when the accumulated heating number is greater than or equal to a preset reference value, the controller may determine that a target object exists in the image and identify the object in the image.

본 발명과 관련된 일 예로서 제어부는, 누적된 히팅 수가 미리 설정된 기준값보다 작을 때, 영상 내에 목적으로 하는 객체가 존재하지 않는 것으로 판단할 수 있다.As an example related to the present invention, when the accumulated heating number is less than a preset reference value, the controller may determine that the target object does not exist in the image.

본 발명의 실시예에 따른 객체 식별 방법은 제어부를 통해 영상에서 중심 특징점을 추출하는 단계; 제어부를 통해 추출된 중심 특징점을 기준으로 미리 설정된 영역 내에 위치한 하나 이상의 인접 특징점을 검색하는 단계; 제어부를 통해 중심 특징점과 검색된 하나 이상의 인접 특징점 간의 관계성 벡터를 산출하는 단계; 제어부를 통해 중심 특징점과 산출된 관계성 벡터를 근거로 학습을 수행하는 단계; 및 저장부에 산출된 관계성 벡터와 학습 수행 결과를 저장하는 단계를 포함할 수 있다.An object identification method according to an embodiment of the present invention includes the steps of extracting a central feature point from an image through a control unit; Searching for one or more adjacent feature points located in a preset area based on the central feature point extracted through the control unit; Calculating a relationship vector between the central feature point and the searched one or more adjacent feature points through the control unit; Performing learning based on the relational vector calculated with the central feature point through the control unit; And storing the calculated relationship vector and the result of performing the learning in the storage unit.

본 발명과 관련된 일 예로서 관계성 벡터를 산출하는 단계는, 중심 특징점과 검색된 하나 이상의 인접 특징점 간의 연관 관계를 나타내는 거리 및 방향에 대한 정보를 근거로 관계성 벡터를 산출할 수 있다.As an example related to the present invention, in the step of calculating the relationship vector, a relationship vector may be calculated based on information on a distance and a direction indicating a relationship between a central feature point and one or more adjacent feature points.

본 발명의 실시예에 따른 객체 식별 방법은 제어부를 통해 영상에서 추출된 중심 특징점을 기준으로 미리 설정된 영역 내에 위치한 하나 이상의 인접 특징점을 검색하는 단계; 제어부를 통해 저장부에 미리 저장된 복수의 관계성 벡터 중에서 검색된 하나 이상의 인접 특징점에 각각 대응되는 하나 이상의 관계성 벡터를 확인하는 단계; 제어부를 통해 확인된 관계성 벡터의 히팅 수를 누적하는 단계; 및 제어부를 통해 누적된 히팅 수를 근거로 영상 내에 목적으로 하는 객체의 존재 여부를 판단하는 단계를 포함할 수 있다.An object identification method according to an embodiment of the present invention includes the steps of: searching for one or more adjacent feature points located in a preset area based on a central feature point extracted from an image through a control unit; Checking one or more relationship vectors each corresponding to one or more adjacent feature points retrieved from among a plurality of relationship vectors previously stored in the storage unit through the control unit; Accumulating the number of hits of the relationship vector identified through the control unit; And determining whether a target object exists in the image based on the accumulated number of hits through the control unit.

본 발명과 관련된 일 예로서 객체의 존재 여부를 판단하는 단계는, 제어부를 통해 누적된 히팅 수가 미리 설정된 기준값 이상인지 여부를 판단하는 과정; 판단 결과, 누적된 히팅 수가 미리 설정된 기준값 이상일 때, 제어부를 통해 영상 내에 목적으로 하는 객체가 존재하는 것으로 판단하고, 영상 내에서 객체를 식별하는 과정; 및 판단 결과, 누적된 히팅 수가 미리 설정된 기준값보다 작을 때, 제어부를 통해 영상 내에 목적으로 하는 객체가 존재하지 않는 것으로 판단하는 과정;을 포함할 수 있다.As an example related to the present invention, determining whether an object exists may include determining whether the accumulated number of heating through a control unit is greater than or equal to a preset reference value; Determining that the target object exists in the image through a control unit when the accumulated number of heating is equal to or greater than a preset reference value, and identifying the object in the image; And determining that the target object does not exist in the image through the control unit when the accumulated heating number is smaller than the preset reference value as a result of the determination.

본 발명의 실시예에 따른 컴퓨터 프로그램이 기록된 기록매체에는 상술한 실시예에 따른 방법을 수행하는 컴퓨터 프로그램이 저장될 수 있다.A computer program for performing the method according to the above-described embodiment may be stored in the recording medium on which the computer program according to the embodiment of the present invention is recorded.

본 발명은 객체 식별을 위한 특징점 학습 시, 인접한 특징점과의 관계 정보도 함께 학습함으로써, 강한 특징점을 중심으로 하는 영역에 대한 HOG(Histogram of Gradient) 특성을 효율적으로 획득할 수 있다.In the present invention, when learning feature points for object identification, relationship information with adjacent feature points is also learned, so that a Histogram of Gradient (HOG) characteristic for a region centered on a strong feature point can be efficiently obtained.

또한, 본 발명은 학습된 특징점 및 인접한 특징점과의 관계 정보를 근거로 입력 영상에서 추출된 특정 특징점에 대한 객체 여부를 식별함으로써, 인접 특징이 일부 가려질 경우에도 객체를 식별할 수 있으며, 중요 특징까지도 가려지는 경우에는 객체로 식별하지 않도록 하여 객체 식별에 따른 오류를 줄일 수 있다.In addition, the present invention identifies whether an object for a specific feature point extracted from an input image is based on the learned feature point and the relationship information between the adjacent feature point, so that even when the neighboring feature is partially hidden, the object can be identified. In the case that even is covered, errors due to object identification can be reduced by not identifying as an object.

도 1은 본 발명의 실시예에 따른 객체 식별 장치의 구성을 나타낸 블록도이다.
도 2는 본 발명의 제 1 실시예에 따른 객체 식별 방법을 나타낸 흐름도이다.
도 3 내지 도 5는 본 발명의 제 1 실시예에 따른 객체 식별에 의한 영상 내의 처리를 나타낸 도이다.
도 6은 본 발명의 제 2 실시예에 따른 객체 식별 방법을 나타낸 흐름도이다.
도 7 내지 도 10은 본 발명의 제 2 실시예에 따른 객체 식별에 의한 영상 내의 처리를 나타낸 도이다.
1 is a block diagram showing the configuration of an object identification device according to an embodiment of the present invention.
Figure 2 It is a flowchart showing an object identification method according to the first embodiment of the present invention.
3 to 5 are diagrams showing processing in an image by object identification according to the first embodiment of the present invention.
Figure 6 It is a flowchart showing an object identification method according to a second embodiment of the present invention.
7 to 10 are diagrams showing processing in an image by object identification according to a second embodiment of the present invention.

본 발명에서 사용되는 기술적 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아님을 유의해야 한다. 또한, 본 발명에서 사용되는 기술적 용어는 본 발명에서 특별히 다른 의미로 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 의미로 해석되어야 하며, 과도하게 포괄적인 의미로 해석되거나, 과도하게 축소된 의미로 해석되지 않아야 한다. 또한, 본 발명에서 사용되는 기술적인 용어가 본 발명의 사상을 정확하게 표현하지 못하는 잘못된 기술적 용어일 때에는 당업자가 올바르게 이해할 수 있는 기술적 용어로 대체되어 이해되어야 할 것이다. 또한, 본 발명에서 사용되는 일반적인 용어는 사전에 정의되어 있는 바에 따라, 또는 전후 문맥상에 따라 해석되어야 하며, 과도하게 축소된 의미로 해석되지 않아야 한다.It should be noted that the technical terms used in the present invention are only used to describe specific embodiments, and are not intended to limit the present invention. In addition, the technical terms used in the present invention should be interpreted as generally understood by those of ordinary skill in the technical field to which the present invention belongs, unless otherwise defined in the present invention, and is excessively comprehensive. It should not be construed as a human meaning or an excessively reduced meaning. In addition, when a technical term used in the present invention is an incorrect technical term that does not accurately express the spirit of the present invention, it should be understood by being replaced with a technical term that can be correctly understood by those skilled in the art. In addition, general terms used in the present invention should be interpreted as defined in the dictionary or according to the context before and after, and should not be interpreted as an excessively reduced meaning.

또한, 본 발명에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함한다. 본 발명에서 "구성된다" 또는 "포함한다" 등의 용어는 발명에 기재된 여러 구성 요소들 또는 여러 단계를 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다.In addition, the singular expression used in the present invention includes a plurality of expressions unless the context clearly indicates otherwise. In the present invention, terms such as “consisting of” or “comprising” should not be construed as necessarily including all of the various components or steps described in the invention, and some components or some steps may not be included. It is to be construed that it may or may further include additional components or steps.

또한, 본 발명에서 사용되는 제 1, 제 2 등과 같이 서수를 포함하는 용어는 구성 요소들을 설명하는데 사용될 수 있지만, 구성 요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제 1 구성 요소는 제 2 구성 요소로 명명될 수 있고, 유사하게 제 2 구성 요소도 제 1 구성 요소로 명명될 수 있다.In addition, terms including ordinal numbers such as first and second used in the present invention may be used to describe the elements, but the elements should not be limited by the terms. The terms are used only to distinguish one component from another. For example, without departing from the scope of the present invention, a first element may be referred to as a second element, and similarly, a second element may be referred to as a first element.

이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성 요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings, but the same or similar components are assigned the same reference numerals regardless of the reference numerals, and redundant descriptions thereof will be omitted.

또한, 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 발명의 사상을 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 발명의 사상이 제한되는 것으로 해석되어서는 아니 됨을 유의해야 한다.In addition, in describing the present invention, when it is determined that a detailed description of a related known technology may obscure the subject matter of the present invention, a detailed description thereof will be omitted. In addition, it should be noted that the accompanying drawings are only for easily understanding the spirit of the present invention and should not be construed as limiting the spirit of the present invention by the accompanying drawings.

도 1은 본 발명의 실시예에 따른 객체 식별 장치(10)의 구성을 나타낸 블록도이다.1 is a block diagram showing the configuration of an object identification device 10 according to an embodiment of the present invention.

도 1에 도시된 바와 같이, 객체 식별 장치(10)는 저장부(100) 및 제어부(200)로 구성된다. 도 1에 도시된 객체 식별 장치(10)의 구성 요소 모두가 필수 구성 요소인 것은 아니며, 도 1에 도시된 구성 요소보다 많은 구성 요소에 의해 객체 식별 장치(10)가 구현될 수도 있고, 그보다 적은 구성 요소에 의해서도 객체 식별 장치(10)가 구현될 수도 있다.As shown in FIG. 1, the object identification device 10 includes a storage unit 100 and a control unit 200. Not all of the components of the object identification device 10 shown in FIG. 1 are essential components, and the object identification device 10 may be implemented by more components than the components shown in FIG. The object identification device 10 may also be implemented by a component.

제어부(200)는 영상(또는 이미지)에서 중심 특징점을 추출하고, 추출된 중심 특징점을 기준으로 영역을 설정한다. 이후, 제어부(200)는 설정된 영역 내에서 중심 특징점에 인접한 하나 이상의 인접 특징점을 검색하고, 검색된 하나 이상의 인접 특징점과 중심 특징점 간의 관계성 벡터를 산출하고, 중심 특징점과 산출된 관계성 벡터를 근거로 학습을 하고, 학습 실시 결과를 저장부(100)에 저장한다. 또한, 제어부(200)는 다른 입력 영상에서 추출된 중심 특징점에 대해 설정된 영역 내의 하나 이상의 인접 특징점과 해당 중심 특징점에 대한 관계성 벡터의 히팅 수를 누적하고, 누적된 히팅 수가 미리 설정된 기준값 이상인 경우, 목적으로 하는 객체가 존재하는 것으로 분류하고, 해당 객체를 식별한 후, 식별 결과를 저장부(100)에 저장한다.The controller 200 extracts a central feature point from an image (or image) and sets an area based on the extracted central feature point. Thereafter, the controller 200 searches for one or more adjacent feature points adjacent to the central feature point within the set area, calculates a relationship vector between the searched one or more adjacent feature points and the central feature point, and based on the central feature point and the calculated relationship vector. The learning is performed, and the result of the learning is stored in the storage unit 100. In addition, the controller 200 accumulates the number of hits of one or more adjacent feature points in a region set for the central feature point extracted from another input image and the relationship vector for the corresponding central feature point, and the accumulated number of hits is greater than or equal to a preset reference value, The object is classified as being present, the object is identified, and the identification result is stored in the storage unit 100.

저장부(100)는 사용자 인터페이스(UI), 그래픽 사용자 인터페이스(GUI) 등을 저장한다.The storage unit 100 stores a user interface (UI), a graphic user interface (GUI), and the like.

또한, 저장부(100)는 객체 식별 장치(10)가 동작하는데 필요한 데이터와 프로그램 등을 저장한다.In addition, the storage unit 100 stores data and programs necessary for the object identification device 10 to operate.

또한, 저장부(100)는 객체 식별 장치(10)에 포함된 입력부(미도시)(또는 카메라(미도시))를 통해 촬영되는 영상(또는 이미지), 객체 식별 장치(10)에 포함된 통신부(미도시)를 통해 수신되는 영상 등을 저장한다.In addition, the storage unit 100 includes an image (or image) photographed through an input unit (not shown) (or a camera (not shown)) included in the object identification device 10, and a communication unit included in the object identification device 10 It stores images received through (not shown).

또한, 저장부(100)는 제어부(200)의 제어에 의해 생성되는 중심 특징점, 영역 정보, 인접 특징점, 해당 중심 특징점과 인접 특징점에 대한 관계성 벡터, 식별된(또는 인식된) 객체 정보 등을 저장한다.In addition, the storage unit 100 stores a central feature point, region information, an adjacent feature point, a relationship vector between the corresponding central feature point and the adjacent feature point, and identified (or recognized) object information, which are generated under the control of the controller 200. Save it.

제어부(200)는 객체 식별 장치(10)의 전반적인 제어 기능을 실행한다.The control unit 200 executes an overall control function of the object identification device 10.

또한, 제어부(200)는 저장부(100)에 미리 저장된 영상(또는 이미지) 또는 통신부나 입력부를 통해 수신되는 영상에서 중심 특징점(또는 특징점)을 추출(또는 확인)한다. 또한, 제어부(200)는 추출된 중심 특징점에 대한 정보를 저장부(100)에 저장한다.In addition, the control unit 200 extracts (or checks) a central feature point (or feature point) from an image (or image) previously stored in the storage unit 100 or an image received through a communication unit or an input unit. In addition, the control unit 200 stores information on the extracted central feature point in the storage unit 100.

또한, 제어부(200)는 추출된 중심 특징점을 기준으로 영역을 설정한다. 이때, 영역은 미리 설정될 수 있으며, 해당 중심 특징점을 기준으로(또는 중심으로) 미리 설정된 크기의 반경을 갖는 원형의 영역, 사각형 영역, 마름모 영역, 다각형 영역 등으로 설정할 수 있다.Also, the controller 200 sets an area based on the extracted central feature point. In this case, the area may be set in advance, and may be set as a circular area, a rectangular area, a rhombus area, a polygon area, etc. having a radius of a preset size based on (or to the center) the corresponding central feature point.

또한, 제어부(200)는 설정된 영역 내에 위치한 하나 이상의 인접 특징점을 검색(또는 확인/추출)한다. 또한, 제어부(200)는 검색된 하나 이상의 인접 특징점에 대한 정보를 저장부(100)에 저장한다.In addition, the controller 200 searches (or checks/extracts) one or more adjacent feature points located within the set area. In addition, the control unit 200 stores information on the searched one or more adjacent feature points in the storage unit 100.

또한, 제어부(200)는 중심 특징점과 검색된 하나 이상의 인접 특징점 간의 관계성 벡터를 산출(또는 계산)한다. 여기서, 관계성 벡터는 거리(또는 크기), 방향 등의 정보를 포함한다.In addition, the control unit 200 calculates (or calculates) a relationship vector between the central feature point and the searched one or more adjacent feature points. Here, the relationship vector includes information such as distance (or size) and direction.

즉, 제어부(200)는 중심 특징점과 검색된 하나 이상의 인접 특징점과의 연관 관계를 나타내는 관계성 벡터를 산출한다. 또한, 제어부(200)는 산출된 관계성 벡터에 대한 정보를 저장부(100)에 저장한다.That is, the controller 200 calculates a relationship vector representing a relationship between the central feature point and one or more searched adjacent feature points. In addition, the control unit 200 stores information on the calculated relationship vector in the storage unit 100.

또한, 제어부(200)는 중심 특징점 및 산출된 관계성 벡터를 근거로 학습을 한다. 또한, 제어부(200)는 학습 결과를 저장부(100)에 저장한다.In addition, the controller 200 learns based on the central feature point and the calculated relationship vector. In addition, the control unit 200 stores the learning result in the storage unit 100.

또한, 제어부(200)는 저장부(100)에 미리 저장된 다른 영상(또는 이미지) 또는 통신부(미도시)나 입력부(미도시)를 통해 수신되는 다른 영상에서 중심 특징점을 추출(또는 확인)한다.In addition, the control unit 200 extracts (or confirms) a central feature point from another image (or image) previously stored in the storage unit 100 or another image received through a communication unit (not shown) or an input unit (not shown).

또한, 제어부(200)는 추출된 중심 특징점을 기준으로 미리 설정된 영역 내에 위치한 하나 이상의 인접 특징점을 검색(또는 확인/추출)한다. 또한, 제어부(200)는 검색된 하나 이상의 인접 특징점에 대한 정보를 저장부(100)에 저장한다.Also, the controller 200 searches (or checks/extracts) one or more adjacent feature points located in a preset area based on the extracted central feature point. In addition, the control unit 200 stores information on the searched one or more adjacent feature points in the storage unit 100.

또한, 제어부(200)는 해당 영역 내에 위치한 하나 이상의 인접 특징점에 대응하여 저장부(100)에 미리 저장된(또는 학습된/등록된) 인접 특징점과 중심 특징점 간의 관계성 벡터를 확인한다.In addition, the control unit 200 checks a relationship vector between the adjacent feature point and the central feature point previously stored (or learned/registered) in the storage unit 100 in correspondence with one or more adjacent feature points located in the corresponding region.

또한, 제어부(200)는 확인된 관계성 벡터의 히팅 수를 누적한다.In addition, the control unit 200 accumulates the number of hits of the confirmed relationship vector.

또한, 제어부(200)는 누적된 히팅 수가 미리 설정된 기준값 이상인지 여부를 판단(또는 확인)한다.In addition, the control unit 200 determines (or confirms) whether the accumulated heating number is greater than or equal to a preset reference value.

판단 결과, 누적된 히팅 수가 미리 설정된 기준값 이상인 경우, 제어부(200)는 해당 영상 내에 목적으로 하는 객체가 존재하는 것으로 분류(또는 판단/확인)하고, 해당 영상 내에서 해당 객체를 식별(또는 인식)한다.As a result of the determination, when the accumulated number of heating is greater than or equal to a preset reference value, the controller 200 classifies (or judges/confirms) the target object as being present in the image, and identifies (or recognizes) the object within the image. do.

또한, 제어부(200)는 식별된 객체에 대한 정보를 저장부(100)에 저장한다.In addition, the control unit 200 stores information on the identified object in the storage unit 100.

또한, 판단 결과, 누적된 히팅 수가 미리 설정된 기준값보다 작은 경우, 제어부(200)는 해당 영상 내에 목적으로 하는 객체가 존재하지 않는 것으로 분류한다.In addition, as a result of the determination, if the accumulated number of heating is smaller than the preset reference value, the controller 200 classifies that the target object does not exist in the corresponding image.

이와 같이, 객체 식별을 위한 특징점 학습 시, 인접한 특징점과의 관계 정보도 함께 학습할 수 있다.In this way, when learning feature points for object identification, relationship information with adjacent feature points may also be learned.

또한, 이와 같이, 학습된 특징점 및 인접한 특징점과의 관계 정보를 근거로 입력 영상에서 추출된 특정 특징점에 대한 객체 여부를 식별할 수 있다.In addition, it is possible to identify whether an object for a specific feature point extracted from the input image is based on the learned feature point and relationship information between the adjacent feature point.

이하에서는, 본 발명에 따른 객체 식별 방법을 도 1 내지 도 10을 참조하여 상세히 설명한다.Hereinafter, an object identification method according to the present invention will be described in detail with reference to FIGS. 1 to 10.

도 2는 본 발명의 제 1 실시예에 따른 객체 식별 방법을 나타낸 흐름도이다.Figure 2 It is a flowchart showing an object identification method according to the first embodiment of the present invention.

먼저, 제어부(200)는 저장부(100)에 미리 저장된 영상(또는 이미지) 또는 통신부(미도시)나 입력부(미도시)를 통해 수신되는 영상에서 중심 특징점을 추출(또는 확인)한다.First, the control unit 200 extracts (or confirms) a central feature point from an image (or image) previously stored in the storage unit 100 or an image received through a communication unit (not shown) or an input unit (not shown).

또한, 제어부(200)는 추출된 중심 특징점에 대한 정보를 저장부(100)에 저장한다.In addition, the control unit 200 stores information on the extracted central feature point in the storage unit 100.

일 예로, 도 3에 도시된 바와 같이, 제어부(200)는 영상(310) 내에서 중심 특징점(320)을 추출한다(210).For example, as shown in FIG. 3, the controller 200 extracts a central feature point 320 from the image 310 (210 ).

이후, 제어부(200)는 추출된 중심 특징점을 기준으로 영역을 설정한다.Thereafter, the controller 200 sets an area based on the extracted central feature point.

일 예로, 제어부(200)는 추출된 중심 특징점을 기준으로 특정 길이의 반경을 갖는 영역을 설정한다(S220).For example, the controller 200 sets an area having a radius of a specific length based on the extracted central feature point (S220).

이후, 제어부(200)는 설정된 영역 내에 위치한 하나 이상의 인접 특징점을 검색(또는 확인/추출)한다.Thereafter, the controller 200 searches (or checks/extracts) one or more adjacent feature points located within the set area.

또한, 제어부(200)는 검색된 하나 이상의 인접 특징점에 대한 정보를 저장부(100)에 저장한다.In addition, the control unit 200 stores information on the searched one or more adjacent feature points in the storage unit 100.

일 예로, 도 4에 도시된 바와 같이, 설정된 영역(410) 내에 위치한 하나 이상의 인접 특징점(420)을 검색한다(S230).For example, as shown in FIG. 4, one or more adjacent feature points 420 located in the set area 410 are searched (S230).

이후, 제어부(200)는 중심 특징점과 검색된 하나 이상의 인접 특징점 간의 관계성 벡터를 산출(또는 계산)한다. 여기서, 관계성 벡터는 거리(또는 크기), 방향 등의 정보를 포함한다.Thereafter, the controller 200 calculates (or calculates) a relationship vector between the central feature point and the searched one or more adjacent feature points. Here, the relationship vector includes information such as distance (or size) and direction.

즉, 제어부(200)는 중심 특징점과 검색된 하나 이상의 인접 특징점과의 연관 관계를 나타내는 관계성 벡터를 산출한다.That is, the controller 200 calculates a relationship vector representing a relationship between the central feature point and one or more searched adjacent feature points.

또한, 제어부(200)는 산출된 관계성 벡터에 대한 정보를 저장부(100)에 저장한다.In addition, the control unit 200 stores information on the calculated relationship vector in the storage unit 100.

일 예로, 도 5에 도시된 바와 같이, 제어부(200)는 중심 특징점(320)과 검색된 하나 이상의 인접 특징점(420)과의 연관 관계를 나타내는 관계성 벡터(510)를 각각 산출한다(S240).As an example, as shown in FIG. 5, the controller 200 calculates a relationship vector 510 representing a relationship between the central feature point 320 and the searched one or more adjacent feature points 420 (S240).

이후, 제어부(200)는 중심 특징점 및 산출된 관계성 벡터를 근거로 학습을 한다.Thereafter, the controller 200 learns based on the central feature point and the calculated relationship vector.

또한, 제어부(200)는 학습 결과를 저장부(100)에 저장한다(S250).In addition, the control unit 200 stores the learning result in the storage unit 100 (S250).

도 6은 본 발명의 제 2 실시예에 따른 객체 식별 방법을 나타낸 흐름도이다.Figure 6 It is a flowchart showing an object identification method according to a second embodiment of the present invention.

먼저, 제어부(200)는 저장부(100)에 미리 저장된 영상(또는 이미지) 또는 통신부(미도시)나 입력부(미도시)를 통해 수신되는 영상에서 중심 특징점을 추출(또는 확인)한다.First, the control unit 200 extracts (or confirms) a central feature point from an image (or image) previously stored in the storage unit 100 or an image received through a communication unit (not shown) or an input unit (not shown).

또한, 제어부(200)는 추출된 중심 특징점에 대한 정보를 저장부(100)에 저장한다.In addition, the control unit 200 stores information on the extracted central feature point in the storage unit 100.

일 예로, 도 7에 도시된 바와 같이, 제어부(200)는 영상(710) 내에서 중심 특징점(720)을 추출한다(610).For example, as shown in FIG. 7, the controller 200 extracts a central feature point 720 from the image 710 (610 ).

이후, 제어부(200)는 추출된 중심 특징점을 기준으로 미리 설정된 영역 내에 위치한 하나 이상의 인접 특징점을 검색(또는 확인/추출)한다.Thereafter, the controller 200 searches (or checks/extracts) one or more adjacent feature points located in a preset area based on the extracted central feature point.

또한, 제어부(200)는 검색된 하나 이상의 인접 특징점에 대한 정보를 저장부(100)에 저장한다.In addition, the control unit 200 stores information on the searched one or more adjacent feature points in the storage unit 100.

일 예로, 도 8에 도시된 바와 같이, 설정된 영역(810) 내에 위치한 하나 이상의 인접 특징점(820)을 검색한다(S620).For example, as shown in FIG. 8, one or more adjacent feature points 820 located in the set area 810 are searched (S620).

이후, 제어부(200)는 해당 영역 내에 위치한 하나 이상의 인접 특징점에 대응하여 저장부(100)에 미리 저장된(또는 학습된/등록된) 인접 특징점과 중심 특징점 간의 관계성 벡터를 확인한다.Thereafter, the control unit 200 checks a relationship vector between the adjacent feature point and the central feature point previously stored (or learned/registered) in the storage unit 100 in correspondence with one or more adjacent feature points located in the corresponding region.

또한, 제어부(200)는 확인된 관계성 벡터의 히팅 수를 누적한다.In addition, the control unit 200 accumulates the number of hits of the confirmed relationship vector.

일 예로, 도 9 및 도 10에 도시된 바와 같이, 제어부(200)는 영역(810) 내에 위치한 하나 이상의 인접 특징점(820)에 대응하여 저장부(100)에 미리 저장된 인접 특징점(820)과 중심 특징점 간의 관계성 벡터(910, 1010)를 확인하고, 확인된 관계성 벡터의 히팅 수를 누적한다(S630).As an example, as shown in FIGS. 9 and 10, the control unit 200 corresponds to one or more adjacent feature points 820 located in the area 810 and the adjacent feature points 820 and the center previously stored in the storage unit 100. The relationship vectors 910 and 1010 between the feature points are checked, and the number of hits of the checked relationship vectors is accumulated (S630).

이후, 제어부(200)는 누적된 히팅 수가 미리 설정된 기준값 이상인지 여부를 판단(또는 확인)한다(S640).Thereafter, the control unit 200 determines (or confirms) whether the accumulated heating number is greater than or equal to a preset reference value (S640).

판단 결과, 누적된 히팅 수가 미리 설정된 기준값 이상인 경우, 제어부(200)는 해당 영상 내에 목적으로 하는 객체가 존재하는 것으로 분류(또는 판단/확인)하고, 해당 영상 내에서 해당 객체를 식별(또는 인식)하고, 식별된 객체를 저장부(100)에 저장한다.As a result of the determination, when the accumulated number of heating is greater than or equal to a preset reference value, the controller 200 classifies (or judges/confirms) the target object as being present in the image, and identifies (or recognizes) the object within the image. And, the identified object is stored in the storage unit 100.

일 예로, 판단 결과, 누적된 히팅 수가 미리 설정된 기준값 이상일 때, 즉 도 9에 도시된 바와 같이 미리 저장된 인접 특징점(820)과 중심 특징점 간의 관계성 벡터(910)가 하나의 지점(920)으로 모여 누적된 히팅 수가 미리 설정된 기준값 이상일 때, 제어부(200)는 해당 영상 내에 객체가 존재하는 것으로 분류한다(S640).As an example, as a result of the determination, when the accumulated number of hits is greater than or equal to a preset reference value, that is, as shown in FIG. 9, the relationship vector 910 between the adjacent feature point 820 and the central feature point stored in advance is gathered into one point 920. When the accumulated number of heating is greater than or equal to the preset reference value, the controller 200 classifies that an object exists in the corresponding image (S640).

또한, 판단 결과, 누적된 히팅 수가 미리 설정된 기준값보다 작은 경우, 제어부(200)는 해당 영상 내에 목적으로 하는 객체가 존재하지 않는 것으로 분류한다.In addition, as a result of the determination, if the accumulated number of heating is smaller than the preset reference value, the controller 200 classifies that the target object does not exist in the corresponding image.

일 예로, 판단 결과, 누적된 히팅 수가 미리 설정된 기준값보다 작을 때, 즉 도 10에 도시된 바와 같이 미리 저장된 인접 특징점(82)과 중심 특징점 간의 관계성 벡터(1010)가 하나의 지점이 아닌 복수의 지점(1021, 1022)으로 모여 누적된 히팅 수가 미리 설정된 기준값보다 작을 때, 제어부(200)는 해당 영상 내에 객체가 존재하지 않는 것으로 분류한다(S650).As an example, as a result of the determination, when the accumulated number of hits is smaller than a preset reference value, that is, as shown in FIG. 10, the relationship vector 1010 between the adjacent feature point 82 and the central feature point stored in advance is not a single point. When the number of heating accumulated at the points 1021 and 1022 is smaller than the preset reference value, the controller 200 classifies that the object does not exist in the corresponding image (S650).

본 발명의 실시예에 따른 객체 식별 장치 및 그 방법은 컴퓨터 프로그램으로 작성 가능하며, 컴퓨터 프로그램을 구성하는 코드들 및 코드 세그먼트들은 당해 분야의 컴퓨터 프로그래머에 의하여 용이하게 추론될 수 있다. 또한, 해당 컴퓨터 프로그램은 컴퓨터가 읽을 수 있는 정보저장매체(computer readable media)에 저장되고, 컴퓨터나 본 발명의 실시예에 따른 객체 식별 장치, 사용자 장치(또는 단말) 등에 의하여 읽혀지고 실행됨으로써 객체 식별 장치 및 그 방법을 구현할 수 있다.The object identification apparatus and method according to an embodiment of the present invention can be written in a computer program, and codes and code segments constituting the computer program can be easily inferred by a computer programmer in the art. In addition, the computer program is stored in a computer readable media, and is read and executed by a computer, an object identification device according to an embodiment of the present invention, a user device (or terminal), etc. to identify an object. The device and the method can be implemented.

정보저장매체는 자기 기록매체, 광 기록매체 및 캐리어 웨이브 매체를 포함한다. 본 발명의 실시예에 따른 객체 식별 장치 및 그 방법을 구현하는 컴퓨터 프로그램은 객체 식별 장치, 사용자 장치 등의 내장 메모리에 저장 및 설치될 수 있다. 또는, 본 발명의 실시예에 따른 객체 식별 장치 및 그 방법을 구현하는 컴퓨터 프로그램을 저장 및 설치한 스마트 카드 등의 외장 메모리가 인터페이스를 통해 객체 식별 장치, 사용자 장치 등에 장착될 수도 있다.The information storage medium includes a magnetic recording medium, an optical recording medium, and a carrier wave medium. An object identification device according to an embodiment of the present invention and a computer program implementing the method may be stored and installed in an internal memory such as an object identification device or a user device. Alternatively, an object identification device according to an embodiment of the present invention and an external memory such as a smart card in which a computer program implementing the method is stored and installed may be mounted on an object identification device, a user device, or the like through an interface.

본 발명의 실시예는 앞서 설명된 바와 같이, 객체 식별을 위한 특징점 학습 시, 인접한 특징점과의 관계 정보도 함께 학습하여, 강한 특징점을 중심으로 하는 영역에 대한 HOG(Histogram of Gradient) 특성을 효율적으로 획득할 수 있다.As described above, in the embodiment of the present invention, when learning feature points for object identification, relationship information with neighboring feature points is also learned, so that the Histogram of Gradient (HOG) characteristic for a region centered on a strong feature point is efficiently obtained. Can be obtained.

또한, 본 발명의 실시예는 앞서 설명된 바와 같이, 학습된 특징점 및 인접한 특징점과의 관계 정보를 근거로 입력 영상에서 추출된 특정 특징점에 대한 객체 여부를 식별하여, 인접 특징이 일부 가려질 경우에도 객체를 식별할 수 있으며, 중요 특징까지도 가려지는 경우에는 객체로 식별하지 않도록 하여 객체 식별에 따른 오류를 줄일 수 있다.In addition, as described above, the embodiment of the present invention identifies whether an object for a specific feature point extracted from an input image is based on the learned feature point and the relationship information between the adjacent feature point, even when the neighboring feature is partially hidden. Objects can be identified, and errors caused by object identification can be reduced by not identifying them as objects when even important features are obscured.

전술된 내용은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above-described contents may be modified and modified without departing from the essential characteristics of the present invention by those of ordinary skill in the technical field to which the present invention pertains. Accordingly, the embodiments disclosed in the present invention are not intended to limit the technical idea of the present invention, but to explain the technical idea, and the scope of the technical idea of the present invention is not limited by these embodiments. The scope of protection of the present invention should be interpreted by the following claims, and all technical ideas within the scope equivalent thereto should be construed as being included in the scope of the present invention.

본 발명은 객체 식별을 위한 특징점 학습 시, 인접한 특징점과의 관계 정보도 함께 학습하고, 학습된 특징점 및 인접한 특징점과의 관계 정보를 근거로 입력 영상에서 추출된 특정 특징점에 대한 객체 여부를 식별함으로써 강한 특징점을 중심으로 하는 영역에 대한 HOG(Histogram of Gradient) 특성을 효율적으로 획득하고, 인접 특징이 일부 가려질 경우에도 객체를 식별할 수 있으며, 중요 특징까지도 가려지는 경우에는 객체로 식별하지 않도록 하여 객체 식별에 따른 오류를 줄이는 것으로, 영상 처리 분야, 객체 식별/인식 분야 등에서 광범위하게 이용될 수 있다.In the present invention, when learning a feature point for object identification, the relationship information between adjacent feature points is also learned, and based on the learned feature point and the relationship information between the adjacent feature points, the object of the specific feature point extracted from the input image is identified. Histogram of Gradient (HOG) characteristics for the area centered on the feature point can be efficiently acquired, objects can be identified even when adjacent features are partially obscured, and objects are not identified as objects when even important features are obscured. By reducing errors due to identification, it can be widely used in image processing fields, object identification/recognition fields, and the like.

10: 객체 식별 장치 100: 저장부
200: 제어부
10: object identification device 100: storage
200: control unit

Claims (11)

영상에서 중심 특징점을 추출하고, 상기 추출된 중심 특징점을 기준으로 미리 설정된 영역 내에 위치한 하나 이상의 인접 특징점을 검색하고, 상기 중심 특징점과 상기 검색된 하나 이상의 인접 특징점 간의 관계성 벡터를 산출하고, 상기 중심 특징점과 상기 산출된 관계성 벡터를 근거로 학습을 수행하는 제어부; 및
상기 산출된 관계성 벡터와 상기 학습 수행 결과를 저장하며, 복수의 인접 특징점에 각각 대응되는 관계성 벡터 및 상기 복수의 인접 특징점이 저장되는 저장부;
를 포함하며,
상기 제어부는, 상기 저장부에 저장된 복수의 관계성 벡터 중에서 상기 검색된 하나 이상의 인접 특징점에 각각 대응되는 하나 이상의 관계성 벡터를 확인하고, 상기 확인된 관계성 벡터의 히팅 수를 누적하고, 상기 누적된 히팅 수가 미리 설정된 기준값 이상일 때, 상기 영상 내에 목적으로 하는 객체가 존재하는 것으로 판단하고 상기 영상 내에서 객체를 식별하며, 상기 누적된 히팅 수가 미리 설정된 기준값보다 작을 때, 상기 영상 내에 목적으로 하는 객체가 존재하지 않는 것으로 판단하며,
상기 제어부는, 상기 영상과 상이한 다른 입력 영상에서 추출한 중심 특징점을 기준으로 미리 설정된 영역 내에 위치한 하나 이상의 인접 특징점을 상기 입력 영상에서 검색하고, 상기 저장부에 저장된 상기 복수의 인접 특징점 중 상기 입력 영상에 대응되어 검색된 하나 이상의 인접 특징점과 각각 대응되는 인접 특징점별로 대응되는 관계성 벡터를 상기 저장부에서 확인하고, 상기 입력 영상에 대응되어 확인된 관계성 벡터의 히팅 수를 누적하여, 상기 입력 영상에 대응되어 확인된 관계성 벡터가 하나의 지점으로 모여 상기 입력 영상에 대응되어 상기 누적된 히팅 수가 미리 설정된 기준값 이상일 때, 상기 입력 영상 내에 객체가 존재하는 것으로 판단하고 상기 입력 영상 내에서 객체를 식별하며, 상기 입력 영상에 대응되어 확인된 관계성 벡터가 복수의 지점으로 모여 상기 입력 영상에 대응되어 상기 누적된 히팅 수가 미리 설정된 기준값보다 작을 때, 상기 입력 영상 내에 목적으로 하는 객체가 존재하지 않는 것으로 판단하는 것을 특징으로 하는 객체 식별 장치.
Extract a central feature point from an image, search for one or more adjacent feature points located in a preset area based on the extracted central feature point, calculate a relationship vector between the central feature point and the searched one or more adjacent feature points, and the central feature point And a control unit that performs learning based on the calculated relationship vector; And
A storage unit that stores the calculated relationship vector and the result of the learning, and stores a relationship vector corresponding to each of a plurality of adjacent feature points and the plurality of adjacent feature points;
Including,
The control unit, among a plurality of relationship vectors stored in the storage unit, checks at least one relationship vector corresponding to the searched at least one adjacent feature point, accumulates the number of hits of the identified relationship vector, and the accumulated When the number of heating is greater than or equal to a preset reference value, it is determined that a target object exists in the image and an object is identified in the image, and when the accumulated heating number is less than a preset reference value, the target object in the image is Judging that it does not exist,
The control unit searches the input image for one or more adjacent feature points located in a preset area based on a central feature point extracted from another input image different from the image, and selects the input image among the plurality of adjacent feature points stored in the storage unit. Corresponds to the input image by checking the corresponding relationship vector corresponding to one or more adjacent feature points and corresponding corresponding adjacent feature points in the storage unit, accumulating the number of hits of the confirmed relationship vectors corresponding to the input image When the determined relationship vector is gathered to one point and corresponds to the input image, and the accumulated number of hitting is equal to or greater than a preset reference value, it is determined that an object exists in the input image and an object is identified in the input image, When the relationship vector identified in correspondence with the input image is gathered into a plurality of points and corresponds to the input image so that the accumulated heating number is less than a preset reference value, it is determined that the target object does not exist in the input image. Object identification device, characterized in that.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 제어부를 통해 영상에서 중심 특징점을 추출하는 단계;
상기 제어부를 통해 상기 추출된 중심 특징점을 기준으로 미리 설정된 영역 내에 위치한 하나 이상의 인접 특징점을 검색하는 단계;
상기 제어부를 통해 상기 중심 특징점과 상기 검색된 하나 이상의 인접 특징점 간의 관계성 벡터를 산출하는 단계;
상기 제어부를 통해 상기 중심 특징점과 상기 산출된 관계성 벡터를 근거로 학습을 수행하는 단계;
저장부에 상기 산출된 관계성 벡터와 상기 학습 수행 결과를 저장하는 단계;
상기 제어부를 통해 상기 저장부에 미리 저장된 복수의 관계성 벡터 중에서 상기 영상에 대해 검색된 하나 이상의 인접 특징점에 각각 대응되는 하나 이상의 관계성 벡터를 확인하는 단계;
상기 제어부를 통해 상기 확인된 관계성 벡터의 히팅 수를 누적하는 단계; 및
상기 제어부를 통해 상기 누적된 히팅 수를 근거로 상기 영상 내에 목적으로 하는 객체의 존재 여부를 판단하는 단계를 포함하며,
상기 객체의 존재 여부를 판단하는 단계는,
상기 제어부를 통해 상기 누적된 히팅 수가 미리 설정된 기준값 이상인지 여부를 판단하는 과정;
상기 판단 결과, 상기 누적된 히팅 수가 상기 미리 설정된 기준값 이상일 때, 상기 제어부를 통해 상기 영상 내에 목적으로 하는 객체가 존재하는 것으로 판단하고, 상기 영상 내에서 객체를 식별하는 과정; 및
상기 판단 결과, 상기 누적된 히팅 수가 상기 미리 설정된 기준값보다 작을 때, 상기 제어부를 통해 상기 영상 내에 목적으로 하는 객체가 존재하지 않는 것으로 판단하는 과정;을 포함하며,
상기 저장부는 상기 복수의 관계성 벡터와 각각 대응되는 복수의 인접 특징점이 저장되고,
상기 하나 이상의 관계성 벡터를 확인하는 단계는, 상기 제어부를 통해 상기 영상과 상이한 다른 입력 영상에 대해 중심 특징점을 추출한 후 상기 입력 영상에 대해 추출한 중심 특징점을 기준으로 미리 설정된 영역 내에 위치한 하나 이상의 인접 특징점을 상기 입력 영상에서 검색하고, 상기 저장부에 저장된 상기 복수의 인접 특징점 중 상기 입력 영상에 대응되어 검색된 하나 이상의 인접 특징점과 각각 대응되는 인접 특징점별로 대응되는 관계성 벡터를 상기 저장부에서 확인하는 단계를 더 포함하고,
상기 객체의 존재 여부를 판단하는 단계는, 상기 제어부를 통해 상기 입력 영상에 대응되어 상기 누적된 히팅 수를 근거로 상기 입력 영상 내에 목적으로 하는 객체의 존재 여부를 판단하는 단계를 더 포함하며,
상기 객체를 식별하는 과정은, 상기 입력 영상에 대응되어 확인된 관계성 벡터가 하나의 지점으로 모여 상기 입력 영상에 대응되어 상기 누적된 히팅 수가 미리 설정된 기준값 이상일 때, 상기 입력 영상 내에 객체가 존재하는 것으로 판단하고 상기 입력 영상 내에서 객체를 식별하는 과정을 더 포함하고,
상기 객체가 존재하지 않는 것으로 판단하는 과정은, 상기 입력 영상에 대응되어 확인된 관계성 벡터가 복수의 지점으로 모여 상기 입력 영상에 대응되어 상기 누적된 히팅 수가 미리 설정된 기준값보다 작을 때, 상기 입력 영상 내에 목적으로 하는 객체가 존재하지 않는 것으로 판단하는 과정을 더 포함하는 것을 특징으로 하는 객체 식별 방법.
Extracting a central feature point from the image through a control unit;
Searching for one or more adjacent feature points located in a preset area based on the extracted central feature point through the control unit;
Calculating a relationship vector between the central feature point and the searched one or more adjacent feature points through the control unit;
Performing learning based on the central feature point and the calculated relationship vector through the control unit;
Storing the calculated relationship vector and a result of performing the learning in a storage unit;
Checking one or more relationship vectors each corresponding to one or more adjacent feature points searched for the image from among a plurality of relationship vectors previously stored in the storage unit through the control unit;
Accumulating the number of hits of the checked relationship vector through the control unit; And
And determining whether or not a target object exists in the image based on the accumulated number of hits through the control unit,
The step of determining whether the object exists,
Determining whether the accumulated heating number is equal to or greater than a preset reference value through the control unit;
Determining that a target object exists in the image through the control unit when the accumulated heating number is greater than or equal to the preset reference value as a result of the determination, and identifying an object in the image; And
A process of determining that the target object does not exist in the image through the control unit when the accumulated number of heating is smaller than the preset reference value as a result of the determination; and
The storage unit stores a plurality of adjacent feature points respectively corresponding to the plurality of relationship vectors,
The checking of the one or more relationship vectors includes extracting a central feature point for another input image different from the image through the control unit, and then one or more adjacent feature points located within a preset area based on the extracted central feature point for the input image. Retrieving from the input image, and checking, in the storage unit, at least one adjacent feature point searched corresponding to the input image among the plurality of adjacent feature points stored in the storage unit and a relationship vector corresponding to each corresponding adjacent feature point Including more,
The determining of the existence of the object further includes determining whether or not a target object exists in the input image based on the accumulated number of hits corresponding to the input image through the control unit,
In the process of identifying the object, when the relationship vector identified in correspondence with the input image is gathered into one point and corresponds to the input image, the accumulated heating number is greater than or equal to a preset reference value, when the object exists in the input image. Determining that it is, and further comprising the process of identifying an object in the input image,
The process of determining that the object does not exist is when the relationship vector identified in correspondence with the input image is collected at a plurality of points and corresponds to the input image, so that the accumulated hitting number is less than a preset reference value, the input image The object identification method, further comprising the step of determining that the target object does not exist in the object.
제 7항에 있어서,
상기 관계성 벡터를 산출하는 단계는 상기 중심 특징점과 상기 검색된 하나 이상의 인접 특징점 간의 연관 관계를 나타내는 거리 및 방향에 대한 정보를 근거로 상기 관계성 벡터를 산출하는 것을 특징으로 하는 객체 식별 방법.
The method of claim 7,
The calculating of the relationship vector comprises calculating the relationship vector based on information on a distance and a direction representing a relationship between the central feature point and the searched one or more adjacent feature points.
삭제delete 삭제delete 삭제delete
KR1020140024918A 2014-03-03 2014-03-03 Object identification apparatus, method thereof and computer readable medium having computer program recorded therefor KR102232797B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140024918A KR102232797B1 (en) 2014-03-03 2014-03-03 Object identification apparatus, method thereof and computer readable medium having computer program recorded therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140024918A KR102232797B1 (en) 2014-03-03 2014-03-03 Object identification apparatus, method thereof and computer readable medium having computer program recorded therefor

Publications (2)

Publication Number Publication Date
KR20150103444A KR20150103444A (en) 2015-09-11
KR102232797B1 true KR102232797B1 (en) 2021-03-26

Family

ID=54243637

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140024918A KR102232797B1 (en) 2014-03-03 2014-03-03 Object identification apparatus, method thereof and computer readable medium having computer program recorded therefor

Country Status (1)

Country Link
KR (1) KR102232797B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102180054B1 (en) 2018-12-10 2020-11-17 울산과학기술원 Apparatus and method for generating object classifier

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009163682A (en) * 2008-01-10 2009-07-23 Toyota Central R&D Labs Inc Image discrimination device and program

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8532390B2 (en) 2010-07-28 2013-09-10 International Business Machines Corporation Semantic parsing of objects in video

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009163682A (en) * 2008-01-10 2009-07-23 Toyota Central R&D Labs Inc Image discrimination device and program

Also Published As

Publication number Publication date
KR20150103444A (en) 2015-09-11

Similar Documents

Publication Publication Date Title
CN107251045B (en) Object recognition apparatus, object recognition method, and computer-readable storage medium
KR101782589B1 (en) Method for detecting texts included in an image and apparatus using the same
EP2660753B1 (en) Image processing method and apparatus
US9747308B2 (en) Method and apparatus for searching an image, and computer-readable recording medium for executing the method
US9141883B1 (en) Method, hard negative proposer, and classifier for supporting to collect hard negative images using a similarity map
WO2016015621A1 (en) Human face picture name recognition method and system
US10614312B2 (en) Method and apparatus for determining signature actor and identifying video based on probability of appearance of signature actor
US20130148857A1 (en) Apparatus for extracting character area in vehicle number plate and method thereof
US9436891B2 (en) Discriminating synonymous expressions using images
KR102224936B1 (en) Learning apparatus and method for detecting features in an extended region for object recognition and computer readable medium having computer program recorded therefor
CN112560971A (en) Image classification method and system for active learning self-iteration
US10438097B2 (en) Recognition device, recognition method, and computer program product
CN113837006B (en) Face recognition method and device, storage medium and electronic equipment
CN112954455B (en) Subtitle tracking method and device and electronic equipment
Wang et al. A Fast and Robust Ellipse‐Detection Method Based on Sorted Merging
KR102232797B1 (en) Object identification apparatus, method thereof and computer readable medium having computer program recorded therefor
JP2011192094A (en) Character string sensing device, character evaluating device, image processing apparatus, character string sensing method, character evaluating method, control program and recording medium
KR102213865B1 (en) Apparatus identifying the object based on observation scope and method therefor, computer readable medium having computer program recorded therefor
KR102399673B1 (en) Method and apparatus for recognizing object based on vocabulary tree
CN116129523A (en) Action recognition method, device, terminal and computer readable storage medium
KR102221684B1 (en) Multiclass classification apparatus, method thereof and computer readable medium having computer program recorded therefor
CN115311649A (en) Card type identification method and device, electronic equipment and storage medium
CN112800922A (en) Face recognition method and device, electronic equipment and storage medium
KR102213867B1 (en) Service providing device and user equipment, classification system based on single image comprising the same, control method thereof and computer readable medium having computer program recorded therefor
KR102203000B1 (en) Object identification apparatus, method thereof and computer readable medium having computer program recorded therefor

Legal Events

Date Code Title Description
AMND Amendment
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant