KR20180014495A - 객체 인식 장치 및 방법 - Google Patents

객체 인식 장치 및 방법 Download PDF

Info

Publication number
KR20180014495A
KR20180014495A KR1020160097836A KR20160097836A KR20180014495A KR 20180014495 A KR20180014495 A KR 20180014495A KR 1020160097836 A KR1020160097836 A KR 1020160097836A KR 20160097836 A KR20160097836 A KR 20160097836A KR 20180014495 A KR20180014495 A KR 20180014495A
Authority
KR
South Korea
Prior art keywords
interest
recognition
target object
image
target
Prior art date
Application number
KR1020160097836A
Other languages
English (en)
Inventor
한기훈
조성환
Original Assignee
삼성에스디에스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성에스디에스 주식회사 filed Critical 삼성에스디에스 주식회사
Priority to KR1020160097836A priority Critical patent/KR20180014495A/ko
Priority to CN201710646643.7A priority patent/CN107679443A/zh
Priority to US15/665,776 priority patent/US20180032793A1/en
Publication of KR20180014495A publication Critical patent/KR20180014495A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/285Selection of pattern recognition techniques, e.g. of classifiers in a multi-classifier system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/35Determination of transform parameters for the alignment of images, i.e. image registration using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/77Determining position or orientation of objects or cameras using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/809Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/87Arrangements for image or video recognition or understanding using pattern recognition or machine learning using selection of the recognition techniques, e.g. of a classifier in a multiple classifier system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)

Abstract

객체 인식 장치 및 방법이 개시된다. 본 발명의 일 실시예에 따른 객체 인식 장치는 대상 객체의 이미지를 획득하고, 획득된 상기 대상 객체의 이미지와 설정된 관심 객체에 관한 기 학습된 정보를 비교하여 상기 대상 객체를 상기 관심 객체로 인식하는 인식부; 및 상기 대상 객체에 대한 인식을 수행하는 적어도 하나의 타 객체 인식 장치로부터 상기 대상 객체에 대한 인식 결과를 수신하고, 상기 인식부에 의해 수행된 인식 결과 및 수신된 상기 인식 결과에 기초하여 상기 대상 객체가 상기 관심 객체와 일치하는지 여부에 대한 판단을 수행하는 판단부를 포함한다.

Description

객체 인식 장치 및 방법{APPARATUS AND METHOD FOR RECOGNIZING OBJECTS}
본 발명의 실시예들은 복수의 객체 인식 장치를 이용하여 객체를 정확하고 용이하게 인식하는 기술과 관련된다.
기계를 이용하여 특정 사물을 식별하기 위한 기술로서, 사물 인식 시스템이 개발되었다. 종래의 사물 인식 시스템은 저장된 객체의 이미지와 수집된 이미지를 비교하여 객체를 인식하도록 구성되었다. 이러한 사물 인식 시스템은 수집된 이미지가 조금이라도 변형되는 경우 인식률이 현저하게 낮아질 수 밖에 없었다. 이에 따라, 다양한 이미지를 수집하거나 유사한 이미지를 인식하는 알고리즘을 이용하여 인식률을 향상시키고자 하였다. 그러나, 이미지를 수집하는데 한계가 있었으며, 알고리즘을 이용하여 인식률을 높이기 위해서는 많은 비용이 요구되었다.
이에 따라, 저비용으로 신뢰도 높은 객체 인식 장치를 개발하여야 할 필요성이 대두되었다.
한국등록특허공보 제10-1178878호(2012.08.27)
본 발명의 실시예들은 저비용으로 신뢰도 높은 객체 인식 장치를 제공하기 위한 것이다.
본 발명의 예시적인 실시예에 따르면, 대상 객체의 이미지를 획득하고, 획득된 상기 대상 객체의 이미지와 설정된 관심 객체에 관한 기 학습된 정보를 비교하여 상기 대상 객체를 상기 관심 객체로 인식하는 인식부; 및 상기 대상 객체에 대한 인식을 수행하는 적어도 하나의 타 객체 인식 장치로부터 상기 대상 객체에 대한 인식 결과를 수신하고, 상기 인식부에 의해 수행된 인식 결과 및 수신된 상기 인식 결과에 기초하여 상기 대상 객체가 상기 관심 객체와 일치하는지 여부에 대한 판단을 수행하는 판단부를 포함하는, 객체 인식 장치가 제공된다.
상기 인식부 및 상기 적어도 하나의 타 객체 인식 장치 중 하나 이상에 의해 획득된 상기 대상 객체의 이미지를 상기 관심 객체에 관한 정보로서 학습하는 학습부를 더 포함할 수 있다.
상기 인식부는, 상기 대상 객체에 대하여 상기 적어도 하나의 타 객체 인식 장치와 다른 방향에서 상기 대상 객체의 이미지를 획득할 수 있다.
상기 인식부는, 상기 대상 객체의 이미지와 상기 관심 객체가 일치하는 정도를 나타내는 일치율을 산출하고, 산출된 상기 일치율이 설정된 값 이상인 경우 상기 대상 객체를 상기 관심 객체로 인식하며, 상기 판단부는, 상기 적어도 하나의 타 객체 인식 장치로부터 상기 대상 객체의 이미지와 상기 관심 객체가 일치하는 정도를 나타내는 일치율을 수신할 수 있다.
상기 판단부는, 산출된 일치율 및 수신된 일치율 중 상기 설정된 값 이상인 일치율의 합을 상기 적어도 하나의 타 객체 인식 장치 및 상기 객체 인식 장치의 총 개수로 나눈 결과를 기반으로 상기 대상 객체가 상기 관심 객체와 일치하는지 여부에 대한 판단을 수행할 수 있다.
상기 학습부는, 상기 판단부에 의해 상기 대상 객체와 상기 관심 객체가 일치하는 것으로 판단되고 상기 인식부가 상기 대상 객체를 상기 관심 객체로 인식하지 못한 경우, 상기 인식부에 의해 획득된 상기 대상 객체의 이미지를 상기 관심 객체의 이미지로서 학습할 수 있다.
상기 학습부는, 상기 판단부에 의해 상기 대상 객체와 상기 관심 객체가 일치하는 것으로 판단되고 상기 인식부가 상기 대상 객체를 상기 관심 객체로 인식하지 못한 경우, 상기 적어도 하나의 타 객체 인식 장치로부터 획득된 대상 객체의 이미지를 수신하여 상기 관심 객체의 이미지로서 학습할 수 있다.
상기 학습부는, 상기 판단부에 의해 상기 대상 객체와 상기 관심 객체가 일치하는 것으로 판단되고 상기 인식부가 상기 대상 객체를 상기 관심 객체로 인식한 경우, 상기 인식부에 의해 획득된 상기 대상 객체의 이미지를 상기 적어도 하나의 타 객체 인식 장치로 전송할 수 있다.
상기 학습부는, 상기 객체 인식 장치와 구별되는 공간에 위치하여 상기 대상 객체에 대한 인식을 수행하는 적어도 하나의 타 객체 인식 장치로 상기 학습 결과를 송신할 수 있다.
본 발명의 다른 예시적인 실시예에 따르면, 하나 이상의 프로세서들, 및 상기 하나 이상의 프로세서들에 의해 실행되는 하나 이상의 프로그램들을 저장하는 메모리를 구비한 객체 인식 장치에서 수행되는 방법으로서, 대상 객체의 이미지를 획득하는 단계; 획득된 상기 대상 객체의 이미지와 설정된 관심 객체에 관한 기 학습된 정보를 비교하여 상기 대상 객체를 상기 관심 객체로 인식하는 단계; 상기 대상 객체에 대한 인식을 수행하는 적어도 하나의 타 객체 인식 장치로부터 상기 대상 객체에 대한 인식 결과를 수신하는 단계; 및 상기 대상 객체를 인식한 결과 및 수신된 상기 인식 결과에 기초하여 상기 대상 객체가 상기 관심 객체와 일치하는지 여부에 대한 판단을 수행하는 단계를 포함하는, 객체 인식 방법이 제공된다.
상기 판단을 수행하는 단계의 수행 이후, 획득된 상기 이미지 및 상기 적어도 하나의 타 객체 인식 장치에 의해 획득된 대상 객체의 이미지 중 하나 이상을 상기 관심 객체에 관한 정보로서 학습하는 단계를 더 포함할 수 있다.
상기 획득하는 단계는, 상기 대상 객체에 대하여 상기 적어도 하나의 타 객체 인식 장치와 다른 방향에서 상기 대상 객체의 이미지를 획득할 수 있다.
상기 인식하는 단계는, 상기 대상 객체의 이미지와 상기 관심 객체가 일치하는 정도를 나타내는 일치율을 산출하는 단계; 및 산출된 상기 일치율이 설정된 값 이상인 경우 상기 대상 객체를 상기 관심 객체로 인식하는 단계를 포함하며, 타 객체 인식 장치로부터 수신하는 상기 대상 객체에 대한 인식 결과는, 상기 대상 객체의 이미지와 상기 관심 객체가 일치하는 정도를 나타내는 일치율을 포함할 수 있다.
상기 판단을 수행하는 단계는, 산출된 일치율 및 수신된 일치율 중 상기 설정된 값 이상인 일치율의 합을 상기 적어도 하나의 타 객체 인식 장치 및 상기 객체 인식 장치의 총 개수로 나눈 결과를 기반으로 상기 대상 객체가 상기 관심 객체와 일치하는지 여부에 대한 판단을 수행할 수 있다.
상기 학습하는 단계는, 상기 판단을 수행하는 단계에서 상기 대상 객체와 상기 관심 객체가 일치하는 것으로 판단되었으나 상기 인식하는 단계에서 상기 대상 객체가 상기 관심 객체로 인식되지 못한 경우, 획득된 상기 대상 객체의 이미지를 상기 관심 객체의 이미지로서 학습할 수 있다.
상기 학습하는 단계는, 상기 판단을 수행하는 단계에서 상기 대상 객체와 상기 관심 객체가 일치하는 것으로 판단되었으나 상기 인식하는 단계에서 상기 대상 객체가 상기 관심 객체로 인식되지 못한 경우, 상기 적어도 하나의 타 객체 인식 장치로부터 수신된 대상 객체의 이미지를 수신하여 상기 관심 객체의 이미지로서 학습할 수 있다.
상기 학습하는 단계는, 상기 판단을 수행하는 단계에서 상기 대상 객체와 상기 관심 객체가 일치하는 것으로 판단되었고 상기 인식하는 단계에서 상기 대상 객체를 상기 관심 객체로 인식된 경우, 상기 획득하는 단계에서 획득된 상기 대상 객체의 이미지를 상기 적어도 하나의 타 객체 인식 장치로 전송할 수 있다.
상기 학습하는 단계는, 상기 객체 인식 장치와 구별되는 공간에 위치하여 상기 대상 객체에 대한 인식을 수행하는 적어도 하나의 타 객체 인식 장치로 상기 학습 결과를 송신할 수 있다.
본 발명의 실시예들에 따르면, 객체 인식 장치의 인식부가 대상 객체를 인식한 결과뿐만 아니라 타 객체 인식 장치로부터 수신된 인식 결과를 종합적으로 고려하여 대상 객체가 관심 객체와 동일한지 여부를 판단함으로써, 대상 객체에 대한 인식 결과의 신뢰도를 향상시킬 수 있다.
또한 본 발명의 실시예들에 따르면, 객체 인식 장치 및 타 객체 인식 장치 각각에서 획득된 관심 객체의 이미지를 공유함으로써 관심 객체의 각도별 이미지를 용이하게 수집할 수 있다.
또한 본 발명의 실시예들에 따르면, 객체 인식 장치 각각에서 수행한 대상 객체에 관한 인식 결과를 공유하고, 이를 통해 대상 객체에 관한 정보를 학습함으로써 대상 객체에 관한 인식률의 정확성을 향상시킬 수 있다.
또한 본 발명의 실시예들에 따르면, 객체 인식 장치의 학습 결과를 공유함으로써 관심 객체를 실제로 촬영한 적이 없는 객체 인식 장치 또한 용이하게 관심 객체를 인식할 수 있다.
도 1은 본 발명의 일 실시예에 따른 객체 인식 장치의 동작을 나타내기 위한 예시도이다.
도 2는 본 발명의 일 실시예에 따른 객체 인식 장치의 상세 구성을 나타낸 블록도이다.
도 3은 본 발명의 일 실시예에 따른 객체 인식 장치를 사용함에 따라 향상되는 인식률을 나타내는 그래프이다.
도 4는 본 발명의 일 실시예에 따른 객체 인식 방법을 설명하기 위한 흐름도이다.
도 5는 예시적인 실시예들에서 사용되기에 적합한 컴퓨팅 장치를 포함하는 컴퓨팅 환경을 예시하여 설명하기 위한 블록도
이하, 도면을 참조하여 본 발명의 구체적인 실시형태를 설명하기로 한다. 이하의 상세한 설명은 본 명세서에서 기술된 방법, 장치 및/또는 시스템에 대한 포괄적인 이해를 돕기 위해 제공된다. 그러나 이는 예시에 불과하며 본 발명은 이에 제한되지 않는다.
본 발명의 실시예들을 설명함에 있어서, 본 발명과 관련된 공지기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략하기로 한다. 그리고, 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다. 상세한 설명에서 사용되는 용어는 단지 본 발명의 실시예들을 기술하기 위한 것이며, 결코 제한적이어서는 안 된다. 명확하게 달리 사용되지 않는 한, 단수 형태의 표현은 복수 형태의 의미를 포함한다. 본 설명에서, "포함" 또는 "구비"와 같은 표현은 어떤 특성들, 숫자들, 단계들, 동작들, 요소들, 이들의 일부 또는 조합을 가리키기 위한 것이며, 기술된 것 이외에 하나 또는 그 이상의 다른 특성, 숫자, 단계, 동작, 요소, 이들의 일부 또는 조합의 존재 또는 가능성을 배제하도록 해석되어서는 안 된다.
도 1은 본 발명의 일 실시예에 따른 객체 인식 장치(100)의 동작을 나타내기 위한 예시도이다. 도 1에 도시된 바와 같이, 본 발명의 일 실시예에 따른 객체 인식 장치(100)는 대상 객체(104)를 인식하고, 타 객체 인식 장치(102)에 의해 수행된 인식 결과에 기초하여 대상 객체(104)가 식별하고자 하는 관심 객체인지 여부를 판단할 수 있다.
본 실시예들에서, 대상 객체(104)는 인식하고자 하는 대상으로서 예를 들어, 의자일 수 있으나 이에 한정되지 않고, 카메라, 캠코더와 같은 광학 장치 등으로 그 형상의 이미지를 획득할 수 있는 대상이면 무방하다. 또한, 관심 객체는 식별하여 추출하고자 하는 객체로서, 대상 객체와 동일한 객체일 수도 있고, 다른 객체일 수도 있다. 일 예시에서, 공항에서 승객들이 휴대하고 있는 물건들 중 탑승 금지 물품, 도난 물품 등을 색출하고자 하는 경우, 대상 객체는 승객들이 휴대하고 있는 물건들일 수 있고, 관심 객체는 탑승 금지 물품, 도난 물품 등일 수 있다.
객체 인식 장치(100)는 카메라, 캠코더 등과 같은 광학 장치를 구비하고, 상기 광학 장치를 이용하여 대상 객체(104)를 인식할 수 있다. 구체적으로, 객체 인식 장치(100)는 획득된 대상 객체(104)의 이미지와 기 저장된 관심 객체와 관련된 정보(예를 들어, 이미지, 영상 등)를 비교하여 대상 객체(104)를 관심 객체로 인식할 수 있다. 나아가, 객체 인식 장치(100)는 타 객체 인식 장치(102)에 의해 수행된 대상 객체(104)에 관한 인식 결과를 수신하고 분석함으로써, 인식한 대상 객체(104)가 관심 객체와 동일한 객체인지 여부를 최종적으로 판단할 수 있다. 구체적으로, 객체 인식 장치(100)는 자체적으로 수행한 대상 객체(104)에 대한 인식 결과 및 타 객체 인식 장치(102)에 의해 수행된 대상 객체(104)에 대한 인식 결과를 기초로 상기 기 저장된 관심 객체와 관련된 정보를 업데이트할 수 있다. 이후, 객체 인식 장치(100)는 업데이트된 관심 객체와 관련된 정보를 이용하여 대상 객체에 대한 인식을 수행할 수 있다.
타 객체 인식 장치(102)는 대상 객체(104)에 대한 인식을 수행하는 장치이다. 일 실시예에 따르면, 타 객체 인식 장치(102)는 객체 인식 장치(100)와 대상 객체(104)에 대하여 다른 방향에서 상기 대상 객체(104)의 이미지를 획득할 수 있다. 이 경우, 대상 객체(104)를 바라보는 각도에 따라 대상 객체(104)의 이미지가 달라질 수 있다. 이러한 경우, 동일한 대상 객체를 바라보더라도 객체 인식 장치(100) 및 타 객체 인식 장치(102)는 서로 다른 인식 결과를 획득할 수 있다.
다만, 타 객체 인식 장치(102)는 본 발명의 일 실시예에 따른 객체 인식 장치(100)와 동일한 구성을 가지는 장치일 수도 있으나, 이에 한정되지 않고 단순히 대상 객체에 대한 인식만을 수행하는 장치일 수 있다. 즉, 타 객체 인식 장치(102)는 후술할 학습부(206)를 포함하지 않을 수 있다.
도 2는 본 발명의 일 실시예에 따른 객체 인식 장치(100)의 상세 구성을 나타낸 블록도이다. 도 2에 도시된 바와 같이, 본 발명의 일 실시예에 따른 객체 인식 장치(100)는 인식부(202), 판단부(204) 및 학습부(206)를 포함한다.
인식부(202)는 대상 객체(104)를 인식하는 모듈이다. 구체적으로, 인식부(202)는 대상 객체(104)의 이미지를 획득하고, 획득된 이미지를 기반으로 대상 객체(104)에 관한 인식을 수행할 수 있다. 일 실시예에 따르면, 인식부(202)는 대상 객체(104)를 관심 객체로 인식할 수 있다. 다시 말해, 인식부(202)는 대상 객체(104)가 관심 객체인지 아닌지 여부를 자체적으로 판단할 수 있다.
이를 위해, 인식부(202)는 카메라, 캠코더 등과 같은 광학 장치를 구비할 수 있다. 일 실시예에 따르면, 인식부(202)는 상기 광학 장치를 이용하여 대상 객체(104)를 촬영함으로써 상기 대상 객체(104)의 이미지를 획득할 수 있다. 또한, 인식부(202)는 대상 객체(104)에 대하여 타 객체 인식 장치(102)와 다른 방향에서 상기 대상 객체(104)의 이미지를 획득할 수 있다. 다시 말해, 본 발명의 일 실시예에 따른 객체 인식 장치(100) 및 타 객체 인식 장치(102)는 서로 다른 각도에서 대상 객체(104)의 이미지를 획득할 수 있다.
인식부(202)는 획득된 대상 객체(104)의 이미지와 관심 객체에 관한 기 학습된 정보를 비교할 수 있다. 관심 객체에 관한 기 학습된 정보는 대상 객체(104)가 관심 객체인지 여부를 판단하기 위해 고려될 수 있는 정보로서 예를 들어, 관심 객체의 이미지들의 집합을 포함할 수 있다. 인식부(202)는 통상의 객체 인식 알고리즘을 이용하여 대상 객체(104)의 이미지와 관심 객체를 비교할 수 있다. 일 실시예에 따르면, 인식부(202)는 대상 객체(104)의 이미지와 상기 관심 객체가 일치하는 정도를 나타내는 일치율을 산출하고, 산출된 상기 일치율이 설정된 값(예를 들어, 0.75 또는 0.8) 이상인 경우 상기 대상 객체(104)를 상기 관심 객체로 인식할 수 있다. 반대로, 산출된 상기 일치율이 설정된 값 이하인 경우, 인식부(202)는 대상 객체(104)가 관심 객체와는 상이한 객체로 인식할 수 있다.
판단부(204)는 타 객체 인식 장치(102)에 의해 수행된 대상 객체(104)에 관한 인식 결과를 모두 고려하여 대상 객체(104)와 관심 객체가 동일한 객체인지 여부를 최종적으로 판단하는 모듈이다.
판단부(204)는 타 객체 인식 장치(102)로부터 대상 객체(104)에 대한 인식 결과를 수신할 수 있다. 판단부(204)는 타 객체 인식 장치(102)로부터 대상 객체(104)와 관심 객체가 일치하는 정도에 관한 정도를 나타내는 일치율에 관한 정보를 수신할 수 있다. 다시 말해, 타 객체 인식 장치(102)에 의해 수행된 대상 객체(104)에 대한 인식 결과는 대상 객체(104)와 관심 객체가 동일한 객체인지 여부에 관한 정보뿐만 아니라, 대상 객체(104)와 관심 객체가 일치하는 정도에 관한 정도를 나타내는 일치율에 관한 정보를 포함할 수 있다.
판단부(204)는 객체 인식 장치(100) 자체적으로, 즉 인식부(202)에서 수행된 인식 결과 및 타 객체 인식 장치(102)로부터 수신된 인식 결과에 기초하여 대상 객체(104)가 관심 객체와 일치하는 객체인지 여부에 대한 판단을 수행할 수 있다.
일 실시예에 따르면, 판단부(204)는 인식부(202)에서 산출된 일치율 및 타 객체 인식 장치(102)로부터 수신된 일치율 중 설정된 값(예를 들어, 0.75 또는 0.8) 이상인 일치율의 합을 타 객체 인식 장치(102) 및 객체 인식 장치(100)의 총 개수로 나눈 값(이하, 허용 일치 비율)을 기반으로 상기 대상 객체(104)가 관심 객체와 일치하는지 여부에 대한 판단을 수행할 수 있다. 구체적으로, 판단부(204)는 상기 허용 일치 비율이 설정된 값(예를 들어, 0.75, 0.8 등) 이상인 경우 대상 객체(104)가 관심 객체와 동일한 객체인 것으로 판단할 수 있다.
객체 인식 장치(100) 및 4대의 타 객체 인식 장치(102-1 내지 102-4)가 대상 객체에 관한 인식을 수행하는 경우를 예로 들어 보자. 이때, 총 5대의 장치에서 획득된 대상 객체와 관심 객체의 일치율이 0.9834, 0.8843, 0.9654, 0.9492 및 0.3213이며, 각각의 객체 인식 장치(100 및 102)에서 획득된 일치율이 0.75 이상인 경우 자체적으로 대상 객체와 관심 객체가 일치하는 것으로 판단한다고 가정하자. 상술한 예시에서, 허용 일치 비율은, 대상 객체와 관심 객체가 일치하는 것으로 판단한 객체 인식 장치(100 및/또는 102)에 의해 획득된 일치율(0.9834, 0.8843, 0.9654 및 0.9492)의 합을 객체 인식 장치(100 및 102)의 개수로 나눈 값일 수 있다. 이 경우, 허용 일치 비율은 (0.9834 + 0.8843 + 0.9654 + 0.9492)/5 = 0.75646가 되고, 판단부(204)가 허용 일치 비율이 0.75 이상인 경우 최종적으로 대상 객체(104)가 관심 객체와 일치하는 것으로 판단하는 경우 상술한 예시에서 판단부(204)는 대상 객체(104)와 관심 객체가 동일한 객체인 것으로 판단할 수 있다.
본 발명의 실시예들에 따르면, 객체 인식 장치(100)의 인식부(202)가 개별적으로 대상 객체(104)를 인식한 결과뿐만 아니라, 타 객체 인식 장치(102)로부터 수신된 인식 결과를 모두 고려하여 대상 객체(104)가 관심 객체와 동일한지 여부를 판단함으로써 대상 객체(104)에 대한 인식 결과의 신뢰도를 향상시킬 수 있다.
한편, 도 1에는 인식부(202) 및 판단부(204)가 별도의 구성으로 도시되어 있으나, 이는 이해를 돕기 위한 것일 뿐이며, 실시예에 따라 인식부(202) 및 판단부(204)가 단일의 구성으로 형성될 수도 있음에 유의한다.
학습부(206)는 관심 객체에 관한 정보를 학습하기 위한 모듈이다. 일 실시예에 따르면, 학습부(206)는 판단부(204)에 의해 수행된 판단 결과에 기초하여 획득된 대상 객체(104)의 이미지를 관심 객체에 관한 정보로서 학습할 수 있다. 즉, 학습부(206)는 인식부(202) 및 타 객체 인식 장치(102) 중 하나 이상으로부터 획득된 대상 객체(104)의 이미지를 관심 객체에 관한 정보로서 학습할 수 있다. 구체적으로, 학습부(206)는 관심 객체에 관한 정보를 미리 저장할 수 있다. 여기서, 관심 객체에 관한 정보는 관심 객체에 대응되는 이미지들의 집합일 수 있다. 또한, 본 발명의 일 실시예에 따른 객체 인식 장치(100)는 상기 관심 객체에 관한 정보를 저장하기 위한 데이터베이스를 구비할 수 있다. 다음으로, 학습부(206)는 판단부(204)에 의해 수행된 판단 결과에 따라 인식부(202)에 의해 획득된 또는 타 객체 인식 장치(102)로부터 수신된 대상 객체(104)의 이미지를 이용하여 상기 관심 객체에 관한 정보를 업데이트할 수 있다. 다시 말해, 학습부(206)는 획득된 또는 수신된 이미지를 서로 다른 위치 및 각도에서 관심 객체를 응시한 이미지로 저장할 수 있다. 이에 따라, 학습부(206)는 관심 객체의 촬영 위치 및 각도에 따른 다양한 이미지를 수집할 수 있고, 인식부(202)는 수집된 이미지를 이용하여 관심 객체를 정확하게 인식할 수 있다. 이하, 학습부(206)가 대상 객체(104)의 이미지를 학습하는 과정을 구체적으로 설명하기로 한다.
일 실시예에 따르면, 학습부(206)는 판단부(204)에 의해 대상 객체(104)와 관심 객체가 일치하는 것으로 판단되고 인식부(202)가 상기 대상 객체(104)를 상기 관심 객체로 인식하지 못한 경우, 상기 인식부(202)에 의해 획득된 상기 대상 객체(104)의 이미지를 상기 관심 객체의 이미지로서 학습할 수 있다. 구체적으로, 인식부(202)는 대상 객체(104)를 관심 객체로 인식하지 못하였으나 판단부(204)에 의해 대상 객체(104)가 관심 객체와 동일한 객체라고 판단된 경우, 학습부(206)는 인식부(204)에 의해 획득된 이미지를 관심 객체의 이미지인 것으로 학습할 수 있다. 또한, 학습부(206)는 상술한 실시예에서, 타 객체 인식 장치(102)로부터 획득된 대상 객체(104)의 이미지를 수신하고, 수신된 대상 객체(104)의 이미지를 관심 객체의 이미지인 것으로 학습할 수 있다. 이 경우, 수신된 대상 객체(104)의 이미지는 인식부(202)에 의해 획득된 이미지와 다른 각도에서 대상 객체(104)를 촬영한 이미지일 수 있다.
학습부(206)는 인식부(202)에 의해 획득된 대상 객체(104)의 이미지가 판단부(204)에 의해 관심 객체의 이미지라고 판단된 경우, 획득된 상기 이미지를 타 객체 인식 장치(102)로 전송할 수 있다. 일 실시예에 따르면, 학습부(206)는 판단부(204)에 의해 대상 객체(104)와 관심 객체가 일치하는 것으로 판단되고 인식부(202)가 상기 대상 객체(104)를 관심 객체로 인식한 경우, 상기 인식부(202)에 의해 획득된 상기 대상 객체(104)의 이미지를 상기 타 객체 인식 장치(102)로 전송할 수 있다. 일 실시예에 따르면, 학습부(206)는 판단부(204)에 의해 대상 객체(104)와 관심 객체가 일치하는 것으로 판단되고 인식부(202)가 상기 대상 객체(104)를 관심 객체로 인식한 경우에 한해서 상기 인식부(202)에서 획득된 이미지를 타 객체 인식 장치(102)로 전송할 수 있으나, 이에 한정되지 않고, 학습부(206)는 판단 결과에 관계없이 획득된 상기 이미지를 타 객체 인식 장치(102)로 전송할 수도 있다. 이 경우, 상기 타 객체 인식 장치(102)에서 수신된 상기 이미지를 선택적으로 학습할 수 있다. 객체 인식 장치(100)는 타 객체 인식 장치(102)와의 상호 간에 이미지를 공유할 수 있으면 충분하고, 상기 이미지를 공유하는 형태에는 특별한 제한이 없다. 본 발명의 실시예들에 따르면, 객체 인식 장치 및 타 객체 인식 장치 각각에서 획득된 관심 객체의 이미지를 공유함으로써 관심 객체에 대한 촬영 위치 및 각도별 이미지를 용이하게 수집할 수 있다.
학습부(206)는 본 발명의 일 실시예에 따른 객체 인식 장치(100)와 구별되는 공간에 위치하여 대상 객체(104)에 대한 인식을 수행하는 타 객체 인식 장치로 상기 학습 결과를 송신할 수 있다. 여기서, 구별되는 공간이란 어느 일방에 대상 객체(104)가 존재하더라도 타방에 구비된 광학 장치에 의해 촬영되지 않을 만큼 거리가 떨어져 있는 공간을 의미할 수 있다. 또한, 학습 결과는 관심 객체와 관련된 이미지로서, 획득된 이미지 및 수신된 이미지를 포함할 수 있다. 다시 말해, 학습부(206)는 대상 객체(104)의 이미지를 획득하지 않은 타 객체 인식 장치로 획득된 이미지 및 수신된 이미지를 전송할 수 있다. 이때, 학습부(206)는 획득된 이미지 및 수신된 이미지와 함께 대응되는 관심 객체의 정보(관심 객체의 명칭, 식별 정보 등)를 타 객체 인식 장치로 전송할 수 있다. 이에 따라, 타 객체 인식 장치는 관심 객체를 별도로 학습할 필요 없이 수신된 이미지를 이용하여 바로 대상 물체를 인식하고, 관심 객체와 동일한 객체인지 여부를 판단할 수 있다.
본 발명의 실시예들에 따르면, 객체 인식 장치 각각에서 수행한 대상 객체에 관한 인식 결과를 공유하고, 이를 통해 대상 객체에 관한 정보를 학습함으로써 대상 객체에 관한 인식률의 정확성을 향상시킬 수 있다. 또한, 본 발명의 실시예들에 따르면, 기존에 설치되어 있던 카메라, 캠코더 등과 같은 광학 장치를 그대로 이용함으로써 저비용으로 객체 인식 장치(100)의 인식률 향샹을 도모할 수 있다.
다만, 본 실시예들에서 인식부(202), 판단부(204) 및 학습부(206)는 기능적으로 분류된 것일 뿐, 각각의 구성이 별개의 하드웨어로 구현되어야 함을 의미하는 것은 아니다.
도 3은 본 발명의 일 실시예에 따른 객체 인식 장치(100)를 사용함에 따라 향상되는 인식률을 나타내는 그래프이다. 도 3은 객체 인식 장치(100)의 개별적인 객체 인식률이 50%인 경우로 가정하고 실행한 시뮬레이션의 결과이다. 객체 인식률은 대상 객체(104)에 대해 객체 인식 장치(100)가 수행한 인식 결과의 신뢰도를 의미할 수 있다. 예를 들어, 객체 인식률이 높다는 것은 객체 인식 장치(100)가 대상 객체(104)를 관심 객체로 정확하게 인식한다는 것을 의미한다.
도 3에 도시된 바와 같이, 객체 인식 장치(100)는 개수가 증가할수록 복수의 객체 인식 장치에 의한 객체 인식률은 객체 인식 장치(100)의 자체적인 객체 인식률과 동일해진다.
다음으로, 객체 인식 장치(100)가 학습을 한번 수행한 이후에는 복수의 객체 인식 장치에 의한 객체 인식률이 0.5보다 향상될 수 있다(①). 이후, 객체 인식 장치(100)가 학습을 한번 더 수행한 이후에는 복수의 객체 인식 장치에 의한 객체 인식률이 더 향상될 수 있다(②).
도 4는 본 발명의 일 실시예에 따른 객체 인식 방법(400)을 설명하기 위한 흐름도이다. 도 4에 도시된 방법은 예를 들어, 전술한 객체 인식 장치(100)에 의해 수행될 수 있다. 도시된 흐름도에서는 상기 방법을 복수 개의 단계로 나누어 기재하였으나, 적어도 일부의 단계들은 순서를 바꾸어 수행되거나, 다른 단계와 결합되어 함께 수행되거나, 생략되거나, 세부 단계들로 나뉘어 수행되거나, 또는 도시되지 않은 하나 이상의 단계가 부가되어 수행될 수 있다.
인식부(202)는 대상 객체의 이미지를 획득할 수 있다(S402). 대상 객체(104)는 인식하고자 하는 대상으로서 예를 들어, 의자일 수 있으나 이에 한정되지 않고, 카메라, 캠코더와 같은 광학 장치 등으로 그 형상의 이미지를 획득할 수 있는 대상이면 무방하다. 일 실시예에 따르면, 상기 인식부(202)는 대상 객체(104)에 대하여 적어도 하나의 타 객체 인식 장치(102)와 다른 방향에서 상기 대상 객체(104)의 이미지를 획득할 수 있다. 이에 따라, 객체 인식 장치(100) 및 타 객체 인식 장치(102)는 대상 객체의 응시 각도별 이미지를 획득할 수 있다.
다음으로, 인식부(202)는 획득된 대상 객체(104)의 이미지와 설정된 관심 객체에 관한 기 학습된 정보(예를 들어, 관심 객체의 이미지, 영상 등)를 비교하여 상기 대상 객체(104)를 상기 관심 객체로 인식할 수 있다(S404). 관심 객체는 식별하여 추출하고자 하는 객체로서, 대상 객체(104)와 동일한 객체일 수도 있고, 다른 객체일 수도 있다. 일 실시예에 따르면, 인식부(202)는 상기 대상 객체(104)의 이미지와 상기 관심 객체가 일치하는 정도를 나타내는 일치율을 산출하고, 산출된 상기 일치율이 설정된 값 이상인 경우 상기 대상 객체(104)를 상기 관심 객체로 인식할 수 있다.
다음으로, 판단부(204)는 대상 객체(104)에 대한 인식을 수행하는 적어도 하나의 타 객체 인식 장치(102)로부터 상기 대상 객체(104)에 대한 인식 결과를 수신할 수 있다(S406). 이때, 대상 객체(104)에 대한 인식 결과는 대상 객체(104)의 이미지와 상기 관심 객체가 일치하는 정도를 나타내는 일치율(예를 들어, 0.8843, 0.9654 등)을 포함할 수 있다.
다음으로, 판단부(204)는 상기 대상 객체를 인식한 결과 및 수신된 상기 인식 결과에 기초하여 상기 대상 객체가 상기 관심 객체와 일치하는지 여부에 대한 판단을 수행할 수 있다(S408). 구체적으로, 판단부(204)는 산출된 일치율 및 수신된 일치율 중 상기 설정된 값 이상인 일치율의 합을 상기 적어도 하나의 타 객체 인식 장치(102) 및 상기 객체 인식 장치(100)의 총 개수로 나눈 결과를 기반으로 상기 대상 객체(104)가 상기 관심 객체와 일치하는지 여부에 대한 판단을 수행할 수 있다.
다음으로, 학습부(206)는 상기 판단부(204)에서 대상 객체(104)와 관심 객체가 일치하는 것으로 판단된 경우, 상기 인식부(202) 및 상기 적어도 하나의 타 객체 인식 장치(102) 중 하나 이상으로부터 획득된 상기 대상 객체(104)의 이미지를 상기 관심 객체에 관한 정보로서 학습할 수 있다(S410). 일 실시예에 따르면, 학습부(206)는 판단부(204)에 의해 상기 대상 객체(104)와 상기 관심 객체가 일치하는 것으로 판단되고 상기 인식부(202)가 상기 대상 객체를 상기 관심 객체로 인식하지 못한 경우, 상기 인식부(202)에 의해 획득된 상기 대상 객체의 이미지를 상기 관심 객체의 이미지로서 학습할 수 있다. 이 경우, 학습부(206)는 적어도 하나의 타 객체 인식 장치(102)로부터 획득된 대상 객체(104)의 이미지를 수신하여 상기 관심 객체의 이미지로서 학습할 수 있다. 또한, 학습부(206)는 판단부(206)에 의해 상기 대상 객체(104)와 상기 관심 객체가 일치하는 것으로 판단되고 인식부(202)가 대상 객체(104)를 상기 관심 객체로 인식한 경우, 인식부(202)에 의해 획득된 상기 대상 객체의 이미지를 상기 적어도 하나의 타 객체 인식 장치로 전송할 수 있다. 이 경우, 타 객체 인식 장치(102)는 객체 인식 장치로부터 전송된 이미지를 학습할 수 있다. 한편, 학습부(206)는 객체 인식 장치와 구별되는 공간에 위치하여 상기 대상 객체에 대한 인식을 수행하는 적어도 하나의 타 객체 인식 장치로 상기 학습 결과를 송신할 수 있다. 여기서, 학습 결과는 대상 객체(104)와 관련된 이미지의 집합일 수 있다. 이에 따라, 대상 객체(104)의 이미지를 획득한 경험이 없는 타 객체 인식 장치도 학습 결과만을 가지고 정확하게 관심 객체를 인식할 수 있다.
한편, 일 실시예에 따르면, 상기 판단부(204)에서 대상 객체(104)와 관심 객체가 일치하지 않는 것으로 판단된 경우, 인식부(202)는 새로운 대상 객체(104)에 대한 이미지를 획득하여 상기 대상 객체(104)에 대한 인식을 수행할 수 있다.
도 5는 예시적인 실시예들에서 사용되기에 적합한 컴퓨팅 장치를 포함하는 컴퓨팅 환경(10)을 예시하여 설명하기 위한 블록도이다. 즉, 도 5는 예시적인 실시예들을 구현하기 위한 하드웨어 측면을 설명하기 위한 예시도이다. 도시된 실시예에서, 각 컴포넌트들은 이하에 기술된 것 이외에 상이한 기능 및 능력을 가질 수 있고, 이하에 기술되지 것 이외에도 추가적인 컴포넌트를 포함할 수 있다.
도시된 컴퓨팅 환경(10)은 컴퓨팅 장치(12)를 포함한다. 일 실시예에서, 컴퓨팅 장치(12)는 객체 인식 장치(100)일 수 있다. 또한, 컴퓨팅 장치(12)는 타 객체 인식 장치(102)일 수 있다.
컴퓨팅 장치(12)는 적어도 하나의 프로세서(14), 컴퓨터 판독 가능 저장 매체(16) 및 통신 버스(18)를 포함한다. 프로세서(14)는 컴퓨팅 장치(12)로 하여금 앞서 언급된 예시적인 실시예에 따라 동작하도록 할 수 있다. 예컨대, 프로세서(14)는 컴퓨터 판독 가능 저장 매체(16)에 저장된 하나 이상의 프로그램들을 실행할 수 있다. 상기 하나 이상의 프로그램들은 하나 이상의 컴퓨터 실행 가능 명령어를 포함할 수 있으며, 상기 컴퓨터 실행 가능 명령어는 프로세서(14)에 의해 실행되는 경우 컴퓨팅 장치(12)로 하여금 예시적인 실시예에 따른 동작들을 수행하도록 구성될 수 있다.
컴퓨터 판독 가능 저장 매체(16)는 컴퓨터 실행 가능 명령어 내지 프로그램 코드, 프로그램 데이터 및/또는 다른 적합한 형태의 정보를 저장하도록 구성된다. 컴퓨터 판독 가능 저장 매체(16)에 저장된 프로그램(20)은 프로세서(14)에 의해 실행 가능한 명령어의 집합을 포함한다. 일 실시예에서, 컴퓨터 판독 가능 저장 매체(16)는 메모리(랜덤 액세스 메모리와 같은 휘발성 메모리, 비휘발성 메모리, 또는 이들의 적절한 조합), 하나 이상의 자기 디스크 저장 디바이스들, 광학 디스크 저장 디바이스들, 플래시 메모리 디바이스들, 그 밖에 컴퓨팅 장치(12)에 의해 액세스되고 원하는 정보를 저장할 수 있는 다른 형태의 저장 매체, 또는 이들의 적합한 조합일 수 있다.
통신 버스(18)는 프로세서(14), 컴퓨터 판독 가능 저장 매체(16)를 포함하여 컴퓨팅 장치(12)의 다른 다양한 컴포넌트들을 상호 연결한다.
컴퓨팅 장치(12)는 또한 하나 이상의 입출력 장치(24)를 위한 인터페이스를 제공하는 하나 이상의 입출력 인터페이스(22) 및 하나 이상의 네트워크 통신 인터페이스(26)를 포함할 수 있다. 입출력 인터페이스(22) 및 네트워크 통신 인터페이스(26)는 통신 버스(18)에 연결된다. 입출력 장치(24)는 입출력 인터페이스(22)를 통해 컴퓨팅 장치(12)의 다른 컴포넌트들에 연결될 수 있다. 예시적인 입출력 장치(24)는 포인팅 장치(마우스 또는 트랙패드 등), 키보드, 터치 입력 장치(터치패드 또는 터치스크린 등), 음성 또는 소리 입력 장치, 다양한 종류의 센서 장치 및/또는 촬영 장치와 같은 입력 장치, 및/또는 디스플레이 장치, 프린터, 스피커 및/또는 네트워크 카드와 같은 출력 장치를 포함할 수 있다. 예시적인 입출력 장치(24)는 컴퓨팅 장치(12)를 구성하는 일 컴포넌트로서 컴퓨팅 장치(12)의 내부에 포함될 수도 있고, 컴퓨팅 장치(12)와는 구별되는 별개의 장치로 컴퓨팅 장치(102)와 연결될 수도 있다.
이상에서 본 발명의 대표적인 실시예들을 상세하게 설명하였으나, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 상술한 실시예에 대하여 본 발명의 범주에서 벗어나지 않는 한도 내에서 다양한 변형이 가능함을 이해할 것이다. 그러므로 본 발명의 권리범위는 설명된 실시예에 국한되어 정해져서는 안 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.
10: 컴퓨팅 환경
12: 컴퓨팅 장치
14: 프로세서
16: 컴퓨터 판독 가능 저장 매체
18: 통신 버스
20: 프로그램
22: 입출력 인터페이스
24: 입출력 장치
26: 네트워크 통신 인터페이스
100: 객체 인식 장치
102: 타 객체 인식 장치
104: 대상 객체
202: 인식부
204: 판단부
206: 학습부

Claims (18)

  1. 대상 객체의 이미지를 획득하고, 획득된 상기 대상 객체의 이미지와 설정된 관심 객체에 관한 기 학습된 정보를 비교하여 상기 대상 객체를 상기 관심 객체로 인식하는 인식부; 및
    상기 대상 객체에 대한 인식을 수행하는 적어도 하나의 타 객체 인식 장치로부터 상기 대상 객체에 대한 인식 결과를 수신하고, 상기 인식부에 의해 수행된 인식 결과 및 수신된 상기 인식 결과에 기초하여 상기 대상 객체가 상기 관심 객체와 일치하는지 여부에 대한 판단을 수행하는 판단부를 포함하는, 객체 인식 장치.
  2. 청구항 1에 있어서,
    상기 인식부 및 상기 적어도 하나의 타 객체 인식 장치 중 하나 이상에 의해 획득된 상기 대상 객체의 이미지를 상기 관심 객체에 관한 정보로서 학습하는 학습부를 더 포함하는, 객체 인식 장치.
  3. 청구항 2에 있어서,
    상기 인식부는, 상기 대상 객체에 대하여 상기 적어도 하나의 타 객체 인식 장치와 다른 방향에서 상기 대상 객체의 이미지를 획득하는, 객체 인식 장치.
  4. 청구항 2에 있어서,
    상기 인식부는, 상기 대상 객체의 이미지와 상기 관심 객체가 일치하는 정도를 나타내는 일치율을 산출하고, 산출된 상기 일치율이 설정된 값 이상인 경우 상기 대상 객체를 상기 관심 객체로 인식하며,
    상기 판단부는, 상기 적어도 하나의 타 객체 인식 장치로부터 상기 대상 객체의 이미지와 상기 관심 객체가 일치하는 정도를 나타내는 일치율을 수신하는, 객체 인식 장치.
  5. 청구항 4에 있어서,
    상기 판단부는, 산출된 일치율 및 수신된 일치율 중 상기 설정된 값 이상인 일치율의 합을 상기 적어도 하나의 타 객체 인식 장치 및 상기 객체 인식 장치의 총 개수로 나눈 결과를 기반으로 상기 대상 객체가 상기 관심 객체와 일치하는지 여부에 대한 판단을 수행하는, 객체 인식 장치.
  6. 청구항 5에 있어서,
    상기 학습부는, 상기 판단부에 의해 상기 대상 객체와 상기 관심 객체가 일치하는 것으로 판단되고 상기 인식부가 상기 대상 객체를 상기 관심 객체로 인식하지 못한 경우, 상기 인식부에 의해 획득된 상기 대상 객체의 이미지를 상기 관심 객체의 이미지로서 학습하는, 객체 인식 장치.
  7. 청구항 6에 있어서,
    상기 학습부는, 상기 판단부에 의해 상기 대상 객체와 상기 관심 객체가 일치하는 것으로 판단되고 상기 인식부가 상기 대상 객체를 상기 관심 객체로 인식하지 못한 경우, 상기 적어도 하나의 타 객체 인식 장치로부터 획득된 대상 객체의 이미지를 수신하여 상기 관심 객체의 이미지로서 학습하는, 객체 인식 장치.
  8. 청구항 5에 있어서,
    상기 학습부는, 상기 판단부에 의해 상기 대상 객체와 상기 관심 객체가 일치하는 것으로 판단되고 상기 인식부가 상기 대상 객체를 상기 관심 객체로 인식한 경우, 상기 인식부에 의해 획득된 상기 대상 객체의 이미지를 상기 적어도 하나의 타 객체 인식 장치로 전송하는, 객체 인식 장치.
  9. 청구항 2에 있어서,
    상기 학습부는, 상기 객체 인식 장치와 구별되는 공간에 위치하여 상기 대상 객체에 대한 인식을 수행하는 적어도 하나의 타 객체 인식 장치로 상기 학습 결과를 송신하는, 객체 인식 장치.
  10. 하나 이상의 프로세서들, 및
    상기 하나 이상의 프로세서들에 의해 실행되는 하나 이상의 프로그램들을 저장하는 메모리를 구비한 객체 인식 장치에서 수행되는 방법으로서,
    대상 객체의 이미지를 획득하는 단계;
    획득된 상기 대상 객체의 이미지와 설정된 관심 객체에 관한 기 학습된 정보를 비교하여 상기 대상 객체를 상기 관심 객체로 인식하는 단계;
    상기 대상 객체에 대한 인식을 수행하는 적어도 하나의 타 객체 인식 장치로부터 상기 대상 객체에 대한 인식 결과를 수신하는 단계; 및
    상기 대상 객체를 인식한 결과 및 수신된 상기 인식 결과에 기초하여 상기 대상 객체가 상기 관심 객체와 일치하는지 여부에 대한 판단을 수행하는 단계를 포함하는, 객체 인식 방법.
  11. 청구항 10에 있어서,
    상기 판단을 수행하는 단계의 수행 이후,
    획득된 상기 이미지 및 상기 적어도 하나의 타 객체 인식 장치에 의해 획득된 대상 객체의 이미지 중 하나 이상을 상기 관심 객체에 관한 정보로서 학습하는 단계를 더 포함하는, 객체 인식 방법.
  12. 청구항 11에 있어서,
    상기 획득하는 단계는, 상기 대상 객체에 대하여 상기 적어도 하나의 타 객체 인식 장치와 다른 방향에서 상기 대상 객체의 이미지를 획득하는, 객체 인식 방법.
  13. 청구항 11에 있어서,
    상기 인식하는 단계는,
    상기 대상 객체의 이미지와 상기 관심 객체가 일치하는 정도를 나타내는 일치율을 산출하는 단계; 및
    산출된 상기 일치율이 설정된 값 이상인 경우 상기 대상 객체를 상기 관심 객체로 인식하는 단계를 포함하며,
    타 객체 인식 장치로부터 수신하는 상기 대상 객체에 대한 인식 결과는, 상기 대상 객체의 이미지와 상기 관심 객체가 일치하는 정도를 나타내는 일치율을 포함하는, 객체 인식 방법.
  14. 청구항 13에 있어서,
    상기 판단을 수행하는 단계는,
    산출된 일치율 및 수신된 일치율 중 상기 설정된 값 이상인 일치율의 합을 상기 적어도 하나의 타 객체 인식 장치 및 상기 객체 인식 장치의 총 개수로 나눈 결과를 기반으로 상기 대상 객체가 상기 관심 객체와 일치하는지 여부에 대한 판단을 수행하는, 객체 인식 방법.
  15. 청구항 14에 있어서,
    상기 학습하는 단계는,
    상기 판단을 수행하는 단계에서 상기 대상 객체와 상기 관심 객체가 일치하는 것으로 판단되었으나 상기 인식하는 단계에서 상기 대상 객체가 상기 관심 객체로 인식되지 못한 경우, 획득된 상기 대상 객체의 이미지를 상기 관심 객체의 이미지로서 학습하는, 객체 인식 방법.
  16. 청구항 15에 있어서,
    상기 학습하는 단계는,
    상기 판단을 수행하는 단계에서 상기 대상 객체와 상기 관심 객체가 일치하는 것으로 판단되었으나 상기 인식하는 단계에서 상기 대상 객체가 상기 관심 객체로 인식되지 못한 경우, 상기 적어도 하나의 타 객체 인식 장치로부터 수신된 대상 객체의 이미지를 수신하여 상기 관심 객체의 이미지로서 학습하는, 객체 인식 방법.
  17. 청구항 14에 있어서,
    상기 학습하는 단계는,
    상기 판단을 수행하는 단계에서 상기 대상 객체와 상기 관심 객체가 일치하는 것으로 판단되었고 상기 인식하는 단계에서 상기 대상 객체를 상기 관심 객체로 인식된 경우, 상기 획득하는 단계에서 획득된 상기 대상 객체의 이미지를 상기 적어도 하나의 타 객체 인식 장치로 전송하는, 객체 인식 방법.
  18. 청구항 11에 있어서,
    상기 학습하는 단계는, 상기 객체 인식 장치와 구별되는 공간에 위치하여 상기 대상 객체에 대한 인식을 수행하는 적어도 하나의 타 객체 인식 장치로 상기 학습 결과를 송신하는, 객체 인식 방법.
KR1020160097836A 2016-08-01 2016-08-01 객체 인식 장치 및 방법 KR20180014495A (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020160097836A KR20180014495A (ko) 2016-08-01 2016-08-01 객체 인식 장치 및 방법
CN201710646643.7A CN107679443A (zh) 2016-08-01 2017-08-01 客体识别装置及其方法
US15/665,776 US20180032793A1 (en) 2016-08-01 2017-08-01 Apparatus and method for recognizing objects

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160097836A KR20180014495A (ko) 2016-08-01 2016-08-01 객체 인식 장치 및 방법

Publications (1)

Publication Number Publication Date
KR20180014495A true KR20180014495A (ko) 2018-02-09

Family

ID=61010205

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160097836A KR20180014495A (ko) 2016-08-01 2016-08-01 객체 인식 장치 및 방법

Country Status (3)

Country Link
US (1) US20180032793A1 (ko)
KR (1) KR20180014495A (ko)
CN (1) CN107679443A (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020251238A1 (ko) * 2019-06-10 2020-12-17 (주)사맛디 입력영상데이터 기반 사용자 관심정보 획득 방법 및 대상체 디자인 커스터마이징 방법

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10735707B2 (en) 2017-08-15 2020-08-04 International Business Machines Corporation Generating three-dimensional imagery
US11669746B2 (en) 2018-04-11 2023-06-06 Samsung Electronics Co., Ltd. System and method for active machine learning
CN108986169A (zh) * 2018-07-06 2018-12-11 北京字节跳动网络技术有限公司 用于处理图像的方法和装置
JP7234718B2 (ja) * 2019-03-18 2023-03-08 富士フイルムビジネスイノベーション株式会社 情報処理装置、情報処理システム及びプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020251238A1 (ko) * 2019-06-10 2020-12-17 (주)사맛디 입력영상데이터 기반 사용자 관심정보 획득 방법 및 대상체 디자인 커스터마이징 방법

Also Published As

Publication number Publication date
CN107679443A (zh) 2018-02-09
US20180032793A1 (en) 2018-02-01

Similar Documents

Publication Publication Date Title
KR20180014495A (ko) 객체 인식 장치 및 방법
US11288836B2 (en) Apparatus and method for managing feature point map
KR102117543B1 (ko) 컴퓨팅 장치 및 이를 이용한 인공 지능 기반 영상 처리 서비스 시스템
WO2021045818A1 (en) Protecting machine learning models from privacy attacks
GB2596448A (en) System and method of incremental learning for object detection
US20180121713A1 (en) Systems and methods for verifying a face
US20160171300A1 (en) Authentication apparatus and method
BR102014023780B1 (pt) Método para classificação multiclasse em cenários abertos e usos do mesmo
KR102552968B1 (ko) 다중 객체 추적 방법 및 이를 위한 장치
US11915519B2 (en) Information processing system, method for managing object to be authenticated, and program
US11023713B2 (en) Suspiciousness degree estimation model generation device
US10402702B2 (en) Face recognition in big data ecosystem using multiple recognition models
KR102325072B1 (ko) 포즈 매칭 방법 및 이를 수행하기 위한 장치
WO2015193288A1 (en) Fusion-based object-recognition
US11415423B2 (en) Map information management device, map information management system, and map information management method
CN111881740A (zh) 人脸识别方法、装置、电子设备及介质
US10108513B2 (en) Transferring failure samples using conditional models for machine condition monitoring
JP2021051589A (ja) 情報処理装置、情報処理方法
JP2019186800A (ja) 情報端末装置、プログラム及び方法
US20180039531A1 (en) Paired value comparison for redundant multi-threading operations
US20190138026A1 (en) Electronic device, external server, and method for controlling same
US20170249314A1 (en) Apparatus and method to determine a predicted-reliability of searching for an answer to question information
US11599827B2 (en) Method and apparatus for improving the robustness of a machine learning system
CN109669856A (zh) 数据分析系统的测试结果会诊方法及装置
US11861879B2 (en) Information processing device, information processing method, and storage medium