KR101479384B1 - 물체 인식을 가능하게 하기 위한 방법 및 장치 - Google Patents

물체 인식을 가능하게 하기 위한 방법 및 장치 Download PDF

Info

Publication number
KR101479384B1
KR101479384B1 KR1020127022503A KR20127022503A KR101479384B1 KR 101479384 B1 KR101479384 B1 KR 101479384B1 KR 1020127022503 A KR1020127022503 A KR 1020127022503A KR 20127022503 A KR20127022503 A KR 20127022503A KR 101479384 B1 KR101479384 B1 KR 101479384B1
Authority
KR
South Korea
Prior art keywords
feature
reference feature
object recognition
data
program instructions
Prior art date
Application number
KR1020127022503A
Other languages
English (en)
Other versions
KR20120128649A (ko
Inventor
지앙웨이 리
콩퀴아오 왕
레이 수
Original Assignee
노키아 코포레이션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 노키아 코포레이션 filed Critical 노키아 코포레이션
Publication of KR20120128649A publication Critical patent/KR20120128649A/ko
Application granted granted Critical
Publication of KR101479384B1 publication Critical patent/KR101479384B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/211Selection of the most significant subset of features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2135Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/76Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries based on eigen-space representations, e.g. from pose or different illumination conditions; Shape manifolds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/771Feature selection, e.g. selecting representative features from a multi-dimensional feature space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/7715Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

물체 인식을 가능하게 하기 위한 방법 및 장치가 제공된다. 방법은 제1 물체에 대한 데이터와 제2 물체에 대한 데이터에 액세스(accessing)하는 단계를 포함할 수 있다. 방법은 또한 기준 집합(a reference set) 및 트레이닝 데이터(training data)와 상기 기준 집합에 적어도 부분적으로 기초하여 생성된 트레이닝 결과(training results)에 적어도 부분적으로 기초하여, 상기 제1 및 제2 물체를 비교하는 단계를 포함할 수 있다. 방법은 또한 상기 비교하는 단계에 적어도 부분적으로 기초하여, 상기 제1 물체 및 상기 제2 물체가 동일한 물체인지 여부를 판정하는 단계를 포함할 수 있다. 대응하는 장치 또한 제공된다.

Description

물체 인식을 가능하게 하기 위한 방법 및 장치{METHODS AND APPARATUSES FOR FACILITATING OBJECT RECOGNITION}
본 발명의 실시예들은 일반적으로 물체 인식 기술에 관련되며, 더 상세하게는 물체 인식을 가능하게 하는 방법 및 장치에 관련된다.
얼굴 검출, 얼굴 인식, 및 얼굴 추적은 그 사용과 적용이 점점 더 늘어 가고 있다. 얼굴 분석을 위한 잠재적인 적용의 증가는 현대 마이크로프로세서의 속도 및 성능의 계속적 증가의 결과로서 부분적으로 발생하고 있다. 그 결과, 얼굴 분석은 생체 인식(biometrics), 사용자 인터페이스, 게임, 소셜 네트워킹 및 대인 커뮤니케이션을 포함하는 다양한 적용을 위한 수많은 환경에서 유용할 수 있다. 마이크로프로세서의 연산력(computing power)의 진보는 휴대폰 또는 다른 스마트 장치와 같은 모바일 장치에서 이용가능한 얼굴 분석 기능을 가능하게 해왔다. 얼굴 분석은 또한 메타데이터 표준화와 같은 기획과 관련하여 중요성이 커지고 있다.
얼굴 분석 기술이 계속 향상된다 하더라도, 현재 많은 방법들은 높은 계산 능력을 요구하거나 얼굴 검출 성능의 제약을 겪고 있다. 얼굴이 카메라를 정면으로 바라보지 않거나 자연스러운 변화(예컨대, 눈 깜박임)와 같은 복잡한 문제 때문에 얼굴 분석의 결과는 부정적으로 영향을 받을 수 있다. 얼굴 검출, 인식, 및 추적에 대한 적용이 개발됨에 따라, 당면 과제들은 얼굴 분석의 분야에서의 향상을 제공하기 위하여 극복되어야 할 것이다.
방법, 장치, 컴퓨터 프로그램 제품이 향상된 물체 인식을 적용이하게 하기 위해 제공된다. 이와 관련하여, 방법, 장치, 컴퓨터 프로그램 제품은 컴퓨팅 장치 및 컴퓨팅 장치 유저에게 몇 가지 이점을 제공하도록 구비될 수 있다. 본 발명의 실시예들은 기준 집합을 사용한 물체 인식을 제공한다. 본 발명의 일 실시예는 “테스트”라고 참조되는 물체의 인식 및 트레이닝을 위한 기준 집합을 사용하여 향상된 물체 인식을 제공한다. 이와 관련하여, 테스트를 위해 사용되는 식별 정보(discriminative information)는 트레이닝 데이터 및 상기 기준 집합으로부터 본 발명의 일 실시예에 따라서 유도된다. 따라서, 본 발명의 실시예들은 트레이닝 데이터에 관한 물체 인식의 의존성(reliance)을 감소시키기 위하여 독립된 데이터 컬렉션으로서 기준 집합을 사용한다. 일 실시예에서, 물체 인식(예컨대, 테스트)은 트레이닝 결과 및 기준 집합을 모두 사용하여 수행될 수 있다. 따라서, 본 발명에 따른 실시예들은 주어진 공간에서의 모든 데이터(예컨대, 트레이닝 데이터 및 테스트 데이터)에 대한 기준으로서 기준 집합을 이용한다. 이와 관련하여, 기준 집합은 본 발명의 일 실시예에서 트레이닝 세트 및 테스트 세트에 추가하여 제3 데이터 세트를 제공한다. 본 발명의 실시예들은 기준 집합을 사용하여 유도된 기준 피처로 데이터를 코딩하고 지도 학습을 통하여 기준 집합의 중요도를 밸런싱(balancing)하는 것을 제공한다. 따라서 본 발명의 실시예들은 향상된 물체 인식을 제공할 수 있다. 몇몇 실시예들은 특히 얼굴 인식에 적용될 수 있다.
본 발명의 제1 실시예에서는, 제1 물체 및 제2 물체에 대한 데이터에 액세스(accessing)하는 단계를 포함하는 방법이 제공된다. 이 실시예의 방법은 기준 집합(a reference set) 및 트레이닝 데이터(training data)와 상기 기준 집합에 적어도 부분적으로 기초하여 생성된 트레이닝 결과(training results)에 적어도 부분적으로 기초하여, 상기 제1 및 제2 물체를 비교하는 단계를 더 포함한다. 이 실시예의 방법은 추가적으로 상기 비교하는 단계에 적어도 부분적으로 기초하여, 상기 제1 물체 및 상기 제2 물체가 동일한 물체인지 여부를 판정하는 단계를 더 포함한다.
본 발명의 또 다른 실시예에서는, 장치가 제공된다. 이 실시예의 장치는 하나 이상의 프로세서 및 컴퓨터 프로그램 코드를 저장하는 하나 이상의 메모리를 포함하고, 상기 하나 이상의 메모리 및 저장된 컴퓨터 프로그램 코드는 상기 적어도 하나 이상의 프로세서와 함께 상기 장치로 하여금 제1 물체 및 제2 물체에 대한 데이터에 액세스하는 동작을 수행하도록 구성된다. 이 실시예의 장치는 상기 하나 이상의 메모리 및 저장된 컴퓨터 프로그램 코드는 상기 적어도 하나 이상의 프로세서와 함께 상기 장치로 하여금 기준 집합(a reference set) 및 트레이닝 데이터(training data)와 상기 기준 집합에 적어도 부분적으로 기초하여 생성된 트레이닝 결과(training results)에 적어도 부분적으로 기초하여, 상기 제1 및 제2 물체를 비교하는 동작을 수행하도록 더 구성된다. 추가적으로, 이 실시예의 장치는 상기 하나 이상의 메모리 및 저장된 컴퓨터 프로그램 코드는 상기 적어도 하나 이상의 프로세서와 함께 상기 장치로 하여금 상기 비교하는 것에 적어도 부분적으로 기초하여, 상기 제1 물체 및 상기 제2 물체가 동일한 물체인지 여부를 판정하는 동작을 수행하도록 구성된다.
본 발명의 또 다른 실시예에서는, 컴퓨터 프로그램 제품이 제공된다. 이 실시예의 컴퓨터 프로그램 제품은 컴퓨터 판독적용이한 프로그램 명령어가 저장된 하나 이상의 컴퓨터 판독적용이한 저장 매체를 포함한다. 이 실시예의 상기 프로그램 명령어는 제1 물체 및 제2 물체에 대한 데이터에 액세스하도록 구성된 프로그램 명령어를 포함한다. 이 실시예의 상기 프로그램 명령어는 기준 집합(a reference set) 및 트레이닝 데이터(training data)와 상기 기준 집합에 적어도 부분적으로 기초하여 생성된 트레이닝 결과(training results)에 적어도 부분적으로 기초하여, 상기 제1 및 제2 물체를 비교하도록 구성된 프로그램 명령어를 더 포함한다. 추가적으로, 이 실시예의 상기 프로그램 명령어는 상기 비교에 적어도 부분적으로 기초하여, 상기 제1 물체 및 상기 제2 물체가 동일한 물체인지 여부를 판정하도록 구성된 프로그램 명령어를 포함한다.
본 발명의 또 다른 실시예에서는, 제1 물체 및 제2 물체에 대한 데이터에 액세스(accessing)하기 위한 수단을 포함하는 장치가 제공된다. 이 실시예의 장치는 기준 집합(a reference set) 및 트레이닝 데이터(training data)와 상기 기준 집합에 적어도 부분적으로 기초하여 생성된 트레이닝 결과(training results)에 적어도 부분적으로 기초하여, 상기 제1 및 제2 물체를 비교하기 위한 수단을 더 포함한다. 추가적으로, 이 실시예의 장치는 상기 비교에 적어도 부분적으로 기초하여, 상기 제1 물체 및 상기 제2 물체가 동일한 물체인지 여부를 판정하기 위한 수단을 포함한다.
본 발명의 또 다른 실시예에서는, 컴퓨터 판독적용이한 프로그램 명령어를 수행하는 컴퓨터 판독적용이한 저장 매체를 제공한다. 이 실시예의 상기 컴퓨터 판독적용이한 프로그램 명령어는 제1 물체 및 제2 물체에 대한 데이터에 액세스하도록 구성된 프로그램 명령어를 포함한다. 이 실시예의 상기 컴퓨터 판독적용이한 프로그램 명령어는 기준 집합(a reference set) 및 트레이닝 데이터(training data)와 상기 기준 집합에 적어도 부분적으로 기초하여 생성된 트레이닝 결과(training results)에 적어도 부분적으로 기초하여, 상기 제1 및 제2 물체를 비교하도록 구성된 프로그램 명령어를 더 포함한다.
추가적으로, 이 실시예의 상기 컴퓨터 판독적용이한 프로그램 명령어는 상기 비교에 적어도 부분적으로 기초하여, 상기 제1 물체 및 상기 제2 물체가 동일한 물체인지 여부를 판정하도록 구성된 프로그램 명령어를 더 포함한다.
위의 요약은 단지 본 발명의 몇몇 양상에 대한 기본적인 이해를 제공하기 위하여 본 발명의 몇 가지 실시예를 요약하기 위한 목적으로 제공된 것이다. 따라서, 위에서 기술된 실시예들은 단지 예시일 뿐이며 어떤 방식으로든 본 발명의 사상이나 범위를 축소시키는 것으로 해석되어서는 안될 것이다. 본 발명은, 여기서 요약된 것들에 추가하여 이하에서 기술될 몇몇 실시예를 포함하는 잠재적인 많은 실시예를 포괄할 수 있다는 것이 이해되어야 한다.
따라서, 본 발명에 따른 몇몇 실시예는 컴퓨팅 장치 및 컴퓨팅 장치 사용자에게 몇 가지 이점을 제공한다. 본 발명의 실시예들은 기준 집합을 사용한 물체 인식을 제공한다. 본 발명의 일 실시예는 “테스트”라고 참조되는 물체의 인식 및 트레이닝을 위한 기준 집합을 사용하여 향상된 물체 인식을 제공한다. 이와 관련하여, 테스트를 위해 사용되는 식별 정보(discriminative information)는 트레이닝 데이터 및 상기 기준 집합으로부터 본 발명의 일 실시예에 따라서 유도된다. 따라서, 본 발명의 실시예들은 트레이닝 데이터에 관한 물체 인식의 의존성(reliance)을 감소시키기 위하여 독립된 데이터 컬렉션으로서 기준 집합을 사용한다. 일 실시예에서, 물체 인식(예컨대, 테스트)은 트레이닝 결과 및 기준 집합을 모두 사용하여 수행될 수 있다. 따라서, 본 발명에 따른 실시예들은 주어진 공간에서의 모든 데이터(예컨대, 트레이닝 데이터 및 테스트 데이터)에 대한 기준으로서 기준 집합을 이용한다. 이와 관련하여, 기준 집합은 본 발명의 일 실시예에서 트레이닝 세트 및 테스트 세트에 추가하여 제3 데이터 세트를 제공한다. 본 발명의 실시예들은 기준 집합을 사용하여 유도된 기준 피처로 데이터를 코딩하고 지도 학습을 통하여 기준 집합의 중요도를 밸런싱(balancing)하는 것을 제공한다. 따라서 본 발명의 실시예들은 향상된 물체 인식을 제공할 수 있다. 몇몇 실시예들은 특히 얼굴 인식에 적용될 수 있다.
본 발명의 몇몇 실시예들은 일반적인 용어들로 설명하면서, 첨부된 도면들을 이제 참조할 것이며, 상기 첨부된 도면들은 반드시 크기에 맞추어서 도시된 것은 아니다.
도 1은 본 발명의 예시적인 실시예에 따른 물체 인식을 적용이하게 하기 위한 물체 인식 장치의 블록도이다.
도 2는 본 발명의 예시적인 실시예에 따른 모바일 단말의 개략적인 블록도이다.
도 3은 기준 물체의 일발적인 예시를 도시한다.
도 4 내지 도 6은 본 발명의 예시적인 실시예에 따른 기준 물체, 기준 집합, 및 기준 피처를 도시한다.
도 7은 본 발명의 예시적인 실시예에 따른 물체 인식을 적용이하게 하기 위한 프로세스를 도시한다.
도 8은 본 발명의 예시적인 실시예에 따른 물체 인식을 적용이하게 하기 위한 예시적인 방법에 따른 흐름도를 도시한다.
도 9는 본 발명의 예시적인 실시예에 따른 물체 인식을 적용이하게 하기 위한 또 다른 예시적인 방법에 따른 흐름도를 도시한다.
본 발명의 일부 실시예들이 첨부 도면들을 참조로 하여 좀더 충분히 설명될 것이며, 이 도면에서 본 발명의 일부이지만 모두는 아닌 실시예들이 도시되어 있다. 실로, 본 발명의 다양한 실시예들이 다른 형태로 구현될 수 있으며, 여기에서 설명된 실시예들로 한정되지 않아야 하며, 그보다는 이 실시예들은 본 명세서가 적용 적용이한 법적 필요조건을 만족시키기 위해 제공된다. 유사한 참조 번호들은 유사한 구성요소를 나타낸다.
여기서 사용되는 바와 같이, 용어 '회로'는 (a) 하드웨어 전용 회로 구현(예를 들면, 아날로그 회로 및/또는 디지털 회로에서의 구현); (b)회로 및, 장치로 하여금 여기서 설명되는 하나 이상의 기능을 수행하도록 함께 동작하는 하나 이상의 컴퓨터 판독적용이 메모리 상에 저장된 소프트웨어 및/또는 펌웨어 명령어를 포함하는 컴퓨터 프로그램 제품(들)의 조합; 및 (c) 소프트웨어 또는 펌웨어가 전형적으로 제공되지 않더라도 동작을 위해 소프트웨어 또는 펌웨어를 요구하는, 예를 들면, 마이크로프로세서(들) 또는 마이크로프로세서(들)의 일부 같은 회로를 지칭한다. 이러한 '회로'의 정의는 임의의 청구범위를 포함하는, 여기의 이 용어의 모든 사용에 적용한다. 추가적인 예로서, 여기서 사용되는 바와 같이, 용어 '회로'는 또한 하나 이상의 프로세서 및/또는 그의 일부(들)를 포함하고 소프트웨어 및/또는 펌웨어를 수반하는 구현예를 또한 포함한다. 또 다른 예로서, 여기서 사용되는 용어 '회로'는 또한, 예를 들면, 이동 전화를 위한 기저대역 집적 회로 또는 애플리케이션 프로세서 집적 회로 또는 서버, 셀룰러 네트워크 디바이스, 다른 네트워크 디바이스, 및/또는 다른 컴퓨팅 디바이스 내의 유사한 집적 회로를 포함한다.
기존의 얼굴 인식 알고리즘은 일반적으로 (1) 데이터 트레이닝 및 (2) 데이터 테스트의 두 단계를 포함한다. 데이터 트레이닝은 학습된 지식이 테스트 데이터로 일반화될 수 있도록 트레이닝 데이터로부터 사전 식별 정보를 학습하기 위해 사용된다. 데이터 테스트에서, 테스트 데이터의 값들은 트레이닝 결과에 기초하여 추출된다. 이와 관련하여, 데이터 테스트 단계는 얼굴들이 동일 클래스로 구분될 수 있는지 여부를 판정하기 위해 사용되어 질 수 있다.
이러한 기존의 얼굴 인식 알고리즘에서, 테스트 성능은 전적으로 데이터 트레이닝 단계의 트레이닝 과정에 의존한다. 만약 트레이닝 결과가 신뢰될 수 없다면, 테스트 단계에서의 인식 성능은 급격히 낮아질 것이다. 트레이닝의 신뢰성을 확보하는 것이 어렵기 때문에 테스트 성능은 항상 보장될 수는 없다.
본 발명의 실시예에서는 제3의 데이터 모음을 구성하는 기준 집합(a reference set)을 물체 인식 프로세스에 도입함으로써 향상된 물체 인식을 제공한다. 더 자세히 기술될 바와 같이, 본 발명의 실시예에서는 트레이닝 및 테스팅(예컨대, 물체 인식)을 위한 기준 집합을 사용한다. 물체 인식에 근거한 이 기준 집합은 인식 성능에 달리 영향을 줄 수 있는 트레이닝 과정의 결함을 극복할 수 있다. 본 발명의 구현예들은 이하에서 더 상세히 기술되고 도면에 의해 도시된다. 도시되고 기술되는 구현예들은 예시를 위하여 제공되는 것이며 어떤 방식으로든 본 발명의 사상이나 범위를 축소시키는 것으로 해석되어서는 안될 것이다. 이와 관련하여, 본 발명의 범위는 여기서 도시되고 기술되는 것들에 부과하여 잠재적인 많은 실시예들을 포괄한다. 여기서 기술되는 몇몇 구현예들은 얼굴 물체 인식(예컨대, 얼굴 인식)에 관하여 기술될 수 있다. 얼굴 물체 인식은 본 발명의 구현예가 이롭게 적용될 수 있는 물체 인식의 한 유형으로서의 예시를 제공하기 위함이다. 얼굴 물체 인식에 관련하여 기술되는 구현예는 언제라도 임의의 다른 유형 또는 클래스의 물체의 인식에 유사하게 적용될 수 있다는 것은 이해되어야 할 것이다.
도 1은 본 발명의 실시예에 따른 물체 인식을 적용이하게 하기 위한 물체 인식 장치(102)의 블록 다이어그램을 도시한다. 물체 인식 장치(102)는 본 발명의 일 실시예의 예로서 제공되는 것이며 어떤 방식으로든 본 발명의 사상이나 범위를 축소시키는 것으로 해석되어서는 안될 것이다. 이와 관련하여, 본 발명의 범위는 여기서 도시되고 기술되는 것들에 부과하여 잠재적인 많은 실시예들을 포괄한다. 따라서, 도 1은 물체 인식을 적용이하게 하기 위한 물체 인식 장치의 구성의 일 실시예만을 도시하지만, 수많은 다른 구성이 본 발명의 실시예를 구현하기 위해 사용되어 질 수 있을 것이다.
물체 인식 장치(102)는 데스크톱 컴퓨터, 랩톱 컴퓨터, 모바일 단말, 모바일 컴퓨터, 모바일 폰, 모바일 통신 장치, 하나 이상의 서버, 하나 이상의 네트워크 노드, 게임 장치, 디지털 카메라/캠코더, 오디오/비디오 플레이어, 텔레비전 장치, 라디오 수신기, 디지털 비디오 기록기, 포지셔닝 장치(positioning device), 및/또는 이들의 임의의 조합 등으로 구체화될 수 있다. 일 실시예에서, 물체 인식 장치(102)는 도 2에서 도시된 것과 같이 모바일 단말로서 구체화 될 수 있다.
이와 관련하여, 도 2는 본 발명의 실시예에 따른 물체 인식 장치(102)의 일 실시예를 나타내는 모바일 단말기(10)의 블록도를 도시한다. 그러나, 도시되고 이하에 설명된 모바일 단말기(10)는 단지 본 발명의 실시예를 구현할 수 있고/있거나 그 실시예로부터 유용할 수 있는 하나의 유형의 물체 인식 장치(102)를 예시하며, 따라서 본 발명의 범위를 제한하는 것으로 간주되지 않아야 한다는 것이 이해되어야 한다. 전자 장치의 몇 가지 실시예가 예시의 목적을 위해 도시되고 이하에 설명되겠지만, 모바일 전화기, 모바일 컴퓨터, PDA(portable digital assistant), 페이저(pager), 랩탑 컴퓨터, 데스크탑 컴퓨터, 게임 장치, 텔레비전 및 다른 유형의 전자 시스템과 같은 다른 유형의 전자 장치가 본 발명의 실시예를 이용할 수 있다.
도시된 바와 같이, 모바일 단말기(10)는 송신기(14) 및 수신기(16)와 통신하는 안테나(12)(또는 복수의 안테나(12))를 포함할 수 있다. 모바일 단말기(10)는 또한 각각 송신기로 신호를 제공하고 수신기로부터 신호를 수신하도록 구성된 프로세서(20)를 포함할 수 있다. 프로세서(20)는 예를 들어 회로, 동반하는 디지털 신호 프로세서를 갖는 하나 이상의 마이크로프로세서, 동반하는 디지털 신호 프로세서가 없는 하나 이상의 프로세서, 하나 이상의 코프로세서(coprocessor), 하나 이상의 멀티-코어 프로세서(multi-core processor), 하나 이상의 제어기, 프로세싱 회로, 하나 이상의 컴퓨터, 예를 들어 ASIC(application specific integrated circuit) 또는 FPGA(field programmable gate array)와 같은 집적 회로를 포함하는 다양한 다른 프로세싱 엘리먼트, 또는 이들의 일부 조합을 포함하는 다양한 수단으로서 구현될 수 있다. 따라서, 비록 도 2에서는 프로세서(20)가 단일 프로세서로서 도시되었지만, 일부 실시예에서 프로세서(20)는 복수의 프로세서를 포함한다. 프로세서(20)에 의해 송신되고 수신된 이들 신호는 적용 적용이한 셀룰러 시스템의 에어 인터페이스 표준(air interface standard), 및/또는 Wi-Fi(Wireless-Fidelity), IEEE(Institute of Electrical and Electronics Engineers) 802.11 또는 802.16과 같은 WLAN(wireless local access network) 기법 등을 포함하지만 그에 제한되지 않는 임의의 개수의 상이한 유선 또는 무선 네트워킹 기법에 따른 시그널링 정보를 포함한다. 또한, 이들 신호는 스피치 데이터, 사용자에 의해 생성된 데이터, 사용자에 의해 요구된 데이터 등을 포함할 수 있다. 이와 관련하여, 모바일 단말기는 하나 이상의 에어 인터페이스 표준, 통신 프로토콜, 변조 유형, 접근 유형 등과 함께 동작할 수 있다. 보다 구체적으로, 모바일 단말기는 다양한 1G(first generation), 2G(second generation), 2.5G 및 3G(third generation) 통신 프로토콜, 4G(fourth-generation) 통신 프로토콜, IMS(Internet Protocol Multimedia Subsystem) 통신 프로토콜(예를 들어, SIP(session initiation protocol)) 등에 따라 동작할 수 있다. 예를들어, 모바일 단말기는 2G 무선 통신 프로토콜인 IS-136(TDMA(Time Division Multiple Access)), GSM(Global System for Mobile communications), IS-95(CDMA(Code Division Multiple Access)) 등에 따라 동작할 수 있다. 또한, 예를 들어, 모바일 단말기는 2.5G 무선 통신 프로토콜인 GPRS(General Packet Radio Service), EDGE(Enhanced Data GSM Environment) 등에 따라 동작할 수 있다. 또한, 예를 들어, 모바일 단말기는UMTS(Universal Mobile Telecommunications System), CDMA2000(Code Division Multiple Access 2000), WCDMA(Wideband Code Division Multiple Access), TD-SCDMA(Time Division-Synchronous Code Division Multiple Access) 등과 같은 3G 무선 통신 프로토콜에 따라 동작할 수 있다. 모바일 단말기는 추가적으로 LTE(Long Term Evolution) 또는 E-URTAN(Evolved Universal Terrestrial Radio Access Network) 등과 같은 3.9G 무선 통신 프로토콜에 따라 동작할 수 있다. 추가적으로, 예를 들어, 모바일 단말기는 4G(fourth-generation) 무선 통신 프로토콜 등은 물론 미래에 개발될 수 있는 유사한 무선 통신 프로토콜에 따라 동작할 수 있다.
TACS(Total Access Communication System)는 물론 일부 NAMPS(Narrow-band Advanced Mobile Phone System)에서, 모바일 단말기는 또한 이중 모드 또는 그보다 높은 모드의 전화기(예를 들어 디지털/아날로그 또는 TDMA/CDMA/아날로그 전화기)에서와 같이 본 발명의 실시예로부터 유용할 수 있다. 추가적으로, 모바일 단말기(10)는 Wi-Fi(Wireless Fidelity) 또는 WiMAX(Worldwide Interoperability for Microwave Access) 프로토콜에 따라 동작할 수 있다.
프로세서(20)가 모바일 단말기(10)의 오디오/비디오 및 논리 기능을 구현하기 위한 회로를 포함할 수 있다고 이해된다. 예를 들어, 프로세서(20)는 디지털 신호 프로세서 장치, 마이크로프로세서 장치, 아날로그-대-디지털 변환기, 디지털-대-아날로그 변환기 등을 포함할 수 있다. 모바일 단말기의 제어 및 신호 프로세싱 기능은 그들의 각각의 성능에 따라 이들 장치 사이에 할당될 수 있다. 프로세서는 또한 내부 음성 부호화기(voice coder(VC))(20a), 내부 데이터 모뎀(data modem(DM))(20b) 등을 포함할 수 있다. 또한, 프로세서(20)는 메모리 내에 저장될 수 있는 하나 이상의 소프트웨어 프로그램을 동작시키는 기능을 포함할 수 있다. 예를 들어, 프로세서(20)는 웹 브라우저와 같은 접속 프로그램을 동작시킬 수 있다. 접속 프로그램은 모바일 단말기(10)가 WAP(Wireless Application Protocol), HTTP(hypertext transfer protocol) 등과 같은 프로토콜에 따라 위치 기반 콘텐츠(location-base content)와 같은 웹 콘텐츠를 송신하고 수신하게 할 수 있다. 모바일 단말기(10)는 인터넷 또는 다른 네트워크를 거쳐 웹 콘텐츠를 송신하고 수신하기 위해 TCP/IP(Transmission Control Protocol/Internet Protocol)를 사용할 수 있다.
모바일 단말기(10)는 또한 프로세서(20)에 동작 적용이하게 결합될 수 있는 예를 들어 이어폰 또는 스피커(24), 링거(22), 마이크(26), 디스플레이(28), 사용자 입력 인터페이스 등을 포함하는 사용자 인터페이스를 포함할 수 있다. 이와 관련하여, 프로세서(20)는 예를 들어 스피커(24), 링거(22), 마이크(26), 디스플레이(28) 등과 같은 사용자 인터페이스의 하나 이상의 엘리먼트의 적어도 일부 기능을 제어하도록 구성된 사용자 인터페이스 회로를 포함할 수 있다. 프로세서(20) 및/또는 프로세서(20)을 포함하는 사용자 인터페이스 회로는 프로세서(20)에 접근 적용이한 메모리(예를 들어, 휘발성 메모리(40), 비휘발성 메모리(42) 등) 상에 저장된 컴퓨터 프로그램 명령어(예를 들어, 소프트웨어 및/또는 펌웨어)를 통해 사용자 인터페이스의 하나 이상의 엘리먼트의 하나 이상의 기능을 제어하도록 구성될 수 있다. 비록 도시되지는 않았지만, 모바일 단말기는 모바일 단말기에 관련된 다양한 회로, 예를 들어 검출 적용이한 출력으로서 기계적 진동을 제공하는 회로에 전력 공급하기 위한 배터리를 포함할 수 있다. 사용자 입력 인터페이스는 키패드(30), 터치 디스플레이(도시되지 않음), 조이스틱(도시되지 않음), 및/또는 다른 입력 장치와 같은 모바일 단말기가 데이터를 수신하게 하는 장치를 포함할 수 있다. 키패드를 포함하는 실시예에서, 키패드는 숫자(0 내지 9) 및 관련된 키(#, *), 및/또는 모바일 단말기를 동작시키기 위한 다른 키를 포함할 수 있다.
도 2에 도시된 바와 같이, 모바일 단말기(10)는 또한 데이터를 공유하며/하거나 데이터를 획득하기 위한 하나 이상의 수단을 포함할 수 있다. 예를 들어, 모바일 단말기는 데이터가 RF 기법에 따라 전자 장치와 공유되며/되거나 그 전자 장치로부터 획득될 수 있도록 단거리 무선 주파수(radio frequency(RF)) 송수신기 및/또는 인터로게이터(interrogator)(64)를 포함할 수 있다. 모바일 단말기는 예를 들어 적외선(infrared(IR)) 송수신기(66), 블루투스 스페셜 인터레스트 그룹(BluetoothTM Special Interest Group)에 의해 개발된 블루투스(BluetoothTM) 브랜드 무선 기술을 사용하여 동작하는 블루투스(BluetoothTM, BT) 송수신기(68), 무선 USB(universal serial bus) 송수신기(70) 등과 같은 다른 단거리 송수신기를 포함할 수 있다. BT 송수신기(68)는 극소 전력 블루투스(BluetoothTM) 기술 (예를 들어 와이브리(WibreeTM)) 무선 표준에 따라 동작할 수 있다. 이와 관련하여, 모바일 단말기(10) 및 특히 단거리 송수신기는 예를 들어 10 미터 내와 같이 모바일 단말기 부근의 전자 장치로 데이터를 송신하며/하거나 그 전자 장치로부터 데이터를 수신할 수 있다. 비록 도시되지는 않았지만, 모바일 단말기는 Wi-Fi(Wireless Fidelity), IEEE 802.11 기법, IEEE 802.15 기법 또는 IEEE 802.16 기법과 같은WLAN 기법 등을 포함하는 다양한 무선 네트워킹 기법에 따라 전자 장치로 데이터를 송신하며/하거나 그 전자 장치로부터 데이터를 수신할 수 있다.
모바일 단말기(10)는 SIM(subscriber identity module)(38), R-UIM(removable user identity module) 등과 같은 메모리를 포함할 수 있으며, 이는 모바일 가입자에 관련된 정보 엘리멘트를 저장할 수 있다. SIM에 추가하여, 모바일 단말기는 다른 제거 가능하며/하거나 고정된 메모리를 포함할 수 있다. 모바일 단말기(10)는 휘발성 메모리(40) 및/또는 비휘발성 메모리(42)를 포함할 수 있다. 예를 들어, 휘발성 메모리(40)는 동적 및/또는 정적 RAM을 포함하는 RAM(Random Access Memory), 온-칩 또는 오프-칩 캐시 메모리(on-chip or off-chip cache memory) 등을 포함할 수 있다. 내장되며/되거나 제거 가능할 수 있는 비휘발성 메모리(42)는 예를 들어 ROM(read-only memory), 플래시 메모리, 자기 저장 장치(예를 들어, 하드 디스크, 플로피 디스크 드라이브, 자기 테이프 등), 광 디스크 드라이브 및/또는 매체, NVRAM(nonvolatile random access memory) 등을 포함할 수 있다. 휘발성 메모리(40)와 같이, 비휘발성 메모리(42)는 데이터의 임시 저장을 위한 캐시 영역을 포함할 수 있다. 메모리는 모바일 단말기의 기능을 수행하기 위해 모바일 단말기에 의해 사용될 수 있는 하나 이상의 소프트웨어 프로그램, 명령어, 몇 가지 정보, 데이터 등을 저장할 수 있다. 예를 들어, 메모리는 모바일 단말기(10)를 유일하게 식별할 수 있는 IMEI(international mobile equipment identification) 코드와 같은 식별자를 포함할 수 있다.
이제 도 1을 다시 참조하면, 예시적인 실시예에서, 물체 인식 장치(102)는 본 명세서에 설명된 다양한 기능을 수행하기 위한 프로세서(110), 메모리(112), 통신 인터페이스(114), 사용자 인터페이스(116) 및 물체 인식 회로(118)와 같은 다양한 수단을 포함한다. 본 명세서에서 설명된 바와 같은 물체 인식 회로(102)의 이들 수단은 예를 들어 회로, 하드웨어 엘리먼트(예를 들어, 적절하게 프로그래밍된 프로세서, 조합형 논리 회로 등), 적절하게 구성된 프로세싱 장치(예를 들어, 프로세서(110))에 의해 실행 가능한 컴퓨터 판독 가능한 매체(예를 들어, 메모리(112)) 상에 저장된 컴퓨터 판독 가능한 프로그램 명령어(예를 들어, 소프트웨어 또는 펌웨어)를 포함하는 컴퓨터 프로그램 제품, 또는 이들의 일부 조합으로서 구현될 수 있다.
프로세서(110)는 예를 들어 동반하는 디지털 신호 프로세서를 갖는 하나 이상의 마이크로프로세서, 동반하는 디지털 신호 프로세서가 없는 하나 이상의 프로세서, 하나 이상의 코프로세서, 하나 이상의 멀티-코어 프로세서, 하나 이상의 제어기, 프로세싱 회로, 하나 이상의 컴퓨터, 예를 들어 ASIC(application specific integrated circuit) 또는 FPGA(field programmable gate array)와 같은 집적 회로를 포함하는 다양한 다른 프로세싱 엘리먼트, 또는 이들의 일부 조합을 포함하는 다양한 수단으로서 구현될 수 있다. 따라서, 비록 도 1에서는 프로세서(110)가 단일 프로세서로서 도시되었지만, 일부 실시예에서 프로세서(110)는 복수의 프로세서를 포함한다. 복수의 프로세서는 본 명세서에서 기술된 바와 같이 서로 동작 가능하게 통신할 수 있고 물체 인식 장치(102)의 하나 이상의 기능을 수행하도록 집합적으로 구성될 수 있다. 복수의 프로세서는 본 명세서에서 기술된 바와 같이 단일 컴퓨팅 장치 상에서 구현될 수 있거나 물체 인식 장치(102)의 하나 이상의 기능을 수행하도록 집합적으로 구성된 복수의 컴퓨팅 장치를 거쳐 분배될 수 있다. 물체 인식 장치(102)가 모바일 단말기(10)로서 구현된 실시예에서, 프로세서(110)는 프로세서(20)로서 구현될 수 있거나 프로세서(20)를 포함할 수 있다. 예시적인 실시예에서, 프로세서(110)는 메모리(112) 내에 저장되거나 그렇지 않으면 프로세서(110)에 접근 가능한 명령어를 실행하도록 구성된다. 이들 명령어는 프로세서(110)에 의해 실행될 때 물체 인식 장치(102)가 본 명세서에서 설명된 바와 같이 물체 인식 장치(102)의 기능 중 하나 이상의 기능을 수행하게 할 수 있다. 그에 따라, 하드웨어 또는 소프트웨어 방법에 의해 구성되든지 또는 이들의 조합에 의해 구성되든지, 프로세서(110)는 그에 맞춰 구성되는 동안 본 발명의 실시예에 따른 동작을 수행할 수 있는 엔티티를 포함할 수 있다. 따라서, 예를 들어 프로세서(110)가 ASIC, FPGA 등으로서 구현될 때, 프로세서(110)는 본 명세서에서 설명된 하나 이상의 동작을 수행하기 위한 구체적으로 구성된 하드웨어를 포함할 수 있다. 대안적으로, 또 다른 예로서, 프로세서(110)가 메모리(112) 내에 저장될 수 있는 바와 같은 명령어의 실행자로서 구현될 때, 명령어는 본 명세서에 설명된 하나 이상의 알고리즘 및 동작을 수행하도록 프로세서(110)를 구체적으로 구성할 수 있다.
메모리(112)는 예를 들어 휘발성 및/또는 비휘발성 메모리를 포함할 수 있다. 비록 도 1에서는 메모리(112)가 단일 메모리로서 도시되지만, 메모리(112)는 복수의 메모리를 포함할 수 있다. 복수의 메모리는 하나의 컴퓨팅 장치 상에서 구현될 수도 있고, 물체 인식 장치(102)의 기능을 집합적으로 구성하는 복수의 컴퓨팅 장치에 분산되어 구현될 수도 있다. 다양한 실시예에서, 메모리(112)는 예를 들어 하드 디스크, RAM(read only memory), 캐시 메모리, 플래시 메모리, CR-ROM(compact disk read only memory), DVDROM(digital versatile disc read only memory), 광 디스크, 정보를 저장하도록 구성된 회로, 또는 이들의 조합을 포함할 수 있다. 물체 인식 장치(102)가 모바일 단말기(10)로서 구현된 실시예에서, 메모리(112)는 휘발성 메모리(40) 및/또는 비휘발성 메모리(42)를 포함할 수 있다. 메모리(112)는 물체 인식 장치(102)가 본 발명의 예시적인 실시예에 따라 다양한 기능을 수행하게 하기 위한 정보, 데이터, 애플리케이션, 명령어 등을 저장하도록 구성될 수 있다. 예를 들어, 적어도 일부 실시예에서, 메모리(112)는 프로세서(110)에 의한 프로세싱을 위해 입력 데이터를 버퍼링하도록 구성된다. 추가적으로 또는 대안적으로, 적어도 일부 실시예에서, 메모리(112)는 프로세서(110)에 의한 실행을 위한 프로그램 명령어를 저장하도록 구성된다. 메모리(112)는 정적 및/또는 동적 정보의 형태로 정보를 저장할 수 있다. 저장된 정보는 물체, 한 세트의 기준 물체, 트레이닝 데이터, 테스트 데이터, 물체 인식 결과를 나타내는 데이터, 및 다른 데이터 등을 포함할 수 있다. 이렇게 저장된 정보는 그 기능을 수행하는 과정에서 물체 인식 회로(118)에 의해 저장되며/되거나 사용될 수 있다.
통신 인터페이스(114)는 예를 들어 하나의 엔티티로부터 데이터를 수신하고/하거나 그 엔티티로 데이터를 송신하도록 구성된 회로, 하드웨어, 컴퓨터 판독 가능한 매체(예를 들어, 메모리(112)) 상에 저장되고 프로세싱 장치(예를 들어, 프로세서(110))에 의해 실행된 컴퓨터 판독 가능한 프로그램 명령어를 포함하는 컴퓨터 프로그램 제품, 또는 이들의 조합 내에 구현된 임의의 장치 또는 수단으로서 구현될 수 있다. 예를 들어, 통신 인터페이스(114)는 물체, 한 세트의 기준 물체, 트레이닝 데이터, 테스트 데이터, 물체 인식 결과를 나타내는 데이터, 및 다른 데이터 등의 송신 또는 수신을 가능하게 하도록 네트워크를 통해 원격 컴퓨팅 장치와 통신하도록 구성될 수 있다. 적어도 하나의 실시예에서, 통신 인터페이스(114)는 프로세서(110)로서 적어도 부분적으로 구현되거나 그렇지 않으면 프로세서(110)에 의해 제어된다. 이와 관련하여, 통신 인터페이스(114)는 버스를 통해서와 같이 프로세서(110)와 통신할 수 있다. 통신 인터페이스(114)는 예를 들어 시스템(100)의 하나 이상의 엔티티와 통신을 가능하게 하기 위한 안테나, 송신기, 수신기, 송수신기 및 지원하는 하드웨어 또는 소프트웨어를 포함할 수 있다. 통신 인터페이스(114)는 컴퓨팅 장치 사이의 통신을 위해 사용될 수 있는 임의의 프로토콜을 사용하여 데이터를 수신하며/하거나 송신하도록 구성될 수 있다. 이와 관련하여, 통신 인터페이스(114)는, 물체 인식 장치(102) 및 하나 이상의 원격 컴퓨팅 장치의 통신에 사용되는 유선 네트워크, 무선 네트워크, 또는 이들의 몇몇 조합 등을 통해 데이터의 전송을 위해 사용되어 질 수 있는 임의의 프로토콜을 사용하여 데이터를 수신하며/하거나 송신하도록 구성될 수 있다. 통신 인터페이스(114)는 또한 버스를 통해서와 같이 메모리(112), 사용자 인터페이스(116) 및/또는 물체 인식 회로(118)와 추가적으로 통신할 수 있다.
사용자 인터페이스(116)는 사용자 입력의 지시를 수신하며/하거나 오디오, 비디오, 기계적 또는 다른 출력을 사용자에게 제공하기 위하여 프로세서(110)와 통신할 수 있다. 이와 같이, 상기 사용자 인터페이스(116)는 예를 들면 키보드, 마우스, 조이스틱, 디스플레이, 터치 스크린 디스플레이, 마이크, 스피커 및/또는 다른 입력/출력 메커니즘들을 포함할 수 있다. 물체 인식 장치(102)가 하나 이상의 서버로서 구현된 실시예에서, 사용자 인터페이스(116)는 제한되거나 제거될 수 있다. 사용자 인터페이스(116)는 버스를 통해서와 같이 메모리(112), 통신 인터페이스(114) 및/또는 물체 인식 회로(118)와 통신할 수 있다.
물체 인식 회로(118)는 회로, 하드웨어, 컴퓨터 판독 가능한 매체(예를 들어, 메모리(112)) 상에 저장되고 프로세싱 장치(예를 들어, 프로세서(110))에 의해 실행된 컴퓨터 판독 가능한 프로그램 명령어를 포함하는 컴퓨터 프로그램 제품, 또는 이들의 일부 조합과 같은 다양한 수단으로서 구현될 수 있고, 일 실시예에서, 프로세서(110)로서 구현되거나 그렇지 않으면 프로세서(110)에 의해 제어된다. 물체 인식 회로(118)가 프로세서(110)로부터 별개로 구현되는 실시예에서, 물체 인식 회로(118)는 프로세서(110)와 통신할 수 있다. 물체 인식 회로(118)는 또한 버스를 통해서와 같이 메모리(112), 통신 인터페이스(114), 및 사용자 인터페이스(116) 중 하나 이상과 통신할 수 있다.
물체 인식을 기반으로 하는 기준 집합에 관한 이해를 돕기 위하여, 몇 가지 예로서 기준 집합, 기준 물체, 및 기준 피처(reference features)의 개념이 이하에서 설명되어 질 것이다. 이러한 예들은 개념적인 이해를 위한 예시를 제시하는 것이며, 기준 집합, 기준 물체, 및/또는 기준 피처가 수학적으로 및/또는 물리적으로 어떻게 정의되는지에 관하여 한정하려는 목적이 아님을 잘 알 것이다.
도 3은 기준 물체의 일반적인 예시를 도시한다. 이와 관련하여, 컬럼 B(304)는 기준 물체로서 정의된다. 기준 물체에 기초하여, 컬럼 A(302) 및 컬럼 C(306)의 특성이 결정될 수 있다. 이와 관련하여, 예를 들어, 컬럼 B(304)와 비교하면 컬럼 A(302)는 길고 컬럼 C(306)는 짧다. 따라서, 기준 물체로서 컬럼 B(304)를 이용하여, 컬럼 A(302) 및 컬럼 C(306)의 높이에 관한 데이터 값이 획득될 수 있다. 기준 집합은, 이에 따라, 기준 물체의 집합(set) 또는 컬렉션(collection)을 포함할 수 있으며, 이로써 임의의 데이터와 임의의 기준 물체간의 비교가 수행되어 기준 피처를 구할 수 있다.
도 4 내지 도 6은 본 발명에 실시예에 따른 기준 물체, 기준 집합, 및 기준 피처를 도시한다. 일실시예에서, 물체(예컨대, 얼굴 물체) 인식을 가능하게 하도록 사용되는 기준 집합은 기준 물체(예컨대, 얼굴) 클래스로부터 추출된 통계적 값들을 포함하며, 이는 트게이닝 및 테스팅과 관계가 없다. 도 4에 도시된 기준 물체 A에서, 기준 집합은 A의 평균(예컨대, mA, 406), A의 고유벡터(예컨대, S410), A의 고차원 통계 값(high order statistical quantities) 등을 포함할 수 있다. 상기 기준 집합이 평균 클래스를 포함한다면, 지점 P(402)와 평균 mA (406) 사이의 거리 d1 (404)은 P(402)의 기준 피처로서 정의될 수 있다. 기준 집합이 S410를 포함한다면, P(402)와 S410 사이의 프로젝션 거리인 d2 (408)는 P(402)의 기준 피처로서 정의될 수 있다.
다양한 기준 피처들에 대한 기본적인 기하학적 설명(underlying geometrical explanation)은 다양할 수 있다. 도 5에 도시된 바와 같이, 클래스 평균(class means)의 집합(mA 내지 mE)에서, P로부터 각각의 클래스 평균으로의 거리의 기준 피처는 고차원 공간에서 데이터의 위치를 나타낼 수 있다. 지금부터 도 6을 참조하면, 도 6은 기준 집합으로서 얼굴 물체로부터 학습된 두 개의 집합체(manifolds; 602 및 604)를 도시한다. P(606)에서 상기 집합체(602 및 604)까지의 거리는 각각 dPA및 dPB로 정의될 수 있다. 유사하게, Q(608)에서 상기 집합체(602 및 604)까지의 거리는 각각 dQA및 dQB로 정의될 수 있다. 도 6에서 도시된 바와 같이, dPB와 dQB의 차이가 dQA와 dPA의 차이보다 꽤 작다. 이러한 격차는 A의 분포가, 얼굴 인식을 위한 식별 정보(discriminative information)를 제공하는 P 및 Q에 의해 지지되는 결합분포(joint distribution)와 더욱 유사하다는 것을 나타낸다.
물체 인식에 기초한 기준 집합을 가능하게 하기 위해, 물체 인식 회로(118)는 몇몇 실시예에서 기준 집합을 생성하도록 구성된다. 이와 관련하여, 물체 인식 회로(118)는 통계 학습(statistical learning)과 같은 방식을 통해 기준 물체들의 세트로부터 기준 집합을 생성하도록 구성될 수 있다. 물체 인식 회로(118)에 의해 생성된 기준 집합은 복수의 기준 물체(예컨대, 얼굴 물체)의 클래스 평균(class means)을 포함할 수 있다.
일 실시예에 있어서, 물체 인식 회로(118)는 기준 물체들에 부분적으로 기초하여 결정되는 복수의 집합체를 포함하는 기준 집합을 생성하도록 구성될 수 있다. 이와 관련하여, 기준 집합을 구성하는 집합체는 물체 인식에 도움이 되는 데이터 분포 정보를 부호화할 수 있다. 집합체를 포함하는 기준 집합의 생성은 이하에 따라 수행될 수 있다.
기준 얼굴 물체
Figure 112012069231817-pct00001
, 여기서 W는 기준 물체의 번호를 의미하고, ti는 Ri에서의 이미지 번호를 의미한다. 물체 인식 회로(118)는 기준 얼굴 물체의 평균 mi을 다음의 조건에 따라 계산하도록 구성될 수 있다.
Figure 112012069231817-pct00002
물체 인식 회로(118)는 다음의 조건과 같이 정규화된 집합
Figure 112012069231817-pct00003
을 획득하기 위하여 평균 mi에서 Ri에서의 데이터를 센트럴라이즈화 하도록 구성될 수 있다. 여기서,
Figure 112012069231817-pct00004
Ri의 기초 데이터 분포를 결정하기 위하여, 다음의 Ri의 공분산 행렬에 대한 특이값 분해(singular value decomposition)를 이용하여, 물체 인식 회로(118)는 Ri을 가장 잘 표현하는 최소의 고유 벡터들을 사용한 집합체 Si를 계산하도록 구성될 수 있다.
Figure 112012069231817-pct00005
여기서,
Figure 112012069231817-pct00006
Figure 112012069231817-pct00007
의 전치행렬을 의미한다.
다른 기준 물체 Ri에 대하여, 물체 인식 회로(118)는 대응하는 기준 집합체 Si를 추가적으로 결정하기 위하여 구성될 수 있다. 결정된 기준 집합체는 물체 인식 회로(118)에 의해 생성된 기준 집합을 형성할 수 있다. 얼굴 물체의 인식을 지원하기 위하여, 얼굴의 데이터 분포에 있어서 큰 다양성 때문에 큰 큐모(scale)의 기준 집합체들이 필요할 수 있다. 각각의 집합체는 고차원 얼굴 공간에서 구체적 데이터 분포를 나타낼 수 있다. W개의 기준 물체(R = {R1, R2, ... ,RW})가 있다면, 기준 평균 및 기준 집합체는 M = {m1, m2, ... ,mW} 및 S = {S1, S2, ... ,SW}로 나타낼 수 있다.
일실시예에 따라, 물체 인식 회로(118)는 기준 집합에 부분적으로 기초한 트레이닝 데이터(training data) 및/또는 테스트 데이터(testing data)로부터 기준 피처(reference feature)를 추출하도록 구성된다. 이와 관련하여, 물체 인식 회로(118)는 프로젝션 값을 획득하기 위해 데이터의 적어도 일부분을 기준 집합의 기준 집합체에 맵핑함으로써 기준 피처 데이터(예컨대, 이미지 데이터, 테스트 데이터, 및/또는 트레이닝 데이터 등)를 추출하도록 구성될 수 있다. 추출된 기준 피처는 획득된 프로젝션 값을 포함할 수 있다.
기준 피처를 추출하는 것은 이하의 예에 따라 수행될 수 있다. 이와 같은 예시를 위해, 트레이닝 세트내의 G개의 얼굴 클래스가 있다고 가정한다. 각각의 클래스는 Trj = {Trj1, Trj2, ... , Trji, ... |j ≤ G}으로 표현될 수 있다. 기준 평균 ma 및 기준 집합체 Sa, 주어진 트레이닝 데이터 Trji, 및 기준 피처
Figure 112012069231817-pct00008
는 다음과 같이 표현될 수 있다.
Figure 112012069231817-pct00009
여기서,
Figure 112012069231817-pct00010
는 Sa의 전치 행렬이다. 이번 예시에서 기준 물체가 W개 있다면, Trji상에 동일한 프로젝션 연산을 적용한 후 물체 인식 회로(118)는 기준 피처 벡터
Figure 112012069231817-pct00011
를 생성할 수 있다. 따라서, 각각의 트레이닝 클래스는 기준 피처로서 Pj = {Pj1, Pj2, ... , Pji, ... |j ≤ G}와 같이 표현될 수 있다. 또한, 물체 인식 회로(118)에 의해 동일한 연산이 기준 테스트 값을 검색하기 위해 테스트 데이터에 적용될 수 있다
몇몇 실시예에서, 물체 인식 회로(118)는 트레이닝 데이터로부터 추출된 기준 집합체의 상대적 중요도를 분석하도록 구성될 수 있다. 예를 들어, 특정 기준 집합체가 얼굴 물체 내부-클래스 분포를 코딩하는데 있어 더 잘 표현한다면, 물체 인식 회로(118)는 상기 기준 집합체에 더 큰 가중치를 부여할 수 있다. 따라서, 기준 피처들은 그들의 상대적 식별 능력에 따라서 물체 인식 회로에 따라 결합될 수 있다.
앞서 기술한 바와 같이, 기준 피처 Pj = {Pj1, Pj2, ... , Pji, ... |j ≤ G}은 트레이닝 데이터 Trj = {Trj1, Trj2, ... , Trji, ... |j ≤ G}로부터 추출될 수 있다. 물체 인식 회로(118)는 Pj로부터 식별 서브 공간 D = {D1, D2, ... , DH} (a discriminative subspace)을 결정하는 지도 학습 기술을 사용하도록 구성될 수 있으며, 여기서 H는 지도 학습 기술에 따른 학습된 고유 벡터의 번호를 의미한다. 일 실시예에 있어서, 지도 학습 기술은 선형 판별 분석(LDA: linear discriminant analysis)을 포함할 수 있다. 이와 관련하여, 트레이닝 프로세스의 트레이닝 결과(예컨대, 학습 결과)는 정해진 식별 서브 공간을 포함할 수 있다. 식별 서브 공간은, 물체 인식 회로(118)로 하여금 식별 최적화 기준에 근거하여 기준 피처들의 모든 서브세트들을 선형적으로 결합(fuse)시키도록하는 정교한 메커니즘을 제공할 수 있다. 따라서, 높은 식별 능력을 가진 기준 피처들은 인식 성능을 향상시키기 위하여 더 높은 가중치를 부여받을 수 있다.
물체 인식 회로(118)는 물체 인식을 수행하는 특정 실시예에 따라 구성될 수 있다. 이와 관련하여, 물체 인식 회로(118)는 제1 물체(예컨대, 제1 얼굴 물체)에 대한 데이터 및 제2 물체(예컨대, 제2 얼굴 물체)에 대한 데이터를 고려하고, 상기 제1 및 제2 물체가 동일한 물체인지 여부를 판정하도록 구성될 수 있다. 물체 인식 회로(118)는 기준 집합 및 트레이닝 데이터에 부분적으로 기초하여 생성되는 기준 집합 및 트레이닝 결과에 기초하여 만들어지는 제1 및 제2 물체의 비교에 부분적으로 기초하여 제1 및 제2 물체가 동일한 물체인지 여부를 판정하도록 구성될 수 있다. 이와 관련하여, 물체 인식 회로(118)는 물체 인식에 기초한 기준 집합을 생성하도록 구성될 수 있다.
따라서, 물체 인식 회로(118)는 테스트 또는 유사하게 트레이닝 할 때, 기준 집합에 부분적으로 기초하여 데이터(예컨대, 물체에 대한 데이터)를 인식하도록 구성될 수 있다. 예를 들어, 임의의 두 얼굴 물체(X 및 Y)가 주어진 경우, 물체 인식 회로(118)는 수식(4)에 따라서 기준 집합체 Sa 및 각각의 기준 평균 ma에 대한 기준 피처(
Figure 112012069760959-pct00012
Figure 112012069760959-pct00013
)를 계산할 수 있다. 물체 인식 회로(118)는 기준 피처(
Figure 112012069760959-pct00014
Figure 112012069760959-pct00015
)를 서브 공간(D)에 맵핍하여 합성된 값(FX 및 FY)을 구할 수 있다. 이와 관련하여, 트레이닝 결과는 테스트 단계에서 합성되어 값이 생성될 수 있다.
물체 인식 회로(118)는 합성된 값(FX 및 FY) 사이의 거리를 결정하도록 구성될 수 있다. 거리를 결정하는 것에 있어서, 물체 인식 회로(118)는 유클리드 거리 척도(Euclidean distance metric)를 사용하도록 구성될 수 있다. 그러나, 유클리드 거리는 사용되어질 수 있는 거리 척도의 예를 들기 위함일 뿐이라는 것이 이해될 것이다. 이와 관련하여, 맨해턴 거리 척도(Manhattan distance metric) 및/또는 체비셰프 거리 척도(Chebyshev distance metric) 등과 같은 임의의 적절한 거리 척도가 유클리드 거리에 추가하여 또는 대신하여 사용되어 질 수 있다. 물체 인식 회로(118)는 판정된 거리에 적어도 부분적으로 기초하여 X 및 Y가 동일한 사람으로부터 샘플링된 것인지(예컨대, X 및 Y가 동일한 물체인지 여부)를 판정할 수 있다. 예컨대, 일 실시예에서, 물체 인식 회로(118)는 판정된 거리가 미리 정해진 임계값보다 작은 경우에 두 물체(예컨대, X 및 Y)를 동일한 물체라고 판정하도록 구성될 수 있다.
도 7은 본 발명의 일 실시예에 따르는 물체 인식을 가능하게 하기 위한 프로세스를 도시한다. 물체 인식 회로(118)는 동작 702에서 기준 집합을 생성하도록 구성될 수 있다. 이와 관련하여, 물체 인식 회로(118)는 동작 706에서 기준 물체 풀(704)로부터 복수의 집합체를 결정하도록 구성될 수 있다. 결정된 집합체는 기준 집합 풀(708)을 포함할 수 있다.
주어진 트레이닝 데이터(710)에서, 물체 인식 회로(118)는 동작 712에서 트레이닝 데이터(710)로부터 하나 이상의 기준 피처를 추출할 수 있다. 트레이닝 데이터로부터 추출된 하나 이상의 기준 피처는 도 7에서“트레이닝 데이터 값”으로 표시된다. 물체 인식 회로(118)는 동작 714에서 학습 결과(722)를 생성하기 위하여 트레이닝 데이터 값에 기초하여 학습(learning)을 수행하도록 더 구성될 수 있다. 예를 들어, 학습 결과는 트레이닝 데이터 값으로부터 결정된 식별 서브 공간을 포함할 수 있다.
주어진 테스트 결과(716)에서, 물체 인식 회로(118)는 동작 718에서 테스트 결과(716)로부터 하나 이상의 기준 피처를 추출할 수 있다. 물체 인식 회로(118)는 동작 724에서 테스트 결과에 대한 물체 인식 결과를 결정하기 위하여 추출된 테스트 데이터 값(720) 및 학습 결과(722)를 활용할 수 있다. 이와 관련하여, 물체 인식 회로(118)는 예를 들어 제1 물체 및 제2 물체가 동일한 물체인지 여부를 판정할 수 있다. 예컨대, 제1 및 제2 물체는 얼굴 물체들을 포함할 수 있으며, 물체 인식 회로(118)는 제1 및 제2 얼굴 물체가 동일한 사람으로부터 샘플링되었는지 여부를 판정할 수 있다.
도 8은 본 발명의 일실시예에 따른 물체 인식을 가능하게 하기 위한 예시 방법에 따른 플로우차트를 도시한다. 도 8에 의해 도시되고 기술된 동작은 예컨대 물체 인식 회로(118)의 제어에 의해 및/또는 제어 하에 수행될 수 있다. 동작 800은 제1 물체에 대한 데이터 및 제2 물체에 대한 데이터에 엑세스하는 것을 포함할 수 있다. 각각의 물체에 대한 데이터는 예를 들어 각 물체의 일부분 또는 상기 물체를 나타내는 데이터를 포함할 수 있다. 이와 관련하여, 각각의 물체에 대한 데이터는 예를 들어 각 물체의 일부분 또는 상기 물체의 이미지를 대표하는 이미지 데이터를 포함할 수 있다. 제1 및 제2 물체는 예컨대 얼굴 물체를 포함할 수 있다. 동작 810은 기준 집합 및 트레이닝 데이터에 적어도 부분적으로 기초하여 생성된 트레이닝 결과 및 기준 집합에 적어도 부분적으로 기초하여 제1 및 제2 물체를 비교하는 것을 포함할 수 있다. 동작 820은 앞선 비교에 적어도 부분적으로 기초하여 제1 물체 및 제2 물체가 동일한 물체인지 여부를 결정하는 것을 포함할 수 있다. 제1 및 제2 물체가 동일한 얼굴 물체를 포함하면, 동작 820은 제1 및 제2 물체가 동일한 사람으로부터 샘플링되었는지 여부를 판정하는 것을 포함할 수 있다.
도 9는 본 발명의 일실시예에 따른 물체 인식을 가능하게 하기 위한 예시 방법에 따른 플로우차트를 도시한다. 도 9에 의해 도시되고 기술된 동작은 예컨대 물체 인식 회로(118)의 제어에 의해 및/또는 제어 하에 수행될 수 있다. 동작 900은 제1 물체에 대한 데이터 및 제2 물체에 대한 데이터에 액세스하는 것을 포함할 수 있다. 각 물체에 대한 데이터는 예컨대 물체의 일부분 또는 상기 물체를 나타내는 데이터를 포함할 수 있다. 이와 관련하여, 각 물체에 대한 데이터는 예컨대 물체의 일부분 또는 상기 물체의 이미지를 나타내는 이미지 데이터를 포함할 수 있다. 예를 들어, 제1 및 제2 물체는 얼굴 물체를 포함할 수 있다. 동작 910은 제1 기준 피처를 구성하는 프로젝션 값을 획득하기 위하여 제1 물체에 대한 이미지 데이터의 적어도 일부분을 기준 집합의 기준 집합체에 맵핑함으로써 제1 물체로부터 제1 기준 피처를 추출하는 것을 포함할 수 있다. 동작 920은 제2 기준 피처를 구성하는 프로젝션 값을 획득하기 위하여 제2 물체에 대한 이미지 데이터의 적어도 일부분을 기준 집합의 기준 집합체에 맵핑함으로써 제2 물체로부터 제2 기준 피처를 추출하는 것을 포함할 수 있다. 동작 930은 제1 합성 피처 및 제2 합성 피처를 획득하기 위하여, 추출된 제1 및 제2 기준 피처들을 기준 집합 및 트레이닝 데이터에 적어도 부분적으로 기초하여 생성된 식별 서브 공간(a discriminative subspace)에 맵핑하는 것을 포함할 수 있다. 동작 940은 제1 및 제2 합성 피처 사이의 거리를 결정하는 것을 포함할 수 있다. 동작 950은 결정된 거리에 적어도 부분적으로 기초하여 제1 물체 및 제2 물체가 동일한 물체인지 여부를 판정하는 것을 포함할 수 있다. 제1 및 제2 물체가 얼굴 물체를 포함하면, 동작 950은 제1 물체 및 제2 물체가 동일한 사람으로부터 샘플링된 것인지 여부를 판정하는 것을 포함할 수 있다.
도 8 내지 도9는 본 발명의 실시예에 따른 시스템, 방법, 및 컴퓨터 프로그램 제품의 플로우차트를 나타낸다. 플로우 차트의 각 블록 및 플로우 차트의 각 블록의 조합은 하드웨어 및/또는 컴퓨터 판독가능한 프로그램 명령어가 저장된 하나 이상의 컴퓨터 판독가능 매체를 포함하는 컴퓨터 프로그램 제품과 같은 다양한 수단에 의해 실행될 수 있다는 사실은 잘 이해될 것이다. 예를 들어, 여기서 기술된 하나 이상의 과정은 컴퓨터 프로그램 제품의 컴퓨터 프로그램 명령어들에 의해 구체화될 수 있을 것이다. 이와 관련하여, 여기서 기술된 과정들을 구체화한 컴퓨터 프로그램 제품은 모바일 단말, 서버 또는 다른 컴퓨팅 장치의 하나 이상의 메모리 장치(예컨대, 메모리 112)에 의해 저장될 수 있고 상기와 같은 컴퓨팅 장치의 프로세서(예컨대, 프로세서 110)에 의해 실행될 수 있다. 몇몇 실시예에서, 위에서 기재한 상기 과정들을 구체화하는 컴퓨터 프로그램 제품을 구성하는 컴퓨터 프로그램 명령어는 복수의 컴퓨팅 장치의 메모리 장치에 의해 저장될 수 있다. 잘 이해될 수 있는바와 같이, 임의의 컴퓨터 프로그램 제품은 컴퓨터 또는 다른 프로그램 가능한 장치(예컨대, 물체 인식 장치 102)에 로드될 수 있으며 컴퓨터 또는 다른 프로그램 가능한 장치 상에서 실행되는 명령어를 포함하는 컴퓨터 프로그램 제품이 상기 플로우차트 블록에서 구체화된 기능을 실행하기위한 수단을 생성하는 기계를 생산한다. 또한, 컴퓨터 프로그램 제품은 컴퓨터 프로그램 명령어가 저장될 수 있는 하나 이상의 컴퓨터 판독 가능한 메모리를 포함할 수 있으며, 하나 이상의 컴퓨터 판독 가능한 메모리는 컴퓨터 또는 다른 프로그램 가능한 장치로 하여금 컴퓨터 프로그램 제품이 소정의 방식으로 상기 플로우차트 블록에 의해 특정되는 기능을 실행하는 제조를 포함하도록 하게 할 수 있다. 하나 이상의 컴퓨터 프로그램 제품의 컴퓨터 프로그램 명령어는, 컴퓨터 또는 다른 프로그램 가능한 장치 상에서 실행되는 명령어가 상기 플로우차트 블록에서 특정된 기능을 수행하도록 컴퓨터 또는 다른 프로그램 가능한 장치(예컨대, 물체 인식 장치 102) 상에 로드되어 컴퓨터 또는 다른 프로그램 가능한 장치 상에서 수행되는 일련의 동작이 컴퓨터 실행가능한 프로세스를 생성하게 할 수 있다.
따라서, 상기 플로우차트의 블록은 구체적인 기능을 수행하기 위한 수단들의 조합을 뒷받침한다. 상기 플로우차트의 하나 이상의 블록 및 상기 플로우차트의 블록들의 조합은 상기 구체적인 기능을 수행하는 하드웨어 기반의 컴퓨터 시스템에 의해 또는 하드웨어 및 컴퓨터 프로그램 제품의 조합에 의해 실행될 수 있다.
앞서 기재된 기능은 다양한 방식에 의해 수행될 수 있다. 예를 들어, 앞서 기재된 기능의 각각을 수행하기 위한 임의의 적절한 기능이 본 발명의 실시예들을 수행하기 위해 이용될 수 있다. 일 실시예에서, 적절히 구성된 프로세서는 본 발명의 일부 또는 모든 구성요소를 제공할 수 있다. 또 다른 실시예에서, 본 발명의 일부 또는 모든 구성요소는 컴퓨터 프로그램 제품의 제어 하에서 동작하고 제어에 의해 구성될 수 있다. 본 발명의 예시 방법을 수행하기 위한 컴퓨터 프로그램 제품은, 비-휘발성 저장 매체 및 일련의 컴퓨터 명령어와 같은, 컴퓨터 판독가능한 저장매체에 의해 구체화되는 컴퓨터 판독가능한 프로그램 코드 부분을 포함할 수 있다.
따라서, 본 발명에 따른 몇몇 실시예는 컴퓨팅 장치 및 컴퓨팅 장치 사용자에게 몇 가지 이점을 제공한다. 본 발명의 실시예들은 기준 집합을 사용한 물체 인식을 제공한다. 본 발명의 일 실시예는 “테스트”라고 참조되는 물체의 인식 및 트레이닝을 위한 기준 집합을 사용하여 향상된 물체 인식을 제공한다. 이와 관련하여, 테스트를 위해 사용되는 식별 정보(discriminative information)는 트레이닝 데이터 및 상기 기준 집합으로부터 본 발명의 일 실시예에 따라서 유도된다. 따라서, 본 발명의 실시예들은 트레이닝 데이터에 관한 물체 인식의 의존성(reliance)을 감소시키기 위하여 독립된 데이터 컬렉션으로서 기준 집합을 사용한다. 일 실시예에서, 물체 인식(예컨대, 테스트)은 트레이닝 결과 및 기준 집합을 모두 사용하여 수행될 수 있다. 따라서, 본 발명에 따른 실시예들은 주어진 공간에서의 모든 데이터(예컨대, 트레이닝 데이터 및 테스트 데이터)에 대한 기준으로서 기준 집합을 이용한다. 이와 관련하여, 기준 집합은 본 발명의 일 실시예에서 트레이닝 세트 및 테스트 세트에 추가하여 제3 데이터 세트를 제공한다. 본 발명의 실시예들은 기준 집합을 사용하여 유도된 기준 피처로 데이터를 코딩하고 지도 학습을 통하여 기준 집합의 중요도를 밸런싱(balancing)하는 것을 제공한다. 따라서 본 발명의 실시예들은 향상된 물체 인식을 제공할 수 있다. 몇몇 실시예들은 특히 얼굴 인식에 적용될 수 있다.
여기에서 언급된 본 발명의 많은 변형들 및 다른 실시예들은 전술한 설명 및 첨부 도면들에 제시된 가르침의 혜택을 향유하는 본 발명이 관련된 기술분야의 통상의 지식을 가진 자들에게 떠오르게 될 것이다. 그러므로, 본 발명은 설명된 특정한 실시예들에 국한되지 않으며 변형 들 및 다른 실시예들이 청구항들의 범위 내에 포함될 수 있다는 것이 이해되어야 한다. 또한, 전술한 설명 및 관련 도면들은 구성요소 및/또는 기능들의 예시적 조합의 맥락 내에서 실시예들을 설명하였지만, 첨부된 청구범위의 범위를 벗어남이 없이 대안적인 실시예들에 의해 다른 구성요소 및/또는 기능들의 조합이 제공될 수 있다는 것이 이해되어야 한다. 이와 관련하여, 예를 들면, 위에서 명확하게 설명된 것과 다른 구성요소 및/또는 기능들의 조합들은 또한 청구항에 설명된 것으로 생각될 수 있다. 특정 용어들이 여기에서 사용되었지만, 그것들은 제한적인 목적이 아니라 단지 일반적으로 그리고 설명을 위해 사용되었을 뿐이다.

Claims (56)

  1. 제1 물체 및 제2 물체에 대한 데이터에 액세스(accessing)하는 단계와,
    기준 집합(a reference set) 및 트레이닝 데이터(training data)에 적어도 부분적으로 기초하여 생성된 트레이닝 결과(training results)와 상기 기준 집합에 적어도 부분적으로 기초하여, 상기 제1 및 제2 물체를 비교하는 단계와,
    상기 비교하는 단계에 적어도 부분적으로 기초하여, 상기 제1 물체 및 상기 제2 물체가 동일한 물체인지 여부를 판정하는 단계를 포함하는
    물체 인식 방법.
  2. 제1항에 있어서,
    상기 기준 집합에 적어도 부분적으로 기초하여 상기 제1 물체로부터 제1 기준 피처(a first reference feature)를 추출하는 단계와
    상기 기준 집합에 적어도 부분적으로 기초하여 상기 제2 물체로부터 제2 기준 피처를 추출하는 단계를 더 포함하고,
    상기 제1 및 제2 물체를 비교하는 단계는 상기 제1 기준 피처 및 상기 제2 기준 피처에 적어도 부분적으로 기초하여 상기 제1 물체 및 상기 제2 물체를 비교하는 단계를 포함하는
    물체 인식 방법.
  3. 제2항에 있어서,
    상기 제1 기준 피처를 추출하는 단계는 상기 제1 기준 피처를 구성하는 프로젝션 값(a projection value)을 획득하기 위하여 상기 기준 집합의 기준 집합체(a reference manifold)로 상기 제1 물체에 대한 상기 데이터의 적어도 일부를 매핑하는 단계를 포함하고,
    상기 제2 기준 피처를 추출하는 단계는 상기 제2 기준 피처를 구성하는 프로젝션 값을 획득하기 위하여 상기 기준 집합의 기준 집합체(a reference manifold)로 상기 제2 물체에 대한 상기 데이터의 적어도 일부를 매핑하는 단계를 포함하는
    물체 인식 방법.
  4. 제2항 또는 제3항에 있어서,
    상기 트레이닝 결과는 식별 서브 공간(a discriminative subspace)을 포함하고,
    상기 제1 물체 및 상기 제2 물체를 비교하는 단계는, 제1 합성 피처(merged feature) 및 제2 합성 피처를 획득하기 위하여 상기 식별 서브 공간으로 상기 추출된 제1 기준 피처 및 제2 기준 피처를 맵핑하는 단계와 상기 제1 합성 피처 및 상기 제2 합성 피처 사이의 거리를 결정하는 단계를 포함하고,
    상기 제1 물체 및 상기 제2 물체가 동일한 물체인지 여부를 판정하는 단계는, 상기 결정된 거리에 적어도 부분적으로 기초하여 상기 제1 물체 및 상기 제2 물체가 동일한 물체인지 여부를 판정하는 단계를 포함하는
    물체 인식 방법.
  5. 제4항에 있어서,
    상기 제1 물체 및 상기 제2 물체가 동일한 물체인지 여부를 판정하는 단계는, 상기 결정된 거리가 미리 정해진 임계 거리(threshold distance)보다 작은 경우 상기 제1 물체 및 상기 제2 물체는 동일한 물체인 것으로 판정하는 단계를 포함하는
    물체 인식 방법.
  6. 제1항 내지 제3항 중 어느 한 항에 있어서,
    기준 물체(reference objects)의 집합으로부터 상기 기준 집합을 생성하는 단계를 더 포함하는
    물체 인식 방법.
  7. 제1항 내지 제3항 중 어느 한 항에 있어서,
    상기 기준 집합은, 기준 물체에 적어도 부분적으로 기초하여 정해지는 복수의 집합체를 포함하는
    물체 인식 방법.
  8. 제1항 내지 제3항 중 어느 한 항에 있어서,
    트레이닝 데이터로부터 기준 피처를 추출하는 단계와,
    지도 학습 기술(a supervised learning technique)을 이용하여 상기 추출된 기준 피처로부터 식별 서브 공간을 결정하는 단계를 포함하고,
    상기 트레이닝 결과는 상기 결정된 식별 서브 공간을 포함하는
    물체 인식 방법.
  9. 제8항에 있어서,
    상기 지도 학습 기술은 선형 판별 분석(linear discriminant analysis)을 포함하는
    물체 인식 방법.
  10. 제8항에 있어서,
    상기 트레이닝 데이터로부터 기준 피처를 추출하는 단계는, 프로젝션 값을 획득하기 위해 상기 기준 집합의 하나 이상의 기준 집합체로 트레이닝 데이터를 매핑하는 단계를 포함하고, 상기 획득된 프로젝션 값은 상기 트레이닝 데이터로부터 추출된 상기 기준 피처를 포함하는
    물체 인식 방법.
  11. 제1항 내지 제3항 중 어느 한 항에 있어서,
    상기 제1 물체는 제1 얼굴을 포함하고 상기 제2 물체는 제2 얼굴을 포함하고, 상기 제1 물체 및 상기 제2 물체가 동일한 물체인지 여부를 판정하는 단계는, 상기 제1 얼굴 및 상기 제2 얼굴이 동일한 사람으로부터 샘플링되었는지 여부를 판정하는 단계를 포함하는
    물체 인식 방법.
  12. 적어도 하나의 프로세서 및 컴퓨터 프로그램 코드를 저장하는 적어도 하나의 메모리를 포함하는 물체 인식 장치로서, 상기 적어도 하나의 메모리 및 저장된 컴퓨터 프로그램 코드는 상기 적어도 하나의 프로세서와 함께 상기 장치로 하여금,
    제1 물체 및 제2 물체에 대한 데이터에 액세스하는 것과,
    기준 집합(a reference set) 및 트레이닝 데이터(training data)에 적어도 부분적으로 기초하여 생성된 트레이닝 결과(training results)와 상기 기준 집합에 적어도 부분적으로 기초하여, 상기 제1 및 제2 물체를 비교하는 것과,
    상기 비교하는 것에 적어도 부분적으로 기초하여, 상기 제1 물체 및 상기 제2 물체가 동일한 물체인지 여부를 판정하는 것을 수행하도록 구성되는
    물체 인식 장치.
  13. 제12항에 있어서,
    상기 적어도 하나의 메모리 및 저장된 컴퓨터 프로그램 코드는 상기 적어도 하나의 프로세서와 함께 상기 장치로 하여금,
    상기 기준 집합에 적어도 부분적으로 기초하여 상기 제1 물체로부터 제1 기준 피처(a first reference feature)를 추출하는 것과,
    상기 기준 집합에 적어도 부분적으로 기초하여 상기 제2 물체로부터 제2 기준 피처를 추출하는 것을 더 포함하고,
    상기 적어도 하나의 메모리 및 저장된 컴퓨터 프로그램 코드는 상기 적어도 하나의 프로세서와 함께 상기 장치로 하여금 상기 제1 기준 피처 및 상기 제2 기준 피처에 적어도 부분적으로 기초하여 상기 제1 물체 및 상기 제2 물체를 비교하는 것에 의해 상기 제1 물체 및 상기 제2 물체를 비교하도록 구성되는
    물체 인식 장치.
  14. 제13항에 있어서,
    상기 적어도 하나의 메모리 및 저장된 컴퓨터 프로그램 코드는 상기 적어도 하나의 프로세서와 함께 상기 장치로 하여금
    상기 제1 기준 피처를 구성하는 프로젝션 값(a projection value)을 획득하기 위하여 상기 기준 집합의 기준 집합체(a reference manifold)로 상기 제1 물체에 대한 상기 데이터의 적어도 일부를 매핑하는 것에 의해 상기 제1 기준 피처를 추출하는 것과,
    상기 제2 기준 피처를 구성하는 프로젝션 값을 획득하기 위하여 상기 기준 집합의 기준 집합체(a reference manifold)로 상기 제2 물체에 대한 상기 데이터의 적어도 일부를 매핑하는 것에 의해 상기 제2 기준 피처를 추출하는 것을 수행하도록 구성되는
    물체 인식 장치.
  15. 제13항 또는 제14항에 있어서,
    상기 트레이닝 결과는 식별 서브 공간(a discriminative subspace)을 포함하고,
    상기 적어도 하나의 메모리 및 저장된 컴퓨터 프로그램 코드는 상기 적어도 하나의 프로세서와 함께 상기 장치로 하여금,
    제1 합성 피처(merged feature) 및 제2 합성 피처를 획득하기 위하여 상기 식별 서브 공간으로 상기 추출된 제1 기준 피처 및 제2 기준 피처를 맵핑하는 것과 상기 제1 합성 피처 및 제2 합성 피처 사이의 거리를 결정하는 것에 의해 상기 제1 물체 및 상기 제2 물체를 비교하는 것을 수행하도록 구성되고,
    상기 적어도 하나의 메모리 및 저장된 컴퓨터 프로그램 코드는 상기 적어도 하나의 프로세서와 함께 상기 장치로 하여금,
    상기 결정된 거리에 적어도 부분적으로 기초하여 상기 제1 물체 및 상기 제2 물체가 동일한 물체인지 여부를 판정하는 것에 의해 상기 제1 물체 및 상기 제2 물체가 동일한 물체인지 여부를 판정하는 것을 수행하도록 구성되는
    물체 인식 장치.
  16. 제15항에 있어서,
    상기 적어도 하나의 메모리 및 저장된 컴퓨터 프로그램 코드는 상기 적어도 하나의 프로세서와 함께 상기 장치로 하여금,
    상기 결정된 거리가 미리 정해진 임계 거리(threshold distance)보다 작은 경우 상기 제1 물체 및 상기 제2 물체는 동일한 물체인 것으로 판정하는 것에 의해 상기 제1 물체 및 상기 제2 물체가 동일한 물체인지 여부를 판정하는 것을 수행하도록 구성되는
    물체 인식 장치.
  17. 제12항 내지 제14항 중 어느 한 항에 있어서,
    상기 적어도 하나의 메모리 및 저장된 컴퓨터 프로그램 코드는 상기 적어도 하나의 프로세서와 함께 상기 장치로 하여금,
    기준 물체(reference objects)의 집합으로부터 상기 기준 집합을 생성하는 것을 수행하도록 구성되는
    물체 인식 장치.
  18. 제12항 내지 제14항 중 어느 한 항에 있어서,
    상기 기준 집합은, 기준 물체에 적어도 부분적으로 기초하여 정해지는 복수의 집합체를 포함하는
    물체 인식 장치.
  19. 제12항 내지 제14항 중 어느 한 항에 있어서,
    상기 적어도 하나의 메모리 및 저장된 컴퓨터 프로그램 코드는 상기 적어도 하나의 프로세서와 함께 상기 장치로 하여금,
    트레이닝 데이터로부터 기준 피처를 추출하는 동작과,
    지도 학습 기술(a supervised learning technique)을 이용하여 상기 추출된 기준 피처로부터 식별 서브 공간을 결정하는 것을 수행하도록 구성되고,
    상기 트레이닝 결과는 상기 결정된 식별 서브 공간을 포함하는
    물체 인식 장치.
  20. 제19항에 있어서,
    상기 지도 학습 기술은 선형 판별 분석(linear discriminant analysis)을 포함하는
    물체 인식 장치.
  21. 제19항에 있어서,
    상기 적어도 하나의 메모리 및 저장된 컴퓨터 프로그램 코드는 상기 적어도 하나의 프로세서와 함께 상기 장치로 하여금,
    프로젝션 값을 획득하기 위해 상기 기준 집합의 하나 이상의 기준 집합체로 트레이닝 데이터를 매핑하는 것에 의해 상기 트레이닝 데이터로부터 기준 피처를 추출하도록 구성되고,
    상기 획득된 프로젝션 값은 상기 트레이닝 데이터로부터 추출된 상기 기준 피처를 포함하는
    물체 인식 장치.
  22. 제12항 내지 제14항 중 어느 한 항에 있어서,
    상기 제1 물체는 제1 얼굴을 포함하고 상기 제2 물체는 제2 얼굴을 포함하고,
    상기 적어도 하나의 메모리 및 저장된 컴퓨터 프로그램 코드는 상기 적어도 하나의 프로세서와 함께 상기 장치로 하여금,
    상기 제1 얼굴 및 상기 제2 얼굴이 동일한 사람으로부터 샘플링되었는지 여부를 판정하는 것에 의해 상기 제1 물체 및 상기 제2 물체가 동일한 물체인지 여부를 판정하는 것을 수행하도록 구성되는
    물체 인식 장치.
  23. 제12항 내지 제14항 중 어느 한 항에 있어서,
    상기 장치는 모바일 폰 상에서 구체화 되거나 모바일 폰을 포함하고,
    상기 모바일 폰은 사용자 인터페이스 회로 및 상기 적어도 하나의 메모리 중 하나 이상에 저장된 사용자 인터페이스 소프트웨어를 포함하고, 상기 사용자 인터페이스 회로 및 사용자 인터페이스 소프트웨어는,
    디스플레이의 사용을 통해 상기 모바일 폰의 하나 이상의 기능의 사용자 제어를 가능하게 하고,
    상기 모바일 폰의 사용자 인터페이스의 적어도 일부분을 상기 디스플레이에 표시시킴으로써 상기 모바일 폰의 하나 이상의 기능의 사용자 제어를 가능하게 하는
    물체 인식 장치.
  24. 제1 물체 및 제2 물체에 대한 데이터에 액세스(accessing)하기 위한 수단과,
    기준 집합(a reference set) 및 트레이닝 데이터(training data)에 적어도 부분적으로 기초하여 생성된 트레이닝 결과(training results)와 상기 기준 집합에 적어도 부분적으로 기초하여, 상기 제1 물체 및 상기 제2 물체를 비교하기 위한 수단과,
    상기 비교에 적어도 부분적으로 기초하여, 상기 제1 물체 및 상기 제2 물체가 동일한 물체인지 여부를 판정하기 위한 수단을 포함하는
    물체 인식 장치.
  25. 제24항에 있어서,
    상기 기준 집합에 적어도 부분적으로 기초하여 상기 제1 물체로부터 제1 기준 피처(a first reference feature)를 추출하기 위한 수단과,
    상기 기준 집합에 적어도 부분적으로 기초하여 상기 제2 물체로부터 제2 기준 피처를 추출하기 위한 수단을 더 포함하고,
    상기 제1 물체 및 상기 제2 물체를 비교하는 수단은 상기 제1 기준 피처 및 상기 제2 기준 피처에 적어도 부분적으로 기초하여 상기 제1 물체 및 상기 제2 물체를 비교하기 위한 수단을 포함하는
    물체 인식 장치.
  26. 제25항에 있어서,
    상기 제1 기준 피처를 추출하는 수단은 상기 제1 기준 피처를 구성하는 프로젝션 값(a projection value)을 획득하기 위하여 상기 기준 집합의 기준 집합체(a reference manifold)로 상기 제1 물체에 대한 상기 데이터의 적어도 일부를 매핑하기 위한 수단을 포함하고,
    상기 제2 기준 피처를 추출하는 수단은 상기 제2 기준 피처를 구성하는 프로젝션 값을 획득하기 위하여 상기 기준 집합의 기준 집합체(a reference manifold)로 상기 제2 물체에 대한 상기 데이터의 적어도 일부를 매핑하기 위한 수단을 포함하는
    물체 인식 장치.
  27. 제25항 또는 제26항에 있어서,
    상기 트레이닝 결과는 식별 서브 공간(a discriminative subspace)을 포함하고,
    상기 제1 물체 및 상기 제2 물체를 비교하는 수단은, 제1 합성 피처(merged feature) 및 제2 합성 피처를 획득하기 위하여 상기 식별 서브 공간으로 상기 추출된 제1 기준 피처 및 제2 기준 피처를 맵핑하기 위한 수단과 상기 제1 합성 피처 및 상기 제2 합성 피처 사이의 거리를 결정하기 위한 수단을 포함하고,
    상기 제1 물체 및 상기 제2 물체가 동일한 물체인지 여부를 판정하기 위한 수단은 상기 결정된 거리에 적어도 부분적으로 기초하여 상기 제1 물체 및 상기 제2 물체가 동일한 물체인지 여부를 판정하기 위한 수단을 포함하는
    물체 인식 장치.
  28. 제27항에 있어서,
    상기 제1 물체 및 상기 제2 물체가 동일한 물체인지 여부를 판정하기 위한 수단은, 상기 결정된 거리가 미리 정해진 임계 거리(threshold distance)보다 작은 경우 상기 제1 물체 및 상기 제2 물체는 동일한 물체인 것으로 판정하기 위한 수단을 포함하는
    물체 인식 장치.
  29. 제24항 내지 제26항 중 어느 한 항에 있어서,
    기준 물체(reference objects)의 집합으로부터 상기 기준 집합을 생성하기 위한 수단을 더 포함하는
    물체 인식 장치.
  30. 제24항 내지 제26항 중 어느 한 항에 있어서,
    상기 기준 집합은, 기준 물체에 적어도 부분적으로 기초하여 정해지는 복수의 집합체를 포함하는
    물체 인식 장치.
  31. 제24항 내지 제26항 중 어느 한 항에 있어서,
    트레이닝 데이터로부터 기준 피처를 추출하기 위한 수단과,
    지도 학습 기술(a supervised learning technique)을 이용하여 상기 추출된 기준 피처로부터 식별 서브 공간을 결정하기 위한 수단을 포함하고,
    상기 트레이닝 결과는 상기 결정된 식별 서브 공간을 포함하는
    물체 인식 장치.
  32. 제31항에 있어서,
    상기 지도 학습 기술은 선형 판별 분석(linear discriminant analysis)을 포함하는
    물체 인식 장치.
  33. 제31항에 있어서,
    상기 트레이닝 데이터로부터 기준 피처를 추출하기 위한 수단은, 프로젝션 값을 획득하기 위해 상기 기준 집합의 하나 이상의 기준 집합체로 트레이닝 데이터를 매핑하기 위한 수단을 포함하고, 상기 획득된 프로젝션 값은 상기 트레이닝 데이터로부터 추출된 상기 기준 피처를 포함하는
    물체 인식 장치.
  34. 제24항 내지 제26항 중 어느 한 항에 있어서,
    상기 제1 물체는 제1 얼굴을 포함하고 상기 제2 물체는 제2 얼굴을 포함하고, 상기 제1 물체 및 상기 제2 물체가 동일한 물체인지 여부를 판정하기 위한 수단은, 상기 제1 얼굴 및 상기 제2 얼굴이 동일한 사람으로부터 샘플링되었는지 여부를 판정하기 위한 수단을 포함하는
    물체 인식 장치.
  35. 컴퓨터 판독가능한 프로그램 명령어를 수행하는 컴퓨터 판독가능한 저장 매체로서,
    상기 컴퓨터 판독가능 프로그램 명령어는,
    제1 물체 및 제2 물체에 대한 데이터에 액세스하도록 구성된 프로그램 명령어와,
    기준 집합(a reference set) 및 트레이닝 데이터(training data)에 적어도 부분적으로 기초하여 생성된 트레이닝 결과(training results)와 상기 기준 집합에 적어도 부분적으로 기초하여, 상기 제1 및 제2 물체를 비교하도록 구성된 프로그램 명령어와,
    상기 비교에 적어도 부분적으로 기초하여, 상기 제1 물체 및 상기 제2 물체가 동일한 물체인지 여부를 판정하도록 구성된 프로그램 명령어를 포함하는
    컴퓨터 판독가능한 저장 매체.
  36. 제35항에 있어서,
    상기 기준 집합에 적어도 부분적으로 기초하여 상기 제1 물체로부터 제1 기준 피처(a first reference feature)를 추출하도록 구성된 프로그램 명령어와,
    상기 기준 집합에 적어도 부분적으로 기초하여 상기 제2 물체로부터 제2 기준 피처를 추출하도록 구성된 프로그램 명령어를 더 포함하고,
    상기 제1 물체 및 상기 제2 물체를 비교하도록 구성된 프로그램 명령어는 상기 제1 기준 피처 및 상기 제2 기준 피처에 적어도 부분적으로 기초하여 상기 제1 물체 및 상기 제2 물체를 비교하도록 구성된 프로그램 명령어를 포함하는
    컴퓨터 판독가능한 저장 매체.
  37. 제36항에 있어서,
    상기 제1 기준 피처를 추출하도록 구성된 프로그램 명령어는 상기 제1 기준 피처를 구성하는 프로젝션 값(a projection value)을 획득하기 위하여 상기 기준 집합의 기준 집합체(a reference manifold)로 상기 제1 물체에 대한 상기 데이터의 적어도 일부를 매핑하도록 구성된 프로그램 명령어를 포함하고,
    상기 제2 기준 피처를 추출하도록 구성된 프로그램 명령어는 상기 제2 기준 피처를 구성하는 프로젝션 값을 획득하기 위하여 상기 기준 집합의 기준 집합체(a reference manifold)로 상기 제2 물체에 대한 상기 데이터의 적어도 일부를 매핑하도록 구성된 프로그램 명령어를 포함하는
    컴퓨터 판독가능한 저장 매체.

  38. 제36항 또는 제37항에 있어서,
    상기 트레이닝 결과는 식별 서브 공간(a discriminative subspace)을 포함하고,
    상기 제1 물체 및 상기 제2 물체를 비교하도록 구성된 프로그램 명령어는, 제1 합성 피처(merged feature) 및 제2 합성 피처를 획득하기 위하여 상기 식별 서브 공간으로 상기 추출된 제1 기준 피처 및 제2 기준 피처를 맵핑하도록 구성된 프로그램 명령어와 상기 제1 합성 피처 및 상기 제2 합성 피처 사이의 거리를 결정하도록 구성된 프로그램 명령어를 포함하고,
    상기 제1 물체 및 상기 제2 물체가 동일한 물체인지 여부를 판정하도록 구성된 프로그램 명령어는, 상기 결정된 거리에 적어도 부분적으로 기초하여 상기 제1 물체 및 상기 제2 물체가 동일한 물체인지 여부를 판정하도록 구성된 프로그램 명령어를 포함하는
    컴퓨터 판독가능한 저장 매체.
  39. 제38항에 있어서,
    상기 제1 물체 및 상기 제2 물체가 동일한 물체인지 여부를 판정하도록 구성된 프로그램 명령어는, 상기 결정된 거리가 미리 정해진 임계 거리(threshold distance)보다 작은 경우 상기 제1 물체 및 상기 제2 물체는 동일한 물체인 것으로 판정하도록 구성된 프로그램 명령어를 포함하는
    컴퓨터 판독가능한 저장 매체.
  40. 제35항 내지 제37항 중 어느 한 항에 있어서,
    기준 물체(reference objects)의 집합으로부터 상기 기준 집합을 생성하도록 구성된 프로그램 명령어를 더 포함하는
    컴퓨터 판독가능한 저장 매체.
  41. 제35항 내지 제37항 중 어느 한 항에 있어서,
    상기 기준 집합은, 기준 물체에 적어도 부분적으로 기초하여 정해지는 복수의 집합체를 포함하는
    컴퓨터 판독가능한 저장 매체.
  42. 제35항 내지 제37항 중 어느 한 항에 있어서,
    트레이닝 데이터로부터 기준 피처를 추출하도록 구성된 프로그램 명령어와,
    지도 학습 기술(a supervised learning technique)을 이용하여 상기 추출된 기준 피처로부터 식별 서브 공간을 결정하도록 구성된 프로그램 명령어를 포함하고,
    상기 트레이닝 결과는 상기 결정된 식별 서브 공간을 포함하는
    컴퓨터 판독가능한 저장 매체.
  43. 제42항에 있어서,
    상기 지도 학습 기술은 선형 판별 분석(linear discriminant analysis)을 포함하는
    컴퓨터 판독가능한 저장 매체.
  44. 제42항에 있어서,
    상기 트레이닝 데이터로부터 기준 피처를 추출하도록 구성된 프로그램 명령어는, 프로젝션 값을 획득하기 위해 상기 기준 집합의 하나 이상의 기준 집합체로 트레이닝 데이터를 매핑하도록 구성된 프로그램 명령어를 포함하고, 상기 획득된 프로젝션 값은 상기 트레이닝 데이터로부터 추출된 상기 기준 피처를 포함하는
    컴퓨터 판독가능한 저장 매체.
  45. 제35항 내지 제37항 중 어느 한 항에 있어서,
    상기 제1 물체는 제1 얼굴을 포함하고 상기 제2 물체는 제2 얼굴을 포함하고, 상기 제1 물체 및 상기 제2 물체가 동일한 물체인지 여부를 판정하도록 구성된 프로그램 명령어는, 상기 제1 얼굴 및 상기 제2 얼굴이 동일한 사람으로부터 샘플링되었는지 여부를 판정하도록 구성된 프로그램 명령어를 포함하는
    컴퓨터 판독가능한 저장 매체.
  46. 삭제
  47. 삭제
  48. 삭제
  49. 삭제
  50. 삭제
  51. 삭제
  52. 삭제
  53. 삭제
  54. 삭제
  55. 삭제
  56. 삭제
KR1020127022503A 2010-01-29 2010-01-29 물체 인식을 가능하게 하기 위한 방법 및 장치 KR101479384B1 (ko)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2010/070408 WO2011091593A1 (en) 2010-01-29 2010-01-29 Methods and apparatuses for facilitating object recognition

Publications (2)

Publication Number Publication Date
KR20120128649A KR20120128649A (ko) 2012-11-27
KR101479384B1 true KR101479384B1 (ko) 2015-01-05

Family

ID=44318618

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020127022503A KR101479384B1 (ko) 2010-01-29 2010-01-29 물체 인식을 가능하게 하기 위한 방법 및 장치

Country Status (5)

Country Link
US (1) US9286544B2 (ko)
EP (1) EP2529334A4 (ko)
KR (1) KR101479384B1 (ko)
CN (1) CN102741862A (ko)
WO (1) WO2011091593A1 (ko)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2786373B1 (en) 2011-11-30 2019-04-17 Nokia Technologies Oy Quality enhancement in multimedia capturing
CN103969169B (zh) * 2013-01-31 2017-11-17 西门子公司 对样本进行检测检测方法和装置
WO2019041202A1 (en) * 2017-08-30 2019-03-07 Vita-Course Technologies Co., Ltd. SYSTEM AND METHOD FOR USER IDENTIFICATION
US11845228B2 (en) * 2022-04-14 2023-12-19 Hewlett-Packard Development Company, L.P. Object comparison utilizing a digital representation of a three-dimensional object on a sphere of a pre-determined radius

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000194849A (ja) 1998-12-28 2000-07-14 Victor Co Of Japan Ltd 個人識別装置
CN101089874A (zh) * 2006-06-12 2007-12-19 华为技术有限公司 一种远程人脸图像的身份识别方法
JP2008533606A (ja) 2005-03-18 2008-08-21 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 顔認識を実行する方法
KR20120066462A (ko) * 2010-12-14 2012-06-22 한국전자통신연구원 얼굴 인식 방법 및 시스템, 얼굴 인식을 위한 학습용 특징 벡터 추출 장치 및 테스트용 특징 벡터 추출 장치

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5164992A (en) 1990-11-01 1992-11-17 Massachusetts Institute Of Technology Face recognition system
US6292575B1 (en) * 1998-07-20 2001-09-18 Lau Technologies Real-time facial recognition and verification system
US20030059124A1 (en) * 1999-04-16 2003-03-27 Viisage Technology, Inc. Real-time facial recognition and verification system
CN100440250C (zh) * 2007-03-09 2008-12-03 清华大学 印刷体蒙古文字符识别方法
US8090212B1 (en) * 2007-12-21 2012-01-03 Zoran Corporation Method, apparatus, and system for reducing blurring of an image using multiple filtered images
US8571273B2 (en) 2009-05-22 2013-10-29 Nokia Corporation Method and apparatus for performing feature extraction using local primitive code
US8280828B2 (en) * 2009-06-12 2012-10-02 Xerox Corporation Fast and efficient nonlinear classifier generated from a trained linear classifier

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000194849A (ja) 1998-12-28 2000-07-14 Victor Co Of Japan Ltd 個人識別装置
JP2008533606A (ja) 2005-03-18 2008-08-21 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 顔認識を実行する方法
CN101089874A (zh) * 2006-06-12 2007-12-19 华为技术有限公司 一种远程人脸图像的身份识别方法
KR20120066462A (ko) * 2010-12-14 2012-06-22 한국전자통신연구원 얼굴 인식 방법 및 시스템, 얼굴 인식을 위한 학습용 특징 벡터 추출 장치 및 테스트용 특징 벡터 추출 장치

Also Published As

Publication number Publication date
US20120321176A1 (en) 2012-12-20
KR20120128649A (ko) 2012-11-27
CN102741862A (zh) 2012-10-17
EP2529334A4 (en) 2017-07-19
WO2011091593A1 (en) 2011-08-04
US9286544B2 (en) 2016-03-15
EP2529334A1 (en) 2012-12-05

Similar Documents

Publication Publication Date Title
JP7265003B2 (ja) ターゲット検出方法、モデル訓練方法、装置、機器及びコンピュータプログラム
EP3940638B1 (en) Image region positioning method, model training method, and related apparatus
US11908239B2 (en) Image recognition network model training method, image recognition method and apparatus
WO2017206661A1 (zh) 语音识别的方法及系统
CN110765882B (zh) 一种视频标签确定方法、装置、服务器及存储介质
CN114418069B (zh) 一种编码器的训练方法、装置及存储介质
US10650830B2 (en) Identity vector processing method and computer device
KR101479384B1 (ko) 물체 인식을 가능하게 하기 위한 방법 및 장치
KR20120066462A (ko) 얼굴 인식 방법 및 시스템, 얼굴 인식을 위한 학습용 특징 벡터 추출 장치 및 테스트용 특징 벡터 추출 장치
US20170193987A1 (en) Speech recognition method and device
CN113657087B (zh) 信息的匹配方法及装置
CN115937638B (zh) 模型训练方法、图像处理方法、相关装置及存储介质
CN114722937A (zh) 一种异常数据检测方法、装置、电子设备和存储介质
CN113822427A (zh) 一种模型训练的方法、图像匹配的方法、装置及存储介质
CN114612531A (zh) 一种图像处理方法、装置、电子设备及存储介质
Jia et al. A DNN-based WiFi-RSSI indoor localization method in IoT
CN114549849A (zh) 图像识别方法、装置、计算机设备和存储介质
CN117332844A (zh) 对抗样本生成方法、相关装置及存储介质
CN115222047A (zh) 一种模型训练方法、装置、设备及存储介质
EP2751704A2 (en) Method and apparatus for determining environmental context utilizing features obtained by multiple radio receivers
CN105847293B (zh) 一种基于图像识别实现系统登录的方法和终端
CN116778534B (zh) 图像处理方法、装置、设备和介质
US20230076592A1 (en) Facilitating selection of categorical features in machine learning
EP4006775A1 (en) Method and device for object recognition
CN117079356A (zh) 一种对象鉴伪模型构建方法、虚假对象检测方法及装置

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee