KR20040037180A - 학습 모델 부분들을 사용하는 안면 인식 시스템 및 방법 - Google Patents

학습 모델 부분들을 사용하는 안면 인식 시스템 및 방법 Download PDF

Info

Publication number
KR20040037180A
KR20040037180A KR10-2004-7004560A KR20047004560A KR20040037180A KR 20040037180 A KR20040037180 A KR 20040037180A KR 20047004560 A KR20047004560 A KR 20047004560A KR 20040037180 A KR20040037180 A KR 20040037180A
Authority
KR
South Korea
Prior art keywords
image
unknown
classifier
class
facial
Prior art date
Application number
KR10-2004-7004560A
Other languages
English (en)
Inventor
스리니바스 브이.알. 구타
바산스 피로민
미로스라브 트라즈코빅
Original Assignee
코닌클리케 필립스 일렉트로닉스 엔.브이.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 코닌클리케 필립스 일렉트로닉스 엔.브이. filed Critical 코닌클리케 필립스 일렉트로닉스 엔.브이.
Publication of KR20040037180A publication Critical patent/KR20040037180A/ko

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Collating Specific Patterns (AREA)

Abstract

본원 발명은 안면 이미지를 분류하기 위한 시스템 및 방법에 관한 것이고, 상기 방법은 하나 이상의 안면 이미지들을 인식하고 트레이닝을 위한 안면 이미지들의 대응 학습 모델들을 얻기 위한 분류기 장치를 트레이닝하는 단계; 상기 분류기에 인식될 미공지 안면 이미지의 일부를 나타내는 데이터를 포함하는 벡터를 입력하는 단계; 분류 방법에 따른 미공지 안면 이미지의 일부를 분루하는 단계; 각각의 반복에서 미공지 안면 이미지의 다른 부분을 사용하여 입력 및 분류 단계들을 반복하는 단계; 및 분류기에 입력된 다른 부분들로부터 하나의 단일 결과를 식별하는 단계를 포함한다.

Description

학습 모델 부분들을 사용하는 안면 인식 시스템 및 방법{SYSTEM AND METHOD OF FACE RECOGNITION USING PORTIONS OF LEARNED MODEL}
종래 안면 인식 시스템들은 서브젝트(subject) 안면의 종래 예에 대해 매칭에 의해 미공지된 안면을 인식하려고 하였다. 이것은 통상적으로 서브젝트 안면의 종래 예에 대해 분류기를 트레이닝하고 그 다음 서브젝트 안면의 새로운 예에 대한 매칭에 의해 서브젝트를 식별하기 위하여 트레인된 분류기를 사용함으로써 수행된다. 공지된 바와같이, 분류기를 트레이닝 하는 것은 서브젝트 안면 모델을 학습하는 것을 포함한다. 종래 시스템은 분류 동안 전체 모델을 사용한다.
임의의 패턴 인식 시스템의 설계에서 궁극적인 목적은 가능한한 최대의 분류(예측) 성능을 달성하는 것이고, 이런 목적은 종래에 해결될 임의의 패턴 인식 문제에 대해 여러 분류 방법들의 개발을 유도하였다. 여러 디자인들의 실험적 평가 결과는 문제를 해결하기 위한 최종 해결책으로서 분류기(모델 선택)중 하나를 선택하기 위한 기준이다. 상기 디자인 연구에서, 비록 하나의 디자인이 가장 좋은 성능을 양산하더라도, 여러 분류기들에 의해 잘못 분류된 패턴 세트들이 1996년 오스트리아 2권 897-901쪽 발명의 명칭이 "패턴 인식에 대한 13차 국제 컨퍼런스의 회보에서 분류기 결합"인 Kittler J., Haterf, H. and Duin, R.P.W.에 의해 인식된 바와같이 필수적으로 오버랩되지 않는다는 것이 관찰되었다. 이것은 여러 분류기 디자인들이 전체 성능을 개선하기 위하여 이용될수있는 분류될 패턴들에 관한 보상 정보들을 잠재적으로 제공하는 것을 제안한다.
예를들어 독립적인 유효 세트상 성능을 바탕으로 많은 여러 후보 네트워크들을 트레인하고 그 다음 가장 좋은 것을 선택하고 단지 이 네트워크만을 유지하고 나머지를 버리는 것은 뉴럴 네트워크들의 적용시 공통적인 업무였다. 첫째, 나머지 네트워크들을 트레이닝하는데 포함된 모든 노력은 낭비되었다. 둘째, 유효 세트상 일반화된 성능은 데이터의 노이즈로 인해 랜덤 성분을 가지며, 따라서 유효 세트상 가장 좋은 성능을 가진 네트워크는 새롭거나 처음보는 검사 데이터에서 가장 좋은 성능을 가지는 것이 아니다. 이들 단점들은 네트워크들의 커미티(committee)를 형성하기 위하여 함께 네트워크들을 결합함으로써 극복될수있다. 상기 방법의 중요성은 작은 부가적인 계산 노력을 포함하면서 새로운 데이터상 예측에서 상당한 개선을 유발할 수 있다는 것이다. 실제로 커미티의 성능은 옥스포드 프레스, 옥스포드, 영국 364-377 1997의 발명의 명칭이 "패턴 인식을 위한 뉴럴 네트워크들"이고 Bishop C.M.에 의해 인식된 바와같은 격리하여 사용된 가장 좋은 단일 네트워크의 성능보다 우수할수있다.
안면들을 인식하기 위하여, 인식 시스템들은 개별 안면의 프로파일상에서 각각 트레인된 다수의 분류기들을 사용하였다. 프로브(검사 이미지)의 제공후, 프로브는 학습 모델 각각과 매칭되고 각각의 분류기로부터 얻어진 스코어들은 합의 결정에 도달하기 까지 사용된다. 다수의 분류기들을 트레이닝하는 것의 분명한 단점은 많은 시간 및 공간이 모델 파일들을 트레이닝 및 저장하는데 낭비된다는 것이다.
따라서 개별 안면의 다양한 프로파일들에서 트레인되는 다수의 분류기를 가지는 대신, 단일 분류기가 개별 안면의 전면 또는 다수의 프로파일들에서 트레인되도록 하는 안면 인식 시스템 및 방법이 목표된다.
추가로 서브젝트 모델의 비례가 실행되고 서브젝트의 안면의 다른 비례에 대해 매칭하도록 사용되는 안면 인식 시스템 및 방법을 제공하는 것이 목표된다. 즉, 검사동안, 미지의 안면 이미지는 학습 모델 및 미지의 안면 이미지의 여러 비례를 매칭함으로써 식별된다.
본 발명은 안면 인식 시스템들 특히, 학습 모델의 비율들을 사용하여 안면 인식을 수행하기 위한 시스템 및 방법에 관한 것이다.
도 1은 본 발명의 원리에 따라 실행되는 RBF 네트워크가 구조화된 종래 3층 후방 진행 네트워크(10)의 구조를 도시한다.
도 2는 네트워크에 공급된 안면 이미지들의 샘플을 도시한다.
따라서, 본 발명의 목적은 전면 안면 또는 개별 안면의 다중 프로파일들을 인식하기 위하여 트레인될 수 있는 분류기(예를들어, RBF 네트워크들)를 구현하는 시스템 및 방법을 제공하는 것이다.
본 발명의 다른 목적은 안면의 서브젝트 전면 프로파일상에서 트레인 되었던 단일 분류기 장치를 구현하고 검사 동안 미지의 검사 이미지를 얻고 상기 검사 이미지를 다른 비례를 사용하여 학습 모델에 대해 매칭하는 안면 인식 시스템 및 방법을 제공하는 것이다.
바람직하게, 각각의 비례에 대한 매칭후, 매칭 확률은 결정되고 스코어는 합의 결정에 도달하도록 결합된다. 예를들어, 각각의 분류된 비례부는 보우트(vote)를 생성할 것이다. 즉, 만약 (10) 비례부가 사용되면, 10 보우트들은 얻어진다. 그 다음, 간단한 보우팅 룰(예를들어, 만약 10개중 6개가 'A'이면, 서브젝트 동일성은 'A'이다)은 개별 식별을 확인하기 위하여 사용된다.
본 발명의 원리에 따라, 안면 이미지 데이터를 분류하기 위한 시스템 및 방법이 제공되고, 상기 방법은 하나 이상의 안면 이미지들을 인식하고 트레이닝을 위해 사용되는 안면 이미지들과 대응 학습 모델들을 얻기 위하여 분류기 장치를 트레이닝하는 단계; 분류기에 인식될 미지의 안면 이미지의 일부를 나타내는 데이터를 포함하는 벡터를 입력하는 단계; 분류 방법에 따라 미지의 안면 이미지의 부분을 분류하는 단계; 각각의 반복시 미지의 안면 이미지의 서로다른 부분을 사용하여 입력 및 분류 단계들을 반복하는 단계; 및 분류기에 입력된 서로다른 부분들로부터 단일 클래스 결과를 식별하는 단계를 포함한다.
바람직하게, 비록 RBF 분류기가 사용되지만, 사람은 다양한 전망/확률 방법들의 결합을 포함하는 다른 방법들을 사용할 수 있다는 것이 이해된다.
여기에 개시된 본 발명은 하기된 도면을 참조하여 하기에 기술된다.
설명을 위하여, 라디알 바탕 함수(Radial Basis Function)("RBF") 분류기는 비록 임의의 분류 방법/장치가 실행될 수 있지만 실행된다. RBF 분류기 장치의 설명은 2001년 2월 27일 출원된 발명의 명칭이 모델 종합을 통한 물체들의 분류인 공동 소유, 공동 계류중인 미국특허출원 09/794,443로부터 이용 가능하고, 여기에 참조로써 통합된다.
공동 소유, 공동 계류중인 미국특허 출원 09/794,443에 개시된 바와같은 RBF 네트워크 구성은 도 1을 참조하여 기술된다. 도 1에 도시된 바와같이, 기본 RBF 네트워크 분류기(10)는 소스 노드들(예를들어, K 감지 유니트들)로 이루어진 제 1 입력 층(12); 그 함수가 데이터를 클러스터하고 그 크기를 감소시키는 i 노드를 포함하는 제 2 또는 히든층(14); 및 그 함수가 입력 층(12)에 적용된 액티베이션 패턴들에 네트워크(10)의 응답(20)을 공급하는 j 노드들을 포함하는 제 3 또는 출력 층(18)을 포함하는 종래 3층 후방 진행 네트워크(10)에 따라 구성된다. 입력 공간에서 히든 유니트 공간으로 변화는 비선형적이지만, 히든 유니트 공간에서 출력 공간으로의 변환은 선형적이다. 특히, 여기에 그 내용 및 개시물이 참조로써 통합된 1997년 옥스포드 Clarendon Press, C.M.Bishop에 의한 패턴 인식용 뉴럴 네트워크들이 참조로써 논의된 바와같이, RBF 분류기 네트워크(10)는 두가지 방식으로 바라볼수있다. 1) 고차원 공간으로 던져진 분류 문제가 저차원 공간의 분류 문제 보다 선형적으로 보다 쉽게 분리 가능하다는 수학적 사실의 장점을 취하기 위하여 고차원 공간으로 입력 벡터들을 확장시키는 한세트의 커널 함수로서 RBF 분류기를 해석하는 방법, 및 2) 베이시스 함수(BF)의 선형 결합을 취함으로써 각각의 클래스에대해 하나인 하이퍼서페이스(hypersurfaces)를 구성하는 함수 맵핑 내삽법으로서 RBF 분류기를 해석하는 방법. 이들 하이퍼서페이스들은 판별 함수로서 보여지고, 여기서 상기 표면은 모든 다른 것에 비해 낮은 값을 가지며 그것이 나타내는 클래스에 대해 높은 값을 가진다. 미지의 입력 벡터는 상기 포인트에서 가장 큰 출력을 가진 하이퍼서페이스와 연관된 클래스에 속하는 것으로 분류된다. 이 경우, BF는 고차원 공잔에 대한 베이스로서 사용되지 않고, 성분 계수가 트레인되어야 하는(웨이트들) 목표된 하이퍼서페이스의 제한된 확장 성분으로서 사용한다.
도 1의 추가 측면에서, RBF 분류기(10), 입력층(12) 및 히든층(14) 사이의 접속부들(22)은 단위 웨이트들이고 결과적으로 트레인되지 않는다. 히든층(14)의 노드들, 즉 소위 베이시스 함수(BF)는 특정 평균 벡터(μi)(즉, 중심 파라미터) 및 가변 벡터()(즉, 폭 파라미터)에 의해 지정된 가우시안 펄스 비선형성을 가지며, 여기서 i = 1, ..., F이고 F는 BF 노드들의 수이다.가 가우시안 펄스(i)의 공유 매트릭스의 사선 엔트리들을 나타낸다는 것이 주의된다. D 차원 입력 벡터(X)를 제공하여, 각각의 BF 노드(i)는 방정식 1)에 의해 표현된 바와같이 입력에 의해 유발된 BF의 액티베이션을 반영하는 스칼라 값(yi)을 출력한다. 상기 식은 하기와 같다.
여기서 h는 분산에 대한 비례 상수이고, xk는 입력 벡터 X = {x1, x2, ...,xD}의 k 번째 성분이고, μik은 베이시스 노드(i)의 평균 및 분산 벡터들의 k 번째 성분이다. 가우시안 BF의 중심에 밀접한 입력들은 보다 높은 액티베이션을 유발하고, 멀리 덜어진 입력들은 낮은 액티베이션을 유발한다. RBF 네트워크의 출력 노드(18)가 BF 노드 액티베이션들의 선형 결합을 형성하기 때문에, 제 2(히든) 및 출력 층과 접속된 네트워크 부분은 방정식 2)에 의해 표현된 바와같이 선형적이고, 상기 식은 하기와 같다.
여기서, zi는 j 번째 출력 노드의 출력이고, yi는 i 번째 BF 노드의 액티베이션이고, wij는 i 번째 BF 노드를 j번째 출력 노드에 연결하는 웨이트(24)이고, wij는 j 번째 출력 노드의 바이어스 또는 임계값이다. 이 바이어스는 입력에도 불구하고 일정한 유니트 출력을 가지는 BF 노드와 연관된 웨이트들으로부터 나온다.
미지의 벡터(X)는 가장 큰 출력(zj)를 가진 출력 노드(j)와 연관된 클래스에 속하는 것으로서 분류된다. 선형 네트워크의 웨이트들(wij)은 기울기 하락 같은 반복적인 최소화 방법을 사용하여 해결되지 않는다. 그것들은 1997년 옥스포드 Clarendon Press, C.M.Bishop에 의한 패턴 인식을 위한 뉴럴 네트워크들에 언급된 바와같이 매트릭스 의사 인버스 기술을 사용하여 빠르고 정확하게 결정된다.
본 발명에서 실행될수있는 바람직한 RBF 분류기의 상세한 알고리듬 설명은 테이블 1 및 2에 제공된다. 테이블 1에 도시된 바와같이, 처음에 RBF네트워크(10)의 크기는 F, BF 노드의 수를 선택함으로써 결정된다. F의 적당한 값은 지정된 문제이고 일반적으로 상기 문제의 크기 및 혀엉될 결정 영역들의 복잡성에 다른다. 일반적으로, F는 다양한 F들을 트라이함으로써 경험상으로 결정되거나, 상기 문제의 입력 크기보다 큰 몇몇 일정한 수로 설정될수있다. F가 설정된후, 평균(μj) 및 BF의 분산() 벡터들이 다양한 방법들을 사용하여 결정될수있다. 그것들은 후방 진행 기울기 감소 기술을 사용하여 출력 웨이트들과 함께 트레인될수있지만, 이것은 오랜 트레이닝 시간을 요구하고 최소 서브옵티멀(suboptimal) 로컬을 유발할수있다. 선택적으로, 평균 및 분산은 출력 웨이트들을 트레이닝하기 전에 결정될수있다. 네트워크들의 트레이닝은 단지 웨이트들을 결정하는 단계만을 포함한다.
BF 평균(중심) 및 분산(폭)는 흥미 공간을 커버하기 위하여 정상적으로 선택된다. 다른 기술들은 공지된 기술로서 사용될수있다; 예를들어, 하나의 기술은 입력 공간을 샘플링하는 똑같이 간격진 BF의 그리드를 실행하고; 다른 기술은 BF 중심 세트를 결정하기 위하여 k 평균 같은 클러스터링 알고리듬을 실행하고; 다른 기술들은 BF 중심으로서 트레이닝 세트로부터 선택된 랜덤 벡터들을 실행하여, 각각의 클래스를 나타내는 것을 보장한다.
일단 BF 중심 또는 평균이 결정되면, BF 분산 도는 폭()은 설정될수있다. 그것들은 몇몇 목표 값으로 고정되거나 BF 중심의 근처에서 데이터 벡터들의 밀도를 반영하도록 설정된다. 게다가, 분산에 대한 글로벌 비례 인자(H)는 BF 폭들의 재스케일링을 허용하도록 포함된다. 우수한 성능을 유발하는 값들에 대한 H 공간을 검사함으로서, 적당한 값이 결정된다.
BF 파라미터가 설정된후, 다음 단계는 선형 네트워크에서 출력 웨이트들(wij)를 트레인하는 것이다. 각각의 트레이닝 패턴들 X(p) 및 그것의 클래스 라벨들 C(p)는 분류기에 제공되고, 결과적인 BF 노드 출력들(y1(p))는 계산된다. 이들 및 목표된 출력들dj(p)는 F×F 상관 매트릭스 "R" 및 F×M 출력 매트릭스 "B"를 결정하기 위하여 사용된다. 각각의 트레이닝 패턴이 하나의 R 및 B 매트릭스를 생성하는 것이 주의된다. 최종 R 및 B 매트릭스들은 N개의 개별 R 및 B 매트릭스들의 합의 결과이고, 여기서 N은 트레이닝 패턴들의 총 수이다. 일단 모든 N 파라미터들이 분류기에 제공되었다면, 출력 웨이트들(wij)는 결정된다. 최종 상관 매트릭스(R)는 인버트되고 각각 wij를 결정하기 위하여 사용된다.
1. 시작(a) F, 베이시스 함수들의 수를 선택함으로써 네트워크 구조를 고정하고, 여기서 각각의 베이시스 함수(I)는 출력을 가지며 k는 성분 인덱스이다.(b) 베이시스 함수 평균(μ)를 결정하고, 여기서 K 평균 클러스터링 알고리듬을 사용하여 I = 1, ..., F이다.(c) 베이시스 함수 분산들을 결정하고, 여기서 I = 1, ..., F이다.(d) 실험 검사에 의한 베이시스 함수 분산들에 대한 글로벌 비례 인자인 H를 결정한다.2. 현재 트레이닝(a) 분류기에 트레이닝 패턴들 X(p) 및 그것의 클래스 라벨들 C(p)을 입력하고, 여기서 패턴 인덱스는 p = 1, ..., N이다.(b) 베이시스 함수 노드들 y(p)의 출력을 계산하고, 여기서 I = 1, ..., F이고, 패턴 X(p)을 유발한다.(c) 베이시스 함수 출력의 F×F 상관 매트릭스(R)를 계산하고, 상기 식은 다음과 같다.(d) F×M 출력 매트릭스(B)를 계산하고, 여기서 dj는 목표된 출력이고 M은 출력 클래스의 수이다.3. 결정 웨이트들(a) R-1를 얻기 위하여 F×F 상관 매트릭스(R)를 인버트한다.(b) 다음 식을 사용하여 네트워크에서 웨이트들에 대한 해결
테이블 1
테이블 2에 도시된 바와같이, 분류는 트레인된 분류기에 미지의 입력 벡터 Xtest를 제공하고 결과적인 BF 노드 출력들(yi)을 계산함으로서 수행된다. 이들 값들은 출력 값(zj)을 계산하기 위하여 웨이트들(wij)고 함게 사용된다. 입력 벡터 Xtest는 가장 큰 zj출력을 가진 출력 노드 j와 연관돈 클래스에 속하는 것으로서 분류된다.
1. 분류기에 입력 패턴 부분 Xtest를 제공2. Xtest부분 분류(a) 모든 F 베이시스 함수들에 대한 베이시스 함수 출력들을 계산한다.(b) 출력 노드 액티베이션을 계산한다:(c) 가장 큰 값을 가진 출력 zj를 선택하고 클래스 j로서 Xtest부분을 분류한다.(d) 감소된 크기의 다른 비례부를 사용하여 단계들 2(a)-2(c)를 반복
테이블 2
본 발명의 방법에서, RBF 입력은 일차원 즉, 1-D 벡터들로서 네트워크에 공급된 n 크기 일반화 안면 그레이 스케일 이미지들로 구성된다. 히든(알수없는) 층(14)은 S. Gutta, J. Huang, P. Jonathon and H에서 기술된 바와같은 "향상된" k 평균 클러스터링 과정을 실행한다. 참조로써 그 내용 및 개시물이 통합된 2000년 7월 Whchsler, Mixture of experts for Classification of Gender, Ethnic Origin, and Pose of Human Faces, 뉴럴 네트워크 IEEE 트랜잭션, 11(4):948-960은 가우시안 클러스터 노드들 및 그것의 분산들이 동적으로 설정되는 것을 나타낸다. 클러스터의 수는 트레이닝 이미지들의 1/5에서 총 수 n의 트레이닝 이미지들로 5의 단계에서 가변할 수 있다. 각각의 클러스터에 대한 가우시안의 폭()은 오버랩 인자 0(여기서 2와 동일)에 의해 곱셈된 최대치로 설정된다(클러스터의 중심와 클래스 직경내의 부재에서 가장 멀리 떨어진 부재 사이의 거리, 모든 다른 클러스터들로부터 가장 가가운 패턴 및 클러스터 중심 사이의 거리). 상기 폭은 다른 비례 상수(h)를 사용하여 동적으로 추가로 한정된다. 히든 층(14)은 함수적 모양 베이스의 등가물을 생성하고, 여기서 각각의 클러스터 노드는 모양 공간을 가로질러 몇몇 공통 특성을 인코딩한다. 출력(관리된) 층은 공간을 다른 안면 인코딩("확장")을 대응 ID 클래스에 맵핑하고 의산 인버스 기술을 사용하여 대응 확장("웨이트들") 계수들을 발견한다. 클러스터의 수가 동일한 트레이닝 이미지들에서 검사될때 ID 분류상 100% 정확도를 생성하는 상기 구성(클러스터의 수 및 특정 비례 상수 h)에 대해 고정되는 것이 주의된다.
본 발명에 따라, 트레이닝하기 위하여 사용될 입력 벡터들은 도 2에 도시된 각각 64×72 화소들을 포함하는 안면 이미지들(30)인 전체 안면 이미지들이다. 본 발명에 따라, 단일 분류기(RBF 네트워크 10는 이들 전체 이미지들로 트레인된다). 그러나, 실제 검사동안, 검사 이미지의 다른 비례는 모델의 다른 비레에 대해 검사된다. 예를들어, 테이블 2에 묘사된 분류 알고리듬의 단계 2는 각각의 반복시 학습 모델의 서로다른 부분으로 미지의 검사 이미지를 뺄셈하는 반복 처리이다. 트레이닝은 전체 안면상에서 전체 이미지이고 Xtest(전체 이미지)는 제 1 반복시 입력될수있다. 제 1 출력 저장은 얻어지고, 이것은 0 및 1 사이의 값, 및 클래스 라벨(학습 모델)을 식별하는 라벨을 가진 테이블 2에서 단계 2(c)에 도시된 바와같은 컨피던스(확률) 방법을 포함한다. 각각의 반복시, 이들 단계들은 이미지의 여러 퍼센트, 즉 학습 모델의 일부들을 사용하여 각각의 시간에서 반복된다. 예를들어, 다음 반복시, 미지의 이미지의 보다 작은 부분, 예를들어 90%는 각각의 클래스에 대한 학습 모델 이미지의 대응 90%와 비교될수있다. 각각의 비교 결과로서, 추가 컨피던스(확률) 방법 및 클래스(학습 모델)를 식별하는 라벨은 분류기 장치에의해 결정된다. 따라서, 테이블 2에 도시된 바와같이, 단계 2(a)의 전체는 목표된 비례수에 다른 임의의 다수번 반복되는 처리를 가진 루프내에 있다. 예를들어, 사용자에 의해 선택 가능한 것으로서, 사용된 Xtest이미지 부분들은 각각의 반복에서 10% 내지 5% 감소시 최대(예를들어, 전체 이미지의 100%)에서 최소(예를들어, 전체 이미지의 50%) 범위일수있다. 전체 개시물 및 내용이 참조로써 통합되고 발명의 명칭이 1/2 안면을 통한 안면 인식 시스템 및 방법이고 공동 소유, 공동 계류중인 미국특허출원 09/966436[위임 도킷 702052, D#14900]에 기술된 바와같이, 최대 이미지가 사용될때, 즉 50%일때, 안면 이미지의 적어도 하나의 눈, 1/2 노이즈 및 1/2 입이 캡쳐, 예를들어 이미지의 수직 비례되는 것은 필수적이다. 각각의 반복시 일부 감소의 거칠기는 사용자 선택 가능 옵션이고 데이터가 얼마나 우수한지 계산 비용이 얼마인지가 고려된다. 트레이드 오프가 성능 및 비용 사이에 존재한다는 것이 이해된다. 예를들어, 목표된 보안 레벨에 따라, 즉 보다 철저한 보안 응용시, 각각의 반복시 보다 미세한 비례 감소 거칠기 및 보다 큰 수의 비교는 보다 큰 비용으로 수행된다. 각각의 단계에서 10% 이미지 감소 비례부를 가지는데에서 100% 내지 50%의 경우, 총 6개의 신입 스코어 및 클래스 라벨들이 있을것이고, 그것에 의해 각각의 단계에서 5% 이미지 감소 비례로 인해, 각각의 클래스에 대해 총 12개가 있을것이다. 스코어들이 누적된후, 룰들은 검사 이미지에 대한 클래스를 결정하기 위하여 적용된다. 예를들어, 스코어들은 합의 결정에 도달하도록 결합될수있다. 하나의 간단한 클래스는 주된 룰이지만, 보다 정밀한 룰들은 여기에 참조로써 그 내용 및 개시물이 통합되고 1996년 8월 오스트리아 비엔나 II:897-901 패턴 인식에 대한 13차 국제 컨퍼런스에서 J.Kittler, M.Hateg, and R.P.W.Duin에 의한 발명의 명칭이 "분류기들의 결합"에 기술된 바와같이 적용될수있다. 예를들어, 각각의 분류된 비례부는 보우트를 생성하고 만약 10 비례가 사용되면, 10 보우트가 얻어진다. 따라서, 주된 결정 보우팅 룰 단순 보우팅 룰(예를들어, 만약 10중 6이 'A'이면, 서브젝트 식별은 'A'이다)은 개별(클래스)의 식별을 확인하기 위하여 사용된다. 응답하여, 다중 보우트들은 생성되고, 도 1에 도시된 바와같이 분류기에서, 선택 장치는 28이고 적당한 결정에 도달하기 위한 보우팅 룰들을 적용하기 위한 논리가 제공된다.
본 발명의 바람직한 실시예들이 도시, 기술 및 고려되었지만, 형태 또는 세부항목에서 다양한 변형 및 변화가 본 발명의 사상으로부터 벗어나지 않고 이루어질수있다는 것이 이해된다. 그러므로 본 발명은 도시되고 기술된 정혹한 형태로 제한되는 것이 아니라, 첨부된 청구범위내에 속할수있는 모든 변형을 커버하는 것으로 생가되어야 한다.

Claims (13)

  1. 안면 이미지 데이터를 분류하기 위한 방법에 있어서,
    a) 하나 이상의 안면 이미지들을 인식하기 위한 분류기 장치(10)를 트레이닝하고 트레이닝하기 위하여 사용된 상기 안면 이미지들과 연관된 대응하는 학습 모델들을 얻는 단계;
    b) 인식될 미지의 안면 이미지 부분을 나타내는 데이터를 포함하는 벡터를 상기 분류기(10)에 입력하는 단계;
    c) 분류 방법에 따라 상기 미지의 안면 이미지 부분을 분류하는 단계;
    d) 각각의 반복시 상기 미지의 안면 이미지의 서로다른 부분을 사용하여 단계 b) 및 c)를 반복하는 단계; 및
    e) 상기 분류기에 입력된 상기 서로다른 부분들로부터 단일 클래스 결과를 식별하는 단계(28)를 포함하는, 안면 이미지 데이터 분류 방법.
  2. 제 1 항에 있어서, 상기 분류 단계 c)는,
    각각의 반복시, 각각의 클래스에 대한 학습 모델 이미지의 대응 부분에 대해 미지의 이미지의 부분을 비교하는 단계; 및
    각각의 분류된 부분에 대한 컨피던스 스코어를 얻는 단계를 포함하는, 안면 이미지 데이터 분류 방법.
  3. 제 2 항에 있어서, 상기 식별 단계 e)는 상기 단일 클래스 결과를 얻기 위하여 상기 컨피던스 스코어들에 룰을 적용하는 단계를 포함하는, 안면 이미지 데이터 분류 방법.
  4. 제 2 항에 있어서, 상기 컨피던스 스코어는 미지의 안면 이미지의 현재 부분이 하나의 클래스로 식별되는 확률 크기가고, 상기 적용된 룰은 각각의 미지의 안면 이미지에 대해 결정된 클래스 라벨들의 대부분을 가진 클래스를 얻는 단계를 포함하는, 안면 이미지 데이터 분류 방법.
  5. 제 2 항에 있어서, 상기 분류 단계 c)는 각각의 반복시 검사될 상기 이미지의 이미지 부분을 감소시키는 단계 및 각각의 클래스에 대한 학습 모델 이미지의 대응 감소 부분에 대해 상기 미지의 이미지의 감소 부분을 비교하는 단계를 포함하는, 안면 이미지 데이터 분류 방법.
  6. 제 5 항에 있어서, 상기 부분들은 상기 미지의 안면 이미지 100%에서 동일한 감소분들로 상기 미지의 안면 이미지의 50%까지 감소되는, 안면 이미지 데이터 분류 방법.
  7. 제 1 항에 있어서, 라디알 베이시스 함수 네트워크(10)가 각각의 이미지 부분을 트레이닝 및 분류하기 위하여 구현되는, 안면 이미지 데이터 분류 방법.
  8. 제 7 항에 있어서, 상기 트레이닝 단계는,
    (a) 상기 라디알 베이시스 함수 네트워크를 시작하는 단계로서, 상기 시작하는 단계는,
    다수의 베이시스 함수(F)를 선택함으로써 네트워크 구조를 고정하는 단계로서, 각각의 베이시스 함수 I는 가우시안 비선형성 출력을 가지는, 상기 고정하는 단계,
    K 평균 클러스터링 알고리듬을 사용하여 베이시스 함수 수단(μI)을 결정하는 단계로서, I = 1, ..., F인, 상기 결정하는 단계,
    베이시스 함수 분산를 결정하는 단계, 및
    실험 검사에 의해 베이스 함수 분산에 대한 글로벌 비례 인자(H)를 결정하는 단계를 포함하는, 상기 시작하는 단계;
    (b) 상기 트레이닝을 제공하는 단계로서, 상기 제공하는 단계는,
    트레이닝 패턴들 X(p) 및 그들의 분류 라벨들 C(p)을 분류 방법에 입력하는 단계로서, 상기 패턴 인덱스는 p = 1, ..., N인, 상기 입력하는 단계,
    패턴 X(p)으로부터 결과하는 베이시스 함수 노드들 yi(p)의 출력F를 계산하는 단계,
    상기 베이시스 함수 출력들의 F×F 상관 매트릭스 R을 계산하는 단계, 및
    dj가 요구된 출력이고 M이 출력 클래스들의 수이고 j = 1, ..., M인 F×M 출력 매트릭스 B를 계산하는 단계를 포함하는, 상기 제공하는 단계; 및
    (c) 웨이트들(24)을 결정하는 단계로서, 상기 결정하는 단계는,
    R-1를 얻기 위하여 F×F 상관 매트릭스 R를 인버팅하는 단계, 및
    네트워크에서 웨이트들에 대해 해를 구하는 단계를 포함하는 웨이트들(24) 결정 단계를 포함하는, 상기 결정하는 단계를 포함하는, 안면 이미지 데이터 분류 방법.
  9. 제 8 항에 있어서, 상기 분류 단계는,
    각각의 반복시 상기 분류 방법에 각각의 Xtest부분을 제공하는 단계; 및
    모든 F 베이시스 함수들에 대해 베이시스 함수 출력들을 계산하고,
    출력 노드 액티베이션들(20)을 계산하고,
    가장 큰 값을 가진 출력(zj)를 선택하고 클래스 j로서 Xtest부분을 분류함으로써 각각의 Xtest를 분류하는 단계를 포함하는, 안면 이미지 데이터 분류 방법.
  10. 제 1 항에 있어서, 상기 분류 단계 c)는 상기 검출된 미지의 안면 이미지 부분이 대응하는 클래스를 식별하는 클래스 라벨 및 상기 미지의 안면 패턴 이미지가 상기 클래스에 속하는 확률을 나타내는 확률 값을 출력하는 단계를 포함하는, 안면 이미지 데이터 분류 방법.
  11. 안면 이미지 데이터를 분류하기 위한 장치에 있어서,
    하나 이상의 안면 이미지들을 인식하고 트레이닝을 위하여 사용된 안면 이미지들과 연관된 대응 학습 모델들을 생성하기 위해 트레이닝되는 분류기 장치(10);
    인식될 미지의 안면 이미지(30)의 부분을 나타내는 데이터를 각각 포함하는 벡터를 상기 분류기에 반복적으로 입력하기 위한 수단으로서, 서로다른 이미지 부분은 각각의 반복시 상기 분류기에 입력되고, 상기 분류기 장치는 분류 방법에 따라 상기 미지의 안면 이미지의 각각의 상기 부분을 분류하는, 상기 입력하기 위한 수단; 및
    상기 분류기에 입력되는 서로다른 부분들로부터 단일 클래스 결과를 식별하기 위한 수단을 포함하는, 안면 이미지 데이터 분류 장치.
  12. 제 11 항에 있어서, 상기 분류기는 각각의 반복시 각각의 클래스에 대한 상기 학습 모델 이미지의 대응 부분에 대해 상기 미지의 이미지 부분을 비교하고, 각각의 분류된 부분에 대한 컨피던스 스코어를 얻기 위한 메카니즘을 포함하는, 안면 이미지 데이터 분류 장치.
  13. 안면 이미지 데이터를 분류하기 위한 방법 단계들을 수행하기 위하여 머신에 의해 실행가능한 명령 프로그램을 실체적으로 실현하는 머신에 의해 판독 가능한 프로그램 저장 장치에 있어서, 상기 방법은,
    a) 하나 이상의 안면 이미지들을 인식하고 트레이닝을 위하여 사용된 안면이미지들과 연관된 대응하는 학습 모델들을 얻기 위한 분류기 장치(10)를 트레이닝하는 단계;
    b) 인식될 미지의 안면 이미지(30) 부분을 나타내는 데이터를 포함하는 벡터를 상기 분류기에 입력하는 단계;
    c) 분류 방법에 따라 상기 미지의 안면 이미지의 상기 부분을 분류하는 단계;
    d) 각각의 반복시 상기 미지의 안면 이미지의 서로다른 부분을 사용하여 단계 b) 및 c)를 반복하는 단계; 및
    e) 상기 분류기에 입력된 서로다른 부분들로부터 단일 클래스 결과를 식별하는 단계(28)를 포함하는, 프로그램 저장 장치.
KR10-2004-7004560A 2001-09-28 2002-09-10 학습 모델 부분들을 사용하는 안면 인식 시스템 및 방법 KR20040037180A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US09/966,408 US7308133B2 (en) 2001-09-28 2001-09-28 System and method of face recognition using proportions of learned model
US09/966,408 2001-09-28
PCT/IB2002/003697 WO2003030085A1 (en) 2001-09-28 2002-09-10 System and method of face recognition using portions of learned model

Publications (1)

Publication Number Publication Date
KR20040037180A true KR20040037180A (ko) 2004-05-04

Family

ID=25511354

Family Applications (1)

Application Number Title Priority Date Filing Date
KR10-2004-7004560A KR20040037180A (ko) 2001-09-28 2002-09-10 학습 모델 부분들을 사용하는 안면 인식 시스템 및 방법

Country Status (8)

Country Link
US (1) US7308133B2 (ko)
EP (1) EP1433118B1 (ko)
JP (1) JP2005505062A (ko)
KR (1) KR20040037180A (ko)
CN (1) CN1276380C (ko)
AT (1) ATE313831T1 (ko)
DE (1) DE60208223T2 (ko)
WO (1) WO2003030085A1 (ko)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100886557B1 (ko) * 2007-05-03 2009-03-02 삼성전자주식회사 적응형 학습에 기반한 얼굴 인식 시스템 및 방법
KR100981832B1 (ko) * 2008-06-12 2010-09-13 인하대학교 산학협력단 Boosting 알고리즘 및 특징벡터분할 기법을 이용한얼굴특징 선택방법 및 장치
KR20220000310A (ko) 2020-06-25 2022-01-03 정여빈 안면 인식 최적화를 위한 클라우드 시스템
KR20220091821A (ko) 2020-12-24 2022-07-01 주식회사 유인원테크 디지털 합성/위조 안면 검증 시스템

Families Citing this family (57)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7389280B2 (en) * 2002-02-22 2008-06-17 Lifecom, Inc. Computer-based intelligence method and apparatus for assessing selected subject-area problems and situations
US7362892B2 (en) * 2003-07-02 2008-04-22 Lockheed Martin Corporation Self-optimizing classifier
TW200539046A (en) * 2004-02-02 2005-12-01 Koninkl Philips Electronics Nv Continuous face recognition with online learning
US7653261B2 (en) * 2004-11-12 2010-01-26 Microsoft Corporation Image tapestry
US7529429B2 (en) 2004-11-12 2009-05-05 Carsten Rother Auto collage
US7532771B2 (en) * 2004-11-12 2009-05-12 Microsoft Corporation Image processing system for digital collage
US20080192991A1 (en) * 2005-03-18 2008-08-14 Koninklijke Philips Electronics, N.V. Magnetic Resonance Imaging at Several Rf Frequencies
US20060217925A1 (en) * 2005-03-23 2006-09-28 Taron Maxime G Methods for entity identification
US20060257834A1 (en) * 2005-05-10 2006-11-16 Lee Linda M Quantitative EEG as an identifier of learning modality
CN101277642A (zh) 2005-09-02 2008-10-01 埃姆申塞公司 用于检测组织中的电活动的装置和方法
US7684595B2 (en) * 2006-06-23 2010-03-23 The United States Of America As Represented By The Secretary Of The Navy Method of facial recognition
US8195734B1 (en) 2006-11-27 2012-06-05 The Research Foundation Of State University Of New York Combining multiple clusterings by soft correspondence
US20090253996A1 (en) * 2007-03-02 2009-10-08 Lee Michael J Integrated Sensor Headset
US8230457B2 (en) 2007-03-07 2012-07-24 The Nielsen Company (Us), Llc. Method and system for using coherence of biological responses as a measure of performance of a media
US20090070798A1 (en) * 2007-03-02 2009-03-12 Lee Hans C System and Method for Detecting Viewer Attention to Media Delivery Devices
US9215996B2 (en) * 2007-03-02 2015-12-22 The Nielsen Company (Us), Llc Apparatus and method for objectively determining human response to media
US8473044B2 (en) * 2007-03-07 2013-06-25 The Nielsen Company (Us), Llc Method and system for measuring and ranking a positive or negative response to audiovisual or interactive media, products or activities using physiological signals
US20080221969A1 (en) * 2007-03-07 2008-09-11 Emsense Corporation Method And System For Measuring And Ranking A "Thought" Response To Audiovisual Or Interactive Media, Products Or Activities Using Physiological Signals
US8764652B2 (en) * 2007-03-08 2014-07-01 The Nielson Company (US), LLC. Method and system for measuring and ranking an “engagement” response to audiovisual or interactive media, products, or activities using physiological signals
US8782681B2 (en) * 2007-03-08 2014-07-15 The Nielsen Company (Us), Llc Method and system for rating media and events in media based on physiological data
US7853081B2 (en) * 2007-04-02 2010-12-14 British Telecommunications Public Limited Company Identifying data patterns
KR100870724B1 (ko) * 2007-05-25 2008-11-27 인하대학교 산학협력단 t―test를 이용한 영상 인식시스템 및 그 방법
US8376952B2 (en) * 2007-09-07 2013-02-19 The Nielsen Company (Us), Llc. Method and apparatus for sensing blood oxygen
WO2009046224A1 (en) 2007-10-02 2009-04-09 Emsense Corporation Providing remote access to media, and reaction and survey data from viewers of the media
CN101917898A (zh) * 2007-10-31 2010-12-15 埃姆申塞公司 对来自观众的生理响应提供分散式收集和集中式处理的系统和方法
WO2009073634A1 (en) * 2007-11-30 2009-06-11 Emsense Corporation Correlating media instance information with physiological responses from participating subjects
US8347326B2 (en) 2007-12-18 2013-01-01 The Nielsen Company (US) Identifying key media events and modeling causal relationships between key events and reported feelings
US8213689B2 (en) * 2008-07-14 2012-07-03 Google Inc. Method and system for automated annotation of persons in video content
US9405995B2 (en) * 2008-07-14 2016-08-02 Lockheed Martin Corporation Method and apparatus for facial identification
KR100998842B1 (ko) 2009-02-03 2010-12-06 인하대학교 산학협력단 부스팅 기법을 통한 얼굴 인식 방법 및 장치
JP2010266983A (ja) * 2009-05-13 2010-11-25 Sony Corp 情報処理装置及び方法、学習装置および方法、プログラム、並びに情報処理システム
US20110066431A1 (en) * 2009-09-15 2011-03-17 Mediatek Inc. Hand-held input apparatus and input method for inputting data to a remote receiving device
US8498455B2 (en) 2010-06-03 2013-07-30 Microsoft Corporation Scalable face image retrieval
CN102147812A (zh) * 2011-03-31 2011-08-10 中国科学院自动化研究所 基于三维点云模型的地标建筑图像分类方法
KR101130817B1 (ko) * 2011-09-27 2012-04-16 (주)올라웍스 얼굴 인식 방법, 장치, 및 이 방법을 실행하기 위한 컴퓨터 판독 가능한 기록 매체
US9060671B2 (en) 2012-08-17 2015-06-23 The Nielsen Company (Us), Llc Systems and methods to gather and analyze electroencephalographic data
US9235782B1 (en) 2012-12-24 2016-01-12 Google Inc. Searching images and identifying images with similar facial features
US9320450B2 (en) 2013-03-14 2016-04-26 The Nielsen Company (Us), Llc Methods and apparatus to gather and analyze electroencephalographic data
US10127475B1 (en) * 2013-05-31 2018-11-13 Google Llc Classifying images
US9530047B1 (en) * 2013-11-30 2016-12-27 Beijing Sensetime Technology Development Co., Ltd. Method and system for face image recognition
CN104751198B (zh) * 2013-12-27 2018-04-27 华为技术有限公司 图像中的目标物的识别方法及装置
US10043112B2 (en) * 2014-03-07 2018-08-07 Qualcomm Incorporated Photo management
US9622702B2 (en) 2014-04-03 2017-04-18 The Nielsen Company (Us), Llc Methods and apparatus to gather and analyze electroencephalographic data
BR102014023780B1 (pt) * 2014-09-25 2023-04-18 Universidade Estadual De Campinas - Unicamp (Br/Sp) Método para classificação multiclasse em cenários abertos e usos do mesmo
WO2016074247A1 (en) * 2014-11-15 2016-05-19 Beijing Kuangshi Technology Co., Ltd. Face detection using machine learning
CN105512679A (zh) * 2015-12-02 2016-04-20 天津大学 一种基于极限学习机的零样本分类方法
CN106650806B (zh) * 2016-12-16 2019-07-26 北京大学深圳研究生院 一种用于行人检测的协同式深度网络模型方法
WO2018142228A2 (en) 2017-01-19 2018-08-09 Mindmaze Holding Sa Systems, methods, apparatuses and devices for detecting facial expression and for tracking movement and location including for at least one of a virtual and augmented reality system
US10943100B2 (en) 2017-01-19 2021-03-09 Mindmaze Holding Sa Systems, methods, devices and apparatuses for detecting facial expression
US10515474B2 (en) 2017-01-19 2019-12-24 Mindmaze Holding Sa System, method and apparatus for detecting facial expression in a virtual reality system
US10706324B2 (en) * 2017-01-19 2020-07-07 Hrl Laboratories, Llc Multi-view embedding with soft-max based compatibility function for zero-shot learning
EP3568804A2 (en) 2017-02-07 2019-11-20 Mindmaze Holding S.A. Systems, methods and apparatuses for stereo vision and tracking
US11328533B1 (en) 2018-01-09 2022-05-10 Mindmaze Holding Sa System, method and apparatus for detecting facial expression for motion capture
US20200042825A1 (en) * 2018-08-02 2020-02-06 Veritone, Inc. Neural network orchestration
CN109345515B (zh) * 2018-09-17 2021-08-17 代黎明 样本标签置信度计算方法、装置、设备及模型训练方法
WO2021229659A1 (ja) * 2020-05-11 2021-11-18 日本電気株式会社 判定装置、判定方法および記録媒体
EP4185976A4 (en) * 2020-07-21 2024-01-03 Royal Bank of Canada SEGMENTATION INTO LEXICAL UNITS OF FACIAL RECOGNITION

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6778705B2 (en) * 2001-02-27 2004-08-17 Koninklijke Philips Electronics N.V. Classification of objects through model ensembles

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100886557B1 (ko) * 2007-05-03 2009-03-02 삼성전자주식회사 적응형 학습에 기반한 얼굴 인식 시스템 및 방법
US8135220B2 (en) 2007-05-03 2012-03-13 Samsung Electronics Co., Ltd Face recognition system and method based on adaptive learning
KR100981832B1 (ko) * 2008-06-12 2010-09-13 인하대학교 산학협력단 Boosting 알고리즘 및 특징벡터분할 기법을 이용한얼굴특징 선택방법 및 장치
KR20220000310A (ko) 2020-06-25 2022-01-03 정여빈 안면 인식 최적화를 위한 클라우드 시스템
KR20220091821A (ko) 2020-12-24 2022-07-01 주식회사 유인원테크 디지털 합성/위조 안면 검증 시스템

Also Published As

Publication number Publication date
EP1433118B1 (en) 2005-12-21
US7308133B2 (en) 2007-12-11
CN1276380C (zh) 2006-09-20
CN1559051A (zh) 2004-12-29
US20030063780A1 (en) 2003-04-03
JP2005505062A (ja) 2005-02-17
WO2003030085A1 (en) 2003-04-10
ATE313831T1 (de) 2006-01-15
EP1433118A1 (en) 2004-06-30
DE60208223T2 (de) 2006-08-10
DE60208223D1 (de) 2006-01-26

Similar Documents

Publication Publication Date Title
KR20040037180A (ko) 학습 모델 부분들을 사용하는 안면 인식 시스템 및 방법
Huang et al. Generative dual adversarial network for generalized zero-shot learning
US11282295B2 (en) Image feature acquisition
US7447338B2 (en) Method and system for face detection using pattern classifier
JP4321645B2 (ja) 情報処理装置および情報処理方法、認識装置および情報認識方法、並びに、プログラム
JPH1055444A (ja) Dctをベースとするフィーチャー・ベクトルを使った顔の認識
JP2868078B2 (ja) パターン認識方法
JP2004536383A (ja) 新しい差分lsi空間ベースの確率論的文書クラシファイア
US20200302169A1 (en) Method and system for classifying an input data set within a data category using multiple data recognition tools
CN110069959A (zh) 一种人脸检测方法、装置及用户设备
CN111008575A (zh) 一种基于多尺度上下文信息融合的鲁棒人脸识别方法
JP2005512172A (ja) 顔画像の時系列からの顔認識
US7454062B2 (en) Apparatus and method of pattern recognition
Cosovic et al. Classification methods in cultural heritage
WO2003030089A1 (en) System and method of face recognition through 1/2 faces
Peng et al. Document image quality assessment using discriminative sparse representation
JP2021021978A (ja) 情報処理装置及びプログラム
Cowie et al. An intelligent system for facial emotion recognition
Deffo et al. CNNSFR: A convolutional neural network system for face detection and recognition
Bergner et al. Deformable structural models
KR100621883B1 (ko) 학습에 기반을 둔 적응형 실시간 얼굴검출방법
Carrasco et al. Bimodal biometric person identification system under perturbations
Felföld et al. Ahp-based classifier combination
Hosseini et al. Facial expression recognition using wavelet-based salient points and subspace analysis methods
Lee et al. Intelligent image analysis using adaptive resource-allocating network

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application