KR100442835B1 - 인공 신경망을 이용한 얼굴 인식 방법 및 장치 - Google Patents

인공 신경망을 이용한 얼굴 인식 방법 및 장치 Download PDF

Info

Publication number
KR100442835B1
KR100442835B1 KR10-2002-0047898A KR20020047898A KR100442835B1 KR 100442835 B1 KR100442835 B1 KR 100442835B1 KR 20020047898 A KR20020047898 A KR 20020047898A KR 100442835 B1 KR100442835 B1 KR 100442835B1
Authority
KR
South Korea
Prior art keywords
face
neural network
unique
image
output
Prior art date
Application number
KR10-2002-0047898A
Other languages
English (en)
Other versions
KR20040015613A (ko
Inventor
기석철
김태균
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR10-2002-0047898A priority Critical patent/KR100442835B1/ko
Priority to US10/630,787 priority patent/US7295687B2/en
Priority to JP2003292732A priority patent/JP2004078959A/ja
Publication of KR20040015613A publication Critical patent/KR20040015613A/ko
Application granted granted Critical
Publication of KR100442835B1 publication Critical patent/KR100442835B1/ko

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/2431Multiple classes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Engineering & Computer Science (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Computational Linguistics (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Collating Specific Patterns (AREA)

Abstract

본 발명은 인공 신경망을 이용하여 얼굴을 인식하는 얼굴 인식 방법 및 장치를 개시한다. 본 발명의 얼굴 인식 장치는 얼굴의 특징 패턴을 나타내는 고유 팩셀들을 생성하고, 생성된 고유 팩셀들 중 소정수의 고유 팩셀들을 선정하는 고유 팩셀 선정부; 입력 영상을 선정된 고유 팩셀들로 각각 필터링하는 고유 필터링부; 선정된 고유 팩셀에 각각 대응되며, 대응되는 고유 팩셀로 필터링된 영상의 신호를 입력받아, 얼굴 인식 결과를 출력하는 소정수의 신경망; 및 각각의 신경망으로부터 인식결과를 입력받아, 입력 영상의 최종 얼굴 인식 결과를 출력하는 판단부를 포함한다.

Description

인공 신경망을 이용한 얼굴 인식 방법 및 장치{Face recognition method using artificial neural network, and the apparatus using thereof}
본 발명은 신경망을 이용하여 얼굴을 인식하는 방법 및 장치에 관한 것으로 특히, 소정의 얼굴 영상을 이용하여 신경망을 학습하고, 학습된 신경망에 인식의 대상이 되는 얼굴 영상의 특징을 추출하고 인가하여, 인식대상이 되는 얼굴 영상이 학습된 얼굴 영상과 동일한지 여부를 판단함으로써, 얼굴을 인식하는 방법 및 장치에 관한 것이다.
21세기 정보화 사회로 이행되는 과정에서 개인은 물론 특정 단체의 정보는 어느 자산보다도 중요한 가치를 지니게 되었다. 이렇게 중요한 정보를 보호하기 위해서 각종 패스워드가 사용되고, 기타 신분을 확인할 수 있는 기술이 절실히 요구되고 있다. 이 가운데 얼굴 인식 기술은 사용자가 특별한 동작이나 행위를 취하지 않고, 심지어는 사용자 자신이 인지하지 못하는 동안 신분 확인을 할 수 있다는 장점이 있기 때문에 가장 편리하고, 경쟁력 있는 신분 확인 방법으로 평가되고 있다.
정보 보호 차원을 넘어서 신용카드, 현금카드, 전자 주민등록증 등 신분 확인을 필요로 하는 사회적 요구는 계속 확대되고 있으나 현재까지는 비밀번호 이외의 보조적인 신분 확인 방법이 없기 때문에 컴퓨터를 사용한 범죄 등 많은 사회적 문제점을 안고 있다. 이러한 사회적 문제를 해결할 수 있는 방법으로 얼굴 인식 기술이 각광을 받고 있다. 이외에도, 얼굴 인식 기술은 단말기 접근 제어, 공공 장소 관제 시스템, 전자 사진첩, 범죄자 얼굴 인식 등 많은 응용 분야를 가지고 있어 정보화 사회에서 매우 유용한 기술이라고 평가된다.
현재 많이 이용되고 있는 얼굴 인식 기술로서, 얼굴 영상에 주성분 분석법(Principal Component Analysis: 이하, PCA라 약칭함)을 적용하여 얼굴을 인식하는 기술이 있다. 주성분 분석법은 영상 데이터를 영상 자체의 고유정보의 손실을 최소화하면서 저 차원 고유벡터 공간으로 투영시켜 정보를 축소시키는 기법이다. 주성분 분석법을 이용한 얼굴 인식 방법으로는 얼굴의 주요 특징 벡터를 추출한 후, 미리 등록된 영상으로부터 추출된 주성분 벡터로 학습된 패턴 분류기를 이용하여 얼굴을 인식하는 방법이 많이 사용되었다. 그러나, 이러한 방법은 대용량의 얼굴 인식에 있어서, 인식 속도와 신뢰성이 낮고, PCA 기저벡터를 선택함에 따라서 조명에는 강인한 특징을 얻을 수 있으나, 얼굴의 표정 또는 포즈의 변화에는 만족할 만한 얼굴 인식 결과를 얻을 수 없는 문제점이 있다.
한편, 얼굴 인식의 성능은 등록된 얼굴과 등록되지 않은 얼굴을 구별하는 패턴 분류기의 성능에 따라서 좌우되는데, 이러한 패턴 분류기를 학습하는 한 방법으로 인공 신경망(Artificial Neural Network: 이하, ANN이라 약칭함)을 이용하는 방법이 있다.
도 1 은 ANN[(Artificial Neural Network)]-PCA[(Principal ComponentAnalysis)] 방법의 얼굴 인식 장치의 일 예를 도시한 도이다.
실험적으로 정의된 크기의 2차원 윈도우를 팩셀(Paxel)이라고 정의할 때, 도 1 에 도시된 얼굴 인식 장치는 먼저, 입력 영상에 대하여 N x N 크기의 팩셀 윈도우(Paxel window)를 이동하면서 고유 필터링 (또는 convolution) 한다. 이 때, 팩셀 윈도우란 임의의 학습 영상을 소정의 크기의 블록으로 분할한 후, 각 블록에 주성분 분석법을 적용하여 얻어진 M개의 고유 팩셀 커널(eigenpaxel kernel)을 의미한다. 고유 필터링(Eigenfiltering)된 영상은 신경망으로의 입력 벡터로서는 차원이 너무 크기 때문에 서브 샘플링 기법으로 벡터의 차원을 줄여서 신경망의 입력으로 사용한다.
그러나, 도 1 에 도시된 얼굴 인식 장치는 고유 팩셀 커널의 성질을 고려하지 않고 모든 입력 벡터를 그대로 신경망의 입력값으로 사용하므로, 신경망 학습을 위한 연산량이 많아지고, 따라서 연산에 수행되는 시간이 길어지며, 인식 성능과 수렴성에서 성능이 저하되는 문제점이 있다.
본 발명의 이루고자 하는 기술적 과제는, 신경망의 학습에 필요한 연산량을 대폭 줄임으로써, 신경망의 학습 수렴 속도가 빠르고, 대용량의 얼굴 인식에 적합한 얼굴 인식 장치를 제공하는 것이다.
도 1 은 종래의 신경망을 이용한 얼굴 인식 장치의 일 예를 도시하는 도면이다.
도 2a 는 본 발명의 바람직한 실시예에 따른 얼굴 인식 장치의 구성을 도시하는 블록도이다.
도 2b 는 도 2a 에 도시된 판단부의 구성을 도시하는 블록도이다.
도 3 은 본 발명의 바람직한 실시예에 따른 얼굴 인식 방법을 설명하는 흐름도이다.
도 4 는 도 3 의 S350 단계를 설명하는 흐름도이다.
도 5 는 본 발명의 바람직한 실시예에 따라서 선정되는 고유 팩셀의 예를 도시하는 도면이다.
도 6 은 일반적인 인공 신경망의 구조를 나타내는 도면이다.
도 7 은 2 개의 입력 영상에 대해서 도 5 에 도시된 첫 번째 고유 팩셀로 고유 필터링하고 서브 샘플링한 영상, 및 10번째 고유 팩셀로 고유 필터링하고 서브 샘플링한 영상을 각각 나타낸 도면이다.
도 8 은 그레이드를 부여할 때, 적용되는 그레이드의 범위를 나타내는 표를도시 도면이다.
도 9 는 도 2a 의 판단부로 입력되는 각 신경망의 출력 뉴런의 순서를 도시한 도면이다.
상술한 본 발명의 기술적 과제를 달성하기 위한 본 발명의 바람직한 실시예에 따른, 인공 신경망을 이용하여 얼굴을 인식하는 얼굴 인식 장치는, 얼굴의 특징패턴을 나타내는 고유 팩셀들을 생성하고, 생성된 고유 팩셀들 중 소정수의 고유 팩셀들을 선정하는 고유 팩셀 선정부; 입력 영상을 선정된 고유 팩셀들로 각각 필터링하는 고유 필터링부; 선정된 고유 팩셀에 각각 대응되며, 대응되는 고유 팩셀로 필터링된 영상의 신호를 입력받아, 얼굴 인식 결과를 출력하는 소정수의 신경망; 및 각각의 신경망으로부터 인식결과를 입력받아, 입력 영상의 최종 얼굴 인식 결과를 출력하는 판단부를 포함한다.
또한, 상술한 본 발명의 기술적 과제를 달성하기 위한 본 발명의 바람직한 실시예에 따른 다른 인공 신경망을 이용한 얼굴 인식 장치는, 얼굴의 특징 패턴을 나타내는 고유 팩셀들을 생성하고, 생성된 고유 팩셀들 중 소정수의 고유 팩셀들을 선정하는 고유 팩셀 선정부; 얼굴 영상을 입력받아 소정의 형식으로 정규화된 얼굴 영상을 출력하는 입력영상 정규화부; 정규화된 입력 영상을 선정된 고유 팩셀들로 각각 필터링하는 고유 필터링부; 각각의 고유 팩셀들로 필터링된 각각의 영상을 서브 샘플링하여 신경망에 입력하기 적합한 크기의 영상을 출력하는 서브 샘플링부; 선정된 고유 팩셀에 각각 대응되며, 대응되는 고유 팩셀로 필터링되고 서브 샘플링된 영상의 신호를 입력받아, 얼굴 인식 결과를 출력하는 소정수의 신경망; 및 각각의 신경망으로부터 인식결과를 입력받아, 입력 영상의 최종 얼굴 인식 결과를 출력하는 판단부를 포함한다.
또한, 상기 판단부는 입력된 각 신경망의 출력층 뉴런의 출력값을 소정의 범위의 값으로 변환하고, 신뢰값을 계산하며, 신뢰값들을 각 신경망의 출력층 뉴런에 대해서 합산하는 신뢰값 계산부; 신뢰값에 따라서 상위 소정수의 신경망에서 검출된 얼굴을 선정하는 얼굴 선정부; 각 신경망의 신뢰값에 그레이드를 부여하고, 선정된 얼굴에 대해서, 전체 신경망의 제 1 그레이드 순서 및 상위 소정수의 신경망의 제 2 그레이드 순서를 계산하는 그레이드 연산부; 제 1 및 제 2 그레이드 순서를 소정의 제 1 및 제 2 임계 그레이드 순서와 각각 비교하여 상기 선정된 얼굴들을 소정의 얼굴 그룹으로 분류하는 그룹핑부; 및 소정의 얼굴 그룹 중 제 1 및 제 2 임계 그레이드 순서보다 큰 제 1 및 제 2 그레이드를 갖는 제 1 얼굴 그룹에 속하는 얼굴을 인식 결과로서 출력하는 인식 결과 출력부를 포함하는 것이 바람직하다.
상술한 본 발명의 기술적 과제를 달성하기 위한 본 발명의 바람직한 실시예에 따른, 인공 신경망을 이용하여 얼굴을 인식하는 얼굴 인식 방법은, 얼굴의 특징 패턴을 나타내는 고유 팩셀들을 생성하고, 생성된 고유 팩셀들 중 소정수의 고유 팩셀들을 선정하는 단계; 선정된 고유 팩셀들을 이용하여 신경망을 학습하는 단계; 입력 영상을 선정된 고유 팩셀들로 각각 고유 필터링하여, 고유 필터에 대응되는 얼굴 특징 패턴이 나타나는 고유 필터링된 영상을 얻는 단계; 고유 필터링된 영상을 선정된 고유 팩셀에 각각 대응되는 신경망으로 출력하여 각각의 얼굴 특징 패턴에 대해서 얼굴 인식을 수행하는 단계; 각 신경망의 얼굴 인식 결과를 분석하여, 입력 영상의 최종 얼굴 인식 결과를 출력하는 단계를 포함한다.
또한, 상술한 본 발명의 기술적 과제를 달성하기 위한 본 발명의 바람직한 실시예에 따른 다른 인공 신경망을 이용한 얼굴 인식 방법은, 얼굴의 특징 패턴을 나타내는 고유 팩셀들을 생성하고, 생성된 고유 팩셀들 중 소정수의 고유 팩셀들을선정하는 단계; 선정된 고유 팩셀들을 이용하여 신경망을 학습하는 단계; 입력된 얼굴 영상을 소정의 형식의 얼굴 영상으로 정규화하는 단계; 정규화된 얼굴 영상을 선정된 고유 팩셀들로 각각 고유 필터링하여, 고유 필터에 대응되는 얼굴 특징 패턴이 나타나는 고유 필터링된 영상을 얻는 단계; 고유 필터링된 각각의 영상을 서브 샘플링하여 신경망에 입력하기 적합한 크기의 영상을 얻는 단계; 고유 필터링되고 서브 샘플링된 영상을 선정된 고유 팩셀에 각각 대응되는 신경망으로 출력하여 각각의 얼굴 특징 패턴에 대해서 얼굴 인식을 수행하는 단계; 및 각 신경망의 얼굴 인식 결과를 분석하여, 입력 영상의 최종 얼굴 인식 결과를 출력하는 단계를 포함한다.
또한, 출력층 뉴런의 출력값을 소정의 범위의 값으로 변환하여, 신뢰값을 계산하고, 신뢰값들을 각 신경망의 출력층 뉴런에 대해서 합산하는 단계; 신뢰값에 따라서 상위 소정수의 신경망에서 검출된 얼굴을 선정하는 단계; 각 신경망의 신뢰값에 그레이드를 부여하고, 선정된 얼굴에 대해서, 전체 신경망의 제 1 그레이드 순서 및 상위 소정수의 신경망의 제 2 그레이드 순서를 계산하는 단계; 제 1 및 제 2 그레이드 순서를 소정의 제 1 및 제 2 임계 그레이드 순서와 각각 비교하여 선정된 얼굴들을 소정의 얼굴 그룹으로 분류하는 단계; 및 소정의 얼굴 그룹 중 제 1 및 제 2 임계 그레이드 순서보다 큰 제 1 및 제 2 그레이드를 갖는 제 1 얼굴 그룹에 속하는 얼굴을 인식 결과로서 출력하는 단계를 포함하는 것이 바람직하다.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 설명한다.
도 2 는 본 발명의 바람직한 실시예에 따른 얼굴 인식 장치의 구성을 도시하는 도면이다.
본 발명의 인공 신경망을 이용하여 얼굴을 인식하는 얼굴 인식 장치는, 얼굴의 특징 패턴을 나타내는 소정수의 고유 팩셀들을 생성하고, 생성된 고유 팩셀들 중 소정수의 고유 팩셀들을 선정하는 고유 팩셀 선정부(200), 얼굴 영상을 입력받아 소정의 형식으로 정규화하는 입력영상 정규화부(210), 정규화된 입력 영상을 선정된 고유 팩셀들로 각각 필터링하는 고유 필터링부(220), 각각의 고유 팩셀들로 필터링된 각각의 영상을 서브 샘플링하여 신경망에 입력하기 적합한 크기의 영상을 출력하는 서브 샘플링부(230), 선정된 고유 팩셀에 각각 대응되도록 병렬로 배치되며 대응되는 고유 팩셀로 필터링되고 서브 샘플링된 영상의 신호를 입력받아 얼굴 인식 결과를 출력하는 소정수의 신경망(240), 및 각각의 신경망(240)으로부터 신뢰값을 입력받아 인식대상 영상의 얼굴 인식 결과를 출력하는 판단부(250)를 포함한다.
도 3 은 본 발명의 바람직한 실시예에 따른 얼굴 인식 방법의 과정을 설명하는 흐름도이다.
본 발명에 따라서 입력 얼굴 영상을 인식하고, 입력된 얼굴이 등록된 얼굴인지를 판단하기 위해서는, 먼저, 소정수의 고유 팩셀을 선정하고, 선정된 고유 팩셀을 이용해서 본 발명에서 패턴 분류기로서 작용하는 신경망(240)을 미리 학습하여야 한다(S300).
본 발명에서 이용되는 고유 팩셀을 설명한다. 먼저, 신경망(240)의 학습에 이용될 임의의 영상을 소정의 크기의 블록들로 분할하고, 각각의 분할된 블록을 팩셀이라고 정의한다. 각각의 팩셀들에 대해서 주성분 분석법(PCA)을 적용하면, 도 5 에 도시된 바와 같은 형태의 고유 팩셀들이 얻어진다.
각각의 고유 팩셀은 얼굴 영역의 특징을 나타내는데, 도 5 에 도시된 첫 번째 고유 팩셀은 얼굴 영역에서 평평한 부분을 나타내고, 2번째 및 3번째 고유 팩셀과 같은 사선으로 분포되는 특징을 나타내는 고유 팩셀은 턱선과 같이 얼굴에서 사선이 분포되는 부분의 특성을 각각 나타낸다.
이러한, 팩셀의 크기는 연산속도와 비교해서 얼마나 만족할 만한 신경망 학습 결과 및 인식 결과가 나오는가에 따라서 결정된다. 즉, 팩셀의 크기가 너무 크면 연산량이 많아져서 신경망의 학습과 얼굴 인식에 지나치게 많은 시간이 소요되고, 팩셀의 크기가 너무 작으면, 얼굴의 특징을 제대로 표현할 수 없기 때문에, 이러한 사항을 고려하여 팩셀의 크기를 선택한다.
도 5 에 도시된바와 같은 고유 팩셀들이 얻어지면, 고유팩셀 선정부(200)는 얻어진 고유팩셀 중에서 고유값(eigenvalue)이 가장 큰 고유 팩셀들, 즉, 가장 많은 성분이 검출되는 고유팩셀들의 순서로 고유팩셀을 배치하고, 그 중에서 소정수(이하, "M 개"라 칭함)의 고유 팩셀을 선정한다. 도 5 는 16 ×16 크기의 15개의 고유 팩셀을 고유값이 큰 순서로 배치하였다.
한편, 학습 및 얼굴 인식에 이용될 소정수의 고유 팩셀이 선정되면, 후술할 얼굴 인식과 동일한 과정을 통해서 신경망을 학습하게 되는데, 본 발명은 학습의 일예로서, 일반적인 신경망 학습방법중의 하나인 Supervised Learning 방법을 이용하여 신경망을 학습하였다.
도 6 은 일반적인 신경망의 구조를 도시한 도면이다. 일반적인 신경망은 입력층, 은닉층 및 출력층을 포함하며, 은닉층은 필요에 따라서 1 이상의 층으로 구성될 수 있다. 이러한, 신경망을 학습시키기 위한 알고리즘으로 본 실시예는 모멘텀을 갖는 역전파(back propagation) 알고리즘을 이용하였다. 이 알고리즘은 오차 영역이 매우 좁은 경우에 일반적으로 잘 알려진 역전파 알고리즘에, 발진을 피하기 위한 모멘텀(Momentum)을 부가한 것으로, 학습을 위한 업데이트된 웨이팅 계수는 다음의 수학식 1 에 의해서 계산된다.
여기서, η는 학습 계수를, j 는 현재 유닛의 인덱스를 각각 나타낸다. 또한, i 는 유닛 j 에 선행하는 유닛의 인덱스를, δj는 유닛 j 의 출력 오차를, Oi는 유닛 i 의 출력을, α는 모멘텀의 영향을 특정하는 상수를 각각 나타낸다.
본 실시예에서는 간략한 학습(brief learning) 및 집중 학습(intensive learning)의 2가지 타입의 학습방법을 사용하였다.
간략한 학습의 경우에, η=0.1 , α=0.05 , c=0.05 , dmax= 0.01 로 각각 설정하였고, 집중 학습의 경우에 η=0.01 , α=0.0005 , c=0.01 , dmax= 0.0001 로 각각 설정하였다. 여기서, c 는 평탄점 제거량(the amount of flat spot elimination)을 나타내고, dmax는 최대 비-전파(non-propagation) 오차를 나타낸다. 학습 함수는 최초에 [-1,1] 범위의 임의의 웨이트로 설정되고, 토폴로지 차수(topological order)에 따라서 업데이트 된다. 오차가 대략 0.0001 이하가 되면 학습은 중단된다. 일반적으로, 모든 신경망은 간략하게 학습되고, 소정수의 신경망만이(본 실시예에서는 상위 4 개의 신경망) 집중 학습된다.
고유 팩셀이 선정되고 신경망(240)이 학습되면, 입력영상 정규화부(210)는 검증할 얼굴 영상을 입력받아 그레이 레벨로 정규화한 후 고유 필터링부(220)로 정규화된 영상을 출력한다(S310).
고유 필터링부(220)는 고유 팩셀 선정부(200)에서 선정된 M 개의 고유팩셀을 이용하여 정규화된 입력영상에 대해서 각각 고유 필터링을 수행하여, 얼굴의 특징을 나타내는 고유 필터링된 M 개의 영상를 얻는다(S320).
고유 필터링부(220)는 각각의 고유 팩셀을 정규화된 입력 영상에 대해서 이동시키면서 컨벌루션 연산을 수행함으로써 입력 영상을 고유 필터링하게 된다. 구체적으로, 입력된 영상을 소정의 블록들로 분할하고, 분할된 블록과 고유 팩셀이 소정의 퍼센트만큼 서로 겹쳐지도록 이동시키면서 컨벌루션 연산을 수행하면, 일정한 크기로 축소된 고유 필터링된 영상을 얻게 된다.
본 실시예에서는, 16 ×16 크기의 고유 팩셀 10개를 이용하였고, 컨벌루션 오버래핑(overlapping percentage)를 75% 로하여 입력 영상을 각각 고유 필터링 하였다. 약, 4~5 개의 고유 팩셀을 이용하여도 어느 정도 인식 성능이 보장된 결과를 얻을 수 있었으나, 보다 신뢰성이 높은 결과를 얻기 위해서 본 발명의 실시예는 10 개의 고유 팩셀을 선정하여, 40명에 대하여 주로 표정 및 포즈에 대한 10장의 영상을 가진 공지의 Olivetti DB의 얼굴 영상에 대해서 고유 필터링을 수행하였다.Olivetti DB에 저장된 원 영상은 92 ×112 크기의 영상으로, 이 영상을 16 ×16 크기의 고유 팩셀로 필터링하면 20 ×25 크기의 고유 필터링된 영상이 얻어진다.
그러나, 각각의 고유필터를 이용하여 고유 필터링된 얻어진 영상은 아직도 영상의 차원이 커서 신경망(240)에 입력하기에는 부적당하므로, 서브 샘플링부(230)는 필터링된 영상에 대해서 서브 샘플링을 수행하여 벡터의 차원을 줄인다(S330).
본 실시예에서는 20 ×25 크기의 고유 필터링된 영상을 2 ×2 크기의 서브 샘플링을 이용하여 10 ×12 크기의 영상으로 서브 샘플링함으로써, 신경망(240)에 입력되는 벡터의 차원을 줄인다.
서브 샘플링부(230)는 서브 샘플링된 영상을 병렬 구조의 신경망(240)에 인가한다(S340). 먼저, 본 발명이 병렬 구조의 신경망(240)을 채택한 이유를 살펴본다.
도 7 은 2 개의 입력 영상에 대해서 도 5 에 도시된 첫 번째 고유 팩셀로 필터링하고 서브 샘플링한 영상, 및 10번째 고유 팩셀로 필터링하고 서브 샘플링한 영상을 각각 나타내었다. 도 7 에 도시된 바와 같이, 동일한 얼굴의 영상이라 하더라도 고유팩셀에 따라서 필터링된 후 나타나는 벡터 영상은 서로 다르게 나타난다. 반면, 다른 얼굴 영상이라 하더라도 동일한 고유 팩셀로 필터링된 후 나타나는 벡터 영상은 서로 유사한 특징을 나타내는 것을 알 수 있다.
따라서, 동일한 얼굴이라도 각각의 고유 필터로 필터링된 영상은 서로 다른 특징을 나타내므로, 동일한 신경망에 상술한 다른 특징을 갖는 영상 벡터들을 입력하여, 신경망을 통해서 이런 다른 특징을 나타내는 영상이 서로 동일한 얼굴 영상임을 학습시키기 위해서는 상당한 양의 학습 영상 데이터와 복잡한 학습 알고리즘이 필요하다. 따라서, 신경망의 학습 수렴 속도가 매우 늦어지게 된다.
M개의 고유 팩셀 필터의 반응값으로 구해지는 신경망 입력 벡터의 통계적인 특징은 각 필터마다 고유한 특징을 가지고 있으므로, 얼굴 인식과 같이 사람 얼굴의 신원 변화를 찾아내야 하는 목적을 이루기 위해서는 같은 성질을 갖는 필터의 반응값만 가지고 신원의 변화를 학습할 수 있는 신경망을 구성하는 것이 바람직하다.
따라서, 본 발명은 도 2 에 도시된 바와 같이, 고유 팩셀로 영상을 필터링한 각각의 반응값을, 각각의 고유 팩셀에 대응되는 별개의 신경망에 인가하여 얼굴 학습 및 얼굴 인식을 수행할 수 있도록 병렬 구조의 신경망(240)을 채택한다.
병렬 구조의 신경망(240) 각각은 도 6 에 도시된 일반적인 신경망의 구조를 갖는다. 은닉층에서의 뉴런의 개수는 좋은 인식 성능을 보일 수 있는 충분한 연결이 가능하도록 선택된다. Olivetti DB에 저장된 총 40명, 사람 당 5장의 얼굴 영상을 학습한 본 실시예의 경우는 60개의 뉴런이 은닉층에 사용되었다. 또한, 본 실시예에서 고유 팩셀의 개수가 10개이므로, 동일한 구조의 신경망 10개를 병렬로 학습하였으며, 각각의 신경망은 입력 벡터의 차원이 10 ×12 이므로 입력층의 뉴런의 개수는 120개, 은닉층의 뉴런의 개수는 전술할 바와 같이 60개, 분류해야 하는 등록 인수가 40명이므로 출력층의 뉴런의 개수는 40개로 각각 구성된다.
참고로, 기존의 방법처럼 신경망 1개만을 사용하는 경우에는, 입력 뉴런의개수가 입력 벡터의 차원[120] ×고유 팩셀의 개수[10]와 같아야 하므로, 1200개의 입력 뉴런이 필요하게 된다. 따라서, 수많은 연결 조합을 학습해야 하므로 은닉 뉴런의 개수도 입력 뉴런의 개수에 따라서 늘어야 하고, 학습 시간도 기하 급수적으로 늘어나게 된다.
한편, 등록인의 수가 500명이며 표정 및 포즈에 대한 10장의 영상을 가진 HIU(Hong Ik University) DB에 고유 팩셀 10 개를 적용하여, 등록된 500명중 250명에 대하여 본 발명을 적용하는 경우에는, 입력 뉴런의 개수는 같으나, 출력 뉴런의 개수가 250개로 늘어나서, 은닉 뉴런의 개수는 100개가 필요하게 된다.
병렬로 연결된 도 2 의 각 신경망(240)들은 고유 팩셀로 필터링된 입력 영상에 대한 얼굴 인식 결과를 판단부(250)로 출력하게 되고, 판단부(250)는 입력된 결과들를 분석하여 최종적인 얼굴 인식 결과를 출력하게 된다(S350).
도 4 및 도 2b 를 참조하여, 본 발명의 판단부(250)에서 각각의 신경망으로부터 입력된 결과들을 종합하여 최종적인 얼굴 인식 결과를 판단하는 과정을 설명한다.
도 5 는 본 발명의 판단부(250)의 구성을 도시하는 도이다.
본 발명의 판단부(250)는, 입력된 출력 뉴런의 출력값을 소정의 범위의 값으로 변환하고 신뢰값을 계산하며 신뢰값들을 각 신경망의 출력 뉴런에 대해서 합산하는 신뢰값 계산부(251), 신뢰값에 따라서 상위 소정수의 신경망에서 검출된 얼굴을 선정하는 얼굴 선정부(253), 각 신경망의 신뢰값에 그레이드를 부여하고 선정된 얼굴에 대해서 전체 신경망(240)의 제 1 그레이드 순서 및 상위 소정수의 신경망의제 2 그레이드 순서를 계산하는 그레이드 연산부(255), 얼굴 선정부(253)에서 선정된 얼굴의 제 1 및 제 2 그레이드 순서를 소정의 제 1 및 제 2 임계 그레이드 순서와 각각 비교하여 소정의 얼굴 그룹으로 분류하는 그룹핑부(257), 및 소정의 얼굴 그룹에 속하는 얼굴을 인식 결과로서 출력하는 인식 결과 출력부(259)를 포함한다.
도 4 는 본 발명의 판단부(250)의 얼굴 인식 결과를 출력하는 과정을 설명하는 흐름도이다.
신뢰값 계산부(251)는 입력된 각각의 신경망의 출력층 뉴런의 출력값을 변환하여 신뢰값을 계산한다(S400).
각 신경망의 출력층 뉴런의 출력값들은 범위가 매우 다양하여 각 신경망간의 인식 결과를 비교하여 최종 인식 결과를 분석하기에는 어려움이 있다. 따라서, 본 발명은 각 신경망의 뉴런의 출력값들을 다른 신경망의 출력값들과 비교할 수 있도록 정규화하는 것이 필요하다. 따라서, 본 발명에서는 신경망의 각 출력값들에 대한 신경망의 출력값을 모두 합산한 값의 비를 신경망 뉴런의 출력값으로 이용한다.
본 발명의 바람직한 일 실시예의 신뢰값 계산부(251)는 신뢰값을 계산하기 위해서 각 신경망 출력층의 뉴런의 출력을 다음의 수학식 2 를 이용하여 출력층 뉴런의 출력값을 변환한다.
여기서, Wα는 신경망의 각 뉴런의 실제 출력값을, β는 출력층 뉴런의 전체 개수를 나타낸다.
그 후, 신뢰값 계산부(251)는 변환된 값들 중에서 최대값과 그 다음으로 큰 값간의 차에 최대값을 곱하여 신뢰값을 얻는다. 본 발명의 바람직한 일 실시예에서는 수학식 2에 의해서 변환된 출력값을 다음의 수학식 3에 대입하여 신뢰값을 계산한다.
여기서, ymax,1은 가장 큰 변환된 출력값을, ymax,2두 번째로 큰 변환된 출력값을 각각 나타낸다. 수학식 3 에 의해서 계산된 신뢰값은 각각의 신경망에서 최대 출력값을 갖는 출력층 뉴런의 신뢰값으로 부여되고, 나머지 출력층 뉴런들의 신뢰값은 0 으로 설정된다.
신뢰값 계산부(251)는 상술한 과정에 의해서 구해진 각 신경망의 신뢰값을 각각의 출력 뉴런에 대해서 합산한다(S410).
도 9 를 참조하여 설명하면, 도 9에 도시된 바와 같이 각각의 신경망 (1 내지 10) 은 각각 k 개의 출력 뉴런을 갖는다. 따라서 각각의 출력 뉴런에 대한 신뢰값의 합(S1 내지 Sk)은 다음과 같다.
S1=N1 1+N2 1+N3 1+N4 1.....N10 1
S2=N1 2+N2 2+N3 2+N4 2.....N10 2
S3=N1 3+N2 3+N3 3+N4 3.....N10 3
....
Sk=N1 k+N2 k+N3 k+N4 k.....N10 k
단, 각각의 출력 뉴런은 Nm n으로 나타내고, 여기서 m 은 각각의 신경망을 나타내며, n 은 각 신경망에서 출력 뉴런의 순서를 나타내는 것임은 도 9 에 도시한 바와 같다.
신경망의 각 출력 노드는 등록된 인물에 대응되고, 각 신경망의 i 번째 노드는 모두 동일한 인물에 대응되므로, 각 신경망의 동일한 출력 뉴런의 신뢰값을 합산하여, 입력된 영상에 대한 전체 신뢰값을 계산하게된다. 합산된 신뢰값은 후술할 인식 결과를 최종 결정하는 단계(S470)에서 이용된다.
얼굴 선정부(253)는 신뢰값 계산부(251)로부터 신뢰값 계산 결과를 입력받고, 상위 소정수의 신경망에 의해서 검출된 얼굴을 선정한다(S420).
상술한 바와 같이, 신뢰값은 각 신경망의 출력 뉴런 중 최고 출력값을 나타내는 하나의 출력 뉴런에만 부여되고, 각 출력 뉴런은 학습된 얼굴에 대응되므로, 각 신경망마다 하나의 얼굴이 검출된다. 얼굴 선정부(253)는 상위 소정수의 신경망, 본 발명의 실시예에서는 상위 4 개의 신경망으로부터 얼굴을 검출하여, 후보얼굴을 선정한다.
예컨대, 상술한 예에서 상술한 수학식 3에 의해서 계산된 신뢰값이 다음과 같을 때,
N1 1=0.9, N1 2=0, N1 3=0, N1 4=0, ....N1 k=0
N2 1=0 , N2 2=0.7, N2 3=0, N2 4=0, ....N2 k=0
N3 1=0 , N3 2=0, N3 3=0, N3 4=0, ....N3 k=0.01
N4 1=0 , N4 2=0, N4 3=0.1, N4 4=0, ....N4 k=0
....
N10 1=0.8, N10 2=0, N10 3=0, N10 4=0, ....N10 k=0
얼굴 선정부(253)에서 선정된 얼굴은, 상위 4 개의 신경망에서 검출된 첫 번째, 두 번째, k 번째 및 3 번째 출력 뉴런에 대응되는 얼굴이 된다.
그레이드 연산부(255)는 신뢰값 계산부(251)로부터 입력된 상기와 같은 신뢰값에 대해서 도 8 에 도시된 표에 따라서 각각의 신뢰값에 대해서 그레이드를 부여한다(S430).
상술한 예를 다시 참조하면, 제 1 신경망의 첫 번째 출력 뉴런의 신뢰값은 0.9 이므로 도 8 의 표에 따라서 그레이드 A 가 부여되고, 나머지 출력 뉴런에는 0 이 부여되어, 제 1 신경망에는 A000...0 이 부여된다.
또한, 제 1 신경망과 동일한 방식으로 제 2 신경망에는 0B00000000 가 부여되고, 제 3 신경망에는 000000000F 가, 제 4 신경망에는 00E0000000 가 부여되고, 제 5내지 제 9 신경망에도 제 1 신경망과 동일한 방식으로 그레이드가 부여되고, 마지막으로 제 10 신경망에는 A000000000 가 각각 부여된다.
그레이드 연산부(255)는 각 신경망의 신뢰값에 대해서 그레이드를 부여하고 난 후, 얼굴 선정부(253)로부터 선정된 얼굴을 입력받아, 선정된 얼굴에 대해서 전체 그레이드 순서를 계산한다(S440).
상술한 예를 다시 참조하면, 얼굴 선정부(253)에 의해서 선정된 얼굴은 1,2,k 및 3번째 얼굴이므로 이 4 개의 얼굴에 대한 각 신경망의 그레이드를 순서대로 나열하여 그레이드 순서를 계산한다. 예컨대, 제 1 신경망에서 선정된 첫 번째 얼굴에 대한 그레이드는, 제 1 신경망에서는 A 이고, 제 2 신경망에서는 0 이며, 제 3 신경망에서는 0 이고, 제 4 내지 제 9 신경망에 대해서도 이러한 방식으로 계산되어, 마지막으로 제 10 신경망에서는 A 이다.
상술한 방식으로 선정된 4 개의 얼굴에 대한 그레이드 순서를 구하면 다음과 같다.
G1= N1 1, N2 1, N3 1, N4 1,....., N10 1= A00000000A
G2= N1 2, N2 2, N3 2, N4 2,....., N10 2= 0B00000000
G3= N1 3, N2 3, N3 3, N4 3,....., N10 3= 000E000000
Gk= N1 k, N2 k, N3 k, N4 k,....., N10 k= 00F0000000
그레이드 연산부(255)는 선정된 얼굴에 대해서 전체 그레이드를 구한 후, 전체 그레이드에서 소정수의 신경망에 대한 그레이드 순서(이하, "기본 그레이드 순서"라 칭함)를 계산한다(S450).
예컨대, 전술한 그레이드 순서에서 4개의 신경망에 대한 기본 그레이드 순서를 구하면, G1= N1 1, N2 1, N3 1, N4 1= A000, G2= N1 2, N2 2, N3 2, N4 2= 0B00, G3= N1 3, N2 3, N3 3, N4 3= 000E, Gk= N1 k, N2 k, N3 k, N4 k,= 00F0 와 같다. 이 때, 소정수의 신경망은 후보 얼굴을 선정한 신경망인 것이 바람직하나, 그 보다 많은 수의 신경망을 선정하는 것도 무방하다.
그룹핑부(257)는 그레이드 연산부(255)로부터 선정된 얼굴 및 각 얼굴에 대한 전체 그레이드 순서 및 기본 그레이드 순서를 입력받아, 각 얼굴의 전체 그레이드 순서 및 기본 그레이드 순서를 전체 그레이드 순서에 대한 소정의 제 1 임계 그레이드 순서 및 기본 그레이드 순서에 대한 소정의 제 2 그레이드 순서와 각각 비교하여, 선정된 얼굴들을 소정의 그룹으로 분류한다(S460).
그룹핑부(257)는 상술한 바와 같이 비교하여, 선정된 얼굴을, 제 1 임계값과 제 2 임계값을 모두 초과하는 그레이드 순서들을 갖는 제 1 그룹, 제 1 임계값 또는 제 2 임계값 중 어느 하나만을 초과하는 제 2 그룹, 어느 임계값도 초과하지 못하는 제 3 그룹으로 분류한다. 이때, 그룹핑부(257)는 그레이드의 높고 낮음을대수적으로 비교함으로써 각 그레이드 순서와 임계값의 비교한다.
상술한 예를 참조하여 설명하면, 제 1 임계값이 BBBBAAAAAA 이고, 제 2 임계값이 0CAA 라고 한다면, 첫 번째 얼굴의 전체 그레이드 순서는 A00000000A 이므로 제 1 입계값보다 높고, 기본 그레이드 순서도 A0000 이므로 제 2 임계값보다도 높다. 따라서 첫 번째 얼굴은 제 1 그룹으로 결정된다.
한편, 두 번째 얼굴의 전체 그레이드 순서는 0B00000000 이므로 제 1 임계값 보다는 낮지만, 기본 그레이드 순서는 0B00 이므로 제 2 임계값보다는 높다. 따라서, 두 번째 얼굴은 제 2 그룹으로 분류된다. 세 번째 및 k 번째 얼굴에 대해서도 이와 같은 방식으로 그룹을 분류하여 각각의 얼굴과 얼굴에 해당되는 그룹을 인식결과 출력부(259)로 출력한다.
인식결과 출력부(259)는 입력된 얼굴과 해당되는 그룹에 따라서 얼굴 인식 결과를 출력한다(S470).
인식결과 출력부(259)는 입력된 얼굴 중 제 1 그룹에 속하는 얼굴을 인식결과로서 출력하고, 제 1 그룹에 속하는 얼굴이 없는 경우에는 제 2 그룹에 있는 얼굴을 인식 결과로서 출력한다. 한편, 동일한 그룹에 복수의 얼굴이 속하는 경우에는 상술한 제 S410 단계에서 계산된 얼굴에 대한 신뢰값의 합이 큰 얼굴을 인식 결과로서 출력한다.
한편, 본 발명의 바람직한 실시예에 따른 얼굴 인식 실험 결과를 다음의 표 1 및 표 2 에 기재하였다.
제 1 실험 제 2 실험
1개의 얼굴을 출력한 경우 4.5 % 4.5 %
2개의 얼굴을 출력한 경우 3.0 % 3.0 %
3개의 얼굴을 출력한 경우 2.5 % 2.5 %
표 1 에 기재된 실험 결과는 40 명의 얼굴에 대해서 각 얼굴마다 10 장의 얼굴 영상을 저장하고 있는 Olivetti DB에 대한 실험 결과이다. 표 1 의 제 1 실험은 Olivetti DB에 저장된 얼굴 영상 중 200 장의 홀수번째 영상을 학습하고, 200 장의 짝수번째 영상을 얼굴 인식 대상 얼굴영상으로 입력하였을 때 인식 오차 결과를 기재하였고, 제 2 실험은 그 역의 경우를 기재하였다. 상기 표에서, 인식 결과로서 1 명의 얼굴을 출력하였을 때 및 인식 결과로서 2 명 및 3 명을 출력하였을 때, 출력된 얼굴에 인식 대상 얼굴이 포함되었는지 여부에 따라서 인식 오차를 계산하였다.
간략 학습한 경우 집중 학습한 경우
1개의 얼굴을 출력한 경우 6.06 % 5.89 %
2개의 얼굴을 출력한 경우 4.06 % 3.89 %
3개의 얼굴을 출력한 경우 3.31 % 3.20 %
표 2 에 기재된 실험 결과는 250 명의 얼굴에 대해서 각 얼굴마다 10 장의 얼굴 영상을 저장하고 있는 HIU(Hong Ik University) DB에 대한 실험 결과이다. HIU DB 에 저장된 얼굴 영상 중 750장의 얼굴 영상으로 본 발명의 신경망을 학습하고, 1750 장의 얼굴 영상에 대해서 얼굴 인식을 수행하였으며, 신경망을 상술한 간략 학습한 경우와 집중 학습한 경우의 오차율에 대해서 각각 표 2 에 기재하였다.
본 발명은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플라피디스크, 광데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
이제까지 본 발명에 대하여 그 바람직한 실시예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.
본 발명의 다수의 신경망을 병렬로 구성하고, 각각의 신경망을 유사한 패턴적 특징을 갖는 고유 필터링된 영상으로 학습하고 얼굴 인식을 수행함으로써, 신경망의 학습 시간이 현저하게 감소시킬 수 있고, 신경망 학습 수렴 속도를 대폭 개선할 수 있는 효과가 있다. 아울러, 본 발명은 신경망을 병렬로 구성하여 각각의 신경망을 제어하기 위한 프로세서를 병렬로 구성하는 것이 가능하여, 학습 및 인식 속도를 크게 개선할 수 있게된다. 또한, 병렬로 구성된 각각의 신경망은 적은 양의 얼굴 영상만을 학습하고 인식을 수행하게 되므로 대용량의 데이터 베이스에 저장된 얼굴 인식에 적합하다.

Claims (33)

  1. 인공 신경망을 이용하여 얼굴을 인식하는 얼굴 인식 장치로서,
    얼굴의 특징 패턴을 나타내는 고유 팩셀들을 생성하고, 생성된 고유 팩셀들 중 소정수의 고유 팩셀들을 선정하는 고유 팩셀 선정부;
    입력 영상을 상기 선정된 고유 팩셀들로 각각 필터링하는 고유 필터링부;
    상기 선정된 고유 팩셀에 각각 대응되며, 대응되는 고유 팩셀로 필터링된 영상의 신호를 입력받아, 얼굴 인식 결과를 출력하는 소정수의 신경망; 및
    상기 각각의 신경망으로부터 인식결과를 입력받아, 상기 입력 영상의 최종 얼굴 인식 결과를 출력하는 판단부를 포함하는 것을 특징으로 하는 얼굴 인식 장치.
  2. 인공 신경망을 이용하여 얼굴을 인식하는 얼굴 인식 장치로서,
    얼굴의 특징 패턴을 나타내는 고유 팩셀들을 생성하고, 생성된 고유 팩셀들 중 소정수의 고유 팩셀들을 선정하는 고유 팩셀 선정부;
    얼굴 영상을 입력받아 소정의 형식으로 정규화된 얼굴 영상을 출력하는 입력영상 정규화부;
    상기 정규화된 입력 영상을 상기 선정된 고유 팩셀들로 각각 필터링하는 고유 필터링부;
    상기 각각의 고유 팩셀들로 필터링된 각각의 영상을 서브 샘플링하여 신경망에 입력하기 적합한 크기의 영상을 출력하는 서브 샘플링부;
    상기 선정된 고유 팩셀에 각각 대응되며, 대응되는 고유 팩셀로 필터링되고 서브 샘플링된 영상의 신호를 입력받아, 얼굴 인식 결과를 출력하는 소정수의 신경망; 및
    상기 각각의 신경망으로부터 인식결과를 입력받아, 상기 입력 영상의 최종 얼굴 인식 결과를 출력하는 판단부를 포함하는 것을 특징으로 하는 얼굴 인식 장치.
  3. 제 1 항 또는 제 2 항에 있어서, 상기 고유 팩셀 선정부는
    임의의 얼굴 영상을 소정의 블록들로 분할하고, 상기 각 블록들에 주성분 분석법을 적용하여 얼굴의 일정한 패턴적 특징을 나타내는 고유 팩셀을 생성하는 고유 팩셀 생성부를 포함하는 것을 특징으로 하는 얼굴 인식 장치.
  4. 제 3 항에 있어서, 상기 고유 팩셀 선정부는
    상기 선정된 고유 팩셀 중에서 고유값이 큰 벡터의 순서로 소정수의 벡터를 선택하는 고유 팩셀 선택부를 더 포함하는 것을 특징으로 하는 얼굴 인식 장치.
  5. 제 1 항 또는 제 2 항에 있어서, 상기 고유 필터링부는
    상기 입력 영상에 대해서 상기 각각의 고유 팩셀을 이동시키면서 컨벌루션 연산을 수행함으로써 상기 입력 영상을 고유 필터링하는 것을 특징으로 하는 얼굴 인식 장치.
  6. 제 5 항에 있어서, 상기 고유 필터링부는
    상기 입력된 영상을 소정의 블록들로 분할하고, 분할된 상기 블록과 고유 팩셀이 소정의 부분만큼 겹쳐지도록 상기 고유 팰셀을 이동시키면서 컨벌루션 연산을 수행하여, 소정의 크기로 축소된 고유 필터링된 영상을 출력하는 것을 특징으로 하는 얼굴 인식 장치.
  7. 제 1 항 또는 제 2 항에 있어서,
    상기 신경망은 모멘텀을 부가한 역전파(back propagation) 알고리즘에 의해서 학습되고,
    이 때의 웨이팅 계수(w sub i )는 다음의 수식에 의해서 갱신되며,
    상기 η는 학습 계수를, 상기 j 는 현재 유닛의 인덱스를, i 는 유닛 j 에 선행하는 유닛의 인덱스를, δj는 유닛 j 의 출력 오차를, Oi는 유닛 i 의 출력을, α는 모멘텀의 영향을 특정하는 상수를 각각 나타내는 것을 특징으로 하는 얼굴 인식 장치.
  8. 제 1 항 또는 제 2 항에 있어서, 상기 신경망의 출력층의 뉴런의 개수는 학습된 얼굴의 수와 동일한 것을 특징으로 하는 얼굴 인식 장치.
  9. 제 1 항 또는 제 2 항에 있어서, 상기 판단부는
    입력된 각 신경망의 출력층 뉴런의 출력값을 소정의 범위의 값으로 변환하고, 신뢰값을 계산하며, 상기 신뢰값들을 상기 각 신경망의 출력층 뉴런에 대해서 합산하는 신뢰값 계산부;
    상기 신뢰값에 따라서 상위 소정수의 신경망에서 검출된 얼굴을 선정하는 얼굴 선정부;
    상기 각 신경망의 신뢰값에 그레이드를 부여하고, 상기 선정된 얼굴에 대해서, 전체 신경망의 제 1 그레이드 순서 및 상위 소정수의 신경망의 제 2 그레이드 순서를 계산하는 그레이드 연산부;
    상기 제 1 및 제 2 그레이드 순서를 소정의 제 1 및 제 2 임계 그레이드 순서와 각각 비교하여 상기 선정된 얼굴들을 소정의 얼굴 그룹으로 분류하는 그룹핑부; 및
    상기 소정의 얼굴 그룹 중 제 1 및 제 2 임계 그레이드 순서보다 큰 제 1 및 제 2 그레이드를 갖는 제 1 얼굴 그룹에 속하는 얼굴을 인식 결과로서 출력하는 인식 결과 출력부를 포함하는 것을 특징으로 하는 얼굴 인식 장치.
  10. 제 9 항에 있어서, 상기 신뢰값 계산부는
    각 신경망의 출력층 뉴런의 각 출력값을, 각 출력값들에 대한 신경망의 출력값을 모두 합산한 값의 비로 변환하는 것을 특징으로 하는 얼굴 인식 장치.
  11. 제 10 항에 있어서, 상기 신뢰값 계산부는
    상기 각 신경망의 출력층 뉴런의 각 출력값을 다음의 수식에 의해서 변환하고,
    상기 Wα는 각 신경망의 출력층 뉴런의 실제 출력값을, β는 각 신경망의 출력층 뉴런의 개수를 각각 나타내는 것을 특징으로 하는 얼굴 인식 장치.
  12. 제 10 항에 있어서, 상기 신뢰값 계산부는
    상기 변환된 출력값을 이용하여 다음의 수식
    에 따라서 신경망의 신뢰값을 계산하며, 상기 ymax,1은 가장 큰 변환된 출력값을, ymax,2두 번째로 큰 변환된 출력값을 각각 나타내는 것을 특징으로 하는 얼굴 인식 장치.
  13. 제 12 항에 있어서, 상기 신경망의 신뢰값은
    변환된 최대 출력값을 갖는 출력층 뉴런의 신뢰값으로 설정되고, 나머지 출력층 뉴런의 신뢰값은 0 으로 설정되는 것을 특징으로 하는 얼굴 인식 장치.
  14. 제 11 항에 있어서, 상기 그레이드 연산부는
    상기 각 신경망의 신뢰값에 그레이드를 부여하고, 상기 선정된 얼굴에 대한 전체 신경망의 그레이드를 상위 신경망에서 하위 신경망의 순서로 나열한 제 1 그레이드 순서, 및 상기 선정된 얼굴에 대한 상기 소정수의 신경망의 그레이드를 상위 신경망에서 하위 신경망의 순서로 나열한 제 2 그레이드 순서를 계산하는 것을 특징으로 하는 얼굴 인식 장치.
  15. 제 11 항에 있어서, 상기 인식결과 출력부는
    제 1 얼굴 그룹에 속하는 복수개의 얼굴 중, 상기 신뢰값 계산부로부터 입력받은 합산된 신뢰값이 큰 얼굴을 인식결과로서 출력하는 것을 특징으로 하는 얼굴 인식 장치.
  16. 인공 신경망을 이용하여 얼굴을 인식하는 얼굴 인식 방법으로서,
    (a) 얼굴의 특징 패턴을 나타내는 고유 팩셀들을 생성하고, 생성된 고유 팩셀들 중 소정수의 고유 팩셀들을 선정하는 단계;
    (b) 상기 선정된 고유 팩셀들을 이용하여 상기 신경망을 학습하는 단계;
    (d) 입력 영상을 상기 선정된 고유 팩셀들로 각각 고유 필터링하여, 상기 고유 필터에 대응되는 얼굴 특징 패턴이 나타나는 고유 필터링된 영상을 얻는 단계;
    (f) 상기 고유 필터링된 영상을 상기 선정된 고유 팩셀에 각각 대응되는 신경망으로 출력하여 각각의 얼굴 특징 패턴에 대해서 얼굴 인식을 수행하는 단계;
    (g) 상기 각 신경망의 얼굴 인식 결과를 분석하여, 상기 입력 영상의 최종 얼굴 인식 결과를 출력하는 단계를 포함하는 것을 특징으로 하는 얼굴 인식 방법.
  17. 인공 신경망을 이용하여 얼굴을 인식하는 얼굴 인식 방법으로서,
    (a) 얼굴의 특징 패턴을 나타내는 고유 팩셀들을 생성하고, 생성된 고유 팩셀들 중 소정수의 고유 팩셀들을 선정하는 단계;
    (b) 상기 선정된 고유 팩셀들을 이용하여 상기 신경망을 학습하는 단계;
    (c) 입력된 얼굴 영상을 소정의 형식의 얼굴 영상으로 정규화하는 단계;
    (d) 상기 정규화된 얼굴 영상을 상기 선정된 고유 팩셀들로 각각 고유 필터링하여, 상기 고유 필터에 대응되는 얼굴 특징 패턴이 나타나는 고유 필터링된 영상을 얻는 단계;
    (e) 상기 고유 필터링된 각각의 영상을 서브 샘플링하여 신경망에 입력하기 적합한 크기의 영상을 얻는 단계;
    (f) 상기 고유 필터링되고 서브 샘플링된 영상을 상기 선정된 고유 팩셀에 각각 대응되는 신경망으로 출력하여 각각의 얼굴 특징 패턴에 대해서 얼굴 인식을 수행하는 단계; 및
    (g) 상기 각 신경망의 얼굴 인식 결과를 분석하여, 상기 입력 영상의 최종 얼굴 인식 결과를 출력하는 단계를 포함하는 것을 특징으로 하는 얼굴 인식 방법.
  18. 제 16 항 또는 제 17 항에 있어서, 상기 (a) 단계는
    임의의 얼굴 영상을 소정의 블록들로 분할하고, 상기 각 블록들에 주성분 분석법을 적용하여 얼굴의 일정한 패턴적 특징을 나타내는 고유 팩셀을 생성하는 단계를 포함하는 것을 특징으로 하는 얼굴 인식 방법.
  19. 제 18 항에 있어서, 상기 (a) 단계는
    상기 생성된 고유 팩셀 중에서 고유값이 큰 벡터의 순서로 소정수의 벡터를 선택하는 단계를 더 포함하는 것을 특징으로 하는 얼굴 인식 방법.
  20. 제 16 항 또는 제 17 항에 있어서, 상기 (b) 단계는
    모멘텀을 부가한 역전파(back propagation) 알고리즘에 의해서 상기 신경망을 학습하고,
    이 때의 웨이팅 계수(w sub i )는 다음의 수식에 의해서 갱신되며,
    상기 η는 학습 계수를, 상기 j 는 현재 유닛의 인덱스를, i 는 유닛 j 에 선행하는 유닛의 인덱스를, δj는 유닛 j 의 출력 오차를, Oi는 유닛 i 의 출력을, α는 모멘텀의 영향을 특정하는 상수를 각각 나타내는 것을 특징으로 하는 얼굴 인식 방법.
  21. 제 16 항 또는 제 17 항에 있어서, 상기 신경망의 출력층의 뉴런의 개수는 학습된 얼굴의 수와 동일한 것을 특징으로 하는 얼굴 인식 방법.
  22. 제 16 항 또는 제 17 항에 있어서, 상기 (d) 단계는
    상기 입력 영상에 대해서 상기 각각의 고유 팩셀을 이동시키면서 컨벌루션 연산을 수행함으로써 상기 입력 영상을 고유 필터링하는 것을 특징으로 하는 얼굴 인식 방법.
  23. 제 22 항에 있어서, 상기 (d) 단계는
    상기 입력 영상을 소정의 블록들로 분할하고, 분할된 상기 블록과 고유 팩셀이 소정의 부분만큼 겹쳐지도록 상기 고유 팰셀을 이동시키면서 컨벌루션 연산을 수행하여, 소정의 크기로 축소된 고유 필터링된 영상을 얻는 것을 특징으로 하는 얼굴 인식 방법.
  24. 제 16 항 또는 제 17 항에 있어서, 상기 (b) 단계는
    (b1) 입력된 학습영상을 소정의 형식으로 정규화하는 단계;
    (b2) 상기 정규화된 학습 영상을 상기 (a) 단계에서 선정된 고유 팩셀들로 각각 고유 필터링하여, 상기 고유 필터에 대응되는 얼굴 특징 패턴이 나타나는 고유 필터링된 영상을 얻는 단계; 및
    (b3) 상기 고유 필터링된 각각의 영상을 서브 샘플링하고, 상기 선정된 고유팩셀에 각각 대응되는 신경망에 입력하여, 상기 각각의 신경망을 학습하는 단계를 포함하는 것을 특징으로 하는 얼굴 인식 방법.
  25. 제 16 항 또는 제 17 항에 있어서, 상기 (g) 단계는
    (g1) 상기 출력층 뉴런의 출력값을 소정의 범위의 값으로 변환하여, 신뢰값을 계산하고, 상기 신뢰값들을 상기 각 신경망의 출력층 뉴런에 대해서 합산하는 단계;
    (g2) 상기 신뢰값에 따라서 상위 소정수의 신경망에서 검출된 얼굴을 선정하는 단계;
    (g3) 상기 각 신경망의 신뢰값에 그레이드를 부여하고, 상기 선정된 얼굴에 대해서, 전체 신경망의 제 1 그레이드 순서 및 상위 소정수의 신경망의 제 2 그레이드 순서를 계산하는 단계;
    (g4) 상기 제 1 및 제 2 그레이드 순서를 소정의 제 1 및 제 2 임계 그레이드 순서와 각각 비교하여 상기 선정된 얼굴들을 소정의 얼굴 그룹으로 분류하는 단계; 및
    (g5) 상기 소정의 얼굴 그룹 중 제 1 및 제 2 임계 그레이드 순서보다 큰 제 1 및 제 2 그레이드를 갖는 제 1 얼굴 그룹에 속하는 얼굴을 인식 결과로서 출력하는 단계를 포함하는 것을 특징으로 하는 얼굴 인식 방법.
  26. 제 25 항에 있어서, 상기 (g1) 단계는
    각 신경망의 출력층 뉴런의 각 출력값을, 각 출력값들에 대한 신경망의 출력값을 모두 합산한 값의 비로 변환하는 단계를 포함하는 것을 특징으로 하는 얼굴 인식 방법.
  27. 제 26 항에 있어서, 상기 (g1) 단계는
    상기 각 신경망의 출력층 뉴런의 각 출력값을 다음의 수식에 의해서 변환하고,
    상기 Wα는 각 신경망의 출력층 뉴런의 실제 출력값을, β는 각 신경망의 출력층 뉴런의 개수를 각각 나타내는 것을 특징으로 하는 얼굴 인식 방법.
  28. 제 26 항에 있어서, 상기 (g1) 단계는
    상기 변환된 출력값을 이용하여 다음의 수식
    에 따라서 신경망의 신뢰값을 계산하는 단계를 더 포함하며, 상기 ymax,1은 가장 큰 변환된 출력값을, ymax,2두 번째로 큰 변환된 출력값을 각각 나타내는 것을 특징으로 하는 얼굴 인식 방법.
  29. 제 28 항에 있어서, 상기 각 신경망의 신뢰값은
    상기 변환된 최대 출력값을 갖는 출력층 뉴런의 신뢰값으로 설정되고, 나머지 출력층 뉴런의 신뢰값은 0 으로 설정되는 것을 특징으로 하는 얼굴 인식 방법.
  30. 제 27 항에 있어서, 상기 (g3) 단계는
    상기 각 신경망의 신뢰값에 그레이드를 부여하는 단계; 및
    상기 선정된 얼굴에 대한 전체 신경망의 그레이드를 상위 신경망에서 하위 신경망의 순서로 나열한 제 1 그레이드 순서, 및 상기 선정된 얼굴에 대한 상기 소정수의 신경망의 그레이드를 상위 신경망에서 하위 신경망의 순서로 나열한 제 2 그레이드 순서를 계산하는 단계를 포함하는 것을 특징으로 하는 얼굴 인식 방법.
  31. 제 27 항에 있어서, 상기 (g5) 단계는
    제 1 얼굴 그룹에 속하는 복수개의 얼굴 중, 상기 (g1) 단계에서 계산된 합산된 신뢰값이 큰 얼굴을 인식결과로서 출력하는 것을 특징으로 하는 얼굴 인식 방법.
  32. 제 16 항 또는 제 17 항의 얼굴 인식 방법을 컴퓨터에서 판독할 수 있고, 실행 가능한 프로그램 코드로 기록한 기록 매체.
  33. 제 27 항의 얼굴 인식 방법을 컴퓨터에서 판독할 수 있고, 실행 가능한 프로그램 코드로 기록한 기록 매체.
KR10-2002-0047898A 2002-08-13 2002-08-13 인공 신경망을 이용한 얼굴 인식 방법 및 장치 KR100442835B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR10-2002-0047898A KR100442835B1 (ko) 2002-08-13 2002-08-13 인공 신경망을 이용한 얼굴 인식 방법 및 장치
US10/630,787 US7295687B2 (en) 2002-08-13 2003-07-31 Face recognition method using artificial neural network and apparatus thereof
JP2003292732A JP2004078959A (ja) 2002-08-13 2003-08-13 人工神経網を利用した顔認識法及びその装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR10-2002-0047898A KR100442835B1 (ko) 2002-08-13 2002-08-13 인공 신경망을 이용한 얼굴 인식 방법 및 장치

Publications (2)

Publication Number Publication Date
KR20040015613A KR20040015613A (ko) 2004-02-19
KR100442835B1 true KR100442835B1 (ko) 2004-08-02

Family

ID=31713124

Family Applications (1)

Application Number Title Priority Date Filing Date
KR10-2002-0047898A KR100442835B1 (ko) 2002-08-13 2002-08-13 인공 신경망을 이용한 얼굴 인식 방법 및 장치

Country Status (3)

Country Link
US (1) US7295687B2 (ko)
JP (1) JP2004078959A (ko)
KR (1) KR100442835B1 (ko)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180097949A (ko) 2017-02-24 2018-09-03 오치민 순차적 다중 합성곱 신경망을 이용한 영상 내 관절 자세 예측 방법
KR20200013174A (ko) 2018-07-20 2020-02-06 오치민 다중 합성곱 신경망을 이용한 영상 내 관절 좌표 예측 방법
KR20200017564A (ko) 2018-07-23 2020-02-19 오치민 인물 포즈 예측을 위한 사스 서비스 방법
KR20200087297A (ko) * 2018-12-28 2020-07-21 이화여자대학교 산학협력단 인공신경망 기반의 영상 분할을 이용한 불량 검출 방법 및 불량 검출 장치
US11514290B2 (en) 2017-03-28 2022-11-29 Samsung Electronics Co., Ltd. Convolutional neural network (CNN) processing method and apparatus
US11915119B2 (en) 2016-12-22 2024-02-27 Samsung Electronics Co., Ltd. Convolutional neural network (CNN) processing method and apparatus performing high speed and precision convolution operations

Families Citing this family (57)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100442835B1 (ko) * 2002-08-13 2004-08-02 삼성전자주식회사 인공 신경망을 이용한 얼굴 인식 방법 및 장치
US20090087534A1 (en) * 2002-08-14 2009-04-02 Mclemore John D Cooking apparatus
US7627148B2 (en) * 2004-07-06 2009-12-01 Fujifilm Corporation Image data processing apparatus and method, and image data processing program
KR100703528B1 (ko) 2004-12-09 2007-04-03 삼성전자주식회사 영상 인식 장치 및 방법
KR100729273B1 (ko) * 2005-02-04 2007-06-15 오병주 Pca와 역전파 알고리즘을 이용한 얼굴인식 방법
US7502495B2 (en) * 2005-03-01 2009-03-10 Microsoft Corporation Method and system for incrementally learning an adaptive subspace by optimizing the maximum margin criterion
WO2007020466A2 (en) * 2005-08-19 2007-02-22 Axeon Limited Data classification apparatus and method
US8014590B2 (en) * 2005-12-07 2011-09-06 Drvision Technologies Llc Method of directed pattern enhancement for flexible recognition
KR100745981B1 (ko) * 2006-01-13 2007-08-06 삼성전자주식회사 보상적 특징에 기반한 확장형 얼굴 인식 방법 및 장치
CN100357960C (zh) * 2006-03-08 2007-12-26 北京邮电大学 一种基于网格的并行、分布式识别人脸的方法
US9143573B2 (en) 2008-03-20 2015-09-22 Facebook, Inc. Tag suggestions for images on online social networks
US8666198B2 (en) 2008-03-20 2014-03-04 Facebook, Inc. Relationship mapping employing multi-dimensional context including facial recognition
CN101639937B (zh) * 2009-09-03 2011-12-14 复旦大学 一种基于人工神经网络的超分辨率方法
TWI415011B (zh) * 2009-12-17 2013-11-11 Ind Tech Res Inst 人臉辨識方法及應用此方法之系統
US8400504B2 (en) 2010-04-05 2013-03-19 King Fahd University Of Petroleum And Minerals Contamination monitoring of high voltage insulators
JP5911165B2 (ja) * 2011-08-05 2016-04-27 株式会社メガチップス 画像認識装置
US9142030B2 (en) * 2013-03-13 2015-09-22 Emory University Systems, methods and computer readable storage media storing instructions for automatically segmenting images of a region of interest
US9520042B2 (en) 2013-09-17 2016-12-13 Microchip Technology Incorporated Smoke detector with enhanced audio and communications capabilities
US9159218B2 (en) 2013-09-17 2015-10-13 Microchip Technology Incorporated Initiation of carbon monoxide and/or smoke detector alarm test using image recognition and/or facial gesturing
CN105096304B (zh) 2014-05-22 2018-01-02 华为技术有限公司 一种图像特征的估计方法和设备
US10417525B2 (en) 2014-09-22 2019-09-17 Samsung Electronics Co., Ltd. Object recognition with reduced neural network weight precision
US9384560B2 (en) * 2014-10-27 2016-07-05 King Fahd University Of Petroleum And Minerals Contamination level estimation method for high voltage insulators
US10127439B2 (en) 2015-01-15 2018-11-13 Samsung Electronics Co., Ltd. Object recognition method and apparatus
CN105938558B (zh) * 2015-03-06 2021-02-09 松下知识产权经营株式会社 学习方法
KR102450971B1 (ko) * 2015-05-08 2022-10-05 삼성전자주식회사 객체 인식 장치 및 방법
KR101824600B1 (ko) * 2015-09-08 2018-03-14 에스케이플래닛 주식회사 단말장치를 이용한 신용카드 번호 및 유효기간 인식 시스템 및 방법
WO2017068490A1 (en) 2015-10-23 2017-04-27 Semiconductor Energy Laboratory Co., Ltd. Semiconductor device and electronic device
DE112016000146T5 (de) * 2015-10-23 2017-07-06 Semiconductor Energy Laboratory Co., Ltd. Halbleitervorrichtung und elektronische Vorrichtung
CN107103171B (zh) * 2016-02-19 2020-09-25 阿里巴巴集团控股有限公司 机器学习模型的建模方法及装置
US10303977B2 (en) 2016-06-28 2019-05-28 Conduent Business Services, Llc System and method for expanding and training convolutional neural networks for large size input images
US9875398B1 (en) 2016-06-30 2018-01-23 The United States Of America As Represented By The Secretary Of The Army System and method for face recognition with two-dimensional sensing modality
US10083347B2 (en) 2016-07-29 2018-09-25 NTech lab LLC Face identification using artificial neural network
US10445565B2 (en) 2016-12-06 2019-10-15 General Electric Company Crowd analytics via one shot learning
WO2018117704A1 (en) 2016-12-23 2018-06-28 Samsung Electronics Co., Ltd. Electronic apparatus and operation method thereof
US10679083B2 (en) 2017-03-27 2020-06-09 Samsung Electronics Co., Ltd. Liveness test method and apparatus
CN108664782B (zh) * 2017-03-28 2023-09-12 三星电子株式会社 面部验证方法和设备
KR102359558B1 (ko) * 2017-03-28 2022-02-09 삼성전자주식회사 얼굴 인증 방법 및 장치
US10271008B2 (en) * 2017-04-11 2019-04-23 Advanced Micro Devices, Inc. Enhanced resolution video and security via machine learning
US20190073520A1 (en) * 2017-09-01 2019-03-07 Percipient.ai Inc. Identification of individuals in a digital file using media analysis techniques
GB201713829D0 (en) * 2017-08-29 2017-10-11 We Are Human Ltd Image data processing system and method
KR101867586B1 (ko) * 2017-09-22 2018-06-15 주식회사 이넘넷 영상 처리 장치 및 방법
US10748322B1 (en) 2017-10-13 2020-08-18 Umojify, Inc. Systems and methods for generating cartoon images from images
KR101896357B1 (ko) * 2018-02-08 2018-09-07 주식회사 라디코 객체를 검출하는 방법, 디바이스 및 프로그램
JP7166784B2 (ja) * 2018-04-26 2022-11-08 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
CN110795976B (zh) 2018-08-03 2023-05-05 华为云计算技术有限公司 一种训练物体检测模型的方法、装置以及设备
CN109767397B (zh) * 2019-01-09 2022-07-12 三星电子(中国)研发中心 一种基于人工智能的图像优化方法和系统
US10740593B1 (en) * 2019-01-31 2020-08-11 StradVision, Inc. Method for recognizing face using multiple patch combination based on deep neural network with fault tolerance and fluctuation robustness in extreme situation
KR102171691B1 (ko) * 2019-03-04 2020-10-29 인하대학교 산학협력단 증강현실 기반 3d 프린터 유지보수 방법 및 시스템
CN113747179B (zh) * 2019-03-07 2023-08-08 Oppo广东移动通信有限公司 环路滤波实现方法、装置及计算机存储介质
CN113039792A (zh) * 2019-03-07 2021-06-25 Oppo广东移动通信有限公司 环路滤波实现方法、装置及计算机存储介质
US10658005B1 (en) 2019-08-19 2020-05-19 Neon Evolution Inc. Methods and systems for image and voice processing
US10803646B1 (en) 2019-08-19 2020-10-13 Neon Evolution Inc. Methods and systems for image and voice processing
US10949715B1 (en) 2019-08-19 2021-03-16 Neon Evolution Inc. Methods and systems for image and voice processing
US10671838B1 (en) 2019-08-19 2020-06-02 Neon Evolution Inc. Methods and systems for image and voice processing
CN113204991B (zh) * 2021-03-25 2022-07-15 南京邮电大学 一种基于多层预处理的快速人脸检测方法
US11308657B1 (en) 2021-08-11 2022-04-19 Neon Evolution Inc. Methods and systems for image processing using a learning engine
CN115883842A (zh) * 2021-09-28 2023-03-31 腾讯科技(深圳)有限公司 滤波及编解码方法、装置、计算机可读介质及电子设备

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR19990009385A (ko) * 1997-07-09 1999-02-05 이계철 비선형 코릴레이션 신경망을 이용한 얼굴 위치 추적 방법
KR19990026863A (ko) * 1997-09-26 1999-04-15 전주범 퍼지 뉴러 얼굴 인식 방법
KR19990086440A (ko) * 1998-05-28 1999-12-15 전주범 신경 회로망과 은닉 마르코프 모델을 이용한얼굴 인식 방법
KR20010008715A (ko) * 1999-07-02 2001-02-05 학교법인 인하학원 다-차원 신경 회로망을 이용한 얼굴 검출 방법 및 그 장치
KR20020075960A (ko) * 2002-05-20 2002-10-09 주식회사 코난테크놀로지 신경회로망을 이용한 얼굴 영역 검출 방법

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5164992A (en) * 1990-11-01 1992-11-17 Massachusetts Institute Of Technology Face recognition system
US5699449A (en) * 1994-11-14 1997-12-16 The University Of Connecticut Method and apparatus for implementation of neural networks for face recognition
US5842194A (en) * 1995-07-28 1998-11-24 Mitsubishi Denki Kabushiki Kaisha Method of recognizing images of faces or general images using fuzzy combination of multiple resolutions
AUPP400998A0 (en) * 1998-06-10 1998-07-02 Canon Kabushiki Kaisha Face detection in digital images
US6944319B1 (en) * 1999-09-13 2005-09-13 Microsoft Corporation Pose-invariant face recognition system and process
US7127087B2 (en) * 2000-03-27 2006-10-24 Microsoft Corporation Pose-invariant face recognition system and process
US6920231B1 (en) * 2000-06-30 2005-07-19 Indentix Incorporated Method and system of transitive matching for object recognition, in particular for biometric searches
AUPR541801A0 (en) * 2001-06-01 2001-06-28 Canon Kabushiki Kaisha Face detection in colour images with complex background
US7027620B2 (en) * 2001-06-07 2006-04-11 Sony Corporation Method of recognizing partially occluded and/or imprecisely localized faces
US7050607B2 (en) * 2001-12-08 2006-05-23 Microsoft Corp. System and method for multi-view face detection
JP4210137B2 (ja) * 2002-03-04 2009-01-14 三星電子株式会社 2次icaを利用した顔認識法及びその装置
KR100438841B1 (ko) * 2002-04-23 2004-07-05 삼성전자주식회사 이용자 검증 및 데이터 베이스 자동 갱신 방법, 및 이를이용한 얼굴 인식 시스템
US7203346B2 (en) * 2002-04-27 2007-04-10 Samsung Electronics Co., Ltd. Face recognition method and apparatus using component-based face descriptor
KR100442835B1 (ko) * 2002-08-13 2004-08-02 삼성전자주식회사 인공 신경망을 이용한 얼굴 인식 방법 및 장치
KR100473598B1 (ko) * 2002-11-04 2005-03-11 삼성전자주식회사 가려진 얼굴영상을 판단하는 시스템 및 방법
TWI226589B (en) * 2003-04-28 2005-01-11 Ind Tech Res Inst Statistical facial feature extraction method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR19990009385A (ko) * 1997-07-09 1999-02-05 이계철 비선형 코릴레이션 신경망을 이용한 얼굴 위치 추적 방법
KR19990026863A (ko) * 1997-09-26 1999-04-15 전주범 퍼지 뉴러 얼굴 인식 방법
KR19990086440A (ko) * 1998-05-28 1999-12-15 전주범 신경 회로망과 은닉 마르코프 모델을 이용한얼굴 인식 방법
KR20010008715A (ko) * 1999-07-02 2001-02-05 학교법인 인하학원 다-차원 신경 회로망을 이용한 얼굴 검출 방법 및 그 장치
KR20020075960A (ko) * 2002-05-20 2002-10-09 주식회사 코난테크놀로지 신경회로망을 이용한 얼굴 영역 검출 방법

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11915119B2 (en) 2016-12-22 2024-02-27 Samsung Electronics Co., Ltd. Convolutional neural network (CNN) processing method and apparatus performing high speed and precision convolution operations
KR20180097949A (ko) 2017-02-24 2018-09-03 오치민 순차적 다중 합성곱 신경망을 이용한 영상 내 관절 자세 예측 방법
US11514290B2 (en) 2017-03-28 2022-11-29 Samsung Electronics Co., Ltd. Convolutional neural network (CNN) processing method and apparatus
KR20200013174A (ko) 2018-07-20 2020-02-06 오치민 다중 합성곱 신경망을 이용한 영상 내 관절 좌표 예측 방법
KR20200017564A (ko) 2018-07-23 2020-02-19 오치민 인물 포즈 예측을 위한 사스 서비스 방법
KR20200087297A (ko) * 2018-12-28 2020-07-21 이화여자대학교 산학협력단 인공신경망 기반의 영상 분할을 이용한 불량 검출 방법 및 불량 검출 장치
KR102166458B1 (ko) * 2018-12-28 2020-10-15 이화여자대학교 산학협력단 인공신경망 기반의 영상 분할을 이용한 불량 검출 방법 및 불량 검출 장치

Also Published As

Publication number Publication date
US20040034611A1 (en) 2004-02-19
US7295687B2 (en) 2007-11-13
JP2004078959A (ja) 2004-03-11
KR20040015613A (ko) 2004-02-19

Similar Documents

Publication Publication Date Title
KR100442835B1 (ko) 인공 신경망을 이용한 얼굴 인식 방법 및 장치
CN111652066B (zh) 基于多自注意力机制深度学习的医疗行为识别方法
JP4532915B2 (ja) パターン認識用学習方法、パターン認識用学習装置、画像入力装置、コンピュータプログラム、及びコンピュータ読み取り可能な記録媒体
Lampinen et al. Distortion tolerant pattern recognition based on self-organizing feature extraction
KR101254177B1 (ko) 방사형 기저 함수 신경회로망 알고리즘을 이용한 실시간 얼굴 인식 시스템
Heisele et al. Hierarchical classification and feature reduction for fast face detection with support vector machines
Littlewort et al. Towards social robots: Automatic evaluation of human-robot interaction by facial expression classification
CN111444881A (zh) 伪造人脸视频检测方法和装置
EP1388804A2 (en) Method and system for face detection using pattern classifier
JP2005352900A (ja) 情報処理装置、情報処理方法、パターン認識装置、及びパターン認識方法
Benkaddour et al. Human age and gender classification using convolutional neural network
CN111274987A (zh) 人脸表情识别方法及人脸表情识别装置
Benkaddour CNN based features extraction for age estimation and gender classification
CN109886281A (zh) 一种基于四元数超限学习机彩色图像识别方法
Shu et al. A SVM multi-class image classification method based on DE and KNN in smart city management
Aria et al. Generalized cooccurrence matrix to classify IRS-1D images using neural network
Pandey et al. A metaheuristic autoencoder deep learning model for intrusion detector system
Mehra et al. Expert system for speaker identification using lip features with PCA
Viennet et al. Connectionists methods for human face processing
JP2924442B2 (ja) パターン認識装置
JP3180477B2 (ja) パターン認識装置
KR20150131658A (ko) 2방향 2차원 주성분분석 알고리즘 및 다항식 방사형 기저함수 기반 신경회로망을 이용한 야간 얼굴 인식 방법
Devi et al. Algorithmic Study on Facial Emotion Recognition model with Optimal Feature Selection via Firefly Plus Jaya Algorithm
Bazanov et al. Hybrid and parallel face classifier based on artificial neural networks and principal component analysis
Bassiou et al. Frontal face detection using support vector machines and back-propagation neural networks

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20080708

Year of fee payment: 5

LAPS Lapse due to unpaid annual fee