KR100442835B1 - 인공 신경망을 이용한 얼굴 인식 방법 및 장치 - Google Patents
인공 신경망을 이용한 얼굴 인식 방법 및 장치 Download PDFInfo
- Publication number
- KR100442835B1 KR100442835B1 KR10-2002-0047898A KR20020047898A KR100442835B1 KR 100442835 B1 KR100442835 B1 KR 100442835B1 KR 20020047898 A KR20020047898 A KR 20020047898A KR 100442835 B1 KR100442835 B1 KR 100442835B1
- Authority
- KR
- South Korea
- Prior art keywords
- face
- neural network
- unique
- image
- output
- Prior art date
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/2431—Multiple classes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Engineering & Computer Science (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Multimedia (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Computational Linguistics (AREA)
- Biodiversity & Conservation Biology (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Collating Specific Patterns (AREA)
Abstract
본 발명은 인공 신경망을 이용하여 얼굴을 인식하는 얼굴 인식 방법 및 장치를 개시한다. 본 발명의 얼굴 인식 장치는 얼굴의 특징 패턴을 나타내는 고유 팩셀들을 생성하고, 생성된 고유 팩셀들 중 소정수의 고유 팩셀들을 선정하는 고유 팩셀 선정부; 입력 영상을 선정된 고유 팩셀들로 각각 필터링하는 고유 필터링부; 선정된 고유 팩셀에 각각 대응되며, 대응되는 고유 팩셀로 필터링된 영상의 신호를 입력받아, 얼굴 인식 결과를 출력하는 소정수의 신경망; 및 각각의 신경망으로부터 인식결과를 입력받아, 입력 영상의 최종 얼굴 인식 결과를 출력하는 판단부를 포함한다.
Description
본 발명은 신경망을 이용하여 얼굴을 인식하는 방법 및 장치에 관한 것으로 특히, 소정의 얼굴 영상을 이용하여 신경망을 학습하고, 학습된 신경망에 인식의 대상이 되는 얼굴 영상의 특징을 추출하고 인가하여, 인식대상이 되는 얼굴 영상이 학습된 얼굴 영상과 동일한지 여부를 판단함으로써, 얼굴을 인식하는 방법 및 장치에 관한 것이다.
21세기 정보화 사회로 이행되는 과정에서 개인은 물론 특정 단체의 정보는 어느 자산보다도 중요한 가치를 지니게 되었다. 이렇게 중요한 정보를 보호하기 위해서 각종 패스워드가 사용되고, 기타 신분을 확인할 수 있는 기술이 절실히 요구되고 있다. 이 가운데 얼굴 인식 기술은 사용자가 특별한 동작이나 행위를 취하지 않고, 심지어는 사용자 자신이 인지하지 못하는 동안 신분 확인을 할 수 있다는 장점이 있기 때문에 가장 편리하고, 경쟁력 있는 신분 확인 방법으로 평가되고 있다.
정보 보호 차원을 넘어서 신용카드, 현금카드, 전자 주민등록증 등 신분 확인을 필요로 하는 사회적 요구는 계속 확대되고 있으나 현재까지는 비밀번호 이외의 보조적인 신분 확인 방법이 없기 때문에 컴퓨터를 사용한 범죄 등 많은 사회적 문제점을 안고 있다. 이러한 사회적 문제를 해결할 수 있는 방법으로 얼굴 인식 기술이 각광을 받고 있다. 이외에도, 얼굴 인식 기술은 단말기 접근 제어, 공공 장소 관제 시스템, 전자 사진첩, 범죄자 얼굴 인식 등 많은 응용 분야를 가지고 있어 정보화 사회에서 매우 유용한 기술이라고 평가된다.
현재 많이 이용되고 있는 얼굴 인식 기술로서, 얼굴 영상에 주성분 분석법(Principal Component Analysis: 이하, PCA라 약칭함)을 적용하여 얼굴을 인식하는 기술이 있다. 주성분 분석법은 영상 데이터를 영상 자체의 고유정보의 손실을 최소화하면서 저 차원 고유벡터 공간으로 투영시켜 정보를 축소시키는 기법이다. 주성분 분석법을 이용한 얼굴 인식 방법으로는 얼굴의 주요 특징 벡터를 추출한 후, 미리 등록된 영상으로부터 추출된 주성분 벡터로 학습된 패턴 분류기를 이용하여 얼굴을 인식하는 방법이 많이 사용되었다. 그러나, 이러한 방법은 대용량의 얼굴 인식에 있어서, 인식 속도와 신뢰성이 낮고, PCA 기저벡터를 선택함에 따라서 조명에는 강인한 특징을 얻을 수 있으나, 얼굴의 표정 또는 포즈의 변화에는 만족할 만한 얼굴 인식 결과를 얻을 수 없는 문제점이 있다.
한편, 얼굴 인식의 성능은 등록된 얼굴과 등록되지 않은 얼굴을 구별하는 패턴 분류기의 성능에 따라서 좌우되는데, 이러한 패턴 분류기를 학습하는 한 방법으로 인공 신경망(Artificial Neural Network: 이하, ANN이라 약칭함)을 이용하는 방법이 있다.
도 1 은 ANN[(Artificial Neural Network)]-PCA[(Principal ComponentAnalysis)] 방법의 얼굴 인식 장치의 일 예를 도시한 도이다.
실험적으로 정의된 크기의 2차원 윈도우를 팩셀(Paxel)이라고 정의할 때, 도 1 에 도시된 얼굴 인식 장치는 먼저, 입력 영상에 대하여 N x N 크기의 팩셀 윈도우(Paxel window)를 이동하면서 고유 필터링 (또는 convolution) 한다. 이 때, 팩셀 윈도우란 임의의 학습 영상을 소정의 크기의 블록으로 분할한 후, 각 블록에 주성분 분석법을 적용하여 얻어진 M개의 고유 팩셀 커널(eigenpaxel kernel)을 의미한다. 고유 필터링(Eigenfiltering)된 영상은 신경망으로의 입력 벡터로서는 차원이 너무 크기 때문에 서브 샘플링 기법으로 벡터의 차원을 줄여서 신경망의 입력으로 사용한다.
그러나, 도 1 에 도시된 얼굴 인식 장치는 고유 팩셀 커널의 성질을 고려하지 않고 모든 입력 벡터를 그대로 신경망의 입력값으로 사용하므로, 신경망 학습을 위한 연산량이 많아지고, 따라서 연산에 수행되는 시간이 길어지며, 인식 성능과 수렴성에서 성능이 저하되는 문제점이 있다.
본 발명의 이루고자 하는 기술적 과제는, 신경망의 학습에 필요한 연산량을 대폭 줄임으로써, 신경망의 학습 수렴 속도가 빠르고, 대용량의 얼굴 인식에 적합한 얼굴 인식 장치를 제공하는 것이다.
도 1 은 종래의 신경망을 이용한 얼굴 인식 장치의 일 예를 도시하는 도면이다.
도 2a 는 본 발명의 바람직한 실시예에 따른 얼굴 인식 장치의 구성을 도시하는 블록도이다.
도 2b 는 도 2a 에 도시된 판단부의 구성을 도시하는 블록도이다.
도 3 은 본 발명의 바람직한 실시예에 따른 얼굴 인식 방법을 설명하는 흐름도이다.
도 4 는 도 3 의 S350 단계를 설명하는 흐름도이다.
도 5 는 본 발명의 바람직한 실시예에 따라서 선정되는 고유 팩셀의 예를 도시하는 도면이다.
도 6 은 일반적인 인공 신경망의 구조를 나타내는 도면이다.
도 7 은 2 개의 입력 영상에 대해서 도 5 에 도시된 첫 번째 고유 팩셀로 고유 필터링하고 서브 샘플링한 영상, 및 10번째 고유 팩셀로 고유 필터링하고 서브 샘플링한 영상을 각각 나타낸 도면이다.
도 8 은 그레이드를 부여할 때, 적용되는 그레이드의 범위를 나타내는 표를도시 도면이다.
도 9 는 도 2a 의 판단부로 입력되는 각 신경망의 출력 뉴런의 순서를 도시한 도면이다.
상술한 본 발명의 기술적 과제를 달성하기 위한 본 발명의 바람직한 실시예에 따른, 인공 신경망을 이용하여 얼굴을 인식하는 얼굴 인식 장치는, 얼굴의 특징패턴을 나타내는 고유 팩셀들을 생성하고, 생성된 고유 팩셀들 중 소정수의 고유 팩셀들을 선정하는 고유 팩셀 선정부; 입력 영상을 선정된 고유 팩셀들로 각각 필터링하는 고유 필터링부; 선정된 고유 팩셀에 각각 대응되며, 대응되는 고유 팩셀로 필터링된 영상의 신호를 입력받아, 얼굴 인식 결과를 출력하는 소정수의 신경망; 및 각각의 신경망으로부터 인식결과를 입력받아, 입력 영상의 최종 얼굴 인식 결과를 출력하는 판단부를 포함한다.
또한, 상술한 본 발명의 기술적 과제를 달성하기 위한 본 발명의 바람직한 실시예에 따른 다른 인공 신경망을 이용한 얼굴 인식 장치는, 얼굴의 특징 패턴을 나타내는 고유 팩셀들을 생성하고, 생성된 고유 팩셀들 중 소정수의 고유 팩셀들을 선정하는 고유 팩셀 선정부; 얼굴 영상을 입력받아 소정의 형식으로 정규화된 얼굴 영상을 출력하는 입력영상 정규화부; 정규화된 입력 영상을 선정된 고유 팩셀들로 각각 필터링하는 고유 필터링부; 각각의 고유 팩셀들로 필터링된 각각의 영상을 서브 샘플링하여 신경망에 입력하기 적합한 크기의 영상을 출력하는 서브 샘플링부; 선정된 고유 팩셀에 각각 대응되며, 대응되는 고유 팩셀로 필터링되고 서브 샘플링된 영상의 신호를 입력받아, 얼굴 인식 결과를 출력하는 소정수의 신경망; 및 각각의 신경망으로부터 인식결과를 입력받아, 입력 영상의 최종 얼굴 인식 결과를 출력하는 판단부를 포함한다.
또한, 상기 판단부는 입력된 각 신경망의 출력층 뉴런의 출력값을 소정의 범위의 값으로 변환하고, 신뢰값을 계산하며, 신뢰값들을 각 신경망의 출력층 뉴런에 대해서 합산하는 신뢰값 계산부; 신뢰값에 따라서 상위 소정수의 신경망에서 검출된 얼굴을 선정하는 얼굴 선정부; 각 신경망의 신뢰값에 그레이드를 부여하고, 선정된 얼굴에 대해서, 전체 신경망의 제 1 그레이드 순서 및 상위 소정수의 신경망의 제 2 그레이드 순서를 계산하는 그레이드 연산부; 제 1 및 제 2 그레이드 순서를 소정의 제 1 및 제 2 임계 그레이드 순서와 각각 비교하여 상기 선정된 얼굴들을 소정의 얼굴 그룹으로 분류하는 그룹핑부; 및 소정의 얼굴 그룹 중 제 1 및 제 2 임계 그레이드 순서보다 큰 제 1 및 제 2 그레이드를 갖는 제 1 얼굴 그룹에 속하는 얼굴을 인식 결과로서 출력하는 인식 결과 출력부를 포함하는 것이 바람직하다.
상술한 본 발명의 기술적 과제를 달성하기 위한 본 발명의 바람직한 실시예에 따른, 인공 신경망을 이용하여 얼굴을 인식하는 얼굴 인식 방법은, 얼굴의 특징 패턴을 나타내는 고유 팩셀들을 생성하고, 생성된 고유 팩셀들 중 소정수의 고유 팩셀들을 선정하는 단계; 선정된 고유 팩셀들을 이용하여 신경망을 학습하는 단계; 입력 영상을 선정된 고유 팩셀들로 각각 고유 필터링하여, 고유 필터에 대응되는 얼굴 특징 패턴이 나타나는 고유 필터링된 영상을 얻는 단계; 고유 필터링된 영상을 선정된 고유 팩셀에 각각 대응되는 신경망으로 출력하여 각각의 얼굴 특징 패턴에 대해서 얼굴 인식을 수행하는 단계; 각 신경망의 얼굴 인식 결과를 분석하여, 입력 영상의 최종 얼굴 인식 결과를 출력하는 단계를 포함한다.
또한, 상술한 본 발명의 기술적 과제를 달성하기 위한 본 발명의 바람직한 실시예에 따른 다른 인공 신경망을 이용한 얼굴 인식 방법은, 얼굴의 특징 패턴을 나타내는 고유 팩셀들을 생성하고, 생성된 고유 팩셀들 중 소정수의 고유 팩셀들을선정하는 단계; 선정된 고유 팩셀들을 이용하여 신경망을 학습하는 단계; 입력된 얼굴 영상을 소정의 형식의 얼굴 영상으로 정규화하는 단계; 정규화된 얼굴 영상을 선정된 고유 팩셀들로 각각 고유 필터링하여, 고유 필터에 대응되는 얼굴 특징 패턴이 나타나는 고유 필터링된 영상을 얻는 단계; 고유 필터링된 각각의 영상을 서브 샘플링하여 신경망에 입력하기 적합한 크기의 영상을 얻는 단계; 고유 필터링되고 서브 샘플링된 영상을 선정된 고유 팩셀에 각각 대응되는 신경망으로 출력하여 각각의 얼굴 특징 패턴에 대해서 얼굴 인식을 수행하는 단계; 및 각 신경망의 얼굴 인식 결과를 분석하여, 입력 영상의 최종 얼굴 인식 결과를 출력하는 단계를 포함한다.
또한, 출력층 뉴런의 출력값을 소정의 범위의 값으로 변환하여, 신뢰값을 계산하고, 신뢰값들을 각 신경망의 출력층 뉴런에 대해서 합산하는 단계; 신뢰값에 따라서 상위 소정수의 신경망에서 검출된 얼굴을 선정하는 단계; 각 신경망의 신뢰값에 그레이드를 부여하고, 선정된 얼굴에 대해서, 전체 신경망의 제 1 그레이드 순서 및 상위 소정수의 신경망의 제 2 그레이드 순서를 계산하는 단계; 제 1 및 제 2 그레이드 순서를 소정의 제 1 및 제 2 임계 그레이드 순서와 각각 비교하여 선정된 얼굴들을 소정의 얼굴 그룹으로 분류하는 단계; 및 소정의 얼굴 그룹 중 제 1 및 제 2 임계 그레이드 순서보다 큰 제 1 및 제 2 그레이드를 갖는 제 1 얼굴 그룹에 속하는 얼굴을 인식 결과로서 출력하는 단계를 포함하는 것이 바람직하다.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 설명한다.
도 2 는 본 발명의 바람직한 실시예에 따른 얼굴 인식 장치의 구성을 도시하는 도면이다.
본 발명의 인공 신경망을 이용하여 얼굴을 인식하는 얼굴 인식 장치는, 얼굴의 특징 패턴을 나타내는 소정수의 고유 팩셀들을 생성하고, 생성된 고유 팩셀들 중 소정수의 고유 팩셀들을 선정하는 고유 팩셀 선정부(200), 얼굴 영상을 입력받아 소정의 형식으로 정규화하는 입력영상 정규화부(210), 정규화된 입력 영상을 선정된 고유 팩셀들로 각각 필터링하는 고유 필터링부(220), 각각의 고유 팩셀들로 필터링된 각각의 영상을 서브 샘플링하여 신경망에 입력하기 적합한 크기의 영상을 출력하는 서브 샘플링부(230), 선정된 고유 팩셀에 각각 대응되도록 병렬로 배치되며 대응되는 고유 팩셀로 필터링되고 서브 샘플링된 영상의 신호를 입력받아 얼굴 인식 결과를 출력하는 소정수의 신경망(240), 및 각각의 신경망(240)으로부터 신뢰값을 입력받아 인식대상 영상의 얼굴 인식 결과를 출력하는 판단부(250)를 포함한다.
도 3 은 본 발명의 바람직한 실시예에 따른 얼굴 인식 방법의 과정을 설명하는 흐름도이다.
본 발명에 따라서 입력 얼굴 영상을 인식하고, 입력된 얼굴이 등록된 얼굴인지를 판단하기 위해서는, 먼저, 소정수의 고유 팩셀을 선정하고, 선정된 고유 팩셀을 이용해서 본 발명에서 패턴 분류기로서 작용하는 신경망(240)을 미리 학습하여야 한다(S300).
본 발명에서 이용되는 고유 팩셀을 설명한다. 먼저, 신경망(240)의 학습에 이용될 임의의 영상을 소정의 크기의 블록들로 분할하고, 각각의 분할된 블록을 팩셀이라고 정의한다. 각각의 팩셀들에 대해서 주성분 분석법(PCA)을 적용하면, 도 5 에 도시된 바와 같은 형태의 고유 팩셀들이 얻어진다.
각각의 고유 팩셀은 얼굴 영역의 특징을 나타내는데, 도 5 에 도시된 첫 번째 고유 팩셀은 얼굴 영역에서 평평한 부분을 나타내고, 2번째 및 3번째 고유 팩셀과 같은 사선으로 분포되는 특징을 나타내는 고유 팩셀은 턱선과 같이 얼굴에서 사선이 분포되는 부분의 특성을 각각 나타낸다.
이러한, 팩셀의 크기는 연산속도와 비교해서 얼마나 만족할 만한 신경망 학습 결과 및 인식 결과가 나오는가에 따라서 결정된다. 즉, 팩셀의 크기가 너무 크면 연산량이 많아져서 신경망의 학습과 얼굴 인식에 지나치게 많은 시간이 소요되고, 팩셀의 크기가 너무 작으면, 얼굴의 특징을 제대로 표현할 수 없기 때문에, 이러한 사항을 고려하여 팩셀의 크기를 선택한다.
도 5 에 도시된바와 같은 고유 팩셀들이 얻어지면, 고유팩셀 선정부(200)는 얻어진 고유팩셀 중에서 고유값(eigenvalue)이 가장 큰 고유 팩셀들, 즉, 가장 많은 성분이 검출되는 고유팩셀들의 순서로 고유팩셀을 배치하고, 그 중에서 소정수(이하, "M 개"라 칭함)의 고유 팩셀을 선정한다. 도 5 는 16 ×16 크기의 15개의 고유 팩셀을 고유값이 큰 순서로 배치하였다.
한편, 학습 및 얼굴 인식에 이용될 소정수의 고유 팩셀이 선정되면, 후술할 얼굴 인식과 동일한 과정을 통해서 신경망을 학습하게 되는데, 본 발명은 학습의 일예로서, 일반적인 신경망 학습방법중의 하나인 Supervised Learning 방법을 이용하여 신경망을 학습하였다.
도 6 은 일반적인 신경망의 구조를 도시한 도면이다. 일반적인 신경망은 입력층, 은닉층 및 출력층을 포함하며, 은닉층은 필요에 따라서 1 이상의 층으로 구성될 수 있다. 이러한, 신경망을 학습시키기 위한 알고리즘으로 본 실시예는 모멘텀을 갖는 역전파(back propagation) 알고리즘을 이용하였다. 이 알고리즘은 오차 영역이 매우 좁은 경우에 일반적으로 잘 알려진 역전파 알고리즘에, 발진을 피하기 위한 모멘텀(Momentum)을 부가한 것으로, 학습을 위한 업데이트된 웨이팅 계수는 다음의 수학식 1 에 의해서 계산된다.
여기서, η는 학습 계수를, j 는 현재 유닛의 인덱스를 각각 나타낸다. 또한, i 는 유닛 j 에 선행하는 유닛의 인덱스를, δj는 유닛 j 의 출력 오차를, Oi는 유닛 i 의 출력을, α는 모멘텀의 영향을 특정하는 상수를 각각 나타낸다.
본 실시예에서는 간략한 학습(brief learning) 및 집중 학습(intensive learning)의 2가지 타입의 학습방법을 사용하였다.
간략한 학습의 경우에, η=0.1 , α=0.05 , c=0.05 , dmax= 0.01 로 각각 설정하였고, 집중 학습의 경우에 η=0.01 , α=0.0005 , c=0.01 , dmax= 0.0001 로 각각 설정하였다. 여기서, c 는 평탄점 제거량(the amount of flat spot elimination)을 나타내고, dmax는 최대 비-전파(non-propagation) 오차를 나타낸다. 학습 함수는 최초에 [-1,1] 범위의 임의의 웨이트로 설정되고, 토폴로지 차수(topological order)에 따라서 업데이트 된다. 오차가 대략 0.0001 이하가 되면 학습은 중단된다. 일반적으로, 모든 신경망은 간략하게 학습되고, 소정수의 신경망만이(본 실시예에서는 상위 4 개의 신경망) 집중 학습된다.
고유 팩셀이 선정되고 신경망(240)이 학습되면, 입력영상 정규화부(210)는 검증할 얼굴 영상을 입력받아 그레이 레벨로 정규화한 후 고유 필터링부(220)로 정규화된 영상을 출력한다(S310).
고유 필터링부(220)는 고유 팩셀 선정부(200)에서 선정된 M 개의 고유팩셀을 이용하여 정규화된 입력영상에 대해서 각각 고유 필터링을 수행하여, 얼굴의 특징을 나타내는 고유 필터링된 M 개의 영상를 얻는다(S320).
고유 필터링부(220)는 각각의 고유 팩셀을 정규화된 입력 영상에 대해서 이동시키면서 컨벌루션 연산을 수행함으로써 입력 영상을 고유 필터링하게 된다. 구체적으로, 입력된 영상을 소정의 블록들로 분할하고, 분할된 블록과 고유 팩셀이 소정의 퍼센트만큼 서로 겹쳐지도록 이동시키면서 컨벌루션 연산을 수행하면, 일정한 크기로 축소된 고유 필터링된 영상을 얻게 된다.
본 실시예에서는, 16 ×16 크기의 고유 팩셀 10개를 이용하였고, 컨벌루션 오버래핑(overlapping percentage)를 75% 로하여 입력 영상을 각각 고유 필터링 하였다. 약, 4~5 개의 고유 팩셀을 이용하여도 어느 정도 인식 성능이 보장된 결과를 얻을 수 있었으나, 보다 신뢰성이 높은 결과를 얻기 위해서 본 발명의 실시예는 10 개의 고유 팩셀을 선정하여, 40명에 대하여 주로 표정 및 포즈에 대한 10장의 영상을 가진 공지의 Olivetti DB의 얼굴 영상에 대해서 고유 필터링을 수행하였다.Olivetti DB에 저장된 원 영상은 92 ×112 크기의 영상으로, 이 영상을 16 ×16 크기의 고유 팩셀로 필터링하면 20 ×25 크기의 고유 필터링된 영상이 얻어진다.
그러나, 각각의 고유필터를 이용하여 고유 필터링된 얻어진 영상은 아직도 영상의 차원이 커서 신경망(240)에 입력하기에는 부적당하므로, 서브 샘플링부(230)는 필터링된 영상에 대해서 서브 샘플링을 수행하여 벡터의 차원을 줄인다(S330).
본 실시예에서는 20 ×25 크기의 고유 필터링된 영상을 2 ×2 크기의 서브 샘플링을 이용하여 10 ×12 크기의 영상으로 서브 샘플링함으로써, 신경망(240)에 입력되는 벡터의 차원을 줄인다.
서브 샘플링부(230)는 서브 샘플링된 영상을 병렬 구조의 신경망(240)에 인가한다(S340). 먼저, 본 발명이 병렬 구조의 신경망(240)을 채택한 이유를 살펴본다.
도 7 은 2 개의 입력 영상에 대해서 도 5 에 도시된 첫 번째 고유 팩셀로 필터링하고 서브 샘플링한 영상, 및 10번째 고유 팩셀로 필터링하고 서브 샘플링한 영상을 각각 나타내었다. 도 7 에 도시된 바와 같이, 동일한 얼굴의 영상이라 하더라도 고유팩셀에 따라서 필터링된 후 나타나는 벡터 영상은 서로 다르게 나타난다. 반면, 다른 얼굴 영상이라 하더라도 동일한 고유 팩셀로 필터링된 후 나타나는 벡터 영상은 서로 유사한 특징을 나타내는 것을 알 수 있다.
따라서, 동일한 얼굴이라도 각각의 고유 필터로 필터링된 영상은 서로 다른 특징을 나타내므로, 동일한 신경망에 상술한 다른 특징을 갖는 영상 벡터들을 입력하여, 신경망을 통해서 이런 다른 특징을 나타내는 영상이 서로 동일한 얼굴 영상임을 학습시키기 위해서는 상당한 양의 학습 영상 데이터와 복잡한 학습 알고리즘이 필요하다. 따라서, 신경망의 학습 수렴 속도가 매우 늦어지게 된다.
M개의 고유 팩셀 필터의 반응값으로 구해지는 신경망 입력 벡터의 통계적인 특징은 각 필터마다 고유한 특징을 가지고 있으므로, 얼굴 인식과 같이 사람 얼굴의 신원 변화를 찾아내야 하는 목적을 이루기 위해서는 같은 성질을 갖는 필터의 반응값만 가지고 신원의 변화를 학습할 수 있는 신경망을 구성하는 것이 바람직하다.
따라서, 본 발명은 도 2 에 도시된 바와 같이, 고유 팩셀로 영상을 필터링한 각각의 반응값을, 각각의 고유 팩셀에 대응되는 별개의 신경망에 인가하여 얼굴 학습 및 얼굴 인식을 수행할 수 있도록 병렬 구조의 신경망(240)을 채택한다.
병렬 구조의 신경망(240) 각각은 도 6 에 도시된 일반적인 신경망의 구조를 갖는다. 은닉층에서의 뉴런의 개수는 좋은 인식 성능을 보일 수 있는 충분한 연결이 가능하도록 선택된다. Olivetti DB에 저장된 총 40명, 사람 당 5장의 얼굴 영상을 학습한 본 실시예의 경우는 60개의 뉴런이 은닉층에 사용되었다. 또한, 본 실시예에서 고유 팩셀의 개수가 10개이므로, 동일한 구조의 신경망 10개를 병렬로 학습하였으며, 각각의 신경망은 입력 벡터의 차원이 10 ×12 이므로 입력층의 뉴런의 개수는 120개, 은닉층의 뉴런의 개수는 전술할 바와 같이 60개, 분류해야 하는 등록 인수가 40명이므로 출력층의 뉴런의 개수는 40개로 각각 구성된다.
참고로, 기존의 방법처럼 신경망 1개만을 사용하는 경우에는, 입력 뉴런의개수가 입력 벡터의 차원[120] ×고유 팩셀의 개수[10]와 같아야 하므로, 1200개의 입력 뉴런이 필요하게 된다. 따라서, 수많은 연결 조합을 학습해야 하므로 은닉 뉴런의 개수도 입력 뉴런의 개수에 따라서 늘어야 하고, 학습 시간도 기하 급수적으로 늘어나게 된다.
한편, 등록인의 수가 500명이며 표정 및 포즈에 대한 10장의 영상을 가진 HIU(Hong Ik University) DB에 고유 팩셀 10 개를 적용하여, 등록된 500명중 250명에 대하여 본 발명을 적용하는 경우에는, 입력 뉴런의 개수는 같으나, 출력 뉴런의 개수가 250개로 늘어나서, 은닉 뉴런의 개수는 100개가 필요하게 된다.
병렬로 연결된 도 2 의 각 신경망(240)들은 고유 팩셀로 필터링된 입력 영상에 대한 얼굴 인식 결과를 판단부(250)로 출력하게 되고, 판단부(250)는 입력된 결과들를 분석하여 최종적인 얼굴 인식 결과를 출력하게 된다(S350).
도 4 및 도 2b 를 참조하여, 본 발명의 판단부(250)에서 각각의 신경망으로부터 입력된 결과들을 종합하여 최종적인 얼굴 인식 결과를 판단하는 과정을 설명한다.
도 5 는 본 발명의 판단부(250)의 구성을 도시하는 도이다.
본 발명의 판단부(250)는, 입력된 출력 뉴런의 출력값을 소정의 범위의 값으로 변환하고 신뢰값을 계산하며 신뢰값들을 각 신경망의 출력 뉴런에 대해서 합산하는 신뢰값 계산부(251), 신뢰값에 따라서 상위 소정수의 신경망에서 검출된 얼굴을 선정하는 얼굴 선정부(253), 각 신경망의 신뢰값에 그레이드를 부여하고 선정된 얼굴에 대해서 전체 신경망(240)의 제 1 그레이드 순서 및 상위 소정수의 신경망의제 2 그레이드 순서를 계산하는 그레이드 연산부(255), 얼굴 선정부(253)에서 선정된 얼굴의 제 1 및 제 2 그레이드 순서를 소정의 제 1 및 제 2 임계 그레이드 순서와 각각 비교하여 소정의 얼굴 그룹으로 분류하는 그룹핑부(257), 및 소정의 얼굴 그룹에 속하는 얼굴을 인식 결과로서 출력하는 인식 결과 출력부(259)를 포함한다.
도 4 는 본 발명의 판단부(250)의 얼굴 인식 결과를 출력하는 과정을 설명하는 흐름도이다.
신뢰값 계산부(251)는 입력된 각각의 신경망의 출력층 뉴런의 출력값을 변환하여 신뢰값을 계산한다(S400).
각 신경망의 출력층 뉴런의 출력값들은 범위가 매우 다양하여 각 신경망간의 인식 결과를 비교하여 최종 인식 결과를 분석하기에는 어려움이 있다. 따라서, 본 발명은 각 신경망의 뉴런의 출력값들을 다른 신경망의 출력값들과 비교할 수 있도록 정규화하는 것이 필요하다. 따라서, 본 발명에서는 신경망의 각 출력값들에 대한 신경망의 출력값을 모두 합산한 값의 비를 신경망 뉴런의 출력값으로 이용한다.
본 발명의 바람직한 일 실시예의 신뢰값 계산부(251)는 신뢰값을 계산하기 위해서 각 신경망 출력층의 뉴런의 출력을 다음의 수학식 2 를 이용하여 출력층 뉴런의 출력값을 변환한다.
여기서, Wα는 신경망의 각 뉴런의 실제 출력값을, β는 출력층 뉴런의 전체 개수를 나타낸다.
그 후, 신뢰값 계산부(251)는 변환된 값들 중에서 최대값과 그 다음으로 큰 값간의 차에 최대값을 곱하여 신뢰값을 얻는다. 본 발명의 바람직한 일 실시예에서는 수학식 2에 의해서 변환된 출력값을 다음의 수학식 3에 대입하여 신뢰값을 계산한다.
여기서, ymax,1은 가장 큰 변환된 출력값을, ymax,2두 번째로 큰 변환된 출력값을 각각 나타낸다. 수학식 3 에 의해서 계산된 신뢰값은 각각의 신경망에서 최대 출력값을 갖는 출력층 뉴런의 신뢰값으로 부여되고, 나머지 출력층 뉴런들의 신뢰값은 0 으로 설정된다.
신뢰값 계산부(251)는 상술한 과정에 의해서 구해진 각 신경망의 신뢰값을 각각의 출력 뉴런에 대해서 합산한다(S410).
도 9 를 참조하여 설명하면, 도 9에 도시된 바와 같이 각각의 신경망 (1 내지 10) 은 각각 k 개의 출력 뉴런을 갖는다. 따라서 각각의 출력 뉴런에 대한 신뢰값의 합(S1 내지 Sk)은 다음과 같다.
S1=N1 1+N2 1+N3 1+N4 1.....N10 1
S2=N1 2+N2 2+N3 2+N4 2.....N10 2
S3=N1 3+N2 3+N3 3+N4 3.....N10 3
....
Sk=N1 k+N2 k+N3 k+N4 k.....N10 k
단, 각각의 출력 뉴런은 Nm n으로 나타내고, 여기서 m 은 각각의 신경망을 나타내며, n 은 각 신경망에서 출력 뉴런의 순서를 나타내는 것임은 도 9 에 도시한 바와 같다.
신경망의 각 출력 노드는 등록된 인물에 대응되고, 각 신경망의 i 번째 노드는 모두 동일한 인물에 대응되므로, 각 신경망의 동일한 출력 뉴런의 신뢰값을 합산하여, 입력된 영상에 대한 전체 신뢰값을 계산하게된다. 합산된 신뢰값은 후술할 인식 결과를 최종 결정하는 단계(S470)에서 이용된다.
얼굴 선정부(253)는 신뢰값 계산부(251)로부터 신뢰값 계산 결과를 입력받고, 상위 소정수의 신경망에 의해서 검출된 얼굴을 선정한다(S420).
상술한 바와 같이, 신뢰값은 각 신경망의 출력 뉴런 중 최고 출력값을 나타내는 하나의 출력 뉴런에만 부여되고, 각 출력 뉴런은 학습된 얼굴에 대응되므로, 각 신경망마다 하나의 얼굴이 검출된다. 얼굴 선정부(253)는 상위 소정수의 신경망, 본 발명의 실시예에서는 상위 4 개의 신경망으로부터 얼굴을 검출하여, 후보얼굴을 선정한다.
예컨대, 상술한 예에서 상술한 수학식 3에 의해서 계산된 신뢰값이 다음과 같을 때,
N1 1=0.9, N1 2=0, N1 3=0, N1 4=0, ....N1 k=0
N2 1=0 , N2 2=0.7, N2 3=0, N2 4=0, ....N2 k=0
N3 1=0 , N3 2=0, N3 3=0, N3 4=0, ....N3 k=0.01
N4 1=0 , N4 2=0, N4 3=0.1, N4 4=0, ....N4 k=0
....
N10 1=0.8, N10 2=0, N10 3=0, N10 4=0, ....N10 k=0
얼굴 선정부(253)에서 선정된 얼굴은, 상위 4 개의 신경망에서 검출된 첫 번째, 두 번째, k 번째 및 3 번째 출력 뉴런에 대응되는 얼굴이 된다.
그레이드 연산부(255)는 신뢰값 계산부(251)로부터 입력된 상기와 같은 신뢰값에 대해서 도 8 에 도시된 표에 따라서 각각의 신뢰값에 대해서 그레이드를 부여한다(S430).
상술한 예를 다시 참조하면, 제 1 신경망의 첫 번째 출력 뉴런의 신뢰값은 0.9 이므로 도 8 의 표에 따라서 그레이드 A 가 부여되고, 나머지 출력 뉴런에는 0 이 부여되어, 제 1 신경망에는 A000...0 이 부여된다.
또한, 제 1 신경망과 동일한 방식으로 제 2 신경망에는 0B00000000 가 부여되고, 제 3 신경망에는 000000000F 가, 제 4 신경망에는 00E0000000 가 부여되고, 제 5내지 제 9 신경망에도 제 1 신경망과 동일한 방식으로 그레이드가 부여되고, 마지막으로 제 10 신경망에는 A000000000 가 각각 부여된다.
그레이드 연산부(255)는 각 신경망의 신뢰값에 대해서 그레이드를 부여하고 난 후, 얼굴 선정부(253)로부터 선정된 얼굴을 입력받아, 선정된 얼굴에 대해서 전체 그레이드 순서를 계산한다(S440).
상술한 예를 다시 참조하면, 얼굴 선정부(253)에 의해서 선정된 얼굴은 1,2,k 및 3번째 얼굴이므로 이 4 개의 얼굴에 대한 각 신경망의 그레이드를 순서대로 나열하여 그레이드 순서를 계산한다. 예컨대, 제 1 신경망에서 선정된 첫 번째 얼굴에 대한 그레이드는, 제 1 신경망에서는 A 이고, 제 2 신경망에서는 0 이며, 제 3 신경망에서는 0 이고, 제 4 내지 제 9 신경망에 대해서도 이러한 방식으로 계산되어, 마지막으로 제 10 신경망에서는 A 이다.
상술한 방식으로 선정된 4 개의 얼굴에 대한 그레이드 순서를 구하면 다음과 같다.
G1= N1 1, N2 1, N3 1, N4 1,....., N10 1= A00000000A
G2= N1 2, N2 2, N3 2, N4 2,....., N10 2= 0B00000000
G3= N1 3, N2 3, N3 3, N4 3,....., N10 3= 000E000000
Gk= N1 k, N2 k, N3 k, N4 k,....., N10 k= 00F0000000
그레이드 연산부(255)는 선정된 얼굴에 대해서 전체 그레이드를 구한 후, 전체 그레이드에서 소정수의 신경망에 대한 그레이드 순서(이하, "기본 그레이드 순서"라 칭함)를 계산한다(S450).
예컨대, 전술한 그레이드 순서에서 4개의 신경망에 대한 기본 그레이드 순서를 구하면, G1= N1 1, N2 1, N3 1, N4 1= A000, G2= N1 2, N2 2, N3 2, N4 2= 0B00, G3= N1 3, N2 3, N3 3, N4 3= 000E, Gk= N1 k, N2 k, N3 k, N4 k,= 00F0 와 같다. 이 때, 소정수의 신경망은 후보 얼굴을 선정한 신경망인 것이 바람직하나, 그 보다 많은 수의 신경망을 선정하는 것도 무방하다.
그룹핑부(257)는 그레이드 연산부(255)로부터 선정된 얼굴 및 각 얼굴에 대한 전체 그레이드 순서 및 기본 그레이드 순서를 입력받아, 각 얼굴의 전체 그레이드 순서 및 기본 그레이드 순서를 전체 그레이드 순서에 대한 소정의 제 1 임계 그레이드 순서 및 기본 그레이드 순서에 대한 소정의 제 2 그레이드 순서와 각각 비교하여, 선정된 얼굴들을 소정의 그룹으로 분류한다(S460).
그룹핑부(257)는 상술한 바와 같이 비교하여, 선정된 얼굴을, 제 1 임계값과 제 2 임계값을 모두 초과하는 그레이드 순서들을 갖는 제 1 그룹, 제 1 임계값 또는 제 2 임계값 중 어느 하나만을 초과하는 제 2 그룹, 어느 임계값도 초과하지 못하는 제 3 그룹으로 분류한다. 이때, 그룹핑부(257)는 그레이드의 높고 낮음을대수적으로 비교함으로써 각 그레이드 순서와 임계값의 비교한다.
상술한 예를 참조하여 설명하면, 제 1 임계값이 BBBBAAAAAA 이고, 제 2 임계값이 0CAA 라고 한다면, 첫 번째 얼굴의 전체 그레이드 순서는 A00000000A 이므로 제 1 입계값보다 높고, 기본 그레이드 순서도 A0000 이므로 제 2 임계값보다도 높다. 따라서 첫 번째 얼굴은 제 1 그룹으로 결정된다.
한편, 두 번째 얼굴의 전체 그레이드 순서는 0B00000000 이므로 제 1 임계값 보다는 낮지만, 기본 그레이드 순서는 0B00 이므로 제 2 임계값보다는 높다. 따라서, 두 번째 얼굴은 제 2 그룹으로 분류된다. 세 번째 및 k 번째 얼굴에 대해서도 이와 같은 방식으로 그룹을 분류하여 각각의 얼굴과 얼굴에 해당되는 그룹을 인식결과 출력부(259)로 출력한다.
인식결과 출력부(259)는 입력된 얼굴과 해당되는 그룹에 따라서 얼굴 인식 결과를 출력한다(S470).
인식결과 출력부(259)는 입력된 얼굴 중 제 1 그룹에 속하는 얼굴을 인식결과로서 출력하고, 제 1 그룹에 속하는 얼굴이 없는 경우에는 제 2 그룹에 있는 얼굴을 인식 결과로서 출력한다. 한편, 동일한 그룹에 복수의 얼굴이 속하는 경우에는 상술한 제 S410 단계에서 계산된 얼굴에 대한 신뢰값의 합이 큰 얼굴을 인식 결과로서 출력한다.
한편, 본 발명의 바람직한 실시예에 따른 얼굴 인식 실험 결과를 다음의 표 1 및 표 2 에 기재하였다.
제 1 실험 | 제 2 실험 | |
1개의 얼굴을 출력한 경우 | 4.5 % | 4.5 % |
2개의 얼굴을 출력한 경우 | 3.0 % | 3.0 % |
3개의 얼굴을 출력한 경우 | 2.5 % | 2.5 % |
표 1 에 기재된 실험 결과는 40 명의 얼굴에 대해서 각 얼굴마다 10 장의 얼굴 영상을 저장하고 있는 Olivetti DB에 대한 실험 결과이다. 표 1 의 제 1 실험은 Olivetti DB에 저장된 얼굴 영상 중 200 장의 홀수번째 영상을 학습하고, 200 장의 짝수번째 영상을 얼굴 인식 대상 얼굴영상으로 입력하였을 때 인식 오차 결과를 기재하였고, 제 2 실험은 그 역의 경우를 기재하였다. 상기 표에서, 인식 결과로서 1 명의 얼굴을 출력하였을 때 및 인식 결과로서 2 명 및 3 명을 출력하였을 때, 출력된 얼굴에 인식 대상 얼굴이 포함되었는지 여부에 따라서 인식 오차를 계산하였다.
간략 학습한 경우 | 집중 학습한 경우 | |
1개의 얼굴을 출력한 경우 | 6.06 % | 5.89 % |
2개의 얼굴을 출력한 경우 | 4.06 % | 3.89 % |
3개의 얼굴을 출력한 경우 | 3.31 % | 3.20 % |
표 2 에 기재된 실험 결과는 250 명의 얼굴에 대해서 각 얼굴마다 10 장의 얼굴 영상을 저장하고 있는 HIU(Hong Ik University) DB에 대한 실험 결과이다. HIU DB 에 저장된 얼굴 영상 중 750장의 얼굴 영상으로 본 발명의 신경망을 학습하고, 1750 장의 얼굴 영상에 대해서 얼굴 인식을 수행하였으며, 신경망을 상술한 간략 학습한 경우와 집중 학습한 경우의 오차율에 대해서 각각 표 2 에 기재하였다.
본 발명은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플라피디스크, 광데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
이제까지 본 발명에 대하여 그 바람직한 실시예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.
본 발명의 다수의 신경망을 병렬로 구성하고, 각각의 신경망을 유사한 패턴적 특징을 갖는 고유 필터링된 영상으로 학습하고 얼굴 인식을 수행함으로써, 신경망의 학습 시간이 현저하게 감소시킬 수 있고, 신경망 학습 수렴 속도를 대폭 개선할 수 있는 효과가 있다. 아울러, 본 발명은 신경망을 병렬로 구성하여 각각의 신경망을 제어하기 위한 프로세서를 병렬로 구성하는 것이 가능하여, 학습 및 인식 속도를 크게 개선할 수 있게된다. 또한, 병렬로 구성된 각각의 신경망은 적은 양의 얼굴 영상만을 학습하고 인식을 수행하게 되므로 대용량의 데이터 베이스에 저장된 얼굴 인식에 적합하다.
Claims (33)
- 인공 신경망을 이용하여 얼굴을 인식하는 얼굴 인식 장치로서,얼굴의 특징 패턴을 나타내는 고유 팩셀들을 생성하고, 생성된 고유 팩셀들 중 소정수의 고유 팩셀들을 선정하는 고유 팩셀 선정부;입력 영상을 상기 선정된 고유 팩셀들로 각각 필터링하는 고유 필터링부;상기 선정된 고유 팩셀에 각각 대응되며, 대응되는 고유 팩셀로 필터링된 영상의 신호를 입력받아, 얼굴 인식 결과를 출력하는 소정수의 신경망; 및상기 각각의 신경망으로부터 인식결과를 입력받아, 상기 입력 영상의 최종 얼굴 인식 결과를 출력하는 판단부를 포함하는 것을 특징으로 하는 얼굴 인식 장치.
- 인공 신경망을 이용하여 얼굴을 인식하는 얼굴 인식 장치로서,얼굴의 특징 패턴을 나타내는 고유 팩셀들을 생성하고, 생성된 고유 팩셀들 중 소정수의 고유 팩셀들을 선정하는 고유 팩셀 선정부;얼굴 영상을 입력받아 소정의 형식으로 정규화된 얼굴 영상을 출력하는 입력영상 정규화부;상기 정규화된 입력 영상을 상기 선정된 고유 팩셀들로 각각 필터링하는 고유 필터링부;상기 각각의 고유 팩셀들로 필터링된 각각의 영상을 서브 샘플링하여 신경망에 입력하기 적합한 크기의 영상을 출력하는 서브 샘플링부;상기 선정된 고유 팩셀에 각각 대응되며, 대응되는 고유 팩셀로 필터링되고 서브 샘플링된 영상의 신호를 입력받아, 얼굴 인식 결과를 출력하는 소정수의 신경망; 및상기 각각의 신경망으로부터 인식결과를 입력받아, 상기 입력 영상의 최종 얼굴 인식 결과를 출력하는 판단부를 포함하는 것을 특징으로 하는 얼굴 인식 장치.
- 제 1 항 또는 제 2 항에 있어서, 상기 고유 팩셀 선정부는임의의 얼굴 영상을 소정의 블록들로 분할하고, 상기 각 블록들에 주성분 분석법을 적용하여 얼굴의 일정한 패턴적 특징을 나타내는 고유 팩셀을 생성하는 고유 팩셀 생성부를 포함하는 것을 특징으로 하는 얼굴 인식 장치.
- 제 3 항에 있어서, 상기 고유 팩셀 선정부는상기 선정된 고유 팩셀 중에서 고유값이 큰 벡터의 순서로 소정수의 벡터를 선택하는 고유 팩셀 선택부를 더 포함하는 것을 특징으로 하는 얼굴 인식 장치.
- 제 1 항 또는 제 2 항에 있어서, 상기 고유 필터링부는상기 입력 영상에 대해서 상기 각각의 고유 팩셀을 이동시키면서 컨벌루션 연산을 수행함으로써 상기 입력 영상을 고유 필터링하는 것을 특징으로 하는 얼굴 인식 장치.
- 제 5 항에 있어서, 상기 고유 필터링부는상기 입력된 영상을 소정의 블록들로 분할하고, 분할된 상기 블록과 고유 팩셀이 소정의 부분만큼 겹쳐지도록 상기 고유 팰셀을 이동시키면서 컨벌루션 연산을 수행하여, 소정의 크기로 축소된 고유 필터링된 영상을 출력하는 것을 특징으로 하는 얼굴 인식 장치.
- 제 1 항 또는 제 2 항에 있어서,상기 신경망은 모멘텀을 부가한 역전파(back propagation) 알고리즘에 의해서 학습되고,이 때의 웨이팅 계수(w sub i )는 다음의 수식에 의해서 갱신되며,상기 η는 학습 계수를, 상기 j 는 현재 유닛의 인덱스를, i 는 유닛 j 에 선행하는 유닛의 인덱스를, δj는 유닛 j 의 출력 오차를, Oi는 유닛 i 의 출력을, α는 모멘텀의 영향을 특정하는 상수를 각각 나타내는 것을 특징으로 하는 얼굴 인식 장치.
- 제 1 항 또는 제 2 항에 있어서, 상기 신경망의 출력층의 뉴런의 개수는 학습된 얼굴의 수와 동일한 것을 특징으로 하는 얼굴 인식 장치.
- 제 1 항 또는 제 2 항에 있어서, 상기 판단부는입력된 각 신경망의 출력층 뉴런의 출력값을 소정의 범위의 값으로 변환하고, 신뢰값을 계산하며, 상기 신뢰값들을 상기 각 신경망의 출력층 뉴런에 대해서 합산하는 신뢰값 계산부;상기 신뢰값에 따라서 상위 소정수의 신경망에서 검출된 얼굴을 선정하는 얼굴 선정부;상기 각 신경망의 신뢰값에 그레이드를 부여하고, 상기 선정된 얼굴에 대해서, 전체 신경망의 제 1 그레이드 순서 및 상위 소정수의 신경망의 제 2 그레이드 순서를 계산하는 그레이드 연산부;상기 제 1 및 제 2 그레이드 순서를 소정의 제 1 및 제 2 임계 그레이드 순서와 각각 비교하여 상기 선정된 얼굴들을 소정의 얼굴 그룹으로 분류하는 그룹핑부; 및상기 소정의 얼굴 그룹 중 제 1 및 제 2 임계 그레이드 순서보다 큰 제 1 및 제 2 그레이드를 갖는 제 1 얼굴 그룹에 속하는 얼굴을 인식 결과로서 출력하는 인식 결과 출력부를 포함하는 것을 특징으로 하는 얼굴 인식 장치.
- 제 9 항에 있어서, 상기 신뢰값 계산부는각 신경망의 출력층 뉴런의 각 출력값을, 각 출력값들에 대한 신경망의 출력값을 모두 합산한 값의 비로 변환하는 것을 특징으로 하는 얼굴 인식 장치.
- 제 10 항에 있어서, 상기 신뢰값 계산부는상기 각 신경망의 출력층 뉴런의 각 출력값을 다음의 수식에 의해서 변환하고,상기 Wα는 각 신경망의 출력층 뉴런의 실제 출력값을, β는 각 신경망의 출력층 뉴런의 개수를 각각 나타내는 것을 특징으로 하는 얼굴 인식 장치.
- 제 10 항에 있어서, 상기 신뢰값 계산부는상기 변환된 출력값을 이용하여 다음의 수식에 따라서 신경망의 신뢰값을 계산하며, 상기 ymax,1은 가장 큰 변환된 출력값을, ymax,2두 번째로 큰 변환된 출력값을 각각 나타내는 것을 특징으로 하는 얼굴 인식 장치.
- 제 12 항에 있어서, 상기 신경망의 신뢰값은변환된 최대 출력값을 갖는 출력층 뉴런의 신뢰값으로 설정되고, 나머지 출력층 뉴런의 신뢰값은 0 으로 설정되는 것을 특징으로 하는 얼굴 인식 장치.
- 제 11 항에 있어서, 상기 그레이드 연산부는상기 각 신경망의 신뢰값에 그레이드를 부여하고, 상기 선정된 얼굴에 대한 전체 신경망의 그레이드를 상위 신경망에서 하위 신경망의 순서로 나열한 제 1 그레이드 순서, 및 상기 선정된 얼굴에 대한 상기 소정수의 신경망의 그레이드를 상위 신경망에서 하위 신경망의 순서로 나열한 제 2 그레이드 순서를 계산하는 것을 특징으로 하는 얼굴 인식 장치.
- 제 11 항에 있어서, 상기 인식결과 출력부는제 1 얼굴 그룹에 속하는 복수개의 얼굴 중, 상기 신뢰값 계산부로부터 입력받은 합산된 신뢰값이 큰 얼굴을 인식결과로서 출력하는 것을 특징으로 하는 얼굴 인식 장치.
- 인공 신경망을 이용하여 얼굴을 인식하는 얼굴 인식 방법으로서,(a) 얼굴의 특징 패턴을 나타내는 고유 팩셀들을 생성하고, 생성된 고유 팩셀들 중 소정수의 고유 팩셀들을 선정하는 단계;(b) 상기 선정된 고유 팩셀들을 이용하여 상기 신경망을 학습하는 단계;(d) 입력 영상을 상기 선정된 고유 팩셀들로 각각 고유 필터링하여, 상기 고유 필터에 대응되는 얼굴 특징 패턴이 나타나는 고유 필터링된 영상을 얻는 단계;(f) 상기 고유 필터링된 영상을 상기 선정된 고유 팩셀에 각각 대응되는 신경망으로 출력하여 각각의 얼굴 특징 패턴에 대해서 얼굴 인식을 수행하는 단계;(g) 상기 각 신경망의 얼굴 인식 결과를 분석하여, 상기 입력 영상의 최종 얼굴 인식 결과를 출력하는 단계를 포함하는 것을 특징으로 하는 얼굴 인식 방법.
- 인공 신경망을 이용하여 얼굴을 인식하는 얼굴 인식 방법으로서,(a) 얼굴의 특징 패턴을 나타내는 고유 팩셀들을 생성하고, 생성된 고유 팩셀들 중 소정수의 고유 팩셀들을 선정하는 단계;(b) 상기 선정된 고유 팩셀들을 이용하여 상기 신경망을 학습하는 단계;(c) 입력된 얼굴 영상을 소정의 형식의 얼굴 영상으로 정규화하는 단계;(d) 상기 정규화된 얼굴 영상을 상기 선정된 고유 팩셀들로 각각 고유 필터링하여, 상기 고유 필터에 대응되는 얼굴 특징 패턴이 나타나는 고유 필터링된 영상을 얻는 단계;(e) 상기 고유 필터링된 각각의 영상을 서브 샘플링하여 신경망에 입력하기 적합한 크기의 영상을 얻는 단계;(f) 상기 고유 필터링되고 서브 샘플링된 영상을 상기 선정된 고유 팩셀에 각각 대응되는 신경망으로 출력하여 각각의 얼굴 특징 패턴에 대해서 얼굴 인식을 수행하는 단계; 및(g) 상기 각 신경망의 얼굴 인식 결과를 분석하여, 상기 입력 영상의 최종 얼굴 인식 결과를 출력하는 단계를 포함하는 것을 특징으로 하는 얼굴 인식 방법.
- 제 16 항 또는 제 17 항에 있어서, 상기 (a) 단계는임의의 얼굴 영상을 소정의 블록들로 분할하고, 상기 각 블록들에 주성분 분석법을 적용하여 얼굴의 일정한 패턴적 특징을 나타내는 고유 팩셀을 생성하는 단계를 포함하는 것을 특징으로 하는 얼굴 인식 방법.
- 제 18 항에 있어서, 상기 (a) 단계는상기 생성된 고유 팩셀 중에서 고유값이 큰 벡터의 순서로 소정수의 벡터를 선택하는 단계를 더 포함하는 것을 특징으로 하는 얼굴 인식 방법.
- 제 16 항 또는 제 17 항에 있어서, 상기 (b) 단계는모멘텀을 부가한 역전파(back propagation) 알고리즘에 의해서 상기 신경망을 학습하고,이 때의 웨이팅 계수(w sub i )는 다음의 수식에 의해서 갱신되며,상기 η는 학습 계수를, 상기 j 는 현재 유닛의 인덱스를, i 는 유닛 j 에 선행하는 유닛의 인덱스를, δj는 유닛 j 의 출력 오차를, Oi는 유닛 i 의 출력을, α는 모멘텀의 영향을 특정하는 상수를 각각 나타내는 것을 특징으로 하는 얼굴 인식 방법.
- 제 16 항 또는 제 17 항에 있어서, 상기 신경망의 출력층의 뉴런의 개수는 학습된 얼굴의 수와 동일한 것을 특징으로 하는 얼굴 인식 방법.
- 제 16 항 또는 제 17 항에 있어서, 상기 (d) 단계는상기 입력 영상에 대해서 상기 각각의 고유 팩셀을 이동시키면서 컨벌루션 연산을 수행함으로써 상기 입력 영상을 고유 필터링하는 것을 특징으로 하는 얼굴 인식 방법.
- 제 22 항에 있어서, 상기 (d) 단계는상기 입력 영상을 소정의 블록들로 분할하고, 분할된 상기 블록과 고유 팩셀이 소정의 부분만큼 겹쳐지도록 상기 고유 팰셀을 이동시키면서 컨벌루션 연산을 수행하여, 소정의 크기로 축소된 고유 필터링된 영상을 얻는 것을 특징으로 하는 얼굴 인식 방법.
- 제 16 항 또는 제 17 항에 있어서, 상기 (b) 단계는(b1) 입력된 학습영상을 소정의 형식으로 정규화하는 단계;(b2) 상기 정규화된 학습 영상을 상기 (a) 단계에서 선정된 고유 팩셀들로 각각 고유 필터링하여, 상기 고유 필터에 대응되는 얼굴 특징 패턴이 나타나는 고유 필터링된 영상을 얻는 단계; 및(b3) 상기 고유 필터링된 각각의 영상을 서브 샘플링하고, 상기 선정된 고유팩셀에 각각 대응되는 신경망에 입력하여, 상기 각각의 신경망을 학습하는 단계를 포함하는 것을 특징으로 하는 얼굴 인식 방법.
- 제 16 항 또는 제 17 항에 있어서, 상기 (g) 단계는(g1) 상기 출력층 뉴런의 출력값을 소정의 범위의 값으로 변환하여, 신뢰값을 계산하고, 상기 신뢰값들을 상기 각 신경망의 출력층 뉴런에 대해서 합산하는 단계;(g2) 상기 신뢰값에 따라서 상위 소정수의 신경망에서 검출된 얼굴을 선정하는 단계;(g3) 상기 각 신경망의 신뢰값에 그레이드를 부여하고, 상기 선정된 얼굴에 대해서, 전체 신경망의 제 1 그레이드 순서 및 상위 소정수의 신경망의 제 2 그레이드 순서를 계산하는 단계;(g4) 상기 제 1 및 제 2 그레이드 순서를 소정의 제 1 및 제 2 임계 그레이드 순서와 각각 비교하여 상기 선정된 얼굴들을 소정의 얼굴 그룹으로 분류하는 단계; 및(g5) 상기 소정의 얼굴 그룹 중 제 1 및 제 2 임계 그레이드 순서보다 큰 제 1 및 제 2 그레이드를 갖는 제 1 얼굴 그룹에 속하는 얼굴을 인식 결과로서 출력하는 단계를 포함하는 것을 특징으로 하는 얼굴 인식 방법.
- 제 25 항에 있어서, 상기 (g1) 단계는각 신경망의 출력층 뉴런의 각 출력값을, 각 출력값들에 대한 신경망의 출력값을 모두 합산한 값의 비로 변환하는 단계를 포함하는 것을 특징으로 하는 얼굴 인식 방법.
- 제 26 항에 있어서, 상기 (g1) 단계는상기 각 신경망의 출력층 뉴런의 각 출력값을 다음의 수식에 의해서 변환하고,상기 Wα는 각 신경망의 출력층 뉴런의 실제 출력값을, β는 각 신경망의 출력층 뉴런의 개수를 각각 나타내는 것을 특징으로 하는 얼굴 인식 방법.
- 제 26 항에 있어서, 상기 (g1) 단계는상기 변환된 출력값을 이용하여 다음의 수식에 따라서 신경망의 신뢰값을 계산하는 단계를 더 포함하며, 상기 ymax,1은 가장 큰 변환된 출력값을, ymax,2두 번째로 큰 변환된 출력값을 각각 나타내는 것을 특징으로 하는 얼굴 인식 방법.
- 제 28 항에 있어서, 상기 각 신경망의 신뢰값은상기 변환된 최대 출력값을 갖는 출력층 뉴런의 신뢰값으로 설정되고, 나머지 출력층 뉴런의 신뢰값은 0 으로 설정되는 것을 특징으로 하는 얼굴 인식 방법.
- 제 27 항에 있어서, 상기 (g3) 단계는상기 각 신경망의 신뢰값에 그레이드를 부여하는 단계; 및상기 선정된 얼굴에 대한 전체 신경망의 그레이드를 상위 신경망에서 하위 신경망의 순서로 나열한 제 1 그레이드 순서, 및 상기 선정된 얼굴에 대한 상기 소정수의 신경망의 그레이드를 상위 신경망에서 하위 신경망의 순서로 나열한 제 2 그레이드 순서를 계산하는 단계를 포함하는 것을 특징으로 하는 얼굴 인식 방법.
- 제 27 항에 있어서, 상기 (g5) 단계는제 1 얼굴 그룹에 속하는 복수개의 얼굴 중, 상기 (g1) 단계에서 계산된 합산된 신뢰값이 큰 얼굴을 인식결과로서 출력하는 것을 특징으로 하는 얼굴 인식 방법.
- 제 16 항 또는 제 17 항의 얼굴 인식 방법을 컴퓨터에서 판독할 수 있고, 실행 가능한 프로그램 코드로 기록한 기록 매체.
- 제 27 항의 얼굴 인식 방법을 컴퓨터에서 판독할 수 있고, 실행 가능한 프로그램 코드로 기록한 기록 매체.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2002-0047898A KR100442835B1 (ko) | 2002-08-13 | 2002-08-13 | 인공 신경망을 이용한 얼굴 인식 방법 및 장치 |
US10/630,787 US7295687B2 (en) | 2002-08-13 | 2003-07-31 | Face recognition method using artificial neural network and apparatus thereof |
JP2003292732A JP2004078959A (ja) | 2002-08-13 | 2003-08-13 | 人工神経網を利用した顔認識法及びその装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2002-0047898A KR100442835B1 (ko) | 2002-08-13 | 2002-08-13 | 인공 신경망을 이용한 얼굴 인식 방법 및 장치 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20040015613A KR20040015613A (ko) | 2004-02-19 |
KR100442835B1 true KR100442835B1 (ko) | 2004-08-02 |
Family
ID=31713124
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR10-2002-0047898A KR100442835B1 (ko) | 2002-08-13 | 2002-08-13 | 인공 신경망을 이용한 얼굴 인식 방법 및 장치 |
Country Status (3)
Country | Link |
---|---|
US (1) | US7295687B2 (ko) |
JP (1) | JP2004078959A (ko) |
KR (1) | KR100442835B1 (ko) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20180097949A (ko) | 2017-02-24 | 2018-09-03 | 오치민 | 순차적 다중 합성곱 신경망을 이용한 영상 내 관절 자세 예측 방법 |
KR20200013174A (ko) | 2018-07-20 | 2020-02-06 | 오치민 | 다중 합성곱 신경망을 이용한 영상 내 관절 좌표 예측 방법 |
KR20200017564A (ko) | 2018-07-23 | 2020-02-19 | 오치민 | 인물 포즈 예측을 위한 사스 서비스 방법 |
KR20200087297A (ko) * | 2018-12-28 | 2020-07-21 | 이화여자대학교 산학협력단 | 인공신경망 기반의 영상 분할을 이용한 불량 검출 방법 및 불량 검출 장치 |
US11514290B2 (en) | 2017-03-28 | 2022-11-29 | Samsung Electronics Co., Ltd. | Convolutional neural network (CNN) processing method and apparatus |
US11915119B2 (en) | 2016-12-22 | 2024-02-27 | Samsung Electronics Co., Ltd. | Convolutional neural network (CNN) processing method and apparatus performing high speed and precision convolution operations |
Families Citing this family (57)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100442835B1 (ko) * | 2002-08-13 | 2004-08-02 | 삼성전자주식회사 | 인공 신경망을 이용한 얼굴 인식 방법 및 장치 |
US20090087534A1 (en) * | 2002-08-14 | 2009-04-02 | Mclemore John D | Cooking apparatus |
US7627148B2 (en) * | 2004-07-06 | 2009-12-01 | Fujifilm Corporation | Image data processing apparatus and method, and image data processing program |
KR100703528B1 (ko) | 2004-12-09 | 2007-04-03 | 삼성전자주식회사 | 영상 인식 장치 및 방법 |
KR100729273B1 (ko) * | 2005-02-04 | 2007-06-15 | 오병주 | Pca와 역전파 알고리즘을 이용한 얼굴인식 방법 |
US7502495B2 (en) * | 2005-03-01 | 2009-03-10 | Microsoft Corporation | Method and system for incrementally learning an adaptive subspace by optimizing the maximum margin criterion |
WO2007020466A2 (en) * | 2005-08-19 | 2007-02-22 | Axeon Limited | Data classification apparatus and method |
US8014590B2 (en) * | 2005-12-07 | 2011-09-06 | Drvision Technologies Llc | Method of directed pattern enhancement for flexible recognition |
KR100745981B1 (ko) * | 2006-01-13 | 2007-08-06 | 삼성전자주식회사 | 보상적 특징에 기반한 확장형 얼굴 인식 방법 및 장치 |
CN100357960C (zh) * | 2006-03-08 | 2007-12-26 | 北京邮电大学 | 一种基于网格的并行、分布式识别人脸的方法 |
US9143573B2 (en) | 2008-03-20 | 2015-09-22 | Facebook, Inc. | Tag suggestions for images on online social networks |
US8666198B2 (en) | 2008-03-20 | 2014-03-04 | Facebook, Inc. | Relationship mapping employing multi-dimensional context including facial recognition |
CN101639937B (zh) * | 2009-09-03 | 2011-12-14 | 复旦大学 | 一种基于人工神经网络的超分辨率方法 |
TWI415011B (zh) * | 2009-12-17 | 2013-11-11 | Ind Tech Res Inst | 人臉辨識方法及應用此方法之系統 |
US8400504B2 (en) | 2010-04-05 | 2013-03-19 | King Fahd University Of Petroleum And Minerals | Contamination monitoring of high voltage insulators |
JP5911165B2 (ja) * | 2011-08-05 | 2016-04-27 | 株式会社メガチップス | 画像認識装置 |
US9142030B2 (en) * | 2013-03-13 | 2015-09-22 | Emory University | Systems, methods and computer readable storage media storing instructions for automatically segmenting images of a region of interest |
US9520042B2 (en) | 2013-09-17 | 2016-12-13 | Microchip Technology Incorporated | Smoke detector with enhanced audio and communications capabilities |
US9159218B2 (en) | 2013-09-17 | 2015-10-13 | Microchip Technology Incorporated | Initiation of carbon monoxide and/or smoke detector alarm test using image recognition and/or facial gesturing |
CN105096304B (zh) | 2014-05-22 | 2018-01-02 | 华为技术有限公司 | 一种图像特征的估计方法和设备 |
US10417525B2 (en) | 2014-09-22 | 2019-09-17 | Samsung Electronics Co., Ltd. | Object recognition with reduced neural network weight precision |
US9384560B2 (en) * | 2014-10-27 | 2016-07-05 | King Fahd University Of Petroleum And Minerals | Contamination level estimation method for high voltage insulators |
US10127439B2 (en) | 2015-01-15 | 2018-11-13 | Samsung Electronics Co., Ltd. | Object recognition method and apparatus |
CN105938558B (zh) * | 2015-03-06 | 2021-02-09 | 松下知识产权经营株式会社 | 学习方法 |
KR102450971B1 (ko) * | 2015-05-08 | 2022-10-05 | 삼성전자주식회사 | 객체 인식 장치 및 방법 |
KR101824600B1 (ko) * | 2015-09-08 | 2018-03-14 | 에스케이플래닛 주식회사 | 단말장치를 이용한 신용카드 번호 및 유효기간 인식 시스템 및 방법 |
WO2017068490A1 (en) | 2015-10-23 | 2017-04-27 | Semiconductor Energy Laboratory Co., Ltd. | Semiconductor device and electronic device |
DE112016000146T5 (de) * | 2015-10-23 | 2017-07-06 | Semiconductor Energy Laboratory Co., Ltd. | Halbleitervorrichtung und elektronische Vorrichtung |
CN107103171B (zh) * | 2016-02-19 | 2020-09-25 | 阿里巴巴集团控股有限公司 | 机器学习模型的建模方法及装置 |
US10303977B2 (en) | 2016-06-28 | 2019-05-28 | Conduent Business Services, Llc | System and method for expanding and training convolutional neural networks for large size input images |
US9875398B1 (en) | 2016-06-30 | 2018-01-23 | The United States Of America As Represented By The Secretary Of The Army | System and method for face recognition with two-dimensional sensing modality |
US10083347B2 (en) | 2016-07-29 | 2018-09-25 | NTech lab LLC | Face identification using artificial neural network |
US10445565B2 (en) | 2016-12-06 | 2019-10-15 | General Electric Company | Crowd analytics via one shot learning |
WO2018117704A1 (en) | 2016-12-23 | 2018-06-28 | Samsung Electronics Co., Ltd. | Electronic apparatus and operation method thereof |
US10679083B2 (en) | 2017-03-27 | 2020-06-09 | Samsung Electronics Co., Ltd. | Liveness test method and apparatus |
CN108664782B (zh) * | 2017-03-28 | 2023-09-12 | 三星电子株式会社 | 面部验证方法和设备 |
KR102359558B1 (ko) * | 2017-03-28 | 2022-02-09 | 삼성전자주식회사 | 얼굴 인증 방법 및 장치 |
US10271008B2 (en) * | 2017-04-11 | 2019-04-23 | Advanced Micro Devices, Inc. | Enhanced resolution video and security via machine learning |
US20190073520A1 (en) * | 2017-09-01 | 2019-03-07 | Percipient.ai Inc. | Identification of individuals in a digital file using media analysis techniques |
GB201713829D0 (en) * | 2017-08-29 | 2017-10-11 | We Are Human Ltd | Image data processing system and method |
KR101867586B1 (ko) * | 2017-09-22 | 2018-06-15 | 주식회사 이넘넷 | 영상 처리 장치 및 방법 |
US10748322B1 (en) | 2017-10-13 | 2020-08-18 | Umojify, Inc. | Systems and methods for generating cartoon images from images |
KR101896357B1 (ko) * | 2018-02-08 | 2018-09-07 | 주식회사 라디코 | 객체를 검출하는 방법, 디바이스 및 프로그램 |
JP7166784B2 (ja) * | 2018-04-26 | 2022-11-08 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
CN110795976B (zh) | 2018-08-03 | 2023-05-05 | 华为云计算技术有限公司 | 一种训练物体检测模型的方法、装置以及设备 |
CN109767397B (zh) * | 2019-01-09 | 2022-07-12 | 三星电子(中国)研发中心 | 一种基于人工智能的图像优化方法和系统 |
US10740593B1 (en) * | 2019-01-31 | 2020-08-11 | StradVision, Inc. | Method for recognizing face using multiple patch combination based on deep neural network with fault tolerance and fluctuation robustness in extreme situation |
KR102171691B1 (ko) * | 2019-03-04 | 2020-10-29 | 인하대학교 산학협력단 | 증강현실 기반 3d 프린터 유지보수 방법 및 시스템 |
CN113747179B (zh) * | 2019-03-07 | 2023-08-08 | Oppo广东移动通信有限公司 | 环路滤波实现方法、装置及计算机存储介质 |
CN113039792A (zh) * | 2019-03-07 | 2021-06-25 | Oppo广东移动通信有限公司 | 环路滤波实现方法、装置及计算机存储介质 |
US10658005B1 (en) | 2019-08-19 | 2020-05-19 | Neon Evolution Inc. | Methods and systems for image and voice processing |
US10803646B1 (en) | 2019-08-19 | 2020-10-13 | Neon Evolution Inc. | Methods and systems for image and voice processing |
US10949715B1 (en) | 2019-08-19 | 2021-03-16 | Neon Evolution Inc. | Methods and systems for image and voice processing |
US10671838B1 (en) | 2019-08-19 | 2020-06-02 | Neon Evolution Inc. | Methods and systems for image and voice processing |
CN113204991B (zh) * | 2021-03-25 | 2022-07-15 | 南京邮电大学 | 一种基于多层预处理的快速人脸检测方法 |
US11308657B1 (en) | 2021-08-11 | 2022-04-19 | Neon Evolution Inc. | Methods and systems for image processing using a learning engine |
CN115883842A (zh) * | 2021-09-28 | 2023-03-31 | 腾讯科技(深圳)有限公司 | 滤波及编解码方法、装置、计算机可读介质及电子设备 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR19990009385A (ko) * | 1997-07-09 | 1999-02-05 | 이계철 | 비선형 코릴레이션 신경망을 이용한 얼굴 위치 추적 방법 |
KR19990026863A (ko) * | 1997-09-26 | 1999-04-15 | 전주범 | 퍼지 뉴러 얼굴 인식 방법 |
KR19990086440A (ko) * | 1998-05-28 | 1999-12-15 | 전주범 | 신경 회로망과 은닉 마르코프 모델을 이용한얼굴 인식 방법 |
KR20010008715A (ko) * | 1999-07-02 | 2001-02-05 | 학교법인 인하학원 | 다-차원 신경 회로망을 이용한 얼굴 검출 방법 및 그 장치 |
KR20020075960A (ko) * | 2002-05-20 | 2002-10-09 | 주식회사 코난테크놀로지 | 신경회로망을 이용한 얼굴 영역 검출 방법 |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5164992A (en) * | 1990-11-01 | 1992-11-17 | Massachusetts Institute Of Technology | Face recognition system |
US5699449A (en) * | 1994-11-14 | 1997-12-16 | The University Of Connecticut | Method and apparatus for implementation of neural networks for face recognition |
US5842194A (en) * | 1995-07-28 | 1998-11-24 | Mitsubishi Denki Kabushiki Kaisha | Method of recognizing images of faces or general images using fuzzy combination of multiple resolutions |
AUPP400998A0 (en) * | 1998-06-10 | 1998-07-02 | Canon Kabushiki Kaisha | Face detection in digital images |
US6944319B1 (en) * | 1999-09-13 | 2005-09-13 | Microsoft Corporation | Pose-invariant face recognition system and process |
US7127087B2 (en) * | 2000-03-27 | 2006-10-24 | Microsoft Corporation | Pose-invariant face recognition system and process |
US6920231B1 (en) * | 2000-06-30 | 2005-07-19 | Indentix Incorporated | Method and system of transitive matching for object recognition, in particular for biometric searches |
AUPR541801A0 (en) * | 2001-06-01 | 2001-06-28 | Canon Kabushiki Kaisha | Face detection in colour images with complex background |
US7027620B2 (en) * | 2001-06-07 | 2006-04-11 | Sony Corporation | Method of recognizing partially occluded and/or imprecisely localized faces |
US7050607B2 (en) * | 2001-12-08 | 2006-05-23 | Microsoft Corp. | System and method for multi-view face detection |
JP4210137B2 (ja) * | 2002-03-04 | 2009-01-14 | 三星電子株式会社 | 2次icaを利用した顔認識法及びその装置 |
KR100438841B1 (ko) * | 2002-04-23 | 2004-07-05 | 삼성전자주식회사 | 이용자 검증 및 데이터 베이스 자동 갱신 방법, 및 이를이용한 얼굴 인식 시스템 |
US7203346B2 (en) * | 2002-04-27 | 2007-04-10 | Samsung Electronics Co., Ltd. | Face recognition method and apparatus using component-based face descriptor |
KR100442835B1 (ko) * | 2002-08-13 | 2004-08-02 | 삼성전자주식회사 | 인공 신경망을 이용한 얼굴 인식 방법 및 장치 |
KR100473598B1 (ko) * | 2002-11-04 | 2005-03-11 | 삼성전자주식회사 | 가려진 얼굴영상을 판단하는 시스템 및 방법 |
TWI226589B (en) * | 2003-04-28 | 2005-01-11 | Ind Tech Res Inst | Statistical facial feature extraction method |
-
2002
- 2002-08-13 KR KR10-2002-0047898A patent/KR100442835B1/ko not_active IP Right Cessation
-
2003
- 2003-07-31 US US10/630,787 patent/US7295687B2/en active Active
- 2003-08-13 JP JP2003292732A patent/JP2004078959A/ja active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR19990009385A (ko) * | 1997-07-09 | 1999-02-05 | 이계철 | 비선형 코릴레이션 신경망을 이용한 얼굴 위치 추적 방법 |
KR19990026863A (ko) * | 1997-09-26 | 1999-04-15 | 전주범 | 퍼지 뉴러 얼굴 인식 방법 |
KR19990086440A (ko) * | 1998-05-28 | 1999-12-15 | 전주범 | 신경 회로망과 은닉 마르코프 모델을 이용한얼굴 인식 방법 |
KR20010008715A (ko) * | 1999-07-02 | 2001-02-05 | 학교법인 인하학원 | 다-차원 신경 회로망을 이용한 얼굴 검출 방법 및 그 장치 |
KR20020075960A (ko) * | 2002-05-20 | 2002-10-09 | 주식회사 코난테크놀로지 | 신경회로망을 이용한 얼굴 영역 검출 방법 |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11915119B2 (en) | 2016-12-22 | 2024-02-27 | Samsung Electronics Co., Ltd. | Convolutional neural network (CNN) processing method and apparatus performing high speed and precision convolution operations |
KR20180097949A (ko) | 2017-02-24 | 2018-09-03 | 오치민 | 순차적 다중 합성곱 신경망을 이용한 영상 내 관절 자세 예측 방법 |
US11514290B2 (en) | 2017-03-28 | 2022-11-29 | Samsung Electronics Co., Ltd. | Convolutional neural network (CNN) processing method and apparatus |
KR20200013174A (ko) | 2018-07-20 | 2020-02-06 | 오치민 | 다중 합성곱 신경망을 이용한 영상 내 관절 좌표 예측 방법 |
KR20200017564A (ko) | 2018-07-23 | 2020-02-19 | 오치민 | 인물 포즈 예측을 위한 사스 서비스 방법 |
KR20200087297A (ko) * | 2018-12-28 | 2020-07-21 | 이화여자대학교 산학협력단 | 인공신경망 기반의 영상 분할을 이용한 불량 검출 방법 및 불량 검출 장치 |
KR102166458B1 (ko) * | 2018-12-28 | 2020-10-15 | 이화여자대학교 산학협력단 | 인공신경망 기반의 영상 분할을 이용한 불량 검출 방법 및 불량 검출 장치 |
Also Published As
Publication number | Publication date |
---|---|
US20040034611A1 (en) | 2004-02-19 |
US7295687B2 (en) | 2007-11-13 |
JP2004078959A (ja) | 2004-03-11 |
KR20040015613A (ko) | 2004-02-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100442835B1 (ko) | 인공 신경망을 이용한 얼굴 인식 방법 및 장치 | |
CN111652066B (zh) | 基于多自注意力机制深度学习的医疗行为识别方法 | |
JP4532915B2 (ja) | パターン認識用学習方法、パターン認識用学習装置、画像入力装置、コンピュータプログラム、及びコンピュータ読み取り可能な記録媒体 | |
Lampinen et al. | Distortion tolerant pattern recognition based on self-organizing feature extraction | |
KR101254177B1 (ko) | 방사형 기저 함수 신경회로망 알고리즘을 이용한 실시간 얼굴 인식 시스템 | |
Heisele et al. | Hierarchical classification and feature reduction for fast face detection with support vector machines | |
Littlewort et al. | Towards social robots: Automatic evaluation of human-robot interaction by facial expression classification | |
CN111444881A (zh) | 伪造人脸视频检测方法和装置 | |
EP1388804A2 (en) | Method and system for face detection using pattern classifier | |
JP2005352900A (ja) | 情報処理装置、情報処理方法、パターン認識装置、及びパターン認識方法 | |
Benkaddour et al. | Human age and gender classification using convolutional neural network | |
CN111274987A (zh) | 人脸表情识别方法及人脸表情识别装置 | |
Benkaddour | CNN based features extraction for age estimation and gender classification | |
CN109886281A (zh) | 一种基于四元数超限学习机彩色图像识别方法 | |
Shu et al. | A SVM multi-class image classification method based on DE and KNN in smart city management | |
Aria et al. | Generalized cooccurrence matrix to classify IRS-1D images using neural network | |
Pandey et al. | A metaheuristic autoencoder deep learning model for intrusion detector system | |
Mehra et al. | Expert system for speaker identification using lip features with PCA | |
Viennet et al. | Connectionists methods for human face processing | |
JP2924442B2 (ja) | パターン認識装置 | |
JP3180477B2 (ja) | パターン認識装置 | |
KR20150131658A (ko) | 2방향 2차원 주성분분석 알고리즘 및 다항식 방사형 기저함수 기반 신경회로망을 이용한 야간 얼굴 인식 방법 | |
Devi et al. | Algorithmic Study on Facial Emotion Recognition model with Optimal Feature Selection via Firefly Plus Jaya Algorithm | |
Bazanov et al. | Hybrid and parallel face classifier based on artificial neural networks and principal component analysis | |
Bassiou et al. | Frontal face detection using support vector machines and back-propagation neural networks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20080708 Year of fee payment: 5 |
|
LAPS | Lapse due to unpaid annual fee |