KR101501410B1 - 눈 위치 검출 방법 - Google Patents

눈 위치 검출 방법 Download PDF

Info

Publication number
KR101501410B1
KR101501410B1 KR20140024255A KR20140024255A KR101501410B1 KR 101501410 B1 KR101501410 B1 KR 101501410B1 KR 20140024255 A KR20140024255 A KR 20140024255A KR 20140024255 A KR20140024255 A KR 20140024255A KR 101501410 B1 KR101501410 B1 KR 101501410B1
Authority
KR
South Korea
Prior art keywords
eye
face
eye position
hypothesis
shape
Prior art date
Application number
KR20140024255A
Other languages
English (en)
Inventor
노명철
조현수
Original Assignee
주식회사 에스원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 에스원 filed Critical 주식회사 에스원
Priority to KR20140024255A priority Critical patent/KR101501410B1/ko
Application granted granted Critical
Publication of KR101501410B1 publication Critical patent/KR101501410B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/197Matching; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/469Contour-based spatial representations, e.g. vector-coding
    • G06V10/473Contour-based spatial representations, e.g. vector-coding using gradient analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Ophthalmology & Optometry (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)
  • Collating Specific Patterns (AREA)

Abstract

본 발명은 눈 위치 검출 방법에 관한 것으로, 입력된 영상으로부터 형태정보로부터 얻어지는 눈 위치 후보들을 모양정보를 이용하여 검증함으로써, 보다 정확한 눈 위치를 검출할 뿐 만 아니라 얼굴의 일부가 가려졌을 경우에도 눈의 위치를 정확히 추정할 수 있는 눈 위치 검출 방법을 제공한다.

Description

눈 위치 검출 방법{Method for detecting a position of eye}
본 발명은 눈 위치 검출 방법에 관한 것으로, 구체적으로는 입력된 영상으로부터 형태정보 및 모양정보를 이용하여 정확한 눈 위치를 검출하는 방법에 관한 것이다.
눈 위치를 검출하는 기술은 얼굴 인식뿐 만 아니라 휴면 컴퓨터 인터페이스, 비디오 감시 시스템, 얼굴을 이용한 영상 검색 등의 다양한 응용분야가 생겨나면서, 그 중요성이 점점 커지고 있다. 특히, 얼굴을 인식하기 위해서는 얼굴의 크기와 위치를 정규화해야 하는데, 일반적으로 눈의 위치로 정규화를 하고 있기 때문에 눈 검출은 얼굴 인식을 위한 필수적인 기술이 된다.
종래 눈 검출 방법의 대부분은 임의 영역의 형태(Texture)를 분석하여 미리 학습된 눈 영역의 형태와 유사도를 비교하는 방법으로 이루어지거나, 또는 각 눈의 후보 좌표를 유사도가 높은 순으로 몇 개 찾아내고 이 후보 영역들의 조합들을 포함하는 더 넓은 영역의 형태 정보를 이용하여 실제 눈의 조합을 검증하는 방법도 제안되었다.
그러나 이렇게 제안된 종래의 기술들은 명확한 성능의 한계가 있다. 첫 번째 언급한 방법은 눈 감김, 안경으로 인한 가려짐 등에 의해 눈 영역의 형태정보가 변화되는 경우나 눈썹이나 뿔테 안경, 복잡한 배경에서의 형태정보가 학습된 눈 영역의 형태정보와 유사할 경우에 실제 눈이 아닌 잘못된 영역을 눈으로 검출하는 오검출 가능성이 높다. 또한 두 번째 언급한 방법은 잘못된 위치를 검증할 수 있는 가능성을 제공하는 한편, 더 넓은 영역을 사용함으로써 얼굴의 다양한 변화(표정, 그늘짐, 안경 등)에 대한 신뢰성 있는 성능 확보가 어렵다는 단점이 있다.
또한, AAM(Active Appearance Model), CLM(Constraint Local Mode), BTSM(Bayesian Tangent Shape Model) 등의 얼굴모양 정렬을 사용하여 눈의 위치를 찾을 수도 있지만, 이 방법은 초기값에 민감하거나 속도가 느려서 실제 시스템에 적용되기 힘든 단점이 있다.
또한, 위의 방법들은 머리카락으로 인해 한쪽 눈이 가려지거나 두꺼운 안경을 쓰고 있는 등의 얼굴 일부 가려짐에 취약한 단점이 있다.
공개특허 10-2006-0058197
본 발명은 상기한 사항을 감안하여 창안된 것으로, 형태정보 및 모양정보를 이용하여 입력된 영상에서 정확한 눈 위치를 검출하는 방법을 제공하는데 그 목적이 있다.
상기한 기술적 과제를 달성하기 위한 눈 위치 검출 방법은 (a) 형태정보를 기반으로 좌우 각 눈에 대하여 N 개의 눈 위치 후보를 추출하는 단계; 및 (b) 모양정보를 기반으로 상기 눈 위치 후보를 검증 및 보정하는 단계를 포함한다.
상기 (a) 단계는 탬플릿 매칭(Template Matching), 그라디언트 프로젝션(Gradient Projection), 신경망(Neural Network) 또는 아다부스트(Adaboost) 방법을 이용하여 수행될 수 있다.
일례로, 상기 (a) 단계는 (a1) 입력받은 얼굴영상에서 검출된 얼굴영역으로부터 LBP(Local Binary Pattern) 방법을 이용하여 특징을 추출하는 단계; 및 (a2) 상기 추출된 특징과 학습된 눈의 특징을 비교하고 검색하는 단계를 포함할 수 있다.
상기 (b) 단계는 (b1) 상기 눈 위치 후보들로부터 얼굴모양의 가설을 설정하는 단계; (b2) 상기 가설된 얼굴모양 각각에 대한 얼굴모양 정렬을 수행하는 단계; (b3) 상기 정렬된 얼굴모양과 입력된 얼굴영상의 정합도를 계산하는 단계; 및 (b3) 상기 가설 중 가장 높은 정합도를 가진 하나의 가설을 선택하는 단계를 포함할 수 있다.
바람직하게는 상기 (b1) 단계에서 좌우 각 눈에 대하여 N개의 눈 위치 후보를 얻은 경우 N*N 개의 얼굴모양의 가설이 설정될 수 있다.
상기 (b3) 단계에서 상기 정렬된 얼굴모양에서의 각 특징점 위치와 얼굴영상에서의 특징반응 위치를 이용하여 마할라노비스 거리(mahalanobis Distance)로부터 각 특징점에 대한 거리값을 계산하고, 상기 각 특징점에 대한 거리값이 주어진 거리값 보다 큰 것을 아웃라이어로 하여, 전체 특징점의 개수와 아웃라이어의 개수를 비교하여 정합도를 계산할 수 있다.
한편, 상기 (b) 단계는 (b4) 선택된 가설의 모양 정보를 세밀하게 보정하여 갱신하는 단계를 더 포함할 수 있다.
본 발명에 따른 눈 위치 검출 및 보정 방법에 의하면, 입력된 영상에서 눈 위치를 정확하게 찾을 수 있으며, 특히 눈 감김이나 심한 조명 변화, 얼굴 일부의 가려짐 등에 의해 눈 영역의 형태정보가 변화되는 경우나, 복잡한 배경에서 형태 정보가 학습된 눈 영역의 형태 정보와 유사할 경우 등에 있어서도 정확한 검출이 가능하다.
또한, 형태 정보만을 사용했을 때보다 눈을 놓치지 않고 찾으며 눈의 위치도 더욱 세밀하게 찾을 수 있다.
또한, 모양 정보만을 사용했을 때의 단점인 많은 계산량과 지역최적화의 문제를 해결할 수 있다.
도 1은 본 발명의 실시예에 따른 눈 위치 검출 방법의 전체 흐름도이고,
도 2는 본 발명의 실시예에 따른 눈 위치 후보 추출 단계의 세부 흐름도이고,
도 3은 본 발명의 실시예에 따른 눈 위치 검증 및 보정 단계의 세부 흐름도이며,
도 4는 본 발명을 이용한 눈 검출 결과의 예시를 나타내는 그림이다.
이하, 첨부된 도면을 참조하여 본 발명에 따른 실시예에 대하여 상세히 설명한다. 도면에서 동일 또는 균등물에 대해서는 동일 또는 유사한 참조번호를 부여하였으며, 또한 명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한, 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
도 1은 본 발명인 눈 위치 검출 방법의 전체 흐름도를 나타낸다.
이를 참고하면, 본 발명인 눈 위치 검출 방법은 눈 위치 후보를 추출하는 단계(S100)와 상기 눈 위치 후보를 검증하고 보정하는 단계(S200)를 포함한다.
상기 단계(S100)에서는 형태(texture) 정보를 기반으로 좌우 눈 각각에 대해 복수 개의 눈 위치 후보를 추출하게 된다. 기존의 방법이 각 눈에 대하여 하나의 위치 만을 찾는 반면, 본 발명에서는 여러 개의 후보 위치를 찾게 됨으로써 보다 정확한 눈 위치의 검출이 가능하게 된다.
또한, 형태 정보를 기반으로 한 특징 검출은 템플릿 매칭(Template Matching), 그라디언트 프로젝션(Gradient Projetion), 신경망(Neural Network), 아다부스트(Adaboost) 등의 방법을 이용하여 수행 될 수 있다.
상기 단계(S200)에서는 상기 눈 위치 후보들로부터 여러 개의 모양(shape) 가설을 설정하여 얼굴 정렬을 수행하고, 입력된 영상과 적합한지를 평가하여 가장 잘 맞는 모양 가설을 선택하고 보정하여, 이로부터 최종적인 눈의 위치를 검출하게 된다.
이와 같이 형태(texture) 정보와 모양(shape) 정보를 함께 사용함으로써, 형태 정보만을 사용했을 때보다 눈을 놓치지 않고 보다 세밀하게 찾을 수 있게 된다. 또한, 모양 정보만을 사용했을 때의 단점인 많은 계산량과 지역최적화의 문제를 해결할 수 있게 된다.
이하 도 2 내지 도 4를 참고하여, 각 단계에 대하여 보다 상세하게 설명하기로 한다.
도 2는 본 발명의 실시예에 따른 눈 위치 후보 추출 단계의 세부 흐름도를 나타낸다.
이를 참고하면, 상기 눈 위치 후보의 추출 단계(S100)는 형태 정보를 기반으로 입력받은 얼굴영역으로부터 특징을 추출하는 단계(S110), 상기 추출된 특징과 학습된 눈의 특징을 비교하고 검색는 단계(S120)를 포함한다.
상기 얼굴영역으로부터 특징 추출은 LPB(Local Binary Patternt) 등의 방법을 이용하여 추출 할 수 있다.
한편, 상기 눈 위치 후보를 추출하는 과정에서 올바른 눈을 포함한 여러 개의 눈 위치 후보가 추출 될 수 있도록 임계값(Threshold value)을 낮게 조정하는 것이 바람직하다.
또한, 눈 영역의 형태정보는 감은 눈, 안경테, 눈썹 등에서 유사하게 나타나므로 눈 검출기는 여러 개의 지역 최고값(Local Maxima)를 가진다. 이때 여러 개의 눈 후보 위치를 추출하기 위하여 다중 시드(seed), 경사상승법(gradient ascent) 등의 지역 최고값 탐색 방법을 사용할 수 있다.
도 3은 본 발명의 실시예에 따른 눈 위치 검증 및 보정 단계의 세부 흐름도를 나타낸다.
이를 참고하면, 상기 눈 위치 후보를 검증하고 보정하는 단계(S200)는 상기 눈 위치 후보들로부터 얼굴모양의 가설을 설정하는 단계(S210), 상기 가설된 얼굴모양 각각에 대한 얼굴모양 정렬을 수행하는 단계(S220), 상기 정렬된 얼굴모양과 입력된 얼굴영상의 정합도를 계산하는 단계(S230) 및 상기 가설 중 가장 높은 정합도를 가진 하나의 가설을 선택하는 단계(S240)를 포함한다.
상기 단계(S210)는 상기 단계(S100)에서 얻어진 눈 위치 후보들 가운데 좌우 눈 하나씩을 선택하고, 이로부터 얼굴모양 가설을 설정한다. 상기 얼굴모양 가설은 각 눈에 대하여 N 개의 눈 위치 후보를 얻었다면, N * N 개로 설정함이 바람직하다. 이는 좌우 눈 후보 중 각각 하나씩을 선택하여 하나의 눈 쌍을 조합할 수 있는 최대 개수가 된다.
상기 단계(S220)에서는 상기 가설된 얼굴모양을 시작으로 얼굴모양 정렬을 수행한다. 얼굴정렬은 눈, 코, 입 등 각 객체의 위치 및 모양을 주어진 얼굴영상에 정확히 맞추는 것을 말한다. 이와 같은 얼굴 정렬을 수행할 때, 전체 특징점 중에서 일부를 이용하여 얼굴모양을 추정하는 방법을 사용함으로써 일부 가려짐에도 강인한 정렬결과를 얻을 수 있게 된다.
상기 단계(S230)에서는 상기 정렬된 얼굴모양과 입력된 얼굴영상의 정합도를 계산한다. 구체적으로, 정렬된 얼굴모양에서 각 특징점(예를 들어, 오른쪽 눈의 바깥쪽 점, 왼쪽 눈썹 가운데 점 등)의 위치와 영상에서의 특징 반응(Feature Response)의 위치을 이용하여 거리값을 계산하고, 이로부터 영상에 대한 얼굴정렬 결과의 정합도을 계산하게 된다.
하나의 특징점에 대한 거리값은 아래와 같이 마할라노비스 거리(Mahalanobis Distance)로 계산 할 수 있다. 정렬된 특징점의 위치를 x, 특징반응의 위치(y) 및 분포(S)를 가우시안 분포 (y,S)로 나타내었을 때 그 거리값은 아래 수식 1과 같다.
수학식 1 : 거리값(x,y) = (x-y)T S-1 (x-y)
한편, 정합도는 아래 수학식 2로 계산될 수 있고, 여기서 아웃라이어는 각 특징점의 거리값이 주어진 거리값보다 큰 것을 말한다.
수식 2 : 정합도 = 전체 특징점의 개수 / 아웃라이어의 개수
상기 단계(S240)에서는 상기 단계(S230)에서 계산된 각각의 얼굴모양 가설에 대한 정합도를 비교하여 가장 높은 정합도를 가진 하나의 가설을 선택한다.
바람직하게는 상기 단계(S240) 이후에 선택된 가설의 모양정보를 보다 세밀하게 보정하여 갱신하는 단계가 더 포함될 수 있다. 보정하는 방법은 상기 단계(S200)의 얼굴모양 정렬과 동일하나 좀 더 높은 해상도의 영상을 사용함으로써 세밀하게 보정할 수 있다.
이상과 같은 방법을 통해 최종 보정된 얼굴 모양으로부터 양 눈의 위치를 바로 얻을 수 있게 된다.
도 4는 본 발명을 이용한 눈 검출기 결과의 예시를 나타내는 것으로, 눈 후보 위치(왼쪽 그림)를 모양 정렬(가운데 그림)을 통해 검증하고, 보정된 최종 눈의 위치(오른쪽 그림)를 보여준다.
이상의 설명은, 본 발명의 구체적인 실시예에 관한 것이다. 본 발명에 따른상기 실시예는 설명의 목적으로 개시된 사항이나 본 발명의 범위를 제한하는 것으로 이해되지는 않으며, 해당 기술분야에서 통상의 지식을 가진 자라면 본 발명의 본질을 벗어나지 아니하고 다양한 변경 및 수정이 가능한 것으로 이해되어야 한다. 따라서, 이러한 모든 수정과 변경은 특허청구범위에 개시된 발명의 범위 또는 이들의 균등물에 해당하는 것으로 이해될 수 있다.

Claims (7)

  1. (a) 형태정보를 기반으로 좌우 각 눈에 대하여 복수 개의 눈 위치 후보를 추출하는 단계;
    (b) 상기 눈 위치 후보들로부터 얼굴모양의 가설을 설정하는 단계;
    (c) 상기 가설된 얼굴모양 각각에 대한 얼굴모양 정렬을 수행하는 단계;
    (d) 상기 정렬된 얼굴모양과 입력된 얼굴영상의 정합도를 계산하는 단계; 및
    (e) 상기 가설 중 가장 높은 정합도를 가진 하나의 가설을 선택하는 단계;
    를 포함하는 것을 특징으로 하는 눈 위치 검출 방법
  2. 제 1항에 있어서, 상기 (a) 단계는
    탬플릿 매칭(Template Matching), 그라디언트 프로젝션(Gradient Projection), 신경망(Neural Network) 또는 아다부스트(Adaboost) 방법을 이용하여 수행되는 것을 특징으로 하는 눈 위치 검출 방법.
  3. 제 1항에 있어서, 상기 (a) 단계는
    (a1) 입력받은 얼굴영상에서 검출된 얼굴영역으로부터 LBP(Local Binary Pattern) 방법을 이용하여 특징을 추출하는 단계; 및
    (a2) 상기 추출된 특징과 학습된 눈의 특징을 비교하고 검색하는 단계;
    를 포함하는 것을 특징을 하는 눈 위치 검출 방법.
  4. 삭제
  5. 제 1항에 있어서, 상기 (b) 단계는
    좌우 각 눈에 대하여 N개의 눈 위치 후보를 얻은 경우 N*N 개의 얼굴모양의 가설이 설정되는 것을 특징으로 하는 눈 위치 검출 방법.
  6. 제 1항에 있어서, 상기 (d) 단계는
    상기 정렬된 얼굴모양에서의 각 특징점 위치와 얼굴영상에서의 특징반응 위치를 이용하여 마할라노비스 거리(mahalanobis Distance)로부터 각 특징점에 대한 거리값을 계산하고, 상기 각 특징점에 대한 거리값이 주어진 거리값 보다 큰 것을 아웃라이어로 하여, 전체 특징점의 개수와 아웃라이어의 개수를 비교하여 정합도를 계산하는 것을 특징으로 하는 눈 위치 검출 방법.
  7. 제 1항에 있어서,
    (f) 선택된 가설의 모양 정보를 보정하여 갱신하는 단계;를 더 포함하는 것을 특징으로 하는 눈 위치 검출 방법.




KR20140024255A 2014-02-28 2014-02-28 눈 위치 검출 방법 KR101501410B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR20140024255A KR101501410B1 (ko) 2014-02-28 2014-02-28 눈 위치 검출 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR20140024255A KR101501410B1 (ko) 2014-02-28 2014-02-28 눈 위치 검출 방법

Publications (1)

Publication Number Publication Date
KR101501410B1 true KR101501410B1 (ko) 2015-03-12

Family

ID=53027180

Family Applications (1)

Application Number Title Priority Date Filing Date
KR20140024255A KR101501410B1 (ko) 2014-02-28 2014-02-28 눈 위치 검출 방법

Country Status (1)

Country Link
KR (1) KR101501410B1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017039220A1 (ko) * 2015-08-31 2017-03-09 오스템임플란트 주식회사 치아 교정 계획을 위한 이미지 처리 방법, 이를 위한 장치 및 기록 매체
US11508187B2 (en) 2019-10-16 2022-11-22 Samsung Display Co., Ltd. Pupil detection device

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050111183A (ko) * 2004-05-21 2005-11-24 삼성전자주식회사 눈검출 장치 및 방법
KR20080114361A (ko) * 2007-06-27 2008-12-31 포항공과대학교 산학협력단 눈 검증 및 눈 위치 보정을 이용한 눈 검출 방법

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050111183A (ko) * 2004-05-21 2005-11-24 삼성전자주식회사 눈검출 장치 및 방법
KR20080114361A (ko) * 2007-06-27 2008-12-31 포항공과대학교 산학협력단 눈 검증 및 눈 위치 보정을 이용한 눈 검출 방법

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017039220A1 (ko) * 2015-08-31 2017-03-09 오스템임플란트 주식회사 치아 교정 계획을 위한 이미지 처리 방법, 이를 위한 장치 및 기록 매체
US10874484B2 (en) 2015-08-31 2020-12-29 Osstemimplant Co., Ltd. Image processing method for orthodontic plan, device and recording medium therefor
US11508187B2 (en) 2019-10-16 2022-11-22 Samsung Display Co., Ltd. Pupil detection device

Similar Documents

Publication Publication Date Title
US10789454B2 (en) Image processing device, image processing method, and computer program product
EP2874098B1 (en) Image recognition apparatus and data registration method for image recognition apparatus
KR101725651B1 (ko) 식별 장치 및 식별 장치의 제어 방법
US11893831B2 (en) Identity information processing method and device based on fundus image
JP2016081212A (ja) 画像認識装置、画像認識方法、および、画像認識プログラム
WO2012013711A2 (en) Semantic parsing of objects in video
CN109063625A (zh) 一种基于级联深度网络的人脸关键点检测方法
US9779286B2 (en) Feature point location estimation device, feature point location estimation method, and feature point location estimation program
US10229311B2 (en) Face template balancing
CN110232331B (zh) 一种在线人脸聚类的方法及系统
KR20160054783A (ko) 영상의 관심영역으로부터 랜드마크를 결정하는 장치 및 방법
KR101089847B1 (ko) 얼굴 인식을 위한 sift 알고리즘을 이용한 키포인트 매칭 시스템 및 방법
Banerjee et al. Iris segmentation using geodesic active contours and grabcut
Alsawwaf et al. In your face: person identification through ratios and distances between facial features
CN112149601A (zh) 兼容遮挡的面部属性识别方法、装置和电子设备
CN110175500B (zh) 指静脉比对方法、装置、计算机设备及存储介质
KR101501410B1 (ko) 눈 위치 검출 방법
WO2019223339A1 (zh) 用于面部匹配的方法、设备、装置和存储介质
Ghalleb et al. Face recognition improvement using soft biometrics
Pathak et al. A framework for dynamic hand gesture recognition using key frames extraction
Webb et al. Towards a complete rule-based classification approach for flat fingerprints
Pathak et al. Entropy based CNN for segmentation of noisy color eye images using color, texture and brightness contour features
US20160154995A1 (en) Image processing method, image processing apparatus, and recording medium
KR101441106B1 (ko) 얼굴 검출 및 검증 방법 및 그 장치
Kovoor et al. Iris biometric recognition system employing canny operator

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20180223

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20190225

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20200224

Year of fee payment: 6