KR101051434B1 - 얼굴영상으로부터 안구영역을 인식하는 안구인식방법 - Google Patents

얼굴영상으로부터 안구영역을 인식하는 안구인식방법 Download PDF

Info

Publication number
KR101051434B1
KR101051434B1 KR1020090133708A KR20090133708A KR101051434B1 KR 101051434 B1 KR101051434 B1 KR 101051434B1 KR 1020090133708 A KR1020090133708 A KR 1020090133708A KR 20090133708 A KR20090133708 A KR 20090133708A KR 101051434 B1 KR101051434 B1 KR 101051434B1
Authority
KR
South Korea
Prior art keywords
region
eye
recognizing
area
recognition
Prior art date
Application number
KR1020090133708A
Other languages
English (en)
Other versions
KR20110077210A (ko
Inventor
송혁
이철동
최병호
박상현
민수영
Original Assignee
전자부품연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 전자부품연구원 filed Critical 전자부품연구원
Priority to KR1020090133708A priority Critical patent/KR101051434B1/ko
Publication of KR20110077210A publication Critical patent/KR20110077210A/ko
Application granted granted Critical
Publication of KR101051434B1 publication Critical patent/KR101051434B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/162Detection; Localisation; Normalisation using pixel segmentation or colour matching

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Ophthalmology & Optometry (AREA)
  • Image Processing (AREA)
  • Eye Examination Apparatus (AREA)
  • Image Analysis (AREA)

Abstract

저비용으로 보다 정확한 안구인식이 가능하여 높은 안구인식률을 나타내는 얼굴영상으로부터 안구영역을 인식하는 안구인식방법이 제안된다. 제안된 안구인식방법은 얼굴영상으로부터 얼굴영역을 인식하는 얼굴영역인식단계; 얼굴영역에서 관심영역을 설정하는 관심영역설정단계; 관심영역으로부터 좌측분리안구영역 및 우측분리안구영역을 각각 인식하는 좌우분리영역인식단계; 및 관심영역 중 좌측분리안구영역 및 우측분리안구영역과 일치하는 영역을 전체안구영역으로 인식하는 전체안구영역인식단계;를 포함한다.
영상, 안구, 인식

Description

얼굴영상으로부터 안구영역을 인식하는 안구인식방법{Eye detection method from face image}
본 발명은 얼굴영상으로부터 안구영역을 인식하는 안구인식방법에 관한 것으로서, 더욱 상세하게는, 저비용으로 보다 정확한 안구인식이 가능하여 높은 안구인식률을 나타내는 안구인식방법에 관한 것이다.
카메라로부터 입력되는 영상 정보를 이용한 인식 시스템은 다양한 분야에서 널리 사용되고 있는데, 그 분야는 보안, 교육, 국방 또는 엔터테인먼트 등과 같이 광범위하다. 이러한 영상을 이용한 인식 시스템의 성능은 주변 환경에 따라 차이가 있다.
영상 정보는 태양광, 실내광 또는 주위의 반사광 등 조명의 영향을 크게 받으며 그 차이로 인하여 인식률의 차이로 인하여 사용 환경이 상당히 제한적이다. 예를 들어, 얼굴영상에 반사광이 존재할 경우에는 반사광의 영향으로 인하여 안구영역을 정확히 찾지 못할 수 있다. 따라서, 안구영역 주변의 눈썹이나 안구영역 하 단의 피부, 또는 어긋난 안구영역을 안구로 잘못 판단함으로 인하여 응용 프로그램에서 추가적으로 진행하는 인식을 제대로 수행하지 못하는 경우가 발생한다. 만약, 차량에서 안구영역을 이용하여 졸음방지시스템이 작동하고 있는 경우로 가정하면, 안구영역이 부정확한 경우 졸음상태인지를 정확히 판단할 수 없어서 차량운행의 위험성이 높아질 수 있다.
이러한 문제점을 해결하기 위하여 주변환경의 영향을 제거하기 위한 부가적인 장치가 요구되고 그 결과로 시스템의 제조비용이 높아지는 문제점이 있다. 따라서 실제 환경에서의 정보를 분석하여 실환경에서 발생하는 정보를 분석하고 그에 맞는 알고리즘을 채용함으로 불필요한 시스템의 부가 장치를 없애고 단순화하고자 하는 기술의 개발이 요청된다.
본 발명은 상술한 문제점을 해결하기 위한 것으로, 본 발명의 목적은 저비용으로 보다 정확한 안구인식이 가능하여 높은 안구인식률을 나타내는 얼굴영상으로부터 안구영역을 인식하는 안구인식방법을 제공하는데 있다.
이상과 같은 목적을 달성하기 위한 본 발명의 일 측면에 따른 얼굴영상으로부터 안구영역을 인식하는 안구인식방법은, 얼굴영상으로부터 얼굴영역을 인식하는 얼굴영역인식단계; 얼굴영역에서 관심영역을 설정하는 관심영역설정단계; 관심영역으로부터 좌측분리안구영역 및 우측분리안구영역을 각각 인식하는 좌우분리영역인식단계; 및 관심영역 중 좌측분리안구영역 및 우측분리안구영역과 일치하는 영역을 전체안구영역으로 인식하는 전체안구영역인식단계;를 포함한다.
또한, 관심영역으로부터 상측분리안구영역 및 하측분리안구영역을 각각 인식하는 단계;를 더 포함할 수 있어서, 전체안구영역인식단계는, 관심영역 중 좌측분리안구영역, 우측분리안구영역, 상측분리안구영역 및 하측분리안구영역과 일치하는 영역을 전체안구영역으로 인식하여 수행될 수 있다.
여기서, 좌측분리안구영역 및 우측분리안구영역은, 반사광이 형성된 부분을 제외하고 인식될 수 있고, 좌측분리안구영역 및 우측분리안구영역은, 안구 중 동공부분을 제외하고 인식될 수 있으며, 좌측분리안구영역 및 우측분리안구영역은, 안구 중 홍채부분을 제외하고 인식될 수 있다.
얼굴영역인식단계는, 얼굴영상으로부터 색상, 패턴 또는 얼굴구조를 이용하여 얼굴영역을 인식할 수 있다.
관심영역을 설정하는 단계는, 전체 얼굴영역을 기준으로 하여 길이방향으로 하단으로부터 50% 내지 85% 사이의 영역 중 일부의 영역으로 설정될 수 있다.
전체안구영역인식단계는, 좌측분리안구영역 및 우측분리안구영역과 관심영역의 상관도를 추출하여 일치하는지 여부를 판단하여 수행될 수 있다.
또한, 전체안구영역인식단계 후에, 기준안구영역을 이용하여 검증하는 단계;를 더 포함할 수 있다.
본 발명에 따르면, 얼굴영상으로부터 안구영역을 인식할 때, 외부환경의 영향을 최소로 할 수 있어서 보다 정확한 안구영역을 인식할 수 있어 신뢰성 높은 안구인식방법을 수행할 수 있는 효과가 있다. 또한, 외부환경요인을 감소시키기 위한 부가적인 장치 추가없이 안구인식이 가능하므로 제조비용절감의 효과가 있다.
이하, 첨부된 도면을 참조하여 본 발명의 실시형태를 설명한다. 그러나, 본 발명의 실시형태는 여러가지 다른 형태로 변형될 수 있으며, 본 발명의 범위가 이하 설명하는 실시형태로 한정되는 것은 아니다. 본 발명의 실시형태는 당업계에서 통상의 지식을 가진 자에게 본 발명을 보다 완전하게 설명하기 위해서 제공되는 것이다.
도 1은 본 발명의 일실시예에 따른 안구인식방법의 설명에 제공되는 흐름도이다. 본 발명에 따른 얼굴영상으로부터 안구영역을 인식하는 안구인식방법은, 얼굴영상으로부터 얼굴영역을 인식하는 얼굴영역인식단계; 얼굴영역에서 관심영역을 설정하는 관심영역설정단계; 관심영역으로부터 좌측분리안구영역 및 우측분리안구영역을 각각 인식하는 좌우분리영역인식단계; 및 관심영역 중 좌측분리안구영역 및 우측분리안구영역과 일치하는 영역을 전체안구영역으로 인식하는 전체안구영역인식단계;를 포함한다.
본 발명에 따라 얼굴영상으로부터 안구영역을 인식하기 위하여는 먼저 얼굴영상으로부터 얼굴영역을 인식한다(S110). 도 3a에는 얼굴영상으로부터 인식된 얼굴영역(300)이 나타나있다. 얼굴영상으로부터 얼굴영역(300)을 인식하는 방법으로 는 색상을 이용한 방법, 패턴을 이용한 방법 또는 얼굴의 구조를 이용한 방법이 있다.
얼굴영역(300)이 인식되면, 얼굴영역(300)으로부터 안구를 인식하여야 한다. 먼저 정확한 안구의 위치를 찾기 보다 안구가 위치할 만한 영역을 설정할 필요가 있다. 얼굴에서 안구의 위치는 일반적으로 얼굴의 하단(C1)으로부터 약 50%위치(C2)에서부터 85%(C3) 위치에 존재한다. 따라서, 이 영역을 안구가 위치할 만한 영역인 관심영역으로 설정(S120)한 후에 이 영역에서 안구를 찾을 수 있다. 도 3b에는 안구가 위치하고 있는 관심영역(310)이 도시되어 있다.
도 3b와 같이 관심영역(310)이 설정되면, 그 중 하나의 안구를 먼저 선택한다. 도 3c에는 도 3b의 관심영역(310) 중 임의로 선택된 왼쪽안구(320)가 도시되어 있다. 눈은 눈주위의 피부, 눈 상단의 눈썹, 눈영역 및 피부영역의 경계에 위치한 속눈썹 등이 있고, 내부에는 정면에서 보아 가장 가장자리에 위치하는 백색부분인 공막부분(321), 홍채부분(322), 및 가장 안쪽에 위치하는 동공부분(323)으로 구분되는 안구(320)가 위치한다.
관심영역(310) 이 설정되면, 관심영역(310)으로부터 좌측분리안구영역 및 우측분리안구영역을 각각 인식한다. 도 4a 및 도 4b에서는 도 3c의 왼쪽안구(320)를 C4 로 절단한 좌측 및 우측분리안구영역이 각각 도시되어 있다. 왼쪽안구(320)에 대한 분리안구영역을 인식한 후 나머지 안구에 대하여도 각각의 분리안구영역을 인식한다.
좌측분리안구영역(410) 및 우측분리안구영역(420)을 인식하면, 이를 이용하여 관심영역과의 상관도(corelation)을 추출한다(S140). 상관도를 추출하여 좌측분리안구영역(410) 및 우측분리안구영역(420)이 결합되는 영역에 위치하는 영역과 일치하면(S150: Y) 이 영역을 하나의 안구에 대한 전체안구영역으로 인식한다. 즉, 관심영역(310) 중 좌측분리안구영역(410) 및 우측분리안구영역(420)과 일치하는 영역을 전체안구영역으로 인식한다(S160). 즉 만약, 영역이 일치하지 않으면(S150: N), 다시 좌측분리안구영역(410) 및 우측분리안구영역(420)을 인식하는 단계(S130)로 돌아간다. 안구영역을 좌측 및 우측으로 분리하여 인식하였기 때문에 전체 안구영역을 하나로 인식한 후 상관도를 추출하는 경우보다 각각에 대하여 상관도를 추출하므로 더욱 정확한 전체안구영역인식이 가능하다.
전체안구영역인식단계 후에, 일반적인 눈형태를 나타내는 기준안구영역을 이용하여 본 발명에 따른 안구인식방법을 검증하여 오류를 최소화하는 것이 바람직하다.
도 2는 본 발명의 일실시예에 따른 안구인식방법의 설명에 제공되는 흐름도이다. 도 2에서 얼굴영역인식단계(S210), 관심영역설정단계(S220), 좌측 및 우측분리안구영역인식단계(S230), 상관도 추출단계(S240) 및 일치여부판단단계(S250: Y)에 대하여는 도 1과 관련하여 전술한 바와 동일하므로 그 설명은 생략하기로 한다.
좌측분리안구영역(410) 및 우측분리안구영역(420)을 인식한 후, 상관도를 추출하여 일치하는지 판단하였을 때, 일치하지 않는 경우(S250: N)에는 관심영역(310)으로부터 상측분리안구영역(430) 및 하측분리안구영역(440)을 각각 인식한다. 도 4c 및 도 4d에서는 도 3c의 왼쪽안구(320)를 C5로 절단한 상측분리안구영역(430) 및 하측분리안구영역(440)이 각각 도시되어 있다.
상측분리안구영역(430) 및 하측분리안구영역(440)을 이용하는 이유는, 좌측분리안구영역(410) 및 우측분리안구영역(420)만으로 상관도를 추출하였을 때 일치하지 않은 경우, 도 1에서와 같이 다시 좌측분리안구영역(410) 및 우측분리안구영역(420)을 인식하도록 하여 상관도를 재추출할 수 있지만, 이와 다른 상측분리안구영역(430) 및 하측분리안구영역(440)을 더 이용하여 오류를 감소시키기 위한 것이다. 따라서, 관심영역(310) 중 좌측분리안구영역(410), 우측분리안구영역(420), 상측분리안구영역(430), 및 하측분리안구영역(440)과 일치하는 영역을 전체안구영역으로 찾으면 보다 오류를 줄여 정확한 안구인식이 가능하다.
도 5a는 실제 차량에서 촬영된 얼굴영상 중 눈영역을 나타내는 도면이다. 도 5a의 눈에는 홍채나 동공 부분에 반사광이 있는 것을 알 수 있다. 영상 데이터는 주변 환경에 위치한 광원의 영향을 받는다. 광원으로서는 태양광, 실내조명등, 또는 주변 구조물에 반사된 빛 등이 있다. 그러한 광원으로부터 발생하는 광선은 눈영역에 반사되어 영상정보를 획득하는 카메라에 입력된다. 그 결과로서 도 5a에서와 같이 눈에 반사광이 위치한다.
도 5a에서 빛을 반사하지 않는 눈 주위의 피부 영역 및 눈 영역 내에서 가장 밝은 눈 영역 내에 위치한 공막의 백색영역에서는 반사광이 보이지 않는다. 반사광은 눈 영역에서 가장 어두운 영역인 홍채 영역 및 동공 영역에서 발생한다. 가장 어두운 영역에서 반사광이 발생함으로 나오는 결과는 눈 영역을 추출하는데 사용되는 유사도 방법, 또는 확률을 이용하는 방법에서 기본이 되는 눈 구조물과의 비교값에서 큰 오차를 발생시킨다. 이러한 오차는 반사가 적은 피부 영역에서의 반사광 또는 밝은 영역에서 더 밝은 반사광에서 발생하는 것보다, 어두운 영역이 밝아짐으로 발생하는 오차값이 계산식에 있어 매우 큰 영향을 미친다.
따라서, 좌측분리안구영역 및 우측분리안구영역은, 반사광이 형성된 부분을 제외하고 인식될 수 있거나, 안구 중 동공부분을 제외하고 인식되거나 또는 안구 중 홍채부분을 제외하고 인식될 수 있다. 도 5b는 반사광이 형성된 부분(Ar)을 제외하고 좌측분리안구영역(511) 및 우측분리안구영역(521)을 인식한 것을 나타내는 도면이고, 도 5c는 홍채부분(Ai)을 제외하고 좌측분리안구영역(512) 및 우측분리안구영역(522)을 인식한 것을 나타내는 도면이며, 도 5d는 동공부분(Ap)을 제외하고 좌측분리안구영역(513) 및 우측분리안구영역(523)을 인식한 것을 나타내는 도면이다. 반사광이 형성된 부분(Ar), 홍채부분(Ai), 및 동공부분(Ap)은 눈에 형성되는 반사광영역이나 홍채, 동공의 위치를 통계적으로 설정하여 제외시킨다.
도 5b에서와 같이 반사광이 형성되는 영역을 제외시킨 좌측분리안구영역(511) 및 우측분리안구영역(521)을 이용하여 상관도를 추출하고 전체 안구영역을 인식하는 경우, 상관도 추출에서의 오차발생을 감소시킬 수 있기 때문에 더욱 정확한 안구영역의 인식이 가능하다. 아울러, 도 5c나 도 5d와 같이 반사광이 형성되는 영역 대신 반사광이 잘 형성되는 어두운 부분인 홍채나 동공부분 또는 도시되지는 않았으나 양자 모두를 제외시키는 경우에도 별도의 부가적인 장치없이도 더욱 정확한 안구영역의 인식이 가능하다.
본 발명은 상술한 실시형태 및 첨부된 도면에 의해 한정되는 것이 아니라, 첨부된 청구범위에 의해 해석되어야 한다. 또한, 본 발명에 대하여 청구범위에 기재된 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 다양한 형태의 치환, 변 형 및 변경이 가능하다는 것은 당해 기술분야의 통상의 지식을 가진 자에게 자명할 것이다.
도 1은 본 발명의 일실시예에 따른 안구인식방법의 설명에 제공되는 흐름도이다.
도 2는 본 발명의 일실시예에 따른 안구인식방법의 설명에 제공되는 흐름도이다.
도 3a는 얼굴영역이고, 도 3b는 관심영역이며, 도 3c는 도 3c의 관심영역 중 왼쪽안구를 나타낸 도면이다.
도 4a는 도 3c에 도시된 눈의 좌측분리안구영역이고, 도 4b는 우측분리안구영역이고, 도 4c는 상측분리안구영역이며, 도 4d는 하측분리안구영역이다.
도 5a는 실제 차량에서 촬영된 얼굴영상 중 눈영역을 나타내는 도면이다.
도 5b는 반사광이 형성된 부분을 제외하고 좌측 및 우측분리안구영역을 인식한 것을 나타내는 도면이고, 도 5c는 홍채부분을 제외하고 좌측 및 우측분리안구영역을 인식한 것을 나타내는 도면이며, 도 5d는 동공부분을 제외하고 좌측 및 우측분리안구영역을 인식한 것을 나타내는 도면이다.

Claims (9)

  1. 얼굴영상으로부터 얼굴영역을 인식하는 얼굴영역인식단계;
    상기 얼굴영역에서 관심영역을 설정하는 관심영역설정단계;
    상기 관심영역으로부터 좌측분리안구영역 및 우측분리안구영역을 각각 인식하는 좌우분리영역인식단계; 및
    상기 관심영역 중 상기 좌측분리안구영역 및 상기 우측분리안구영역과 일치하는 영역을 전체안구영역으로 인식하는 전체안구영역인식단계;를 포함하는 얼굴영상으로부터 안구영역을 인식하는 안구인식방법.
  2. 제 1항에 있어서,
    상기 관심영역으로부터 상측분리안구영역 및 하측분리안구영역을 각각 인식하는 단계;를 더 포함하고,
    상기 전체안구영역인식단계는, 상기 관심영역 중 상기 좌측분리안구영역, 상기 우측분리안구영역, 상기 상측분리안구영역 및 상기 하측분리안구영역과 일치하는 영역을 상기 전체안구영역으로 인식하는 단계인 것을 특징으로 하는 얼굴영상으로부터 안구영역을 인식하는 안구인식방법.
  3. 삭제
  4. 삭제
  5. 삭제
  6. 제 1항에 있어서,
    상기 얼굴영역인식단계는, 상기 얼굴영상으로부터 색상, 패턴 또는 얼굴구조를 이용하여 얼굴영역을 인식하는 단계인 것을 특징으로 하는 얼굴영상으로부터 안구영역을 인식하는 안구인식방법.
  7. 제 1항에 있어서,
    상기 관심영역을 설정하는 단계는, 전체 얼굴영역을 기준으로 하여 길이방향으로 하단으로부터 50% 이상 85% 이하의 영역으로 설정되는 것을 특징으로 하는 얼굴영상으로부터 안구영역을 인식하는 안구인식방법.
  8. 제 1항에 있어서,
    상기 전체안구영역인식단계는, 상기 좌측분리안구영역 및 상기 우측분리안구영역과 상기 관심영역의 상관도를 추출하여 상기 일치하는지 여부를 판단하는 것을 특징으로 하는 얼굴영상으로부터 안구영역을 인식하는 안구인식방법.
  9. 삭제
KR1020090133708A 2009-12-30 2009-12-30 얼굴영상으로부터 안구영역을 인식하는 안구인식방법 KR101051434B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090133708A KR101051434B1 (ko) 2009-12-30 2009-12-30 얼굴영상으로부터 안구영역을 인식하는 안구인식방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090133708A KR101051434B1 (ko) 2009-12-30 2009-12-30 얼굴영상으로부터 안구영역을 인식하는 안구인식방법

Publications (2)

Publication Number Publication Date
KR20110077210A KR20110077210A (ko) 2011-07-07
KR101051434B1 true KR101051434B1 (ko) 2011-07-22

Family

ID=44916817

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090133708A KR101051434B1 (ko) 2009-12-30 2009-12-30 얼굴영상으로부터 안구영역을 인식하는 안구인식방법

Country Status (1)

Country Link
KR (1) KR101051434B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10378887B2 (en) 2017-11-07 2019-08-13 Samsung Electronics Co., Ltd. Meta projectors emitting structured light or uniform light based on polarization of incident light and electronic apparatuses including the same

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050111183A (ko) * 2004-05-21 2005-11-24 삼성전자주식회사 눈검출 장치 및 방법
KR20070055653A (ko) * 2005-11-26 2007-05-31 한국전자통신연구원 얼굴 인식 방법 및 그 장치
KR20080114361A (ko) * 2007-06-27 2008-12-31 포항공과대학교 산학협력단 눈 검증 및 눈 위치 보정을 이용한 눈 검출 방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050111183A (ko) * 2004-05-21 2005-11-24 삼성전자주식회사 눈검출 장치 및 방법
KR20070055653A (ko) * 2005-11-26 2007-05-31 한국전자통신연구원 얼굴 인식 방법 및 그 장치
KR20080114361A (ko) * 2007-06-27 2008-12-31 포항공과대학교 산학협력단 눈 검증 및 눈 위치 보정을 이용한 눈 검출 방법

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10378887B2 (en) 2017-11-07 2019-08-13 Samsung Electronics Co., Ltd. Meta projectors emitting structured light or uniform light based on polarization of incident light and electronic apparatuses including the same

Also Published As

Publication number Publication date
KR20110077210A (ko) 2011-07-07

Similar Documents

Publication Publication Date Title
JP6630999B2 (ja) 画像認識装置、画像認識方法、および、画像認識プログラム
US8253819B2 (en) Electronic camera and image processing method
JP6322986B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
Boehnen et al. A fast multi-modal approach to facial feature detection
US10891479B2 (en) Image processing method and system for iris recognition
JP5776323B2 (ja) 角膜反射判定プログラム、角膜反射判定装置および角膜反射判定方法
EP2584525A1 (en) External light glare assessment device, line of sight detection device and external light glare assessment method
KR20210136127A (ko) 지문 이미지 강조, 지문 인식, 애플리케이션 프로그램 기동 방법, 지문 감지 시스템, 전자기기 및 저장 매체
CN107844742B (zh) 人脸图像眼镜去除方法、装置及存储介质
US11651624B2 (en) Iris authentication device, iris authentication method, and recording medium
US20180174309A1 (en) Eye Motion Detection Method, Program, Program Storage Medium, and Eye Motion Detection Device
US20230394778A1 (en) Iris recognition system, iris recognition method, and storage medium
US11188771B2 (en) Living-body detection method and apparatus for face, and computer readable medium
US11714889B2 (en) Method for authentication or identification of an individual
CN111353404A (zh) 一种人脸识别方法、装置及设备
US10163009B2 (en) Apparatus and method for recognizing iris
US20160171323A1 (en) Apparatus for recognizing iris and operating method thereof
US20200089951A1 (en) Iris recognition system, iris recognition method, and storage medium
US11636711B2 (en) Image processing system, image processing method, and storage medium
US20170243061A1 (en) Detection system and detection method
KR101051434B1 (ko) 얼굴영상으로부터 안구영역을 인식하는 안구인식방법
JP4451195B2 (ja) 視線検出装置
US9082002B2 (en) Detection device and detection method
EP3893147B1 (en) Liveliness detection using a device comprising an illumination source
US20210097713A1 (en) Information processing device, information processing method, and program

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee