KR101015646B1 - 얼굴검출장치 및 이를 이용한 얼굴검출방법 - Google Patents

얼굴검출장치 및 이를 이용한 얼굴검출방법 Download PDF

Info

Publication number
KR101015646B1
KR101015646B1 KR1020090020834A KR20090020834A KR101015646B1 KR 101015646 B1 KR101015646 B1 KR 101015646B1 KR 1020090020834 A KR1020090020834 A KR 1020090020834A KR 20090020834 A KR20090020834 A KR 20090020834A KR 101015646 B1 KR101015646 B1 KR 101015646B1
Authority
KR
South Korea
Prior art keywords
face
region
area
candidate
coordinates
Prior art date
Application number
KR1020090020834A
Other languages
English (en)
Other versions
KR20100102449A (ko
Inventor
김주현
강봉순
한학용
이성진
정효원
최원태
곽부동
Original Assignee
삼성전기주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전기주식회사 filed Critical 삼성전기주식회사
Priority to KR1020090020834A priority Critical patent/KR101015646B1/ko
Publication of KR20100102449A publication Critical patent/KR20100102449A/ko
Application granted granted Critical
Publication of KR101015646B1 publication Critical patent/KR101015646B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/507Depth or shape recovery from shading
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/162Detection; Localisation; Normalisation using pixel segmentation or colour matching

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 얼굴검출장치 및 이를 이용한 얼굴검출방법을 개시한다. 상기 얼굴검출장치는 외부로부터 인가되는 영상신호 중 피부색을 추출하여 피부영역을 검출하는 피부 검출부; 상기 영상신호 중 그림자 영역을 검출하는 그림자 검출부; 상기 영상신호 중 에지 영역을 검출하는 에지 검출부; 상기 피부색이 모여있는 영역을 레이블링하는 레이블링부; 및 상기 피부색, 상기 그림자 영역, 상기 에지 영역 및 상기 레이블링된 그룹의 좌표를 이용하여 얼굴영역을 추출하는 얼굴 선택부;를 포함한다.
얼굴, 검출, 피부, 에지, 그림자

Description

얼굴검출장치 및 이를 이용한 얼굴검출방법{Face detecting apparatus and face detection using the same}
본 발명은 얼굴검출장치 및 이를 이용한 얼굴검출방법에 관한 것으로, 구체적으로 입력영상에서 사람의 피부색을 이용하여 피부영역을 검출하고 상기 피부영역을 레이블링한 후, 상기 레이블링된 좌표내의 피부색의 비율, 에지 영역의 비율, 그림자 영역의 비율을 이용하여 얼굴영역을 검출하는 얼굴검출장치 및 이를 이용한 얼굴 검출방법에 관한 것이다.
일반적인 얼굴 검출 방법으로 아다부스트(adaboost)알고리즘을 이용하여 얼굴의 형체를 인식하는 패턴 인식 기법이 있었다.
이와 같은 아다부스트 알고리즘은 여러 종류의 슬라이드 윈도우 중 높은 성능을 나타내는 슬라이드 윈도우를 적용시켜 얼굴의 영역을 검출하는 알고리즘이다. 이러한 방법은 한번에 다양한 크기의 얼굴을 검출하는 것이 불가능하기 때문에 한 프레임을 메모리에 저장하여 여러 번에 걸쳐 윈도우의 크기를 바꿔가며 검출할 수 있다.
따라서, 종래의 얼굴 검출 방법은 한 프레임을 저장하기 위해 하드웨어적인 부피가 커질 뿐만 아니라, 여러 크기의 얼굴을 검출하는데 많은 시간이 필요로 하는 문제점이 있었다.
따라서, 본 발명은 종래 얼굴 검출 방법에서 발생될 수 있는 문제점을 해결하기 위하여 창안된 것으로서, 입력영상에서 사람의 피부색을 이용하여 피부영역을 검출하고 상기 피부영역을 레이블링한 후, 상기 레이블링된 좌표내의 피부색의 비율, 에지 영역의 비율, 그림자 영역의 비율을 이용하여 얼굴영역을 검출하는 얼굴검출장치 및 이를 이용한 얼굴 검출방법을 제공함에 그 목적이 있다.
본 발명의 상기 목적은 얼굴검출장치를 제공하는 것이다. 상기 얼굴검출장치는 외부로부터 인가되는 영상신호 중 피부색을 이용하여 피부영역을 검출하는 피부 검출부; 상기 영상신호 중 그림자 영역을 검출하는 그림자 검출부; 상기 영상신호 중 에지 영역을 검출하는 에지 검출부; 상기 피부색이 모여있는 영역을 레이블링하는 레이블링부; 및 상기 피부색, 상기 그림자 영역, 상기 에지 영역 및 상기 레이블링된 그룹의 좌표를 이용하여 얼굴영역을 추출하는 얼굴 선택부;를 포함할 수 있 다.
여기서, 상기 얼굴 선택부는, 상기 레이블링된 그룹의 좌표에서 상기 피부 영역, 상기 그림자 영역, 상기 에지 영역에 각각 해당된 픽셀을 카운팅하는 카운팅부; 상기 픽셀 카운팅의 결과와 설정된 임계값을 비교 판단하여 제 1 후보 얼굴영역을 검출하는 얼굴조건 판단부; 상기 제 1 후보 얼굴영역 중 사용자가 지정한 영역내에 포함된 제 2 후보 얼굴영역을 선택하는 유효영역 확인부; 상기 제 2 후보 얼굴영역 중 영상의 중심점과 가장 가까운 영역에서 선택된 얼굴영역을 선택하는 중심거리 측정부; 및 상기 얼굴영역의 좌표를 출력하는 좌표 출력부;를 포함할 수 있다.
또한, 상기 얼굴조건 판단부는 설정된 임계값로부터 상기 레이블링된 그룹의 좌표에서 눈에 해당하는 위치에서 검출된 에지영역의 비율, 상기 레이블링된 그룹의 좌표에서 입에 해당하는 위치에서 검출된 그림자영역의 비율 및 상기 레이블링된 그룹의 좌표에서 피부색의 비율을 비교 판단하여 상기 제 1 후보 얼굴영역을 검출할 수 있다.
또한, 상기 제 2 후보 얼굴영역 중 이전 프레임에서 선택된 얼굴영역과의 겹침 유무를 확인하여 겹침이 없는 후보 얼굴영역을 선택하는 겹침 확인부를 더 포함할 수 있다.
또한, 상기 겹침 확인부는, 상기 제 2 후보 얼굴영역과 상기 이전 프레임에서 선택된 얼굴영역 중 어느 하나의 얼굴영역의 꼭지점이 다른 얼굴영역내에 배치될 경우, 하기 수학식 1에 의해 우선순위를 판단할 수 있다.
Figure 112009014836308-pat00001
여기서, (x_min, y_min)은 얼굴영역의 최소점 좌표이며, (x_max, y_max)은 얼굴영역의 최대점 좌표일 수 있다.
또한, 상기 겹침 확인부는, 상기 제 2 후보얼굴영역과 상기 이전 프레임의 얼굴영역이 서로 교차하며 겹칠 경우, 하기 수학식 2에 의해 우선순위를 판단할 수 있다.
Figure 112009014836308-pat00002
여기서, (x_min, y_min)은 얼굴영역의 최소점 좌표이며, (x_max, y_max)은 얼굴영역의 최대점 좌표일 수 있다.
또한, 상기 이전 프레임에서 선택된 얼굴영역의 유지여부를 판단하여, 상기 이전 프레임에서 선택된 얼굴영역과 상기 겹침 확인부에서 선택된 후보얼굴영역 중 어느 하나를 선택하는 유지조건 확인부를 더 포함할 수 있다.
또한, 상기 좌표 출력부는 상기 얼굴영역의 좌표를 상기 유지조건 확인부에 피드백할 수 있다.
본 발명의 다른 목적은 얼굴검출장치를 이용한 얼굴검출방법을 제공하는 것이다. 상기 얼굴검출방법은 외부로부터 인가되는 영상신호 중 피부 영역, 그림자 영역, 에지 영역을 검출하는 단계; 상기 피부 영역을 레이블링하는 단계; 및상기 피부 영역, 상기 그림자 영역, 상기 에지 영역 및 상기 레이블링된 그룹의 좌표를 판단하여 얼굴영역을 검출하는 단계;를 포함할 수 있다.
여기서, 상기 얼굴영역을 검출하는 단계는, 상기 레이블링된 그룹의 좌표에서 상기 피부영역, 상기 그림자 영역, 상기 에지영역의 각 픽셀을 카운팅하는 단계; 상기 카운팅된 결과와 설정된 임계값을 비교 판단하여 제 1 후보 얼굴영역을 검출하는 단계; 상기 제 1 후보 얼굴영역 중 사용자가 지정한 영역내에 포함된 제 2 후보얼굴영역을 선택하는 단계; 상기 제 2 후보 얼굴영역 중 영상의 중심점과 가장 가까운 영역에서 선택된 얼굴영역을 선택하는 단계; 및 상기 얼굴영역의 좌표를 출력하는 단계;를 포함할 수 있다.
또한, 상기 설정된 임계값은 상기 레이블링된 그룹의 좌표에서 면적대비 30 내지 60%의 피부색 범위이며, 상기 레이블링된 그룹의 좌표의 면적대비 0.5 내지 5.5%의 에지 영역 범위이고, 상기 레이블링된 그룹의 좌표에서 면적대비 7.5% 이하의 그림자 영역의 범위일 수 있다.
또한, 상기 제 2 후보얼굴영역 중 이전 프레임에서 선택된 얼굴영역과의 겹 침 유무를 확인하여 겹침이 없는 후보얼굴영역을 선택하는 단계를 더 포함할 수 있다.
또한, 상기 이전 프레임에서 선택된 얼굴영역의 유지여부를 판단하여, 상기 이전 프레임에서 선택된 얼굴영역과 상기 겹침방지 판단부에서 선택된 후보얼굴영역 중 어느 하나를 선택하는 단계를 더 포함할 수 있다.
또한, 상기 좌표 출력부는 상기 얼굴영역의 좌표를 상기 유지조건 판단부에 피드백할 수 있다.
본 발명에 따르면, 얼굴검출 단계들은 파이프 라인 형태로 처리함에 따라, 매 프레임마다 연산이 가능하고, 두 프레임의 지연(latency)을 가지고 실시간으로 연산이 가능하므로, 고속으로 동작할 수 있다.
또한, 얼굴 영역을 검출하기 위해 설정된 임계값을 이용하므로, 메모리를 절약할 수 있다.
또한, 이전 프레임에서 검출되어 적용된 얼굴 영역 또한 얼굴인지 아닌지를 판별하여 적용하므로, 이전 프레임과 현재 프레임에서 얼굴영역이 미세하게 이동한 경우 이전 프레임에서 적용한 결과를 현재 프레임에서 적용함으로써 미세한 흔들림을 방지할 수 있어, 안정적으로 디스플레이할 수 있다.
또한, 얼굴을 검출하고자 하는 영역을 사용자가 선택하여 사용자의 요구에 맞출 수 있다.
또한, 얼굴영역이 겹칠 경우를 대비하여 각 후보얼굴영역에 우선순위를 적용하여 같은 영역이 중복 적용되는 현상을 방지할 수 있다.
이하, 본 발명의 실시예들은 얼굴검출장치의 도면을 참고하여 상세하게 설명한다. 다음에 소개되는 실시예들은 당업자에게 본 발명의 사상이 충분히 전달될 수 있도록 하기 위해 예로서 제공되어지는 것이다. 따라서, 본 발명은 이하 설명되어지는 실시예들에 한정되지 않고 다른 형태로 구체화될 수도 있다. 또한, 명세서 전체에 걸쳐서 동일한 참조번호들은 동일한 구성요소들을 나타낸다.
도 1은 본 발명의 실시예에 따른 얼굴검출장치를 나타낸 블럭도이다.
도 1을 참조하면, 얼굴검출장치는 피부 검출부(110), 에지 검출부(120), 그림자 검출부(130), 레이블링부(140), 얼굴 선택부(150)를 포함한다.
피부 검출부(110)는 사람의 피부색을 모두 취합한 후, YCbCr의 색공간을 이용한 피부 표본 데이터로 데이터화시킨다. 이로써, 입력된 영상신호(S)와 피부 표본 데이터를 비교함으로써, 피부 검출부(110)는 영상신호(S)에서 사람의 피부영역만을 검출할 수 있다.
도 2는 입력된 영상의 도면이다.
도 3은 도 2에서 피부 영역을 검출한 도면이다.
도 2와 같이, 영상이 입력될 수 있다. 이때, 도 3에서와 같이, 피부 검출부(110)는 피부색에 해당하는 영역만을 추출한 영상을 만들 수 있다. 이때, 검은색 영역이 피부에 해당하는 영역일 수 있다.
다시 도 1을 참조하면, 에지 검출부(120)는 소벨 필터를 이용하여 에지 영역을 검출할 수 있다. 소벨 필터는 촬상 이미지의 픽셀마다 가중치를 부여하고, 픽셀 값이 행 또는 열 단위로 인접 픽셀과 소정의 차이가 있는 픽셀을 에지로 판단할 수 있다. 그러나, 본 발명의 실시예에 따른 에지 검출부(120)는 소벨 필터를 이용하는 것으로 설명하였으나, 이에 한정되는 것은 아니며, 사용자에 따라서 다양한 필터를 채용할 수 있다.
도 4는 도 2에서 에지 영역을 검출한 도면이다.
도 4에서와 같이, 에지 검출부(120)는 에지 영역만을 추출한 영상을 만들 수 있다. 이때, 검은색 영역이 에지에 해당하는 영역일 수 있다.
다시 도 1을 참조하면, 그림자 검출부(130)는 입력된 영상신호에서 명도값에 따라 그림자 영역을 검출한다. 여기서, 명도값의 임계값은 사용자에 따라 조절될 수 있다.
도 5는 도 2에서 그림자 영역을 검출한 도면이다.
도 5에서와 같이, 그림자 검출부(130)는 그림자 영역만을 추출한 영상을 만들 수 있다. 이때, 검은색 영역이 그림자 영역에 해당하는 영역일 수 있다.
다시 도 1을 참조하면, 레이블링부(140)는 피부 검출부(110)로터 검출된 피부영역을 입력받아 레이블링하여 레이블링 좌표를 출력한다. 레이블링부(140)는 피부색을 갖는 영역을 나타내는 픽셀에 대하여 레이블을 부여하고, 동일 레이블을 갖는 영역을 하나의 그룹으로 만들 수 있다. 예컨대, 레이블링부(140)의 레이블링 방 법은 먼저, 입력된 영상 내의 타겟 픽셀이 레이블링 영역에 포함되는 지를 확인한다. 이후, 타겟 픽셀이 레이블링 영역내에 포함되고 설정된 피부색의 정보를 갖는 유효 픽셀일 경우 타겟 픽셀과 인접한 픽셀과의 동일 여부를 판단한다. 이때, 타겟 픽셀과 인접한 픽셀이 유효 픽셀일 경우, 타겟 픽셀과 인접한 픽셀은 동일한 레이블을 가지며 하나의 그룹으로 그룹화됨에 따라, 레이블링부(140)는 피부영역과 대응된 영역을 그룹화하는 레이블링 좌표를 출력할 수 있다.
도 6은 도 2에서 피부영역을 레이블링한 도면이다.
도 6에서와 같이, 피부영역에서 레이블링된 영역을 사각형 박스로 표시하였다. 이때 사용자는 너무 작거나 너무 큰 그룹, 가로세로의 비율이 크게 차이가 나는 그룹을 레이블에서 제외할 수도 있다.
다시 도 1을 참조하면, 얼굴 선택부(150)는 피부영역, 그림자 영역, 에지 영역 및 레이블링 좌표를 입력받아, 레이블링된 그룹의 좌표 중 어떠한 영역이 얼굴인지를 선택한 후, 선택된 얼굴영역(S')을 화면에 표시할 수 있다.
이하, 도 7을 참조하여, 얼굴 선택부에 대해서 더욱 상세하게 설명하기로 한다.
도 7은 도 1의 얼굴 선택부를 상세하게 나타낸 블럭도이다.
도 7을 참조하면, 얼굴 선택부(150)는 카운팅부(151), 얼굴조건 판단부(152), 유효영역 확인부(153), 겹침 확인부(154), 유지조건 확인부(155), 중심거리 측정부(156) 및 좌표 출력부(157)를 포함한다.
카운팅부(151)는 레이블링부(도 1의 140)로부터 입력된 레이블링 좌표에서 피부영역, 에지 영역, 그림자 영역 해당하는 픽셀을 카운팅한다.
도 8은 카운팅한 영역을 도시한 도면이다.
도 8에서와 같이, 피부 영역(a), 에지 영역(b) 및 그림자 영역(c)에 각각 해당하는 픽셀(P)을 카운팅할 수 있다.
다시 도 7을 참조하면, 얼굴조건 판단부(152)는 카운팅부(151)의 픽셀 카운팅 결과를 사용하여 얼굴인지 아닌지를 판단할 수 있다. 즉, 얼굴조건 판단부(152)는 설정된 임계값으로부터 레이블링된 그룹의 좌표에서 눈에 해당하는 위치에서 검출된 에지영역의 비율, 레이블링된 그룹의 좌표에서 입에 해당하는 위치에서 검출된 그림자영역의 비율 및 레이블링된 그룹의 좌표에서 피부색의 비율을 비교 판단하여 제 1 후보 얼굴영역을 검출할 수 있다.
도 9 내지 도 11은 레이블링된 그룹 좌표내에 분포하는 피부색, 에지영역 및 그림자 영역의 각각의 분포도를 보여주는 그래프이다. 여기서, 각 그래프의 결과는 50장의 얼굴 사진을 통해 얻은 결과이다.
도 9는 얼굴인 레이블 내에 분포하는 피부색 영역의 분포를 나타내는 그래프이다.
도 10은 얼굴인 레이블 내에 분포하는 에지 영역의 분포를 나타내는 그래프이다.
도 11은 얼굴인 레이블 내에 분포하는 그림자 영역의 분포를 나타내는 그래프이다.
도 9에서와 같이, 얼굴일 경우, 얼굴의 면적대비 30 내지 60%의 피부색이 발생하는 것을 확인할 수 있었다.
도 10에서와 같이, 얼굴일 경우, 얼굴의 면적대비 0.5 내지 5.5%의 에지가 발생하는 것을 확인할 수 있었다. 이때, 레이블링 된 그룹의 상단에 에지가 발생할 경우, 가구로 인식하여 탈락할 수 있다. 이는 피부색에 해당하는 가구를 선택하지 않기 위함이다.
도 11에서와 같이, 얼굴일 경우, 얼굴의 면적대비 7.5%이하의 그림자가 발생하는 것을 확인할 수 있었다.
따라서, 레이블링된 그룹의 좌표에서 면적대비 30 내지 60%의 피부색이 발생하며, 레이블링된 그룹의 좌표의 면적대비 0.5 내지 5.5%의 에지 영역이 발생하고, 레이블링된 그룹의 좌표에서 면적대비 7.5% 이하의 그림자 영역이 발생할 경우, 레이블링된 그룹은 제 1 후보 얼굴영역으로 선택될 수 있다.
다시, 도 7을 참조하면, 유효영역 확인부(153)는 얼굴조건 판단부(152)에서 통과한 레이블링 그룹, 즉 제 1 후보얼굴영역 중 사용자가 설정한 영역 내에 있는 제 2 후보얼굴영역을 통과시킨다. 이에 따라, 사용자의 요구에 맞는 얼굴을 선택할 수 있다.
도 12는 사용자가 선택한 유효영역을 예시한 도면이다.
도 12에서와 같이, 사용자는 설정한 영역(A)내에 있는 후보 얼굴영역을 선택할 수 있다.
다시, 도 7을 참조하면, 겹침 확인부(154)는 현재 프레임에 선택된 제 2 후 보얼굴영역과 이전 프레임에서 선택된 얼굴영역의 겹침 유무를 확인한다. 여기서, 겹침 확인부(154)는 제 2 후보얼굴영역 중 이전 프레임에서 선택된 얼굴영역과 겹치지 않은 제 3 후보얼굴영역을 선택할 수 있다.
도 13은 후보얼굴영역의 꼭지점이 다른 후보얼굴영역의 내부에 배치되는 경우를 도시한 도면이다.
도 13에서와 같이, 2개의 후보얼굴영역의 각각 최소점(x_min, y_min)과 최대점(x_max, y_max)을 좌표로 표시하였다. 이때, 후보얼굴영역의 꼭지점이 다른 후보얼굴영역의 내부에 배치되는 경우 하기 수학식 1과 같은 연산을 통해 구분할 수 있다.
[수학식 1]
Figure 112009014836308-pat00003
도 14는 두 후보얼굴영역들이 서로 교차하는 경우를 도시한 도면이다.
도 14에서와 같이, 2개의 후보얼굴영역의 각각 최소점(x_min, y_min)과 최대점(x_max, y_max)을 좌표로 표시하였다. 이때, 두 후보얼굴영역들이 서로 교차할 경우, 하기 수학식 2와 같은 연산을 통해 구분할 수 있다.
[수학식 2]
Figure 112009014836308-pat00004
이에 따라, 두 후보얼굴 영역이 겹칠 경우, 우선 순위가 낮은 후보얼굴영역은 선택에서 제외하여 중복되는 영역을 선택하는 것을 방지할 수 있다.
다시 도 7을 참조하면, 유지조건 확인부(155)는 이전 프레임에서 선택된 얼굴영역의 유지여부를 판단한다. 즉, 유지조건 확인부(155)는 이전 프레임에서 선택된 얼굴영역과 겹침 확인부(154)에서 선택된 제 3 후보얼굴영역 중 어느 하나를 선택한다. 이때, 이전 프레임에 선택된 얼굴영역이 면적대비 50%의 피부색을 만족하고 그 상단에 8%이상의 에지가 검출되지 않을 경우, 이전 프레임에서 선택된 얼굴 영역을 유지한다. 이에 따라, 한번 선택된 얼굴영역은 되도록 유지시켜 영상 내에서 얼굴 영역이 흔들리는 것을 방지할 수 있다.
중심거리 측정부(156)는 모든 조건을 통과한 후보얼굴영역 중 영상의 중심점과 가장 가까운 영역에서 선택된 얼굴영역을 선택한다. 사용자가 얼굴영역을 적어도 2개 이상으로 선택할 수 있도록 함으로써, 사용자의 요구에 맞게 얼굴영역을 선택할 수 있다. 예컨대, 중심거리 측정부(156)는 제 3 후보얼굴영역 중 영상의 중심점과 가장 가까운 후보얼굴영역을 제 1 얼굴영역으로 선택하고, 그 다음으로 가까운 후보 얼굴영역을 제 2 얼굴영역으로 선택할 수 있다. 여기서, 각 후보 얼굴영역 은 영상의 중심점에 가까울수록 높은 우선순위를 가질 수 있다. 이는 영상의 중앙에 배치된 얼굴영역일수록 주된 인물일 가능성이 높기 때문이다.
좌표 출력부(157)는 제 1 및 제 2 얼굴영역의 좌표를 출력한다. 또한, 좌표 출력부(157)는 유지조건 확인부(155)로 제 1 및 제 2 얼굴영역의 좌표를 피드백한다. 이로써, 이전 프레임에서 검출되어 적용된 얼굴영역을 다음 선택의 대상으로 둠으로써, 이전 프레임과 현재 프레임에서 얼굴 영역이 미세하게 이동할 경우, 이전 프레임에서 적용한 결과를 현재 프레임에 적용할 수 있어, 미세한 흔들림을 방지할 수 있다.
하기 표 1을 참조하여, 얼굴검출장치를 통한 얼굴 검출방법을 설명하기로 한다. 여기서, 하기 표 1은 얼굴검출장치를 통한 얼굴 검출방법의 예시를 나타낸 것이다.
Figure 112009014836308-pat00005
표 1에서와 같이, 레이블링부는 두번째 프레임에서 검출된 피부영역을 레이블링한다. 얼굴 선택부는 두번째 프레임에서 검출된 피부영역, 에지영역 및 그림자 영역을 이용하여 첫번째 프레임에서 레이블링 좌표 중에서 얼굴 영역을 선택한다.
또한, 레이블링부는 세번째 프레임에서 검출된 피부영역을 레이블링한다. 얼굴 선택부는 세번째 프레임에서 검출된 피부영역, 에지영역 및 그림자영역을 이용하여 두번째 프레임에서 레이블링된 좌표 중에서 얼굴영역을 선택한다. 표시장치는 세번째 프레임에서 두번째 프레임에서 선택된 얼굴영역을 표시한다.
이에 따라, 본 발명의 실시예에 따른 얼굴검출장치는 각각의 프레임에서 검출된 영상을 저장하지 않아도 되므로, 메모리 저장 공간을 줄일 수 있다.
또한, 각각의 단계를 파이프 라인 형태로 처리할 수 있어 매 프레임의 연산이 가능할 수 있으며, 두 프레임의 지연(latency)를 가지고 실시간으로 연산이 가능할 수 있다.
이하, 도 15를 참조하여 본 발명의 실시예에 따른 얼굴검출장치를 이용한 얼굴검출방법을 더욱 상세하게 설명한다.
도 15는 본 발명의 실시예에 따른 얼굴검출장치를 이용한 얼굴검출방법을 도시한 플로우 차트이다.
도 15를 참조하면, 얼굴검출방법은 먼저, 외부로부터 영상신호를 인가받는다. 상기 영상신호로부터 마스크를 추출한다. 즉, 상기 영상신호 중 피부영역, 그림자 영역 및 에지 영역을 검출한다(S100).
이후, 피부색이 모여있는 영역을 레이블링한다. 즉, 피부영역과 대응된 영역을 그룹화하는 레이블링 좌표를 출력한다(S200).
이후, 피부영역, 그림자 영역 및 에지영역과 레이블링 좌표에서 얼굴영역을 판단한다(S300).
얼굴영역을 판단하는 단계(S300)를 구체적으로 살펴보면, 우선 레이블링 좌표 중 피부영역, 그림자 영역 및 에지영역에 해당하는 픽셀을 카운팅한다(S301).
이후, 설정된 임계값과 픽셀 카운팅의 결과를 사용하여, 얼굴조건에 포함되는지를 확인한다. 이때, 레이블링된 그룹의 좌표 중 설정된 임계값에 픽셀 카운팅의 결과가 포함되는 제 1 후보얼굴영역을 검출한다. 설정된 임계값은 레이블링된 그룹의 좌표에서 면적대비 30 내지 60%의 피부색 범위이며, 레이블링된 그룹의 좌표의 면적대비 0.5 내지 5.5%의 에지 영역 범위이고, 레이블링된 그룹의 좌표에서 면적대비 7.5% 이하의 그림자 영역의 범위일 수 있다(S302).
이후, 제 1 후보얼굴영역 중 유효영역, 즉 사용자가 설정한 영역내에 있는 제 2 후보얼굴영역을 선택한다(S303).
이후, 제 2 후보얼굴영역과 이전 프레임에 선택된 얼굴영역간의 겹침 유무를 확인하여, 제 2 후보얼굴영역과 이전 프레임에 선택된 얼굴영역 중 겹침이 없는 제 3 후보얼굴영역을 검출한다(S304).
여기서, 제 2 후보얼굴영역과 이전 프레임에 선택된 얼굴영역이 겹칠 경우, 겹침방지부에서 하기 수학식 1과 수학식 2에 의해 구분하여, 후보얼굴 영역이 겹칠 경우 우선순위가 낮은 후보얼굴영역을 선택에서 제외할 수 있다.
이때, 후보얼굴영역의 꼭지점이 다른 후보얼굴영역의 내부에 배치되는 경우 하기 수학식 1과 같은 연산을 통해 구분할 수 있다.
[수학식 1]
Figure 112009014836308-pat00006
여기서, (x_min, y_min)은 얼굴영역의 최소점 좌표이며, (x_max, y_max)은 얼굴영역의 최대점 좌표일 수 있다.
또한, 후보얼굴영역들이 서로 교차할 경우, 하기 수학식 2와 같은 연산을 통해 구분할 수 있다.
[수학식 2]
Figure 112009014836308-pat00007
여기서, (x_min, y_min)은 얼굴영역의 최소점 좌표이며, (x_max, y_max)은 얼굴영역의 최대점 좌표일 수 있다(S305).
반면, 이전 프레임에 선택된 얼굴영역이 설정된 조건을 만족하지 않을 경우, 제 3 후보얼굴영역중에서 최대 2개의 얼굴영역을 선택하여 출력할 수 있다. 선택된 얼굴영역은 우선순위에 따라 제 1 얼굴영역과 제 2 얼굴영역으로 구분될 수 있다.이때, 제1 얼굴영역은 영상의 중심에서 가장 가까운 얼굴영역이며, 제2 얼굴영역은 영상의 중심에 두번째로 가까운 얼굴영역일 수 있다(S306).
여기서, 제 1 얼굴영역과 제 2 얼굴영역은 각각 서로 다른 색을 갖는 윈도우로 표시될 수 있다. 예컨대, 제 1 얼굴영역은 빨강색 윈도우로 표시되고, 제 2 얼굴영역은 파란색 윈도우로 표시될 수 있다. 그러나, 본 발명의 실시예에서, 윈도우의 형태를 한정하는 것은 아니며, 제 1 얼굴영역과 제 2 얼굴영역을 서로 구분하기 위해 다른 색상으로 선택할 수도 있으며, 윈도우의 형태를 변경할 수도 있다.
또한, 선택된 얼굴영역, 즉 제1 얼굴영역과 제2 얼굴영역은 다음 출력을 위해 입력되는 후보얼굴영역들과 함께 선택의 대상으로 피드백될 수 있다. 또한, 제1 얼굴영역과 제2 얼굴영역은 가장 높은 우선순위를 가질 수 있다. 이는 영상의 중심점에서 비슷한 거리에 놓인 후보얼굴영역이 여러 개 존재할 경우, 여러 개의 후보얼굴영역을 번갈아 가며 선택하는 것을 방지하기 위함이다(S310).
이하, 도 16을 참조하여, 본 발명의 실시예에 따른 얼굴검출방법 중 얼굴영역을 선택하는 단계를 더욱 상세하게 설명한다.
도 16은 본 발명의 실시예에 따른 얼굴검출방법 중 얼굴선택 알고리즘의 입력과 출력을 예시한 도면이다.
도 16을 참조하면, 첫 번째 프레임에서, 얼굴 선택부에 입력된 후보얼굴영역(201)중 영상의 중심점에서 가장 가까운 순선대로 배치된 2개의 얼굴영역을 선택할 수 있다. 이때, 선택된 2개의 얼굴영역은 우선순위에 따라 구분된 제 1 얼굴영역(202)과 제 2 얼굴영역(203)으로 출력될 수 있다. 예컨대, 제 1 얼굴영역(202)은 영상의 중심점에서 가장 가까운 후보얼굴영역이며, 제 2 얼굴영역(203)은 영상의 중심점에서 두번째로 가까운 후보얼굴영역이다. 여기서, 제 1 얼굴영역(202)의 우선순위가 제 2 얼굴영역(203)보다 더 높을 수 있다. 이때, 제 1 얼굴영역(202)은 빨강색 윈도우로 표시되고, 제 2 얼굴영역(203)은 파란색 윈도우로 표시될 수 있다. 그러나, 본 발명의 실시예에서, 윈도우의 색상이나 형태에 대해서 한정하는 것은 아니다.
두번째 프레임에서, 얼굴 선택부에 입력된 후보얼굴영역(301) 중 첫번째 프레임에서 선택된 제 1 얼굴영역(202)의 중심점과 가장 가까운 후보얼굴영역을 제 1 얼굴영역(302)으로 선택할 수 있다. 또한, 첫번째 프레임에서 선택된 제 2 얼굴영역(302)과 가장 가까운 후보얼굴영역을 제 2 얼굴영역(303)으로 선택할 수 있다. 이때, 제 2 얼굴영역(303)을 첫번째 프레임에서 선택된 제 1 얼굴영역(202)이 선택한 경우, 제 2 얼굴영역(303)은 첫번째 프레임에서 선택된 제 2 얼굴영역(203)과 두번째로 가까운 후보얼굴영역으로 선택할 수 있다.
세 번째 프레임에서, 얼굴 선택부에 입력된 후보얼굴영역(401)이 하나일 경우, 두번째 프레임에서 선택된 제 1 얼굴영역(302)이 하나의 후보얼굴영역을 제 1 얼굴영역(402)으로 선택할 수 있으며, 제 2 얼굴영역은 선택할 수 없다.
네번째 프레임에서, 얼굴 선택부에 입력된 후보얼굴영역(501) 중 영상의 중심점에서 가장 가까운 후보얼굴영역을 제 2 얼굴영역(503)으로 선택한다. 이때, 세번째 프레임에서 선택된 제 1 얼굴 영역(402)과 겹치는 후보얼굴영역은 선택될 수 없으며, 제 2 얼굴영역과 겹치는 후보얼굴영역은 제 1 얼굴영역으로 선택될 수 없다.
따라서 제 2 얼굴영역(503)은 영상의 중심점과 두 번째로 가까운 후보얼굴영역을 선택할 수 있다. 이때, 제 1 얼굴영역(402) 내의 피부색이 후보얼굴영역의 면적대비 50%이상일 경우, 제 1 얼굴영역(402)은 유지될 수 있다.
다섯번째 프레임에서, 네번째 프레임에서 선택된 제 1 얼굴영역(402)은 가장 가까이 배치된 후보얼굴영역을 제 1 얼굴영역(602)으로 선택한다. 또한, 제 2 얼굴영역은 제 1 얼굴영역(602)으로 선택되지 않은 나머지 후보얼굴영역(601)으로 선택될 수 있다. 그러나, 나머지 후보얼굴영역(601)이 유효영역내에 배치되지 않을 경우, 제 2 얼굴영역은 선택되지 않을 수 있다. 이는 영상의 가장자리에 배치된 후보얼굴영역은 얼굴영역일 가능성이 적기 때문이다.
여섯번째 프레임에서, 얼굴 선택부에 입력되는 후보얼굴영역이 없고, 제 1 얼굴영역(602)의 면적대비 50%이하의 피부색을 가질 경우, 얼굴영역은 없는 것으로 판단되어 디스플레이를 종료한다.
따라서, 본 발명의 실시예에 따른 얼굴검출방법은 입력영상에서 사람의 피부색을 이용하여 피부영역을 검출하고 상기 피부영역을 레이블링한 후, 상기 레이블링된 좌표내의 피부색의 비율, 에지 영역의 비율, 그림자 영역의 비율을 이용하여 얼굴영역을 검출함으로써, 메모리 공간을 줄일 수 있다.
또한, 얼굴검출방법은 파이프 라인 형태로 처리함에 따라, 매 프레임마다 연산이 가능하고, 두 프레임의 지연(latency)을 가지고 실시간으로 연산이 가능하므로, 고속으로 동작할 수 있다.
또한, 이전 프레임에서 적용한 결과를 현재 프레임에서 적용함으로써 이전 프레임과 현재 프레임에서 얼굴영역이 미세하게 이동한 경우에 발생하는 미세한 흔들림을 방지할 수 있어, 안정적으로 디스플레이할 수 있다.
또한, 사용자가 얼굴을 검출하고자 하는 영역을 선택하여 사용자의 요구에 맞출 수 있다.
또한, 얼굴영역이 겹칠 경우를 대비하여 각 후보얼굴영역에 우선순위를 적용하여 같은 영역이 중복 적용되는 현상을 방지할 수 있다.
도 1은 본 발명의 실시예에 따른 얼굴검출장치를 나타낸 블럭도이다.
도 2는 입력된 영상의 도면이다.
도 3은 도 2에서 피부 영역을 검출한 도면이다.
도 4는 도 2에서 에지 영역을 검출한 도면이다.
도 5는 도 2에서 그림자 영역을 검출한 도면이다.
도 6은 도 2에서 피부영역을 레이블링한 도면이다.
도 7은 도 1의 얼굴 선택부를 상세하게 나타낸 블럭도이다.
도 9는 얼굴인 레이블 내에 분포하는 피부색 영역의 분포를 나타내는 그래프이다.
도 10은 얼굴인 레이블 내에 분포하는 에지 영역의 분포를 나타내는 그래프이다.
도 11은 얼굴인 레이블 내에 분포하는 그림자 영역의 분포를 나타내는 그래프이다.
도 12는 사용자가 선택한 유효영역을 예시한 도면이다.
도 13은 후보얼굴영역의 꼭지점이 다른 후보얼굴영역의 내부에 배치되는 경우를 도시한 도면이다.
도 14는 두 후보얼굴영역들이 서로 교차하는 경우를 도시한 도면이다.
도 15는 본 발명의 실시예에 따른 얼굴검출장치를 이용한 얼굴검출방법을 도시한 플로우 차트이다.
도 16은 본 발명의 실시예에 따른 얼굴검출방법 중 얼굴선택 알고리즘의 입력과 출력을 예시한 도면이다.
<도면의 주요 부분에 대한 부호의 설명>
110 : 피부 검출부 120 : 에지 검출부
130 : 그림자 검출부 140 : 레이블링부
150 : 얼굴 선택부 151 : 카운팅부
152 : 얼굴조건 판단부 153 : 유효영역 확인부
154 : 겹침 확인부 155 : 유지조건 확인부
156 : 중심거리 측정부 157 : 좌표출력부

Claims (14)

  1. 삭제
  2. 외부로부터 인가되는 영상신호 중 피부색을 추출하여 피부영역을 검출하는 피부 검출부;
    상기 영상신호 중 그림자 영역을 검출하는 그림자 검출부;
    상기 영상신호 중 에지 영역을 검출하는 에지 검출부;
    상기 피부색이 모여있는 영역을 레이블링하는 레이블링부; 및
    상기 피부색, 상기 그림자 영역, 상기 에지 영역 및 상기 레이블링된 그룹의 좌표를 이용하여 얼굴영역을 추출하는 얼굴 선택부; 를 포함하며,
    상기 얼굴 선택부는,
    상기 레이블링된 그룹의 좌표에서 상기 피부영역, 상기 그림자 영역, 상기 에지영역에 각각 해당된 픽셀을 카운팅하는 카운팅부;
    상기 픽셀 카운팅의 결과와 설정된 임계값을 비교 판단하여 제 1 후보 얼굴영역을 검출하는 얼굴조건 판단부;
    상기 제 1 후보 얼굴영역 중 사용자가 지정한 영역내에 포함된 제 2 후보 얼굴영역을 선택하는 유효영역 확인부;
    상기 제 2 후보 얼굴영역 중 영상의 중심점과 가장 가까운 영역에서 선택된 얼굴영역을 선택하는 중심거리 측정부; 및
    상기 얼굴영역의 좌표를 출력하는 좌표 출력부;
    를 포함하는 얼굴검출장치.
  3. 제 2 항에 있어서,
    상기 얼굴조건 판단부는 설정된 임계값으로부터 상기 레이블링된 그룹의 좌표에서 눈에 해당하는 위치에서 검출된 에지영역의 비율, 상기 레이블링된 그룹의 좌표에서 입에 해당하는 위치에서 검출된 그림자영역의 비율 및 상기 레이블링된 그룹의 좌표에서 피부색의 비율을 비교 판단하여 상기 제 1 후보 얼굴영역을 검출하는 얼굴검출장치.
  4. 제 2 항에 있어서,
    상기 제 2 후보 얼굴영역 중 이전 프레임에서 선택된 얼굴영역과의 겹침 유무를 확인하여 겹침이 없는 후보 얼굴영역을 선택하는 겹침 확인부를 더 포함하는 얼굴검출장치.
  5. 제 4 항에 있어서,
    상기 겹침 확인부는, 상기 제 2 후보 얼굴영역과 상기 이전 프레임에서 선택된 얼굴영역 중 어느 하나의 얼굴영역의 꼭지점이 다른 얼굴영역내에 배치될 경우, 하기 수학식 1에 의해 우선순위를 판단하는 얼굴검출장치.
    [수학식 1]
    Figure 112009014836308-pat00008
    여기서, (x_min, y_min)은 얼굴영역의 최소점 좌표이며, (x_max, y_max)은 얼굴영역의 최대점 좌표일 수 있다.
  6. 제 4 항에 있어서,
    상기 겹침 확인부는, 상기 제 2 후보얼굴영역과 상기 이전 프레임에서 선택된 얼굴 영역이 서로 교차하며 겹칠경우, 하기 수학식 2에 의해 우선순위를 판단하는 얼굴검출장치.
    [수학식 2]
    Figure 112010078201924-pat00009
    여기서, (x_min, y_min)은 얼굴영역의 최소점 좌표이며, (x_max, y_max)은 얼굴영역의 최대점 좌표일 수 있다.
  7. 제 4 항에 있어서,
    상기 이전 프레임에서 선택된 얼굴영역의 유지여부를 판단하여, 상기 이전 프레임에서 선택된 얼굴영역과 상기 겹침 확인부에서 선택된 후보얼굴영역 중 어느 하나를 선택하는 유지조건 확인부를 더 포함하는 얼굴검출장치.
  8. 제 7 항에 있어서,
    상기 좌표 출력부는 상기 얼굴영역의 좌표를 상기 유지조건 확인부에 피드백하는 얼굴검출장치.
  9. 삭제
  10. 외부로부터 인가되는 영상신호 중 피부 영역, 그림자 영역, 에지 영역을 검출하는 단계;
    상기 피부 영역을 레이블링하는 단계; 및
    상기 피부 영역, 상기 그림자 영역, 상기 에지 영역 및 상기 레이블링된 그룹의 좌표를 판단하여 얼굴영역을 검출하는 단계;
    를 포함하며,
    상기 얼굴영역을 검출하는 단계는,
    상기 레이블링된 그룹의 좌표에서 상기 피부영역, 상기 그림자 영역, 상기 에지영역의 각 픽셀을 카운팅하는 단계;
    상기 카운팅된 결과와 설정된 임계값을 비교 판단하여 제 1 후보 얼굴영역을 검출하는 단계;
    상기 제 1 후보 얼굴영역 중 사용자가 지정한 영역내에 포함된 제 2 후보얼굴영역을 선택하는 단계;
    상기 제 2 후보 얼굴영역 중 영상의 중심점과 가장 가까운 영역에서 선택된 얼굴영역을 선택하는 단계; 및
    상기 얼굴영역의 좌표를 출력하는 단계;
    를 포함하는 얼굴검출방법.
  11. 제 10 항에 있어서,
    상기 설정된 임계값은 상기 레이블링된 그룹의 좌표에서 면적대비 30 내지 60%의 피부색 범위이며, 상기 레이블링된 그룹의 좌표의 면적대비 0.5 내지 5.5%의 에지 영역 범위이고, 상기 레이블링된 그룹의 좌표에서 면적대비 7.5% 이하의 그림자 영역의 범위인 얼굴검출방법.
  12. 제 10 항에 있어서,
    상기 제 2 후보얼굴영역 중 이전 프레임에서 선택된 얼굴영역과의 겹침 유무를 확인하여 겹침이 없는 후보얼굴영역을 겹침 확인부에서 선택하는 단계를 더 포함하는 얼굴검출방법.
  13. 제 12 항에 있어서,
    상기 이전 프레임에서 선택된 얼굴영역의 유지여부를 판단하여, 상기 이전 프레임에서 선택된 얼굴영역과 상기 겹침 확인부에서 선택된 후보얼굴영역 중 어느 하나를 유지조건 확인부를 통해 선택하는 단계를 더 포함하는 얼굴검출방법.
  14. 삭제
KR1020090020834A 2009-03-11 2009-03-11 얼굴검출장치 및 이를 이용한 얼굴검출방법 KR101015646B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090020834A KR101015646B1 (ko) 2009-03-11 2009-03-11 얼굴검출장치 및 이를 이용한 얼굴검출방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090020834A KR101015646B1 (ko) 2009-03-11 2009-03-11 얼굴검출장치 및 이를 이용한 얼굴검출방법

Publications (2)

Publication Number Publication Date
KR20100102449A KR20100102449A (ko) 2010-09-24
KR101015646B1 true KR101015646B1 (ko) 2011-02-22

Family

ID=43007543

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090020834A KR101015646B1 (ko) 2009-03-11 2009-03-11 얼굴검출장치 및 이를 이용한 얼굴검출방법

Country Status (1)

Country Link
KR (1) KR101015646B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10254236B2 (en) 2016-09-23 2019-04-09 Samsung Electronics Co., Ltd. Methods of measuring patterns and methods of manufacturing semiconductor devices including the same

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101875891B1 (ko) * 2011-12-08 2018-07-09 에스케이텔레콤 주식회사 다중 검출 방식을 이용한 얼굴 검출 장치 및 방법
KR101937323B1 (ko) 2012-09-18 2019-01-11 한국전자통신연구원 위장 얼굴 판별 장치 및 방법

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
고경철, 이양원, "피부-색상 공간 테이블을 이용한 얼굴 검출", 한국멀티미디어학회 2002년도 추계학술발표논문집, pp. 381-384, 2002년 11월.*
이응주, 김정훈, 김지홍, "적응적 얼굴검출 및 얼굴 특징자 평가함수를 사용한 실시간 얼굴인식 알고리즘", 한국멀티미디어학회지 제7권 제2호, pp. 156-163, 2004년 2월.
한상일, 박성진, 차형태, "얼굴 요소의 특징과 명암차를 이용한 원거리 얼굴 검출", 대한전자공학회 2005년도 추계종합학술대회, 제28권 제2호, pp. 359-362, 2005년 11월.*

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10254236B2 (en) 2016-09-23 2019-04-09 Samsung Electronics Co., Ltd. Methods of measuring patterns and methods of manufacturing semiconductor devices including the same

Also Published As

Publication number Publication date
KR20100102449A (ko) 2010-09-24

Similar Documents

Publication Publication Date Title
CA2867365C (en) Method, system and computer storage medium for face detection
US8611615B2 (en) Image processing apparatus and method, and program
US8805077B2 (en) Subject region detecting apparatus
US20010036298A1 (en) Method for detecting a human face and an apparatus of the same
EP2709039A1 (en) Device and method for detecting the presence of a logo in a picture
US20110164816A1 (en) Image processing apparatus, image processing method, and storage medium
EP2506218B1 (en) Method, terminal, and computer-readable recording medium for trimming a piece of image content
US20110221933A1 (en) Backlight detection device and backlight detection method
US8290277B2 (en) Method and apparatus for setting a lip region for lip reading
JP2012243313A (ja) 画像処理方法および画像処理装置
US8923610B2 (en) Image processing apparatus, image processing method, and computer readable medium
KR20180038241A (ko) 영상 제공 장치 및 방법
US20120207379A1 (en) Image Inspection Apparatus, Image Inspection Method, And Computer Program
US20120236024A1 (en) Display control device, and method for forming display image
CN101390128A (zh) 脸部器官的位置的检测方法及检测系统
JP5060264B2 (ja) 人物検出装置
US9131097B2 (en) Method and system for black bar identification
KR101015646B1 (ko) 얼굴검출장치 및 이를 이용한 얼굴검출방법
JPWO2017061106A1 (ja) 情報処理装置、画像処理システム、画像処理方法及びプログラム
US10115028B2 (en) Method and device for classifying an object in an image
JP5027201B2 (ja) テロップ文字領域検出方法,テロップ文字領域検出装置およびテロップ文字領域検出プログラム
JP2010146395A (ja) 画像処理装置、画像処理方法、画像処理プログラム、及び、電子機器
JP2008269181A (ja) 対象物検出装置
JP2017220020A (ja) 動体検知システム及び動体検知方法
US20140118389A1 (en) Character region pixel identification device and method thereof

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20131224

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20150202

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20160111

Year of fee payment: 6

LAPS Lapse due to unpaid annual fee