KR101035768B1 - 립 리딩을 위한 입술 영역 설정 방법 및 장치 - Google Patents

립 리딩을 위한 입술 영역 설정 방법 및 장치 Download PDF

Info

Publication number
KR101035768B1
KR101035768B1 KR1020090000124A KR20090000124A KR101035768B1 KR 101035768 B1 KR101035768 B1 KR 101035768B1 KR 1020090000124 A KR1020090000124 A KR 1020090000124A KR 20090000124 A KR20090000124 A KR 20090000124A KR 101035768 B1 KR101035768 B1 KR 101035768B1
Authority
KR
South Korea
Prior art keywords
region
eye
image
area
setting
Prior art date
Application number
KR1020090000124A
Other languages
English (en)
Other versions
KR20100080712A (ko
Inventor
황성택
김진영
Original Assignee
전남대학교산학협력단
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 전남대학교산학협력단, 삼성전자주식회사 filed Critical 전남대학교산학협력단
Priority to KR1020090000124A priority Critical patent/KR101035768B1/ko
Priority to US12/646,600 priority patent/US8290277B2/en
Publication of KR20100080712A publication Critical patent/KR20100080712A/ko
Application granted granted Critical
Publication of KR101035768B1 publication Critical patent/KR101035768B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Geometry (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

본 발명에 따른 입술 영역 설정방법은 영상에 포함된 얼굴에서 입술이 위치한 영역을 설정하는 방법에 있어서, 얼굴이 포함된 영상에서 적어도 미리 정해진 제1영역 및 제2영역을 설정하는 과정과, 상기 미리 정해진 제1영역의 명암 정보를 확인하는 과정과, 상기 명암 정보를 이용하여 이진화를 위한 임계값을 설정하고, 상기 임계값을 기준으로 적어도 상기 미리 정해진 제2영역을 이진화하는 과정과, 상기 이진화한 영상에서, 동일한 이진수 값을 갖는 화소가 미리 정해진 수의 범위 내에서 연속적으로 분포된 영역을 눈 후보 객체로서 설정하는 과정과, 영상 내에서 눈 영역의 기하학적 특징을 고려하여, 상기 눈 후보 객체로부터 눈 영역을 추출하는 과정과, 눈 영역과 입술 영역의 기하학적 정보에 기초하여, 추출된 상기 눈 영역을 기준으로 입술 영역을 설정하는 과정을 포함한다.
립 리딩, 눈 정위, 입술, 탐지,

Description

립 리딩을 위한 입술 영역 설정 방법 및 장치{METHOD FOR SETTING LIP REGION FOR LIP READING AND APPARATUS FOR THE SAME}
본 발명은 영상 인식 기술에 관한 것으로써, 특히 얼굴을 포함하는 영상의 립 리딩을 위한 입술영역을 탐지하는 방법 및 장치에 관한 것이다.
종래의 음성인식 기술에서는 음성 신호만을 이용하기 때문에 주변 잡음이 인식성능에 영향을 미치는 문제점이 있다. 이러한 문제점을 해결하기 위하여, 영상에 포함된 화자의 입술, 혀, 치아 등에 대한 영상 정보를 이용하여 음성을 인식하는 기술, 즉 립리딩(Lip-Reading) 또는 VSR(Visual speech recognition) 기술이 연구되고 있다.
립 리딩(Lip-Reading)을 위한 영상신호 처리순서는 입술영역 검출과 입술 특징 추출의 단계로 구성된다.
입술영역 검출은 색상정보를 기반으로 입력신호의 전체영상에서 화자 입술의 중심점, 폭과 높이 등의 정보를 검출하는 과정이다. 일반적으로 입술영역의 검출은 영상에 포함된 얼굴 영역을 색상 정보를 기반으로 검출한 후, 검출된 얼굴 영역 내에서 이루어진다. 이러한, 입술 영역 검출은 얼굴의 기하학적 정보를 이용하거나, 입술의 색상 정보를 기반으로 탐지된다.
그런데, 얼굴의 색상이나 명암은 사람의 피부색에 따나 차이가 크며, 특히 인종별(예컨대, 흑인종, 황인종, 백인종) 차이가 크기 때문에, 일괄적인 색상을 기준으로 얼굴 영역을 검출하는 것이 용이하지 않다. 또한, 조명의 변화에 따라 색상 정보의 변화를 유발함에 따라, 얼굴영역 탐지 성능이 크게 저하된다는 문제가 있다. 특히 정해진 일정한 장소를 대상으로 하지 않는, 이동통신 단말의 사용 환경에서는 조명변화가 더욱 심하여, 색상 정보를 기반으로 얼굴영역을 탐지하는 성능이 크게 저하될 수 있다. 따라서, 이동통신 단말에서 립 리딩(Lip-Reading)을 위한 영상신호를 처리하는 경우, 입술영역의 탐지 성능이 현저하게 저하되는 문제가 발생한다.
본 발명은 전술한 점을 고려하여 안출된 것으로서, 이동통신 단말의 사용환 경을 고려하고, 눈 정위에 기반하여 립 리딩을 위한 입술영역을 정확하게 검출할 수 있는 방법 및 장치를 제공하는데 그 목적이 있다.
상기한 목적을 달성하기 위하여 본 발명의 일 측면에 따른 입술 영역 설정방법은 영상에 포함된 얼굴에서 입술이 위치한 영역을 설정하는 방법에 있어서, 얼굴이 포함된 영상에서 적어도 미리 정해진 제1영역 및 제2영역을 설정하는 과정과, 상기 미리 정해진 제1영역의 명암 정보를 확인하는 과정과, 상기 명암 정보를 이용하여 이진화를 위한 임계값을 설정하고, 상기 임계값을 기준으로 적어도 상기 미리 정해진 제2영역을 이진화하는 과정과, 상기 이진화한 영상에서, 동일한 이진수 값을 갖는 화소가 미리 정해진 수의 범위 내에서 연속적으로 분포된 영역을 눈 후보 객체로서 설정하는 과정과, 영상 내에서 눈 영역의 기하학적 특징을 고려하여, 상기 눈 후보 객체로부터 눈 영역을 추출하는 과정과, 눈 영역과 입술 영역의 기하학적 정보에 기초하여, 추출된 상기 눈 영역을 기준으로 입술 영역을 설정하는 과정을 포함한다.
상기 미리 정해진 제1영역은 상기 영상에 포함된 얼굴의 코가 위치할 것으로 예상되는 부분으로서, 상기 영상의 중심 부분이 위치한 영역일 수 있으며, 상기 미리 정해진 제2영역은 상기 영상에 포함된 얼굴의 눈 영역이 위치할 것으로 예상되 는 부분으로서, 상기 제1영역보다 상대적으로 상부에 위치한 영역일 수 있다.
상기 이진화를 위한 임계값은 중간값이 다양한 조명 변화에 강한 성능을 보이기 떼문에, 상기 미리 정해진 제1영역의 명암 값의 중간값에 따라 결정하는 것이 바람직하다.
눈 후보 객체의 중심 영역의 영상 정보를 기반으로, 눈 영역을 추출하는 것이 바람직하다.
본 발명의 일 측면에 따른 입술 영역 설정방법은 복수의 영상에 포함된 눈 영역의 영상 정보를 확인하는 과정과, 눈 영역의 영상 정보를 미리 데이터베이스화하는 과정을 더 포함하며, 상기 데이터베이스화된 눈 영역의 영상정보를 참조하여, 가우시안 혼합 모델을 설정하고 상대적으로 큰 확률을 갖는 눈 후보 객체를 눈 영역으로서 추출하는 것이 바람직하다.
나아가, 좌측눈 및 우측눈의 기하학적 정보에 기초하여, 좌측눈 및 우측눈을 한 쌍으로 하여 눈 영역을 추출하는 것이 바람직하다.
본 발명의 다른 측면에 따른 입술 영역 설정장치는 영상에 포함된 얼굴에서 입술이 위치한 영역을 설정하는 장치에 있어서, 얼굴이 포함된 영상을 입력받고, 영상에서 적어도 미리 정해진 제1영역 및 제2영역을 설정하는 기준 영역 설정부와, 상기 기준 영역 설정부에 의해 설정된 미리 정해진 제1영역의 명암 정보를 확인하고, 상기 명암 정보를 이용하여 이진화를 위한 임계값을 설정하는 이진화 임계값 설정부와, 상기 임계값을 기준으로 적어도 상기 미리 정해진 제2영역을 이진화하는 이진화 연산부와, 상기 이진화한 영상에서, 동일한 이진수 값을 갖는 화소가 미리 정해진 수의 범위 내에서 연속적으로 분포된 영역을 눈 후보 객체로서 설정하는 눈 후보 객체 추출부와, 영상 내에서 눈 영역의 기하학적 특징을 고려하여, 상기 눈 후보 객체로부터 눈 영역을 추출하는 눈 영역 추출부와, 눈 영역과 입술 영역의 기하학적 정보에 기초하여, 추출된 상기 눈 영역을 기준으로 입술 영역을 설정하는 입술영역 추출부를 포함한다.
본 발명의 입술 영역 설정장치 및 방법에 따르면, 이동통신 단말의 특수한 사용 환경을 고려하여 얼굴영역을 추정함으로써, 얼굴영역 탐지의 신뢰성을 높일 수 있으며, 얼굴에 포함된 입술 영역을 효과적으로 탐지할 수 있다.
또한, 얼굴색 개별적인 차이, 조명 환경 변화 등에 상관없이 얼굴영역을 효과적으로 탐지할 수 있으며, 얼굴영역 탐지의 신뢰성을 높일 수 있다.
이하 본 발명에 따른 바람직한 실시예를 첨부한 도면을 참조하여 상세히 설명한다. 하기 설명에서는 구체적인 특정 사항들이 나타나고 있는데 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐 이러한 특정 사항들이 본 발명의 범위 내에서 소정의 변형이나 혹은 변경이 이루어질 수 있음은 이 기술분야에서 통상의 지식을 가진 자에게는 자명하다 할 것이다.
본 발명의 일 실시예에서는, 사용환경이 다양하게 변화될 수 있는 이동통신 단말에 적용되는 입술 영역 설정장치를 예시한다.
이동 통신 단말의 사용 환경에서는, 카메라를 통해 촬영되는 영상에 항상 1 인의 사용자 얼굴이 존재할 수 있으며, 상기 사용자의 얼굴은 획득 영상의 중앙 부분에 존재할 수 있다. 상기의 두 가지 조건을 가정하면, 이동통신 단말의 사용환경에서 립 리딩을 하기 위한 간편한 시나리오를 작성할 수 있다. 얼굴이 획득된 영상의 적절한 영역 내 존재한다고 하면, 주어진 좁은 영역에서 쉽게 찾을 수 있는 얼굴의 특징을 이용하는 것이다.
도 1은 본 발명의 일 실시예에 따른 입술 영역 설정장치의 구성을 대략적으로 도시하는 블록도이다. 도 1을 참조하면, 본 발명에 따른 입술 영역 설정장치는 기준 영역 설정부(10), 이진화 임계값 설정부(20), 이진화 연산부(30), 눈 후보 객체 추출부(40), 눈 영역 추출부(50), 및 입술영역 추출부(60)를 포함한다.
기준 영역 설정부(10)는 얼굴이 포함된 영상을 입력받은 후, 영상의 크기, 비율 등을 기반으로 영상 내에서의 얼굴이 위치할 수 있는 영역, 즉 영상의 중앙 부분의 소정 범위의 픽셀을 얼굴 영역으로 추정한다. 그리고, 기준 영역 설정부(10)는 얼굴의 기하학적 정보에 기초하여, 추정한 상기 얼굴 영역에서 적어도 두 개의 영역(예컨대, 제1영역(도 2의 11), 제2영역(도 2의 13))을 설정한다. 상기 제1영역(11)은 얼굴의 살색이 집중적으로 분포된 영역으로서, 예컨대 얼굴의 코가 위치할 것으로 예상되는 영역일 수 있다. 상기 제1영역(11)은 영상의 가장 중심이 되는 점으로부터 미리 정해진 범위의 픽셀일 수 있다. 상기 제1영역(11)의 미리 정해진 범위는 상기 영상을 복수의 영역으로 분할한 크기로 설정될 수 있다. 예컨대, 상기 제1영역(11)의 크기는 상기 영상을 9열 16행으로 분할하여 생성되는 하나의 셀의 크기로 설정될 수 있다. 상기 제2영역(13)은 얼굴의 눈이 위치할 것으로 예상 되는 영역으로서, 예컨대 상기 제1영역(11)보다 상대적으로 상부에 위치한 영역의 미리 정해진 범위일 수 있다. 상기 제2영역(13)의 미리 정해진 범위는 상기 영상을 4열 3행으로 분할하여 생성되는 셀의 크기로 설정될 수 있다. 상기 제1 및 제2영역(11,13)에서, 얼굴에 포함된 코 및 눈의 위치는 얼굴을 포함하는 복수의 영상에서 코 및 눈의 위치를 표준화한 값에 기초하여 설정할 수 있다.
비록, 본 발명의 일 실시예에서, 상기 제1 및 제2영역(11,13)의 미리 정해진 범위를 예시하였으나, 본 발명이 이를 한정하는 것은 아니며, 본 발명의 기술분야에서 통상의 지식을 가진자에 의해 다양하게 변경될 수 있음은 물론이다.
이진화 임계값 설정부(20)는 상기 제1영역(11)의 명암 정보를 확인하고, 상기 명암 정보를 이용하여 이진화를 위한 임계값을 설정한다. 이진화 임계값 설정부(20)는 상기 제1영역(11)에 포함된 픽셀들의 명암 값의 중간값 연산을 통해 이진화를 위한 임계값을 설정하는 것이 바람직하다. 예컨대, 이진화 임계값 설정부(20)는 하기의 수학식 1의 연산을 통해 상기 제1영역에 포함된 픽셀들의 명암 값의 중간값을 연산할 수 있다.
Figure 112009000091047-pat00001
여기서, Thre는 이진화를 위한 임계값이고, Y는 명암 값이다.
이진화 연산부(30)는 상기 이진화를 위한 임계값(Thre)을 기준으로 상기 제2영역(13)에 대한 이진화 연산을 수행한다. 즉, 이진화 연산부(30)는 상기 제2영 역(13)에 포함된 픽셀들을 상기 이진화를 위한 임계값(Thre)과 비교하고, 상기 제2영역(13)에 포함된 픽셀의 명암 값이 상기 이진화를 위한 임계값(Thre)과 같거나 상대적으로 크면, 픽셀의 값을 0으로 설정하고, 상기 제2영역(13)에 포함된 픽셀의 명암 값이 상기 이진화를 위한 임계값(Thre)보다 상대적으로 작으면, 픽셀의 값을 1로 설정한다.
도 3은 본 발명의 일 실시예에 따른 입술 영역 설정장치에 구비된 이진화 연산부(30)가 상기 제2영역(13)을 이진화한 결과를 예시하는 도면이다. 도 3을 참조하면, 상기 이진화를 위한 임계값(Thre)과 같거나 상대적으로 큰 픽셀들(31)은 0으로 설정되어 백색으로 표현되고, 상기 이진화를 위한 임계값(Thre)보다 상대적으로 작은 픽셀들(33)은 1로 설정되어 흑색으로 표현된다.
눈 후보 객체 추출부(40)는 상기 제2영역(13)을 이진화한 영상(예컨대, 도 3)에서 백색으로 표현된 픽셀이 미리 정해진 수의 범위 내에서 연속적으로 분포된 영역을 눈 후보 객체(41,42,43,44)로 설정한다. 예컨대, 백색으로 표현된 픽셀이 10개 이상 30개 이하의 연속적으로 분포된 영역을 눈 후보 객체로 설정한다.
눈 영역 추출부(50)는 눈 후보 객체들 중, 각 객체의 중심 부분 픽셀의 영상 정보를 기반으로 오른쪽 및 왼쪽 눈 영역을 추출한다. 얼굴이 포함된 다수의 영상의 눈이 위치한 영역에 대한 데이터베이스를 구축하고, 이에 대한 가우시안 혼합 모델(Gaussian Mixture Model, GMM)을 미리 설정하고, 눈 후보 객체들을 가우시안 혼합 모델에 적용하고 눈 후보 객체들의 확률을 연산하여, 상대적으로 큰 확률을 갖는 두 개의 후보 쌍을 검색한다.
눈 영역에 대한 가우시안 혼합 모델을 학습할 때, 그리고 눈 영역을 검증할 때, 눈 영역의 검출에 대한 신뢰성을 높이기 위하여, 눈 영역 추출부(50)는 오른쪽 및 왼쪽 눈의 얼굴 내에서의 기하학적 정보에 기초하여, 오른쪽 및 왼쪽 눈 영역 하나의 쌍으로 추출하여 사용한다(도 4a 참조). 더욱 바람직하게, 눈 영역 추출부(50)는 눈이 위치한 영역뿐 아니라 눈썹이 위치한 영역을 확대하여, 두 눈과 눈썹이 포함된 영역을 추출하는 것도 가능하다(도 4b 참조).
입술영역 추출부(60)는 얼굴이 포함된 다수의 영상에서 눈과 입술 사이의 기하학적 정보, 예컨대 두 눈 사이의 거리, 두 눈의 중심점으로부터 입술까지의 최단 거리, 입술의 폭 등을 고려하여, 입술이 포함되어 있는 입술 후보 영역을 탐색한다. 그리고, 입술영역 추출부(60)는 상기 입술 후보 영역의 히스토그램, 명암 정보, 색상 정보 등을 이용하여 최종적으로 입술영역을 추출하게 된다.
도 5는 본 발명의 일 실시예에 따른 입술 영역 설정장치에서의 영상의 눈과 입술 사이의 기하학적 정보를 예시한다. 도 5를 참조하면, DbEs는 두 눈 사이의 거리를 지시하고, DbEL은 두 눈의 중심점으로부터 입술까지의 최단 거리를 지시하고, WoL은 입술의 폭을 지시한다.
나아가, 얼굴이 포함된 영상에서 눈과 입술 사이의 기하학적 정보는 다수의 영상에서 DbEs, DbEL, WoL의 관계를 이용하여 정형화할 수 있다. 예컨대, 입술 영역 설정장치가 적용되는 이동통신 단말의 카메라로부터 입력되는 영상을 처리하여, DbEs, DbEL, WoL을 각각 측정한다. 그리고, WoL/DbEs와 DbEL/DbEs을 각각 연산한다. 그리고, 연산된 값에 기초하여 눈과 입술 사이의 기하학적 정보를 정형화 한다.
하기의 표 1은 입술 영역 설정장치가 적용되는 이동통신 단말의 카메라로부터 입력되는 28개의 영상에 대해 WoL/DbEs와 DbEL/DbEs을 각각 연산한 후, 최대값 및 최소값을 연산한 결과를 예시한다.
최대값 최소값
WoL/DbEs 0.9 0.48
DbEL/DbEs 1.51 0.95
이하, 전술한 구성요소를 참조하여 본 발명의 입술 영역 설정장치의 동작을 설명함으로써, 입술 영역 설정 방법의 순서를 설명한다.
도 6은 본 발명의 일 실시예에 따른 입술 영역 설정방법의 순서를 도시하는 흐름도이다.
우선,100단계에서 얼굴이 포함된 영상이 기준 영역 설정부(10)에 입력되면, 110단계에서 기준 영역 설정부(10)는 영상의 크기, 비율 등을 기반으로 영상 내에서의 얼굴이 위치할 수 있는 영역, 즉 영상의 중앙 부분의 소정 범위의 픽셀을 얼굴 영역으로 추정한다.
그리고, 115단계에서 기준 영역 설정부(10)는 얼굴의 기하학적 정보에 기초하여, 검출된 상기 얼굴 영역에서 적어도 두 개의 영역(예컨대, 제1영역(도 2의 11), 제2영역(도 2의 13))을 설정한다. 여기서, 상기 제1영역(11)은 얼굴의 살색이 집중적으로 분포된 영역으로서, 예컨대 얼굴의 코가 위치할 것으로 예상되는 영역일 수 있다. 상기 제1영역(11)은 영상의 가장 중심이 되는 점으로부터 미리 정해진 범위의 픽셀일 수 있다. 상기 제1영역(11)의 미리 정해진 범위는 상기 영상을 복수의 영역으로 분할한 크기로 설정될 수 있다. 예컨대, 상기 제1영역(11)의 크기는 상기 영상을 9열 16행으로 분할하여 생성되는 하나의 셀의 크기로 설정될 수 있다. 상기 제2영역(13)은 얼굴의 눈이 위치할 것으로 예상되는 영역으로서, 예컨대 상기 제1영역(11)보다 상대적으로 상부에 위치한 영역의 미리 정해진 범위일 수 있다. 상기 제2영역(13)의 미리 정해진 범위는 상기 영상을 4열 3행으로 분할하여 생성되는 셀의 크기로 설정될 수 있다. 상기 제1 및 제2영역(11,13)에서, 얼굴에 포함된 코 및 눈의 위치는 얼굴을 포함하는 복수의 영상에서 코 및 눈의 위치를 표준화한 값에 기초하여 설정할 수 있다.
120단계에서, 이진화 임계값 설정부(20)는 상기 제1영역(11)의 명암 정보를 확인하고, 상기 명암 정보를 이용하여 이진화를 위한 임계값을 설정한다. 이진화를 위한 임계값은 상기 제1영역(11)에 포함된 픽셀들의 명암 값의 중간값 연산을 통해 설정되는 것이 바람직하다. 이진화를 위한 임계값은 상기의 수학식 1의 연산을 통해 설정될 수 있다.
다음으로, 130단계에서 이진화 연산부(30)는 상기 이진화를 위한 임계값(Thre)을 기준으로, 상기 제2영역(13)에 포함된 픽셀들을 상기 이진화를 위한 임계값(Thre)과 비교하여, 상기 제2영역(13)에 포함된 픽셀의 명암 값이 상기 이진화를 위한 임계값(Thre)과 같거나 상대적으로 크면 0으로 설정하고, 상기 제2영역(13)에 포함된 픽셀의 명암 값이 상기 이진화를 위한 임계값(Thre)보다 상대적으로 작으면 1로 설정한다.
다음으로, 140단계는 눈 후보 객체 추출부(40)에 의해 수행된다. 눈 후보 객체 추출부(40)는 상기 제2영역(13)을 이진화한 영상(예컨대, 도 3)에서 백색으로 표현된 픽셀이 미리 정해진 수의 범위 내에서 연속적으로 분포된 영역을 눈 후보 객체(41,42,43,44)로 설정한다. 예컨대, 눈 후보 객체 추출부(40)는 백색으로 표현된 픽셀이 10개 이상 30개 이하의 연속적으로 분포된 영역을 눈 후보 객체로 설정한다.
눈 후보 객체가 설정되면, 눈 영역 추출부(50)는 눈 후보 객체들 중, 각 객체의 중심 부분 픽셀의 영상 정보를 기반으로 오른쪽 및 왼쪽 눈 영역을 추출한다(150단계).
150단계의 수행을 위해 눈 영역 추출부(50)는 얼굴이 포함된 다수의 영상의 눈이 위치한 영역에 대한 가우시안 혼합 모델(Gaussian Mixture Model, GMM)을 미리 설정하여 메모리에 저장한다. 그리고, 150단계의 수행이 요청되면, 눈 후보 객체를 가우시안 혼합 모델에 적용하여, 각 객체의 확률을 연산한다. 그리고, 상대적으로 큰 확률을 갖는 두 개의 후보 쌍을 검색하고, 검색된 상기 두 개의 후보 쌍을 눈 영역으로 추출한다.
나아가, 눈 영역의 검출에 대한 신뢰성을 높이기 위하여, 눈 영역 추출부(50)는 오른쪽 및 왼쪽 눈의 얼굴 내에서의 기하학적 정보에 기초하여, 오른쪽 및 왼쪽 눈 영역 하나의 쌍으로 추출하는 것이 바람직하다(도 4a 참조). 더욱 바람직하게, 눈 영역 추출부(50)는 눈이 위치한 영역뿐 아니라 눈썹이 위치한 영역을 확대하여, 두 눈과 눈썹이 포함된 영역을 추출하는 것도 가능하다(도 4b 참조).
마지막으로, 160단계는 입술영역 추출부(60)에 의해 수행된다. 150단계에서 추출된 눈 영역을 기준으로, 얼굴이 포함된 다수의 영상에서 눈과 입술 사이의 기하학적 정보, 예컨대 두 눈 사이의 거리, 두 눈의 중심점으로부터 입술까지의 최단 거리, 입술의 폭 등을 고려하여, 입술이 포함되어 있는 입술 후보 영역을 탐색한다. 그리고, 상기 입술 후보 영역의 히스토그램, 명암 정보, 색상 정보 등을 이용하여 최종적으로 입술영역을 추출하게 된다.
본 발명에 따른 입술 영역 설정방법 및 장치는 이동통신 단말 기반에서 이용될 수 있다. 본 발명에 따른 입술 영역 설정방법 및 장치는 조명 변화에 강인한 립 리딩의 전처리 단계로써, 얼굴색 기반 얼굴 탐지를 시행하지 않고 입술 후보 영역을 검출하는 방법에 대하여 제시하였다. 즉, 이동통신 단말의 특수한 사용 환경을 고려하여, 별도로 얼굴 영역을 검출하지 않고, 얼굴 중 눈이 항상 존재할 충분한 영역을 선정하였다. 그리고, 이 영역 안에서 두 눈을 찾고, 두 눈의 기하학적 정보를 이용하여 모든 경우 입술이 충분히 들어갈 입술 후보 영역을 결정하는 방법을 제시하였다. 이러한 방법은 조명의 변화 및 얼굴 색상의 변환에 대하여, 강인할 것으로 예상되는데 이는 오로지 명암 정보만을 이용한다는 점, 그리고 눈 영역의 모습은 조명에 따라 변화하지 않음에 기반하고 있다. 또한, 눈 영역 검증시 두 눈과 눈썹을 포함하는 영역을 기준으로 두 눈 검증을 제시하였는데, 이는 간단한 패턴 분류 방법을 이용하여 눈 후보 영역을 검증할 때, 종래보다 효과적인 방법이 될 것이다.
본 발명에 따른 입술 영역 설정방법 및 장치는 디지털 장비 및 장치로 읽을 수 있는 기록 매체에 컴퓨터가 읽을 수 있는 코드로서 구현될 수 있다. 디지털 장비 및 장치로 읽을 수 있는 기록매체는 디지털 장비 및 장치 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다. 디지털 장비 및 장치가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 디스크 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것을 포함한다. 또한, 디지털 장비 및 장치가 읽을 수 있는 기록 매체는 네트워크로 연결된 디지털 장비 및 장치 시스템에 분산되어, 분산 방식으로 디지털 장비 및 장치가 읽을 수 있는 코드로 저장되고 실행될 수 있다.
이상에서 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 이것에 의해 한정되지 않으며 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 수정 및 변형이 가능함은 물론이다.
도 1은 본 발명의 일 실시예에 따른 입술 영역 설정장치의 구성을 대략적으로 도시하는 블록도,
도 2는 본 발명의 일 실시예에 따른 입술 영역 설정장치에 구비된 기준 영역 설정부가 설정한 제1영역 및 제2영역을 예시하는 도면,
도 3은 본 발명의 일 실시예에 따른 입술 영역 설정장치에 구비된 이진화 연산부가 이진화한 결과를 예시하는 도면,
도 4a는 본 발명의 일 실시예에 따른 입술 영역 설정장치에 구비된 눈 영역 추출부가 검출한 눈 영역의 일 예시도,
도 4b는 본 발명의 일 실시예에 따른 입술 영역 설정장치에 구비된 눈 영역 추출부가 검출한 눈 영역의 다른 예시도,
도 5는 본 발명의 일 실시예에 따른 입술 영역 설정장치에서의 영상의 눈과 입술 사이의 기하학적 정보를 예시하는 도면,
도 6은 본 발명의 일 실시예에 따른 입술 영역 설정방법의 순서를 도시하는 흐름도.

Claims (8)

  1. 영상에 포함된 얼굴에서 입술이 위치한 영역을 설정하는 방법에 있어서,
    얼굴이 포함된 영상에서 적어도 미리 정해진 제1영역 및 제2영역을 설정하는 과정과,
    상기 미리 정해진 제1영역의 명암 정보를 확인하는 과정과,
    상기 명암 정보를 이용하여 이진화를 위한 임계값을 설정하고, 상기 임계값을 기준으로 적어도 상기 미리 정해진 제2영역을 이진화하는 과정과,
    상기 이진화한 영상에서, 동일한 이진수 값을 갖는 화소가 미리 정해진 수의 범위 내에서 연속적으로 분포된 영역을 눈 후보 객체로서 설정하는 과정과,
    영상 내에서 눈 영역의 기하학적 특징을 고려하여, 상기 눈 후보 객체로부터 눈 영역을 추출하는 과정과,
    눈 영역과 입술 영역의 기하학적 정보에 기초하여, 추출된 상기 눈 영역을 기준으로 입술 영역을 설정하는 과정을 포함함을 특징으로 하는 영상에 포함된 입술 영역 설정방법.
  2. 제1항에 있어서, 상기 미리 정해진 제1영역은 상기 영상에 포함된 얼굴의 코가 위치할 것으로 예상되는 부분으로서, 상기 영상의 중심 부분이 위치한 영역인 것을 특징을 하는 영상에 포함된 입술 영역 설정방법.
  3. 제1항에 있어서, 상기 미리 정해진 제2영역은 상기 영상에 포함된 얼굴의 눈 영역이 위치할 것으로 예상되는 부분으로서, 상기 제1영역보다 상대적으로 상부에 위치한 영역인 것을 특징을 하는 영상에 포함된 입술 영역 설정방법.
  4. 제1항에 있어서, 상기 이진화를 위한 임계값은 상기 미리 정해진 제1영역의 명암 값의 중간값에 따라 결정하는 것을 특징으로 하는 영상에 포함된 입술 영역 설정방법.
  5. 제1항에 있어서, 눈 후보 객체의 중심 영역의 영상 정보를 기반으로, 눈 영역을 추출하는 것을 특징으로 하는 영상에 포함된 입술 영역 설정방법.
  6. 제1항에 있어서,
    복수의 영상에 포함된 눈 영역의 영상 정보를 확인하는 과정과,
    눈 영역의 영상 정보를 미리 데이터베이스화하는 과정을 더 포함하며,
    상기 데이터베이스화된 눈 영역의 영상정보를 참조하여, 가우시안 혼합 모델을 설정하고 상대적으로 큰 확률을 갖는 눈 후보 객체를 눈 영역으로서 추출하는 것을 특징으로 하는 영상에 포함된 입술 영역 설정방법.
  7. 제1항에 있어서, 좌측눈 및 우측눈의 기하학적 정보에 기초하여, 좌측눈 및 우측눈을 한 쌍으로 하여 눈 영역을 추출하는 것을 특징으로 하는 영상에 포함된 입술 영역 설정방법.
  8. 영상에 포함된 얼굴에서 입술이 위치한 영역을 설정하는 장치에 있어서,
    얼굴이 포함된 영상을 입력받고, 영상에서 적어도 미리 정해진 제1영역 및 제2영역을 설정하는 기준 영역 설정부와,
    상기 기준 영역 설정부에 의해 설정된 미리 정해진 제1영역의 명암 정보를 확인하고, 상기 명암 정보를 이용하여 이진화를 위한 임계값을 설정하는 이진화 임계값 설정부와,
    상기 임계값을 기준으로 적어도 상기 미리 정해진 제2영역을 이진화하는 이진화 연산부와,
    상기 이진화한 영상에서, 동일한 이진수 값을 갖는 화소가 미리 정해진 수의 범위 내에서 연속적으로 분포된 영역을 눈 후보 객체로서 설정하는 눈 후보 객체 추출부와,
    영상 내에서 눈 영역의 기하학적 특징을 고려하여, 상기 눈 후보 객체로부터 눈 영역을 추출하는 눈 영역 추출부와,
    눈 영역과 입술 영역의 기하학적 정보에 기초하여, 추출된 상기 눈 영역을 기준으로 입술 영역을 설정하는 입술영역 추출부를 포함함을 특징으로 하는 영상에 포함된 입술 영역 설정장치.
KR1020090000124A 2009-01-02 2009-01-02 립 리딩을 위한 입술 영역 설정 방법 및 장치 KR101035768B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020090000124A KR101035768B1 (ko) 2009-01-02 2009-01-02 립 리딩을 위한 입술 영역 설정 방법 및 장치
US12/646,600 US8290277B2 (en) 2009-01-02 2009-12-23 Method and apparatus for setting a lip region for lip reading

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090000124A KR101035768B1 (ko) 2009-01-02 2009-01-02 립 리딩을 위한 입술 영역 설정 방법 및 장치

Publications (2)

Publication Number Publication Date
KR20100080712A KR20100080712A (ko) 2010-07-12
KR101035768B1 true KR101035768B1 (ko) 2011-05-20

Family

ID=42311748

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090000124A KR101035768B1 (ko) 2009-01-02 2009-01-02 립 리딩을 위한 입술 영역 설정 방법 및 장치

Country Status (2)

Country Link
US (1) US8290277B2 (ko)
KR (1) KR101035768B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230111889A (ko) 2022-01-19 2023-07-26 주식회사 인포다이스 인공지능에 의한 독순술을 이용하여 발화자의 언어 및 국적을 식별하는 시스템 및 방법

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006044114A1 (de) * 2006-09-20 2008-03-27 Forschungszentrum Karlsruhe Gmbh Verfahren zur Charakterisierung der Abgasausbrandqualität in Verbrennungsanlagen
TWI391876B (zh) * 2009-02-16 2013-04-01 Inst Information Industry 利用多重模組混合圖形切割之前景偵測方法、系統以及電腦程式產品
JP4831259B1 (ja) * 2011-03-10 2011-12-07 オムロン株式会社 画像処理装置、画像処理方法、および制御プログラム
CN104011735B (zh) * 2011-12-26 2018-03-30 英特尔公司 基于车辆的对乘员音频和可视输入的确定
US9600711B2 (en) 2012-08-29 2017-03-21 Conduent Business Services, Llc Method and system for automatically recognizing facial expressions via algorithmic periocular localization
KR102290301B1 (ko) * 2015-05-06 2021-08-17 엘지전자 주식회사 이동 단말기 및 이의 제어방법
US10198819B2 (en) * 2015-11-30 2019-02-05 Snap Inc. Image segmentation and modification of a video stream
CN107025439B (zh) * 2017-03-22 2020-04-24 天津大学 基于深度数据的唇部区域特征提取和规范化方法
CN107578772A (zh) * 2017-08-17 2018-01-12 天津快商通信息技术有限责任公司 融合声学特征和发音运动特征的发音评估方法和系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000348173A (ja) * 1999-06-04 2000-12-15 Matsushita Electric Ind Co Ltd 唇抽出方法
KR100680278B1 (ko) * 2005-12-28 2007-02-07 고려대학교 산학협력단 입술모양 추출방법 및 그 장치

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4883783B2 (ja) * 2006-12-22 2012-02-22 キヤノン株式会社 画像処理装置およびその方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000348173A (ja) * 1999-06-04 2000-12-15 Matsushita Electric Ind Co Ltd 唇抽出方法
KR100680278B1 (ko) * 2005-12-28 2007-02-07 고려대학교 산학협력단 입술모양 추출방법 및 그 장치

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
장경식, "형태와 가중치 벡터를 이용한 눈동자와 입술 검출", 정보과학회논문지: 소프트웨어 및 응용, 제29권 제5호, pp. 311-318, 2002.6.

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230111889A (ko) 2022-01-19 2023-07-26 주식회사 인포다이스 인공지능에 의한 독순술을 이용하여 발화자의 언어 및 국적을 식별하는 시스템 및 방법

Also Published As

Publication number Publication date
US20100172587A1 (en) 2010-07-08
KR20100080712A (ko) 2010-07-12
US8290277B2 (en) 2012-10-16

Similar Documents

Publication Publication Date Title
KR101035768B1 (ko) 립 리딩을 위한 입술 영역 설정 방법 및 장치
US11789545B2 (en) Information processing device and method, program and recording medium for identifying a gesture of a person from captured image data
US11830230B2 (en) Living body detection method based on facial recognition, and electronic device and storage medium
KR100480781B1 (ko) 치아영상으로부터 치아영역 추출방법 및 치아영상을이용한 신원확인방법 및 장치
CN106296725B (zh) 运动目标实时检测与跟踪方法及目标检测装置
Jung Efficient background subtraction and shadow removal for monochromatic video sequences
JP4216668B2 (ja) 映像視覚情報を結合してリアルタイムで複数の顔を検出して追跡する顔検出・追跡システム及びその方法
US9053384B2 (en) Feature extraction unit, feature extraction method, feature extraction program, and image processing device
Avgerinakis et al. Recognition of activities of daily living for smart home environments
KR100957716B1 (ko) 가변 피부색 모델을 이용한 피부색 영역 검출 방법
CN103093274B (zh) 基于视频的行人计数的方法
KR101408344B1 (ko) 얼굴 검출 장치
KR101249374B1 (ko) 영상에서의 목표형상 검출장치 및 방법
US8891822B2 (en) System and method for script and orientation detection of images using artificial neural networks
CN112633179A (zh) 基于视频分析的农贸市场过道物体占道检测方法
KR100606404B1 (ko) 컬러코드 이미지 검출 방법 및 장치
CN104615985A (zh) 一种人脸相似度的识别方法
KR101985474B1 (ko) 에이다부스트를 이용한 인체 영역의 강인한 검출 방법
Fathee et al. A Robust Iris Segmentation Algorithm Based on Pupil Region for Visible Wavelength Environments
KR100713335B1 (ko) 이미지 인식방법
US20130051681A1 (en) System and method for script and orientation detection of images
KR102458614B1 (ko) 비접촉식 rgb 카메라를 이용한 피부 진단 시스템 및 그 방법
KR20050014072A (ko) 색분포 학습을 통한 얼굴영역 추출 방법
KR101748795B1 (ko) 동적 워핑 기반 홍채 인식 방법 및 시스템
KR102516173B1 (ko) 전경의 색상 추출 시스템, 방법 및 컴퓨터 판독 가능한 기록매체

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20140429

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20150429

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20160428

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20170427

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20180427

Year of fee payment: 8