KR20030062043A - 화상 통신에서의 얼굴 검출 및 추적 시스템 - Google Patents

화상 통신에서의 얼굴 검출 및 추적 시스템 Download PDF

Info

Publication number
KR20030062043A
KR20030062043A KR1020020002441A KR20020002441A KR20030062043A KR 20030062043 A KR20030062043 A KR 20030062043A KR 1020020002441 A KR1020020002441 A KR 1020020002441A KR 20020002441 A KR20020002441 A KR 20020002441A KR 20030062043 A KR20030062043 A KR 20030062043A
Authority
KR
South Korea
Prior art keywords
face
region
image
skin color
video communication
Prior art date
Application number
KR1020020002441A
Other languages
English (en)
Other versions
KR100464079B1 (ko
Inventor
이지은
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR10-2002-0002441A priority Critical patent/KR100464079B1/ko
Publication of KR20030062043A publication Critical patent/KR20030062043A/ko
Application granted granted Critical
Publication of KR100464079B1 publication Critical patent/KR100464079B1/ko

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

본 발명은 얼굴 추출과 추적을 기반으로 하는 실시간 화상 통신 시스템에 관한 것이다.
본 발명은 입력된 영상에서 얼굴 영역을 추출하고, 추출된 얼굴 영역을 포함하는 영상을 인코딩하여 전송하며, 이 때 상기 추출된 얼굴 영역을 기반으로 하여 비트율을 자동적으로 제어하거나, 추출된 얼굴 영역을 다른 배경 영역과 합성하는 등의 편집을 수행하여 이 편집된 영상을 인코딩하여 전송할 수 있다. 상기 얼굴 영역의 추출은 입력된 영상에서 배경과 얼굴을 분리해 내기 위한 얼굴 영역의 검출과, 상기 검출된 얼굴 영역을 기반으로 하여 이후 연속되는 프레임에 대한 얼굴 추적을 수행함으로써, 실시간 화상 통신 환경을 구현한다. 상기 얼굴의 검출은 피부색을 기반으로 하고 얼굴 형태 매칭을 위한 마스크를 적용하여 수행하며, 검출한 얼굴 영역이 실제 얼굴인지의 여부를 눈, 코, 입 검출을 통해 확인함으로서 이루어지고, 상기 얼굴의 추적은 연속한 프레임에서 이전 얼굴에 대해 다음 얼굴의 위치변화와 크기변화를 제한하는 방법을 이용해서 추적한다.

Description

화상 통신에서의 얼굴 검출 및 추적 시스템{FACE DETECTION AND TRACKING OF VIDEO COMMUNICATION SYSTEM}
본 발명은 화상통신 시 통신 영상 데이터에서 자동으로 사용자의 얼굴 영역을 검출하고 연속된 프레임에서 얼굴을 추적하는 시스템에 관한 것이다.
최근에 음성으로만 전달되던 통신 방법이 통신자의 화상까지도 같이 전달되는 멀티미디어 환경의 화상통신으로 바뀌고 있다. 이러한 화상통신은 지금까지는 주로 PC 카메라를 사용한 화상 통신 및 화상 채팅, 비디오 폰을 사용한 화상 통신 등이 주류를 이루었으나, 향후 IMT 2000 서비스가 개시되면서 이동 통신 단말기를 사용한 화상 통신 환경이 곧 이루어 질 것으로 예측하고 있다.
이미 단말기를 사용한 화상 통신을 위해 H.263 및 MPEG-4와 같은 동영상 표준이 이동 화상 통신에서의 동영상 표준으로 지정되고, 많은 통신 단말기 회사들은 질 높은 화상 통신이 가능한 단말기를 개발하고 있다.
이와 같이 동영상을 이용한 통신 서비스가 기본 기능으로 자리잡고 있으나 보다 질 높은 서비스를 위해 사용자의 다양한 요구를 만족시켜 주기에는 아직 많은 한계를 가지고 있다. 사용자의 요구는 크게 두 가지 종류로 나누어 생각할 수 있는데, 먼저 낮은 네트워크 환경에서도 자연스런 동영상이 표시될 수 있는 질적인 면과, 사용자가 원하지 않는 배경을 가리거나 사용자만의 개성을 반영할 수 있는 서비스 측면이 있다.
이러한 두 가지 부분을 모두 해결하기 위해서는 실시간으로 통신 영상에서 사람 등의 중요 객체를 분리하는 기술이 요구되는데, 이러한 기술은 현재로는 매우 어려운 기술로서 실시간으로 이루어지지 못하고 있다. 이와 같이 주어진 영상에서 객체를 분리하는 기존 기술을 대략 살펴보면 다음과 같다.
주어진 영상에서 객체를 분리하는 기술로, 칼라 그룹을 기반으로 이미지에서 부분 영역을 분리하는 기술이 있다. 이 기술은 이미지에서 비교적 영역을 잘 분리하고 있으나 칼라 기반의 영역일 뿐, 의미를 갖는 오브젝트 영역이 아니라는 점과 처리 시간이 매우 길다는 문제가 있다.
주어진 영상에서 객체를 분리하는 또 다른 기술로, 차영상과 에지 영상을 이용하여 객체를 분리하는 방법이 있는데, 이 방법은 사용하는 특징 정보가 단순하여 빠른 처리가 가능하지만 복잡한 화면에서 분리가 되지 않고, 기본적으로 배경은 정지되어 있고 움직이는 물체가 객체라는 전제 아래에서 분리를 행하므로 이동 카메라 환경에서는 적용할 수 없는 문제점이 있다. 또한, 칼라정보를 특징 정보로 사용해서 객체를 분리하는 기법도 제안되고 있으나, 이 방법 또한 칼라가 일정한 영역을 분리한 후 이를 이용하는데 상당한 처리 시간이 요구되어 실시간 적용이 어렵고, 움직이는 객체를 분리하는 알고리즘의 경우에도 이와 같은 이유로 이동 카메라 환경에 적용하기 어려운 문제점이 있다.
이와 같이 지금까지 이동 통신 환경에서 사람과 같은 객체를 실시간으로 추출하는 알고리즘은 소개된 바가 없다. 대신에 객체의 의미를 얼굴로 한정 시켜서 얼굴을 분리하려는 연구는 몇 보고되고 있다. 즉, 얼굴 영역의 분리 기술은 비교적 실시간에 가능하기도 하지만 아직까지 보안 시스템과 같은 특정한 목적 이외에 이동 단말기를 이용한 실시간 화상통신 환경 등과 같은 응용에서는 유용하게 사용되지 못하고 있다.
본 발명은 화상 통신을 위한 영상에서 자동으로 얼굴을 추출 및 추적하여 실시간 화상 통신을 가능하도록 한 화상 통신 시스템과, 그 시스템에서의 얼굴 추출방법 및 얼굴 추적방법을 제공함을 목적으로 한다.
상기 목적을 달성하기 위하여 본 발명의 화상 통신 시스템은, 화상 통신을 위한 영상의 입력 수단과, 상기 입력된 영상에서 얼굴 영역을 추출하는 수단과, 상기 추출된 얼굴 영역을 포함하는 영상을 인코딩하는 수단; 을 포함하여 이루어지는 것을 특징으로 한다. 또한 본 발명은 상기 추출된 얼굴 영역을 원래의 배경과 다른영상과 합성하는 등의 편집 효과를 부가하거나, 상기 추출된 얼굴 영역과 분리된 배경 영역을 서로 다른 비트율로 인코딩하여 전송할 수 있도록 함을 특징으로 한다.
또한 상기 목적을 달성하기 위하여 본 발명의 화상 통신 시스템에서의 얼굴 검출방법은, 화상 통신을 위하여 획득한 영상에서 얼굴을 검출하는 단계, 상기 검출된 얼굴을 얼굴 후보 영역으로 하여 얼굴 여부를 확인하는 단계, 상기 확인된 얼굴 영역을 포함하는 영상을 인코딩하여 전송하는 단계; 를 포함하여 이루어지는 것을 특징으로 한다.
또한 상기 목적을 달성하기 위하여 본 발명의 화상 통신 시스템에서의 얼굴 검출방법은, 영상에서 얼굴의 피부색 특징과 얼굴의 타원형 특징으로 얼굴 영역 후보를 추출하는 단계와, 상기 피부색 특징과 타원형 특징으로 추출된 얼굴 영역 후보 중에서 눈, 코, 입을 검출하여 얼굴영역을 선택하는 단계; 로 이루어지는 것을 특징으로 한다.
또한 상기 목적을 달성하기 위하여 본 발명의 화상 통신 시스템에서의 얼굴 추적방법은, 입력 영상 프레임에서 얼굴을 검출하는 단계와, 연속된 화상통신 영상에서 상기 이전 프레임의 얼굴을 검출한 정보를 이용하여 현재 프레임의 얼굴을 검출하는 단계; 를 포함하여 이루어지는 것을 특징으로 한다.
도1은 화상 통신 시스템에서 비트율 제어에 따른 화질 변화를 설명하기 위한 도면
도2는 얼굴영역과 배경영역의 편집을 설명하기 위한 도면
도3은 본 발명의 얼굴 검출방법을 설명하기 위한 플로우차트
도4는 본 발명에서 피부색 검출을 설명하기 위한 도면
도5는 본 발명에서 얼굴 검출을 위한 마스크 및 영역 매칭을 설명하기 위한 도면
도6은 본 발명에서 마스크 및 영역 매칭의 예를 나타낸 도면
도7은 본 발명에서 마스크 유형의 예를 나타낸 도면
도8은 본 발명에서 마스크 유형에 따른 얼굴 매칭을 설명하기 위한 도면
도9는 본 발명에서 얼굴 후보 영역 검출 과정을 설명하기 위한 도면
도10은 본 발명에서 화면에 얼굴의 일부만 나타날 경우의 마스크 매칭을 설명하기 위한 도면
도11은 본 발명에서 실시간 처리를 위한 마스크 사이즈(가로/세로의 비)의 영향을 설명하기 위한 도면
도12는 본 발명에서 얼굴 확인(검증)의 필요성을 설명하기 위한 도면
도13은 본 발명에서 얼굴 확인(검증)을 위한 눈, 코, 입 영역을 검출하는 방법을 설명하기 위한 도면
도14는 본 발명에서 얼굴 확인(검증)을 위한 눈, 코, 입 영역의 검출 예를 나타낸 도면
도15는 본 발명에서 얼굴 초기 검출과 추적의 관계를 설명하기 위한 도면
도16은 본 발명에서 얼굴 추적을 위하여 피부색 분포 영상의 비교 영역을 제한하는 방법을 설명하기 위한 도면
도17은 본 발명의 얼굴 검출 및 추적기법을 적용한 화상 통신 시스템의 실시예 구성을 나타낸 도면
상기 목적을 달성하기 위한 본 발명의 화상 통신 시스템과, 화상 통신을 위한 얼굴 검출방법 및 얼굴 추적방법을 첨부된 도면을 참조하여 바람직한 실시예로서 설명한다.
먼저, 본 발명에서 실시간 화상 통신 환경을 구현하는 기법의 배경으로 비트율 제어와, 영상의 편집에 대하여 살펴본다.
(1) 얼굴 분리 기술을 이용한 화상통신 데이터의 비트율 제어 방법
화상통신 환경에서는 많은 양의 화상 데이터를 실시간에 제한된 네트워크 환경을 통하여 전송하여야 하는 어려움이 있다. 전송할 화상 데이터의 질과 데이터의 양은 서로 비례하므로 높은 화질을 보장하려면 높은 데이터 전송률이 동시에 보장되어야 한다. 일반적으로 사용자가 느끼는 화질의 차이는 통신 영상의 전체 프레임 영역보다는 사용자 영역에서 더욱 심하게 나타난다. 이는 화상 통신의 경우 사용자의 주된 관심과 주시되는 객체가 사용자(통화하는 상대방)에게 집중되기 때문이다.
따라서 사용자 영역만을 보다 높은 화질로 전송함으로써, 낮은 데이터 양을 가지고 높은 화질을 구현할 수 있다. 이와 같은 기능을 위해서는 사용자와 배경을 자동으로 분리하는 기술이 요구된다.
비트율(Bit-rate) 제어 및 배경 전환 서비스에 대한 예가 도1의 (a), (b), (c)에 도시되어 있다. 도1의 (a)는 원래의 프레임 영상이고 도1 의 (b)는 비트율이 낮은 경우 전송될 수 있는 저 화질의 영상이다. 그러나 사용자 얼굴을 검출할 수 있는 기술을 이용하면 사용자영역과 배경영역의 화질을 다르게 조정할 수 있기 때문에 도1 의 (c)와 같이 사람영역에는 더 많은 비트를 할당하여 고 화질로 전송하고, 배경 영역에는 더 적은 비트를 할당하여 저 화질로 전송하는 것이 가능하다.
도1에서 (b)와 (c)의 경우 최종적으로 사용된 데이터의 총량은 비슷하지만,통화자의 관심영역은 상대 통화자의 영역(주로 얼굴)이므로 통화자는 (b)보다 (c)의 화질이 더 좋다고 느끼게 된다. 현재 H.263이나 MPEG-4 기반 인코딩 시스템은 매크로 블럭 단위로 양자화 변수(Quantization parameter)를 조절할 수 있어, 위에 기술한 화질이나 데이터 양을 매크로 블럭마다 조절하는 것이 가능하다.
또한 사람얼굴 추출 기술을 이용하면 화상통신에서 통화자가 어떤 공간에서 계속 통화를 할 경우 배경이 되는 공간의 영상을 초기에 한번만 전송하고, 이후에는 통화자 영역만 전송하는 것도 가능하다. 이 경우 수신자의 단말기에서는 처음에 받은 배경 이미지와 실시간으로 전송되는 송신자의 영상을 합성하여 디스플레이 하게 된다. 여기서 처음에 전송하는 배경 이미지가 통화자가 있는 실제 공간이 아니라 통화자가 선호하는 임의의 배경 영상일 수도 있다. 즉 일종의 영상 편집 기능이 되는데 이에 관해서는 다음 항목에서 기술한다.
(2) 얼굴 분리 기술을 이용한 화상통신 데이터의 영상 편집
이 기능은 사용자가 원하지 않는 배경을 가리거나 사용자만의 개성을 반영할 수 있도록 통신 영상을 편집하는 서비스이다.
도2는 사용자가 원하는 배경, 또는 광고 배경 등 다른 배경으로 전환하여 통신하는 예를 보여준다. 즉, 사용자가 다른 장소에서 통신을 하고 있는 것과 같은 효과를 줄 수 있도록 배경을 자동으로 전환하여 통신하는 예를 보여주며, 배경 전환 뿐 아니라 특정한 캐릭터에 합성하거나, 그래픽 효과를 주는 것도 가능하다.
도2에서 (a)는 배경을 다른 장소로 전환시킨 경우이고, (b)는 얼굴 영역을 다른 배경 영상에 합성한 경우이며, (c)는 얼굴 영역을 특정한 캐릭터에 합성한 경우이고, (d)는 얼굴 영역을 액자 영상에 합성한 경우이며, (e)는 얼굴 영역을 제외한 부분에만 스무딩(smoothing) 효과를 준 영상을 보여준다.
상기한 관점에서 본 발명은 얼굴 검출 방법과 얼굴 추적 방법의 두가지로 구성되며, 이하 본 발명을 얼굴 검출방법과 얼굴 추적방법으로 나누어 설명한다.
[얼굴 검출 방법]
얼굴 검출 방법은 도3에 나타낸 바와 같이 1. 피부색 영역을 추출하는 과정, 2. 피부색 영역에 대한 타원형 검증을 실행하는 과정, 3. 눈,코,입 검출을 통한 얼굴 영역의 확인을 하는 과정으로 이루어지며, 각 과정을 나누어 상세하게 설명하면 다음과 같다.
[1]. 피부색 영역 추출
피부색 영역의 추출은 매우 다양한 방법이 구사될 수 있는데, 본 발명에서는 다음과 같은 방법으로 피부색을 검출한다.
먼저 영상이 입력되면, 주어진 영상에서 피부색 범위에 해당하는 색을 지닌 픽셀을 검출하는 피부색 영역 추출 단계를 수행한다. 사람의 피부색은 인종뿐만 아니라 조명, 장치에 따라 다양하므로 광범위하게 나타날 수 있다. 때문에 피부색 영역에는 사람 영역 이외에도 유사한 색의 영역들이 포함될 수 있다. 이를 해결하기 위하여 피부색 영역들을 다시 그 안에서 유사한 색으로 모여 있는 영역들을 분리하는 피부색 그룹화 단계를 수행한다.
그 결과의 예를 도4에 나타내었다. 도4에서의 흑백영상에서 흰색으로 표현된 부분이 추출된 피부색 영역이다. 그러나 도4의 (a), (b), (c)에서 보듯이, 추출된피부색영역은 얼굴 영역뿐 아니라, 옷이나, 배경 등도 포함될 수 있고, 얼굴영역에서도 피부색 추출의 조건에 따라 포함되지 않을 수 있다.
[2]. 피부색 영역에 대한 타원형 검증
[2.1]. 타원형 매칭을 위한 마스크 구성과 매칭값 계산
도4에서 알 수 있듯이 추출된 피부색 영역만으로 얼굴이라고 판단할 수 없으며 얼굴을 검출하는 추가적인 수단이 요구된다. 본 발명에서는 사람의 얼굴형이 타원형이라는 특징에 착안하여, 상기 피부색 추출과정에서 추출된 피부색 영역중, 공간적 분포가 타원형에 가까운 영역을 얼굴 후보로 찾는다. 비록 머리카락으로 가려지거나 모자를 썼다 하더라도 볼 부분이나 턱선 등에서 타원형의 특징이 나타난다. 본 발명에서는 피부색 추출과정에서 구한 피부색 영역에 대해 도5와 같은 타원형의 마스크(mask)를 매칭(matching)시킨다.
도5의 마스크는 얼굴영역과 얼굴 밖 영역의 두 가지 정보를 모두 매칭하고 있는데 그 방법은 다음과 같다.
마스크의 흰색으로 표현된 부분이 얼굴영역으로 상기 피부색 영역 추출에서 추출된 피부색 영역 이미지에 마스크를 겹쳤을 때 피부색 영역이 일치하는 얼마나 많은 값을 가지고 있는지를 계산한다(Inner Rate). 만일 피부색 영역 이미지에서 마스크의 흰색 부분에 해당되는 부분의 값이 모두 일치하는 값이라면 얼굴 안쪽 영역 값(Inner Rate)은 100%가 된다. 얼굴 밖 영역을 매칭하는 방법도 유사하다. 얼굴 밖 영역은 마스크의 검은색으로 표현된 부분으로 상기 피부색 영역 추출에서 추출된 피부색 영역 이미지에 마스크를 겹쳤을 때 피부색 영역이 얼마나 많은 일치하지 않는 값을 가지고 있는지를 계산한다(Outer Rate). 마스크를 적용한 예로 도6에서 'Inner Rate'는 95%, 'Outer Rate'는 98%로 계산된다.
최종적인 매칭값의 계산은 얼굴 영역이 매칭되는 것이 중요한지와, 얼굴 밖 영역이 매칭되는 것이 중요한지에 따라 정의할 수 있는데, 예를 들어 얼굴 영역이 매칭되는 것과, 얼굴 밖 영역이 매칭되는 것이 똑 같이 중요하다면, 최종 매칭값은 다음과 같이 정의할 수 있다.
Matching_value = 0.5 ×Inner_Rate + 0.5 ×Outer_Rate
다른 방법으로, 얼굴영역이 매칭되는 것이 얼굴 밖 영역이 매칭되는 것에 비해 두배 정도의 중요도를 더 가지고 있다면 최종 매칭값은 다음과 같이 정의될 수 있다.
Matching_value = 0.67 ×Inner_Rate + 0.33 ×Outer_Rate
참고적으로 얼굴영역의 매칭 정도가 얼굴 밖 영역의 매칭 정도에 비해 중요한 환경은 도4의 (c)처럼 얼굴영역 내에서 피부색이 잘 검출되지 않을 경우이고, 반대로 얼굴 밖 영역의 매칭 정도가 얼굴영역의 매칭 정도에 비해 중요한 환경은 도4의 (a)처럼 얼굴 밖 영역에서 피부색이 많이 검출될 경우이다.
이와 같이 본 발명의 타원형 마스크 매칭 방법은 얼굴 영역과 얼굴 밖 영역의 매칭 정도를 따로 계산하므로, 그 응용 환경에 따라 매칭값을 구하는 적절한 식을 얼굴 영역 매칭 정도와 얼굴 밖 영역 매칭 정도를 조합하여 도출할 수 있는 장점이 있다.
[2.2]. 마스크 자체의 특성
본 발명의 타원형 매칭 마스크는 단지 얼굴영역의 형태가 타원형이라는 정보뿐 아니라, 얼굴 바깥쪽으로는 피부색 영역이 나와서는 안된다는 정보도 표현하고 있으며, 인체에서 목 부분의 피부색영역에서 생기는 오류를 없애기 위해 타원의 아래 부분이 없는 마스크를 사용하고 있다.
다음은 마스크 자체의 특징에 대한 성능을 비교한 것이다.
도7에 나타낸 바와 같이 A형과 B형의 마스크가 있다고 할 때, 도7의 A형의 마스크로 매칭값(InnerRate + OuterRate)이 가장 높은 영역을 찾은 결과는 도8의 (a)와 같다.
같은 영상을 도7의 B형의 마스크로 매칭값(InnerRate + OuterRate)이 가장 높은 영역을 찾은 결과는 도8의 (b)와 같다.
도8의 결과를 분석하여 보면 왼쪽 여성의 결과에서는 도7의 B형의 마스크가 이마 위쪽으로는 피부색영역이 나오면 안된다는 정보를 반영하기 때문에 보다 정확히 얼굴 영역을 찾은 것을 알 수 있으며, 오른쪽 남성의 결과에서는 도7의 A형의 마스크가 타원의 아래 끝부분까지 비교하여 피부색영역이 없어지는 목 아래 부분까지 얼굴로 잡는 것에 비해 B형 마스크는 타원의 아래 끝 부분은 이용하지 않고 얼굴과 목의 경계까지만 비교하기 때문에 보다 정확히 얼굴영역만 찾은 것을 알 수 있다.
[2.3]. 타원형 매칭 방법
타원형 마스크가 획득되면 타원형 마스크와 위에 기술한 피부색 영역 이미지를 매칭하여 얼굴 영역을 찾는다. 피부색 영역 이미지에 대해 타원형 마스크를 매칭할 때는 피부색 영역 이미지의 일부분을 직사각형으로 분리하고 마스크의 크기에 맞도록 리사이징(resizing)한 후 마스크와 매칭하여 얼굴영역 매칭정도(Inner Rate)와 얼굴 밖 영역 매칭정도(Outer Rate)를 계산한다.
분리하는 직사각형 영역의 위치는 피부색 영역 이미지 상의 수평위치와 수직위치의 두 개의 변수에 대한 문제가 되므로 두 변수를 변화시켜 가면서, 분리할 직사각형 영역을 정한다.
또한 직사각형 영역의 크기도 가로길이와 세로길이 두 개의 변수에 대한 문제가 되므로 가로길이와 세로길이에 대한 변수를 변화시켜 가면서, 분리할 직사각형 영역을 정한다.
직사각형 영역을 분리한 후에는 마스크 크기에 맞도록 리사이징(resizing)하여, 마스크의 각 픽셀들과 1:1 매칭을 수행하고, 그 결과 위에 기술한 매칭값(InnerRate, OuterRate)을 획득한다. 최종적으로 매칭값(InnerRate와 OuterRate의 조합)이 임계치 이상인 영역이 얼굴의 후보가 된다.
도9에 이 과정을 도시하였다.
도9에서 PosX는 분리할 직사각형 영역의 왼쪽 시작 위치, PosY는 분리할 직사각형 영역의 아래쪽 시작 위치, Width는 분리할 직사각형 영역의 가로길이, Height는 분리할 직사각형 영역의 세로길이이다.
먼저, 피부색 영역 이미지를 구하였고, 타원 매칭 마스크를 선택하였다(S11). 다음 단계(S12)에서는 피부색 이미지에서 분리할 직사각형 영역인 'Rectangle'을 설정하며, 이 영역은 왼쪽(Left) = PosX, 오른쪽(Right) = PosX+ Width, 위쪽(Top) = PosY, 아래쪽(Bottom) = PosY + Height로 설정한다.
다음 단계(S13)에서는 피부색 이미지에서 직사각형 영역(Rectangle)을 마스크 크기와 같아 지도록 리사이징(resizing)한다. 다음 단계(S14)에서는 상기 도5 및 도6에서 설명한 방법으로 마스크 매칭값(Matching_value)을 계산한다.
다음 단계(S15)에서는 얼굴 후보로 인정되는 임계치 보다 상기 매칭값이 크면 얼굴 후보에 등록하고, 다음 단계(S16)에서는 상기 PosX, PosY, Width, Height 값을 갱신한다. 이렇게 갱신된 PosX, PosY, Width, Height 값에 대하여 종료 조건에 해당하는지를 검사하고(S17), 종료 조건에 해당하지 않으면 상기 단계(S12)부터 계속 수행한다. 모든 수행이 종료되면 타원 매칭값이 임계치 이상인 얼굴 후보들을 결과로 얻는다.
[2.4]. 화면에 얼굴의 일부만 나타날 경우의 마스크 매칭
본 발명의 대상 시스템이 화상 통신 영상이고 화상통신 영상은 영상사이즈가 크지 않으며 사용자의 움직임으로 단말기가 움직일 수 있으므로 사용자의 얼굴이 화면에 전부 표시되지 않을 수도 있다.
즉, 도10에 나타낸 바와 같이 사용자 얼굴의 왼쪽만 표시되었을 경우에도 본 발명의 타원형 매칭방법은 얼굴의 가려진 부분까지 고려하여 정확하게 얼굴 영역을 찾을 수 있도록 고안되었다. 도면의 왼쪽 실제 영상에서 타원으로 그려진 영역이 본 발명 시스템에서 찾아낸 사용자의 얼굴 영역이다.
이렇게 하기 위해서는 본 발명의 타원형 매칭에서는 가려진 부분을 고려하지 않는 조건(Don't care condition)으로 두고 가려지지 않은 부분의 타원 매칭값을가려진 부분과 가려지지 않은 부분을 합한 전체 영역에 대한 대표값으로 이용하면 된다.
[2.5]. 실시간 처리를 위한 적응 방법
(1). 얼굴 후보를 찾기 위한 타원형 매칭을 실시간에 처리하기 위해서 본 발명에서는 도9에서의 리사이징(resizing) 단계를 최소한의 횟수로 시행한다.
리사이징(resizing)은 크기에 대한 변수 'Width'와 'Height'에 대해 결정되므로 'Width'와 'Height'가 같고 위치변수인 'PosX'와 'PosY'가 다른 직사각형 영역에 대해서는 리사이징(resizing)이 반복되지 않도록 하였다. 즉, 'PosX'와 'PosY'가 변하며 참조하는 전체영역에 대해 한번만 리사이징(resizing)을 시행한 후, 각 'PosX'와 'PosY'값에 대해 참조하는 영역의 리사이징(resizing) 결과를 선별해 오는 것이다.
(2). 얼굴 후보를 찾기 위한 타원형 매칭을 실시간에 처리하기 위해서 본 발명에서는 매칭을 반복하는 횟수를 줄이기 위해 매칭 횟수를 결정하는 크기변수'Width', 'Height'와 위치변수 'PosX', 'PosY'를 비교적 큰 스텝 사이즈(stepsize)로 변화시켰다. 이렇게 하면 상기 도9에서 단계(S16)에 의해 재조정(갱신)되는 상기 변수값의 증감폭을 크게 할 수 있어서 매칭 반복 횟수를 줄일 수 있게 된다.
(3). 얼굴 후보를 찾기 위한 타원형 매칭을 실시간에 처리하기 위해서 본 발명에서는 크기와 위치에 대한 4개의 변수(Width, Height, PosX, PosY) 중 세로길이에 대한 변수(Height)를 제거하고 가로길이(Width)에 대해 미리 지정된 세로길이를사용하였다(즉, 가로 길이를 '1'로 할 때 세로 길이를 '1.2'로 한다거나, 가로 길이를 '1'로 할 때 세로 길이를 '1.3'으로 하는 방법). 이렇게 하면 얼굴의 가로길이와 세로길이의 비율이 다른 얼굴에 대해 대응하지 못하는 단점이 있으나, 도11에 나타낸 바와 같이 그 결과는 그 차이가 얼굴을 검출하는데 있어 중대하지 않음을 보여주고 있다.
즉, 도11에서 첫번째 사람과 세번째 사람의 경우 얼굴의 가로, 세로비가 1:1.2인 경우가 더 정확한 얼굴 경계를 표현하고, 두번째 사람의 경우 얼굴의 가로, 세로비가 1:1.3인 경우가 더 정확한 얼굴 경계를 표현하지만, 그 결과의 차이가 얼굴을 검출한다는 의미에서 중대한 것은 아니라는 것이다.
(4). 얼굴 후보를 찾기 위한 타원형 매칭을 실시간에 처리하기 위해서 본 발명에서는 보통의 화상통신 영상에서 나타나는 사람의 얼굴 크기보다 매우 작은 32 ×33크기의 타원형 마스크를 사용하였다. 이렇게 하면 작은 사이즈의 타원형 마스크를 가지고 얼굴 후보 영역을 찾기 때문에 큰 사이즈의 타원형 마스크를 사용할 때 보다 빠르고 적은 양의 후보 찾기 과정을 수행할 수 있다.
[3]. 눈, 코, 입 검출을 통한 얼굴 영역 확인
위에 기술한 방법으로 얼굴의 후보가 되는 타원형 영역을 찾은 후 눈, 코, 입을 검출하여 타원형의 피부색 영역이 실제로 얼굴인지 확인하는 단계가 필요하다. 예를 들어 도12를 보면 피부색 분포 영상에서 얼굴뿐 아니라 손 부분도 타원 매칭값이 높으므로 얼굴 후보 영역으로 추출되었다. 이런 경우에 실제 얼굴과 얼굴이 아닌 부분을 구분할 수 있는 단서는 눈, 코, 입의 존재 유무가 될 수 있다.
이를 위하여 눈, 코, 입을 검출하는 방법은 두 단계로 구성되는데, 그 첫번째 단계는 타원영역 내부를 대상으로 중앙은 어둡고 위아래는 밝은 부분을 찾는 것과, 두번째 단계로 상기 첫번째 단계에서 찾은 부분 중에서 실제 눈, 코, 입을 결정하는 단계로 구성된다.
(1). 타원영역 내부를 대상으로 중앙은 어둡고 위아래는 밝은 부분을 찾는 방법
타원 영역중에서 어두운 부분을 찾기 위해서는 도13의(a)와 같은 기본 패턴을 원영상에 대한 회색영상(Gray scale image)에 매칭한다. 기본 패턴은 중간 밴드가 어둡고 위와 아래 밴드가 밝은 모양으로 이는 얼굴의 눈이나, 코, 입이 살색 영역으로 둘러싸여 있기 때문이다. 또한 위와 아래는 밝기 때문에 머리카락 영역처럼 전체적으로 어두운 부분은 제거할 수 있다. 도13의 (a)에 나타낸 패턴의 크기는 타원형 매칭에서 찾은 타원의 가로길이(Width)에 대해 비례하는 값으로 지정된다.
도13의 (b)와 (c)는 (a)의 패턴을 이용하여 얼굴의 어두운 부분을 찾은 결과이다. 원 영상 아래의 흑백 피부색 분포 영상에서 보여주는 바와 같이 눈이나 코, 입 주위에 대하여 사각형으로 표시된 부분이 얼굴의 어두운 부분으로 검출된 곳이다. 결과에서 보여지듯이 눈, 눈썹, 코, 입, 턱 아래부분 등이 얼굴의 어두운 부분으로 검출되었다.
(2). 어두운 부분 중 실제 눈, 코, 입을 결정하는 단계
상기한 바와 같이 기본 패턴을 이용해서 찾은 얼굴의 어두운 부분에서 눈, 코, 입을 결정하는 방법은 눈, 코, 입이 위치할 수 있는 공간적인 관계를 이용한다. 즉, 눈은 얼굴의 윗부분에 있으며 두 눈은 비슷한 높이에 있고, 코는 두 눈이 위치한 곳의 사이에서 아래 부분에 있으며, 입은 코 아래 있다는 등의 관계이다.
도14는 얼굴의 어두운 부분 중에서 최종적으로 눈, 입으로 선택된 결과의 예를 보여준다.
[얼굴 추적 방법]
얼굴 추적(face tracking)은 위에 기술한 방법으로 얼굴을 초기 검출한 후 이후 연속되는 화상통신 프레임에 대해서 얼굴영역을 보다 빠른 시간에 검출해 냄으로써 화상통신 시에 실시간 얼굴 검출이 가능하게 하는 것이다.
얼굴 초기 검출과 얼굴 추적의 관계는 도15와 같이, 초기 얼굴을 검출하고(S21), 검출된 얼굴 영역이 초기 얼굴 조건을 만족하는가를 검사하고(S22), 초기 얼굴 조건을 만족하지 않으면 다음 프레임에 대해서 초기 얼굴을 검출하며, 초기 얼굴 조건을 만족하면 얼굴 추적을 실시하고(S23), 상기 추적된 얼굴이 얼굴 추적 조건을 만족하는가를 검사하고(S24), 얼굴 추적 조건을 만족하지 않으면 초기 얼굴 검출을 실행하고, 얼굴 추적 조건을 만족하면 다음 프레임에 대해서 얼굴 추적을 계속하는 것이다.
즉, 첫 프레임(혹은 정확성을 높이기 위해 연속한 몇 프레임)을 이용하여 초기 얼굴 영역을 찾고(S21,S22), 이후 다음 프레임들에 대해서는 얼굴 추적 방법을 적용한다(S23,S24). 화상 통신 중에 실시간으로 얼굴을 검출하여야 하므로 얼굴 추적 방법은 초기 얼굴 검출 방법에 비해 간단하지만 빠른 방법으로 구현된다. 또한 얼굴 추적단계에서 오류가 발생했을 때나 주기적으로 초기 얼굴 검출 방법을 이용하여 다시 초기화 할 수 있다.
기본적으로 얼굴 추적 방법은 초기 얼굴 검출 방법과 같으나, 타원 매칭의 비교회수를 줄이는 것이다. 타원 매칭의 비교회수를 줄이는 방법은 두가지 방법이 있는데, 그 첫번째 방법은 피부색 분포영상의 비교 영역을 제한하는 방법이고, 두번째 방법은 얼굴 크기의 변화도를 제한하는 방법이다.
(1). 피부색 분포영상의 비교 영역을 제한하는 방법
초기 얼굴 검출에서는 타원 매칭을 할 경우 피부색 분포 영상에서 피부색이 존재하는 전체 영역을 검색하였지만, 얼굴 추적 단계에서는 이전프레임의 얼굴이 있는 영역을 중심으로 한 일부(얼굴이 이동되었다고 가정할 때 그 얼굴 이동을 포함할 수 있는 정도)만 검색한다. 예를 들어 도16의 경우, 초기 얼굴 검출 단계에서는 얼굴과 목, 피부색에 속한 조끼 영역 등 모든 피부색 존재 영역(바깥쪽 사각형 영역)을 검색하지만, 얼굴 추적 단계에서는 도16에서 얼굴 주변의 작은 사각형으로 표시된 부분만 검색하게 된다.
(2). 얼굴 크기의 변화도를 제한하는 방법
얼굴 추적 단계에서는 비교할 타원의 크기변화를 이전얼굴 크기에 대해 지정된 범위 안에서만 가능하도록 제한하였다. 예를 들면 현재 프레임에서 가능한 타원의 크기 S(t)는 이전 프레임의 타원크기 S(t-1)에 대해;
0.9 ×S(t-1) ≤ S(t) ≤ 1.1 x S(t-1)로 제한하는 것이다.
참고적으로 초기 얼굴 검출 단계에서는 화상통신 영상에서 가능한 최대 얼굴 크기와 최소 얼굴크기에 대한 임계치를 미리 정한 후 최소/최대 임계치 범위에서가능한 모든 얼굴 크기를 비교하였다.
[화상 통신 시스템]
도17은 지금까지 설명한 얼굴검출 및 추적방법을 적용한 화상 통신 시스템 구성의 일 예를 보여준다. 영상 입력수단(100)은 화상 통신을 위한 사용자 영상을 획득하며, 예를 들면 PC카메라일 수 있다. 얼굴 영역 추출수단(101)은 상기 영상 입력수단(100)에 의해서 획득한 영사에서 얼굴 영역을 추출한다. 얼굴 영역 추출수단(101)은 앞서 설명한 바와 같이 입력 영상에서 배경과 오브젝트(얼굴)를 분리하여 검출하는 얼굴 검출수단(101a)과, 상기 검출된 얼굴에 대하여 앞서 설명한 얼굴 추적을 수행하는 얼굴 추적수단(101b)을 포함할 수 있다. 상기 얼굴 영역 추출수단(101)에 의해서 추출된 얼굴 영역(또는 추적되는 얼굴 영역)과 그 배경으로 이루어지는 영상신호는 인코딩수단(102)에 의해서 인코딩되어 전송된다. 상기 인코딩수단(102)은 상기 추출된 얼굴 영역을 기반으로 하여 비트율(bit rate)을 자동 제어하는 비트율 제어수단(102a)을 포함할 수 있다. 비트율 제어수단(102a)은 예를 들면 도1에서 설명한 바와 같이 얼굴 영역은 높은 비트율로 인코딩하고 배경 영역은 그 보다 낮은 비트율로 전송함으로써, 사용자가 주시하게 되는 통화자의 얼굴에 대해서는 고화질을 확보하고, 상대적으로 관심이 덜한 배경은 저화질로 처리하여, 전체적인 전송부담을 줄이면서도 좋은 화질로 인식될 수 있는 화상 통화 환경을 제공할 수 있도록 해준다.
또한, 편집수단(103)은 상기 추출된 얼굴 영역을 기반으로 하여 도2에서 설명한 바와 같은 영상 편집을 수행한다. 영상의 편집을 위해서는 이 편집수단(103)이 사용자와의 인터페이스를 갖출 수 있으며, 다양한 편집 효과를 위한 배경 영상 등의 정보를 미리 저장해 놓은 메모리를 가질 수도 있다.
도17에 나타낸 본 발명의 화상 통신 시스템 구성은 영상입력수단, 얼굴 추출수단, 인코딩 수단, 편집수단을 기반으로 하여 다양하게 변형되어 실시될 수 있으며, 도17에 나타낸 구성으로 제한되지 않는다. 도17에는 도시하지 않았으나, 화상 통신 시스템은 음성과 영상의 양방향 전송이 이루어지므로 상대방으로부터 전송되어온 영상신호를 디코딩하여 디스플레이하는 요소가 부가됨은 자명하다.
본 발명은 얼굴 검출 및 추적 기술을 통해 화상통신 데이터에서 실시간으로 얼굴 영역을 추출하며, 추출된 얼굴 영역 정보를 이용하여 효과적으로 화상통신의 비트율을 제어하거나 화상통신 영상을 자동 편집할 수 있는 시스템을 제공한다.
본 발명은 화상 통신 시스템에서 사용자가 주로 관심있는 영역인 통화자의 얼굴 영역을 추출하고, 이를 기반으로 하여 얼굴 영역을 배경 영역에 비하여 고화질로 전송함으로써 실질적으로 화상통신에서 의미있는 정보의 전달이 고화질로 이루어질 수 있고, 필요에 따라 배경화면에 대한 편집을 가하여 화상 통신시에 보다 다양한 부가 기능을 제공할 수 있도록 하였다.

Claims (19)

  1. 화상 통신을 위한 영상의 입력 수단과, 상기 입력된 영상에서 얼굴 영역을 추출하는 수단과, 상기 추출된 얼굴 영역을 포함하는 영상을 인코딩하는 수단과, 상기 추출된 얼굴 영역을 기반으로 비트율을 자동 제어하는 수단; 을 포함하여 이루어지는 것을 특징으로 하는 화상 통신 시스템.
  2. 제 1 항에 있어서, 상기 추출된 얼굴 영역을 기반으로 영상을 편집할 수 있는 수단을 더 포함하여 이루어지는 것을 특징으로 하는 화상 통신 시스템.
  3. 제 1 항에 있어서, 상기 얼굴 영역을 추출하는 수단은, 입력 영상에서 얼굴 영역을 검출하는 얼굴 검출수단과, 상기 검출된 얼굴 영역을 이용해서 이후 입력 영상에서 얼굴을 추적하는 얼굴 추적수단으로 이루어지는 것을 특징으로 하는 화상 통신 시스템.
  4. 화상 통신을 위하여 획득한 영상에서 매개 변수식으로 표현되는 타원형의 얼굴을 검출하는 단계, 상기 검출된 얼굴을 매개 변수식으로 표현되는 타원형의 얼굴 후보 영역으로 하여 얼굴 여부를 확인하는 단계, 상기 확인된 얼굴 영역을 포함하는 영상을 인코딩하여 전송하는 단계; 를 포함하여 이루어지는 것을 특징으로 하는 화상 통신 시스템에서 얼굴 검출방법.
  5. 제 4 항에 있어서, 상기 얼굴의 검출과 확인은, 피부색 영역을 추출하는 단계와, 상기 추출된 피부색 분포 영상에서 마스크를 이용하여 피부색 영역의 타원형 정도를 비교하여 얼굴형 검증을 수행하는 단계와, 상기 얼굴형 검증된 결과에 대하여 눈, 코, 입 검출을 통해 얼굴 영역을 확인하는 단계; 를 실행하여 이루어지는 것을 특징으로 하는 화상 통신 시스템에서 얼굴 검출방법.
  6. 제 5 항에 있어서, 상기 마스크에 의한 얼굴형 검증은, 얼굴영역의 피부색 분포가 타원형에 가깝다는 정보와, 얼굴 밖 영역은 피부색 분포가 없다는 두 가지 정보를 이용하는 것을 특징으로 하는 화상 통신 시스템에서 얼굴 검출방법.
  7. 제 5 항에 있어서, 상기 얼굴형 검증을 수행하는 단계는, 얼굴영역의 피부색 분포가 타원형에 가깝다는 정보와, 얼굴 밖 영역은 피부색 분포가 없다는 두 가지 정보를 조합하여 수치화하고, 상기 피부색 영역의 타원형 정도를 수치화한 결과에 대하여 그 수치가 임계치 이상일 때 얼굴 후보로 선택하는 것을 특징으로 하는 화상 통신 시스템에서 얼굴 검출방법.
  8. 제 5 항에 있어서, 상기 추출된 피부색 분포 영상에서 마스크를 이용하여 피부색 영역의 타원형 정도를 비교하는 것은, 피부색 영역에서 1화소 단위보다 크게 위치와 크기를 조정해가며 일부분을 분리하는 단계와, 분리한 부분을 실제 얼굴 크기보다 작게 만든 마스크 크기와 같아지도록 리사이징(resizing)하는 단계와, 이 결과를 마스크에 대해, 각 화소에 대해 비교하는 단계를 실행하여 이루어지는 것을 특징으로 하는 화상 통신 시스템에서 얼굴 검출방법.
  9. 제 5 항에 있어서, 상기 피부색 영역에 대한 얼굴형 검증은, 통화자 얼굴의 일부만 화면에 나타날 경우 나타나지 않은 부분은 고려하지 않은 조건(Dont care condition)으로 보고, 나타난 부분의 타원형 정도를 수치화한 값을 나타난 부분과 나타나지 않은 부분을 합한 전체 영역에 대한 대표값을 이용하는 것을 특징으로 하는 화상 통신 시스템에서 얼굴 검출방법.
  10. 제 8 항에 있어서, 상기 리사이징(resizing)은, 보다 빠른 계산을 위해 같은 크기 비율로 리사이징(resizing) 되는 전체 영역에 대해서는 한번만 리사이징(resizing) 하는 것을 특징으로 하는 화상 통신 시스템에서 얼굴 검출방법.
  11. 영상에서 얼굴의 피부색 특징과 얼굴의 타원형 특징으로 얼굴 영역 후보를 추출하는 단계와, 상기 피부색 특징과 타원형 특징으로 추출된 얼굴 영역 후보 중에서 눈, 코, 입을 검출하여 얼굴영역을 선택하는 단계; 로 이루어지는 것을 특징으로 하는 화상 통신 시스템에서 얼굴 검출방법.
  12. 제 11 항에 있어서, 상기 얼굴 영역 후보인 타원 영역 내부를 대상으로 중앙은 어둡고 위아래는 밝은 부분을 찾아서 해당 부분에 대하여, 실제 눈, 코, 입의 공간적인 위치 관계를 이용하여 실제 눈, 코, 입인지를 결정하는 것을 특징으로 하는 화상 통신 시스템에서 얼굴 검출방법.
  13. 입력 영상 프레임에서 얼굴을 검출하는 단계와, 연속된 화상통신 영상에서 이전 프레임의 얼굴 영역 위치를 중심으로 한 현재 프레임의 피부색 영역의 일부분에 대한 피부색 영역 타원형 검증을 통해서 현재 프레임의 얼굴을 검출하는 단계; 를 포함하여 이루어지는 것을 특징으로 하는 화상 통신 시스템에서 얼굴 추적방법.
  14. 제 13 항에 있어서, 상기 얼굴을 추적할 때 이전 프레임의 얼굴 검출 정보를 이용하는 것은, 현재 프레임에 대한 피부색 영역의 타원형 검증시 현재 프레임의 얼굴 검출을 위해 적용되는 이전 프레임 얼굴 크기와 위치의 변화도를 지정된 범위 안에서만 가능하도록 제한하는 것을 특징으로 하는 화상 통신 시스템에서 얼굴 추적방법.
  15. 제 14 항에 있어서, 상기 변화도를 지정된 범위 안에서만 가능하도록 제한하는 것은, 이전 프레임의 얼굴 크기나 위치에 대해서 지정된 범위 안에서만 크기나 위치를 조정하는 것임을 특징으로 하는 화상 통신 시스템에서 얼굴 추적방법.
  16. 입력 영상에서 피부색 영역의 검출 및 타원형 마스크 매칭을 적용하여 얼굴 영역을 추출하는 얼굴 추출단계, 상기 추출된 얼굴 영역을 기반으로, 이전 프레임의 얼굴 검출정보를 이용한 현재 프레임의 얼굴 검출을 수행하는 얼굴 추적단계, 상기 검출된 얼굴 영역과 배경을 분리하여 얼굴 영역과 배경을 서로 다른 비트율로 인코딩하여 전송하는 단계; 를 포함하여 이루어지는 것을 특징으로 하는 화상 통신 시스템의 인코딩 제어방법.
  17. 제 16 항에 있어서, 상기 검출된 얼굴영역 안에서 그 얼굴 영역에 대하여 눈, 코, 입의 검출을 위한 소정의 기준패턴을 매칭시키는 작업을 통해 눈, 코, 입을 검출하고 그들의 공간적 위치관계로부터 얼굴 영역을 확인하는 것을 특징으로 하는 화상 통신 시스템의 인코딩 제어방법.
  18. 제 16 항에 있어서, 상기 얼굴 추적은 이전 프레임에서 검출된 얼굴 영역의 위치정보를 기반으로 하여 현재 프레임에 대한 얼굴 검출을 수행하는 것에 의해서 이루어지는 것을 특징으로 하는 화상 통신 시스템의 인코딩 제어방법.
  19. 제 16 항에 있어서, 상기 분리된 얼굴 영역을 원래의 배경 영역에 대체하는 새로운 배경 영상과 합성하여 인코딩함으로써 영상 편집 효과를 주는 것을 특징으로 하는 화상 통신 시스템에서의 인코딩 제어방법.
KR10-2002-0002441A 2002-01-16 2002-01-16 화상 통신에서의 얼굴 검출 및 추적 시스템 KR100464079B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR10-2002-0002441A KR100464079B1 (ko) 2002-01-16 2002-01-16 화상 통신에서의 얼굴 검출 및 추적 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR10-2002-0002441A KR100464079B1 (ko) 2002-01-16 2002-01-16 화상 통신에서의 얼굴 검출 및 추적 시스템

Publications (2)

Publication Number Publication Date
KR20030062043A true KR20030062043A (ko) 2003-07-23
KR100464079B1 KR100464079B1 (ko) 2004-12-30

Family

ID=32218196

Family Applications (1)

Application Number Title Priority Date Filing Date
KR10-2002-0002441A KR100464079B1 (ko) 2002-01-16 2002-01-16 화상 통신에서의 얼굴 검출 및 추적 시스템

Country Status (1)

Country Link
KR (1) KR100464079B1 (ko)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100451652B1 (ko) * 2002-05-28 2004-10-08 엘지전자 주식회사 적응적 칼라 클러스터링을 이용한 얼굴 영역 추출 방법
KR100582784B1 (ko) * 2002-10-17 2006-05-23 엘지전자 주식회사 화상통신 시스템의 영상 처리 방법
KR100863882B1 (ko) * 2006-09-27 2008-10-15 김종헌 얼굴인식 보안 감시 방법과 이에 적용되는 얼굴인식장치
KR20110077729A (ko) * 2009-12-30 2011-07-07 엘지전자 주식회사 휴대 단말기 및 그 동작 제어방법
KR101223857B1 (ko) * 2010-12-30 2013-01-17 주식회사 포스코아이씨티 얼굴의 좌우 대칭도 산출 방법 및 장치
WO2014022170A1 (en) * 2012-07-30 2014-02-06 Intel Corporation Video communication with three dimensional perception
KR20210080334A (ko) * 2018-10-24 2021-06-30 바이두 온라인 네트웍 테크놀러지 (베이징) 캄파니 리미티드 인체 인식 방법, 장치, 기기 및 컴퓨터 판독 가능 저장 매체
KR102400609B1 (ko) * 2021-06-07 2022-05-20 주식회사 클레온 딥러닝 네트워크를 이용한 배경 및 얼굴 합성 방법 및 장치

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08336133A (ja) * 1995-06-09 1996-12-17 Hitachi Ltd 動画像データの符号化装置および復号化装置
KR100296145B1 (ko) * 1998-04-15 2001-08-07 오길록 분할영역기반동영상부호화방법
JP3454726B2 (ja) * 1998-09-24 2003-10-06 三洋電機株式会社 顔向き検出方法及びその装置
KR100292810B1 (ko) * 1999-03-19 2001-06-15 윤덕용 얼굴의 컬러 모델과 타원체 근사 모델을 이용한 실시간 얼굴 추적 방법 및 그 기록매체
KR20010057239A (ko) * 1999-12-20 2001-07-04 오길록 비디오 시퀀스 내에서 눈 깜박임 정보를 이용한 얼굴 영역검출 시스템 및 그 방법

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100451652B1 (ko) * 2002-05-28 2004-10-08 엘지전자 주식회사 적응적 칼라 클러스터링을 이용한 얼굴 영역 추출 방법
KR100582784B1 (ko) * 2002-10-17 2006-05-23 엘지전자 주식회사 화상통신 시스템의 영상 처리 방법
KR100863882B1 (ko) * 2006-09-27 2008-10-15 김종헌 얼굴인식 보안 감시 방법과 이에 적용되는 얼굴인식장치
KR20110077729A (ko) * 2009-12-30 2011-07-07 엘지전자 주식회사 휴대 단말기 및 그 동작 제어방법
KR101223857B1 (ko) * 2010-12-30 2013-01-17 주식회사 포스코아이씨티 얼굴의 좌우 대칭도 산출 방법 및 장치
WO2014022170A1 (en) * 2012-07-30 2014-02-06 Intel Corporation Video communication with three dimensional perception
US9106908B2 (en) 2012-07-30 2015-08-11 Intel Corporation Video communication with three dimensional perception
KR20210080334A (ko) * 2018-10-24 2021-06-30 바이두 온라인 네트웍 테크놀러지 (베이징) 캄파니 리미티드 인체 인식 방법, 장치, 기기 및 컴퓨터 판독 가능 저장 매체
US11790483B2 (en) 2018-10-24 2023-10-17 Baidu Online Network Technology (Beijing) Co., Ltd. Method, apparatus, and device for identifying human body and computer readable storage medium
KR102400609B1 (ko) * 2021-06-07 2022-05-20 주식회사 클레온 딥러닝 네트워크를 이용한 배경 및 얼굴 합성 방법 및 장치
WO2022260386A1 (ko) * 2021-06-07 2022-12-15 주식회사 클레온 딥러닝 네트워크를 이용한 배경 및 얼굴 합성 방법 및 장치

Also Published As

Publication number Publication date
KR100464079B1 (ko) 2004-12-30

Similar Documents

Publication Publication Date Title
Chai et al. Face segmentation using skin-color map in videophone applications
Habili et al. Segmentation of the face and hands in sign language video sequences using color and motion cues
JP3256474B2 (ja) 色映像信号における皮膚のトーンを定める装置およびその方法、ならびに、皮膚領域を符号化する装置およびその方法
US8798168B2 (en) Video telecommunication system for synthesizing a separated object with a new background picture
KR100387341B1 (ko) 영역베이스의화상처리방법,화상처리장치및화상통신장치
JP4335565B2 (ja) 画像あるいは一連の画像内の1つあるいは複数の色領域を検出しかつ/または追跡するための方法および装置
CN1849823B (zh) 视频通信方法及系统
US20170339417A1 (en) Fast and robust face detection, region extraction, and tracking for improved video coding
US20150034643A1 (en) Sealing disk for induction sealing a container
US20140341280A1 (en) Multiple region video conference encoding
CA2177866A1 (en) Automatic face and facial feature location detection for low bit rate model-assisted h.261 compatible coding of video
CN113206971B (zh) 一种图像处理方法及显示设备
Schumeyer et al. Color-based classifier for region identification in video
KR100464079B1 (ko) 화상 통신에서의 얼굴 검출 및 추적 시스템
CN114187547A (zh) 目标视频的输出方法及装置、存储介质及电子装置
Petajan et al. Robust face feature analysis for automatic speachreading and character animation
JPH1115979A (ja) 顔検出及び顔追跡方法並びにその装置
CN112232205B (zh) 移动端cpu实时多功能人脸检测方法
JP2000137789A (ja) 画像処理装置
KR100439377B1 (ko) 이동 통신 환경에서의 사람 영역 추출방법
Huang et al. Automatic feature point extraction on a human face in model-based image coding
KR100958595B1 (ko) 영상통신단말기의 영상 합성 장치 및 방법
JPH06309433A (ja) 画像識別方式
KR100460221B1 (ko) 화상 통신 시스템
JP2002051315A (ja) データ伝送方法およびその装置、並びにデータ伝送システム

Legal Events

Date Code Title Description
A201 Request for examination
N231 Notification of change of applicant
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20100929

Year of fee payment: 7

LAPS Lapse due to unpaid annual fee