KR20010042673A - 아바타 애니메이션을 위한 웨이브렛-기본 얼굴 움직임 캡쳐 - Google Patents

아바타 애니메이션을 위한 웨이브렛-기본 얼굴 움직임 캡쳐 Download PDF

Info

Publication number
KR20010042673A
KR20010042673A KR1020007011375A KR20007011375A KR20010042673A KR 20010042673 A KR20010042673 A KR 20010042673A KR 1020007011375 A KR1020007011375 A KR 1020007011375A KR 20007011375 A KR20007011375 A KR 20007011375A KR 20010042673 A KR20010042673 A KR 20010042673A
Authority
KR
South Korea
Prior art keywords
image
facial
node
graph
face
Prior art date
Application number
KR1020007011375A
Other languages
English (en)
Other versions
KR100530812B1 (ko
Inventor
토마스 모러
에거 발레리비치 엘라긴
루치아노 파스퀄 어고스티노 노세라
쟈네스 버나드 스텝판스
하트머트 네븐
Original Assignee
아이매틱 인터페이시즈, 인크.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US09/188,079 external-priority patent/US6272231B1/en
Application filed by 아이매틱 인터페이시즈, 인크. filed Critical 아이매틱 인터페이시즈, 인크.
Publication of KR20010042673A publication Critical patent/KR20010042673A/ko
Application granted granted Critical
Publication of KR100530812B1 publication Critical patent/KR100530812B1/ko

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/262Analysis of motion using transform domain methods, e.g. Fourier domain methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
    • G06V10/422Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation for representing the structure of the pattern or shape of an object therefor
    • G06V10/426Graphical representations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20064Wavelet transform [DWT]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 발명은 얼굴 감지에 기초된 아바타 이미지를 생성하고 애니메이션화하기 위해, 사람의 얼굴 움직임들, 특징들, 특성들 등을 감지하는 것을 위한 장치 및 그와 관련된 방법으로 실시된다. 아바타 장치는 이미지 특징들을 제트들로서 효과적으로 나타내는 모델 그래프들 및 집군 그래프들에 기초된 이미지 처리 기술을 사용한다. 제트들은 쉽게 식별될 수 있는 특징들에 해당하는 이미지상의 노드 또는 표식 위치들에서, 처리된 웨이브렛 변환들로 구성된다. 노드들은 사람의 얼굴 움직임에 따라 아바타 이미지를 애니메이션화하도록 획득되고 추적된다. 또한, 얼굴 감지는 사람의 얼굴 특징들 및 특성을 결정하기 위해 제트 유사도를 사용하여서, 사람의 자연적인 특성들을 방해하거나 금할 수 있는 어떠한 부자연스런 요소들 없이, 사람의 자연스런 특성들을 추적하는 것을 가능하게 한다.

Description

아바타 애니메이션을 위한 웨이브렛-기본 얼굴 움직임 캡쳐{WAVELET-BASED FACIAL MOTION CAPTURE FOR AVATAR ANIMATION}
아바타(avatar)들로 채워진 가상 공간들은 공유 환경을 체험하는 것을 가능하게 하는 매력적인 방법이다. 그러나, 존재하는 공유 환경들은 사용자의 인간화(incarnation) 즉, 아바타에 사용자의 유사성, 표현들 또는 얼굴 표정(gesture)을 제공하는 것을 가능하게 하기 위한 충분한 품질의 얼굴 특징 감지가 일반적으로 부족하다. 질적으로 우수한 얼굴 특징 감지는 중요한 이점이라고 할 수 있는데, 그 이유는 얼굴 표정들은 통신의 근본적인 수단이기 때문이다. 따라서, 사용자의 인간화는 가상 공간에서의 매력을 증가시킨다.
얼굴 특징 감지의 현존하는 방법들은 통상적으로 사람의 얼굴에 맞는 마커(marker)들을 사용한다. 얼굴 움직임 캡쳐용 마커들의 사용은 귀찮고, 일반적으로 영화 제작과 같은 고-비용의 응용으로의 얼굴 움직임 캡쳐 사용으로 제한되어왔다.
따라서, 편리하고 효율적인 얼굴 특징 감지를 구현하는 비젼 기본 움직임 캡쳐 시스템이 매우 필요하다. 본 발명은 이러한 필요성을 만족시켜줄 것이다.
〈발명의 요약〉
본 발명은 사람의 얼굴 움직임들, 특징들 또는 개성을 감지하기 위한 장치 및 이에 관련된 방법으로 실시화된다. 얼굴 감지 결과는 아바타 이미지를 애니메이셔닝하는 데 사용될 수 있다. 아바타 장치는 모델 그래프 및 집군 그래프들-쉽게 식별가능한 특징들에 대응하는 얼굴 이미지상의 표식(landmark)에서, 웨이브렛 변환들로 구성된 젯트들과 같이 이미지 특징들을 효과적으로 나타냄-에 기초된 이미지 처리 기술을 사용한다. 감지 시스템은 사람의 자연스런 특성들에 간섭하여 결과된 어떠한 부자연스런 요소가 없이 사람의 자연스런 특성들의 추적을 가능하게 한다.
특징 감지 처리는 웨이프렛 변환을 사용하여 각 이미지 프레임을 변환하는 일련의 이미지 프레임상에서 동작하여, 변환된 이미지 프레임을 발생한다. 변환된 이미지 프레임으로의 모델 그래프의 웨이브렛 제트와 결합된 노드(node) 위치들은 변환된 이미지 프레임에 대해 모델 그래프를 이동시키고, 노드 위치의 웨이브렛 제트들과 변환된 이미지 프레임 사이의 최대 제트 유사성을 갖는 변환된 이미지 프레임의 위치에, 모델 그래프를 위치시킴으로서 초기화된다. 모델 그래프의 하나 이상의 노드 위치들의 위치는 이미지 프레임들 사이에서 추적된다. 추적된 노드는 노드 위치가 이미지 프레임들 사이의 소정의 위치 제한(constraint)에 멀어지면, 다시 초기화된다.
본 발명의 일 실시예에서, 얼굴 특징 발견은 머리 모델을 개별화하기 위한 집군 그래프 정합(matching)에 기초될 수 있다. 또한, 얼굴 이미지 분석용 모델 그래프는 사람 얼굴에 나타나는 특징들을 구별하는 것에 관련된 복수의 위치 노드들(예를 들어, 18)을 포함할 수 있다.
본 발명의 다른 특징들 및 장점들은 본 발명의 원리를 단지 예시의 수단으로 설명하는 첨부 도면에 대한 바람직한 실시예의 다음의 설명으로부터 명백할 것이다.
본 발명은 다이내믹한 얼굴 특징 감지에 관한 것으로, 특히 아바타를 애니메이셔닝하는 그래픽 수단에 입력하기 위한 얼굴 특징의 실-시간 발견, 추적 및 분류를 가능하게 하는 비젼-기초 움직임 캡쳐 시스템에 관한 것이다.
도 1은 본 발명에 따른 구현 애니메이션 시스템 및 처리의 블럭도.
도 2는 도 1의 아바타 애니메이션 시스템 및 처리를 위한 본 발명에 따른 얼굴 특징 감지 장치 및 처리의 블럭도.
도 3은 도 2의 얼굴 특징 감지 장치를 구현하기 위한 비디오 이미지 프로세서의 블럭도.
도 4는 도 2의 얼굴 특징 감지 장치 및 시스템의 표식(landmark) 발견 기술을 도시하기 위해 사진이 함께 첨부된 순서도.
도 5는 본 발명에 따른 가버 웨이브렛들(Gabor wavelets)을 사용하여 얼굴 이미지 처리를 나타내는 이미지 연속도.
도 6은 본 발명에 따라 도 5의 웨이브렛 처리 기술을 사용하여, 제트(jet), 이미지 그래프, 및 집군 그래프(bunch graph)의 구조들을 나타낸 그래프의 연속도.
도 7은 얼굴 이미지를 처리하기 위한 본 발명에 따른 모델 그래프의 도.
도 8은 얼굴 특징을 위치시키기 위한 웨이브렛 처리의 사용을 나타내는 2개의 도면을 표시한 도.
도 9는 도 4의 표식 발견 기술에 의해 발견된 표식을 추적하기 위한 추적 기술을 도시한 순서도.
도 10은 1차원상에서의 표식 추적을 도시하기 위한 가우스 이미지 피라밋 기술의 도.
도 11은 50개의 일련의 이미지 프래임에 대하여 얼굴 특징들의 추적을 나타내기 위해, 프레임 각도 대 자세(pose) 각도와의 그래프가 함께 첨부된 2개의 얼굴 이미지들의 연속도.
도 12는 도 2의 얼굴 특징 감지 장치 및 시스템의 자세 추정 기술을 도시하기 위해 사진을 함께 첨부하는 순서도.
도 13은 대강에서 세밀한쪽으로의(course-to-fine) 표식 발견 기술을 도시하기 위해 추출된 눈과 입 영역들을 갖는 얼굴의 개략적인 도.
도 14는 도 6의 신축(elastic) 집군 그래프를 사용하여 측면과 정면의 얼굴 얼굴을 추출한 것을 나타내는 사진.
도 15는 본 발명에 따른 아바타 애니메이션을 위한 사람의 다양한 표현을 포함하는 이미지 패치(image patch)들의 대응하는 갤러리(gallery)와 함께, 태그된(tagged) 의인화 집군 그래프의 생성을 나타내는 순서도.
도 16A, 16B는 원격 사이트에 전송되고, 전송된 태그-상기 태그는 사람의 현재 얼굴 얼굴에 관련된 얼굴 감지에 기초됨-에 기초되어 원격 사이트에서 선택된 이미지 패치들을 사용하여, 아바타를 애니메이셔닝하기 위한 기술을 나타내는 순서도.
도 17은 다이내믹 텍스처(dynamic texture) 생성으로 합성된 부피 모핑(volume morphing)을 사용하여, 얼굴 특징의 위치 및 태그에 기초되어 생성된 3차원 머리 이미지를 나타내는 순서도.
도 18은 아바타를 애니메이셔닝하기 위해 오디오 분석을 포함한 본 발명에 따른 아바타 애니메이션의 블럭도.
본 발명은 얼굴 감지에 기초된 아바타 이미지를 발생시키고 애니메이션화하기 위해 사람의 얼굴 움직임, 특징들, 특징 등을 감지하는 장치 및 관련 기술에서 실시된다. 아바타 장치는 제트와 같은 이미지 특성들을 효과적으로 나타내는 모델 그래프 및 집군 그래프에 기초된 이미지 처리 기술을 사용한다. 제트들은 쉽게 인식가능한 특성들에 해당하는 이미지상의 노드 또는 표식 위치들에서 처리된 웨이브렛 변환들로 구성된다. 사람의 얼굴 움직임에 따라 아바타 이미지를 애니케이션화하기 위해 노드들이 포착되고 추적된다. 또한, 얼굴 감지는 사람의 얼굴 특징 및 특성들을 판정하는 제트 유사도(jet similarity)를 사용하여서, 사람의 자연스런 특성들을 방해할 수 있는 어떠한 부자연스런 요소들 없이, 사람의 자연스런 특성들을 추적하는 것을 가능하게 할 수 있다.
도 1에 도시한 바와 같이, 본 발명의 아바타 애니메이션 시스템(10)은 이미지 시스템(12), 얼굴 감지 처리(14), 데이터 통신 네트워크(16), 얼굴 애니메이션 처리(18), 및 아바타 디스플레이(20)를 포함한다. 이미지 시스템은 사람의 살아있는 비디오 이미지 신호를 포착하고 디지털화하여서, 이미지 프레임들로 조직화된 디지털화된 비디오 데이터의 스트림을 생성한다. 디지털화된 비디오 이미지 데이터는 사람 얼굴과 각 프레임의 해당 얼굴 특징들에 위치하는 얼굴 감지 처리에 제공된다. 얼굴 감지 처리는 또한, 프레임-대-프레임으로부터 얼굴 특징들의 위치 및 특성을 추적한다. 정보를 수신하고, 그래픽 수단들을 사용하여 아바타 디스플레이상의 애니메이션화된 얼굴 이미지를 생성하는 하나 이상의 원격 사이트들에, 네트워크를 통하여 추적 정보가 전송될 수 있다. 애니메이션화된 얼굴 이미지는 사람의 사실적 모델이나 만화 캐릭터, 또는 사용자와 전혀 관계없는 얼굴에 기초될 수 있다.
이미지 시스템(12) 및 얼굴 감지 처리(14)는 도 2 및 3에 보다 더 자세하게 도시된다. 이미지 시스템은 비디오 이미지 프레임들의 스트림을 생성하는 디지털 비디오 카메라(22)를 사용하여 사람의 이미지를 캡쳐한다. 비디오 이미지 프레임들은 그 처리를 위해 비디오 랜덤-액세스 메모리(VRAM)(24)에 전달된다. 만족스런 이미지 시스템은 종래의 CCD 카메라에 의해 생성된 디지털화된 이미지를 발생시키고, 30Hz의 프레임 속도로 메모리에 실시간의 이미지를 전달하는 Matrox Meteor Ⅱ available from MatroxTM이다. 이미지 프레임은 VRM과 랜덤-액세스 메모리 RAM(30)과 접속된 중앙 처리 유닛(CPU)을 갖는 이미지 프로세서(26)에 의해 처리된다. RAM은 얼굴 감지 및 아바타 애니메이션 처리를 실시하기 위해 프로그램 코드 및 데이터를 저장한다.
얼굴 특징 처리는 디지털화된 이미지상에서 동작하여서, 사람의 얼굴 특징을 찾고(블럭 32), 특징들을 추적하고(블럭 34), 필요에 따라 특징 추적을 다시 초기화한다. 얼굴 특징은 또한 분류될 수 있다(블럭 36). 얼굴 특징 처리는 얼굴 감지에 의한 얼굴 특징의 위치 및 분류에 관련된 데이터를 생성하고, 얼굴 감지는 얼굴 애니메이션 처리와 인터페이스한다(블럭 38).
얼굴 특징들은 도 4에 도시한 신축(elastic) 그래프 정합을 사용하여 위치될 수 있다. 신축 그래프 정합 기술에서, 캡쳐된 이미지(블럭 40)는 도 5에 대하여 아래에서 보다 더 자세히 설명될 웨이브렛 변환을 사용하여 가버 공간(Gabor Space)로 변환된다(블럭 42). 변환된 이미지(블럭 44)는 40개의 복소수 값들-원 이미지의 각 픽셀당 웨이브렛 성분(component)들을 나타냄-로 나타난다. 다음으로, 도 7에 대해 아래에서 보다 더 자세히 설명될 모델 그래프의 세밀한 복사는 가변 모델 노드 위치들의 변환된 이미지에 대하여 위치되어서, 최적의 유사도의 위치로 위치한다. 모델 그래프를 이미지의 상부 왼쪽 코너에 위치시키고, 노드들에서의 제트들을 추출하고, 이미지 그래프와 모델 그래프 사이의 유사도를 판정함으로써, 최적의 유사도에 대한 탐색이 형성된다. 모델 그래프를 왼쪽에서 오른쪽으로 이동시킴으로써, 탐색은 이미지의 상부-왼쪽 코너로부터 시작하여 계속된다(블럭 48). 얼굴의 대략적 위치가 발견되면(블럭 50), 노드들은 개별적으로 이동하는 것이 가능해져서 신축 그래프 왜곡(distortion)들을 함유한다(블럭 52). 위상에 둔감한(phase-insensitive) 유사도 함수가 그 후, 제트를 세밀하게 위치시키기 위해 사용되는 데, 그 이유는 위상은 작은 제트의 위치 변화에도 매우 민감하기 때문이다. 위상에 둔감하고 위상에 민감한(phase-sensitive) 유사도 함수들이 도 5 내지 도 8에 대하여 아래에서 설명된다. 원 이미지(original image)에 대하여 그래들이 도 4에 도시되었으나, 모델 그래프의 움직임들 및 정합은 변환된 이미지상에서 실질적으로 행해짐을 유의해야 한다.
웨이브렛 변환은 도 5를 참조하여 설명된다. 원 이미지는 중첩(convolution) 결과를 발생시키는 가버 웨이브렛을 사용하여 처리된다. 가버-기본 웨이브렛은 가우시안 엔벨롭(Gaussian envelope)에 의해 변조된 2차원의 복소수 웨이브 필드(complex wave field)를 구성한다.
웨이블렛은 가우시안 윈도(Gaussian window)에 의해 제한되고, 파장에 비율로 그 크기는 α로 제한되는 웨이브 벡터을 갖는 평면 웨이브이다. 중괄호({})안의 항은 DC 성분을 소거한다. 웨이브벡터 k의 크기는 v가 희망된 공간 해상도(spacial resolution)에 관계되는 다음과 같은 방식으로 선택될 수 있다.
이미지 위치에 중심을 둔 웨이브렛은 그레이(gray) 레벨의 분산을 갖는 이미지로부터 웨이브렛 성분인를 추출하는 데 사용된다.
웨이브 벡터의 공간은 통상 5개의 해상도 레벨들(반-옥타브(half-octave)만큼 다름)로, 각 해상도 레벨에 8개의 오리엔테이션(orientation)이 있는 이산 계층(discrete hierarchy)으로 샘플링되어서(예를 들어, 도 8을 볼 것), 각 샘플링된 이미지 점에 대해 40개의 복소수 값들(평면 웨이브의 코사인과 사인 위상들을 기준으로 한 실수와 허수 성분들)이 발생한다. k개의 공간내의 샘플들은 인덱스(index)인 j=1,..., 40으로 정해지고, 단일 이미지 점에 중심을 둔 모든 웨이브렛 성분들은 도 6에 도시한 바와 같이 제트(60)라 불리는 벡터로 논의된다. 각 제트는주변 영역의 로컬(local) 특성들을 설명한다. 만일 충분한 밀도를 가지고 샘플링된다면, 이미지는 샘플링된 주파수들에 의해 범위지어진 대역 통과(bandpass)내의 제트들로부터 재구성될 수 있다. 따라서, 제트의 각 성분은 이미지 점 (x, y)에서 추출된 가버 웨이브렛의 필터 반응(response)이다.
도 6에 도시한 바와 같이 라벨이 붙여져서(labeled) 분류된 이미지 그래프(62)는 대상(이러한 정황에서는 얼굴임)의 모양(aspect)을 설명하는 데 사용된다. 라벨로 분류된 그래프의 노드들(64)은 대상의 점들을 지시하며, 제트들(60)에 의해 라벨로 분류된다. 그래프의 모서리(66)들은 노드들 사이의 거리 벡터(distance vector)로 라벨화되어 분류된다. 노드들과 모서리들이 그래프 토폴로지(graph topology)를 정의한다. 등가의 토폴로지를 갖는 그래프들이 비교될 수 있다. 2개의 제트들의 절대 성분의 정규화된 내적(normalized dot product)은 제트 유사도를 정의한다. 이 값은 대조 변화들과 무관한다. 2개의 그래프들 간의 유사도를 계산하기 위해, 그 합은 그래프들 사이의 대응하는 제트들의 유사도에 대해서 취해진다.
이미지내의 인간 얼굴을 발견하기 위해 특별히 지정된 모델 그래프(68)가 도 7에 도시된다. 그래프의 숫자화된 노드들은 다음의 위치들을 갖는다.
0 우안구 동공
1 좌안구 동공
2 코의 최상부
3 우측 눈썹의 우측 모서리
4 우측 눈썹의 좌측 모서리
5 좌측 눈썹의 우측 모서리
6 좌측 눈썹의 좌측 모서리
7 우측 콧구멍
8 코 끝
9 좌측 콧구멍
10 입의 우측 모서리
11 윗 입술의 중심
12 입의 좌측 모서리
13 아랫 입술의 중심
14 우측 귀의 최저부
15 우측 귀의 최상부
16 좌측 귀의 최상부
17 좌측 귀의 최저부
얼굴을 표현하기 위해, 집군 그래프(70)(도 6)라 불리는 데이터 구조가 사용된다. 그것은 상술된 그래프와 유사하지만 각 노드에 단일한 제트만을 부여하는 대신, 제트들(72)(번치(bunch) 제트)의 전체 번치가 각 노드에 부여된다. 각 제트는 상이한 얼굴 이미지로부터 유도된다. 집군 그래프를 형성하기 위해, 얼굴 이미지의 수집(collection)(번치 이미지 갤러리)에는 머리의 정의된 점의 노드 위치들이 표시된다. 이들 정의된 위치들을 표식(landmark)이라 부른다. 하나의 번치 이미지를 하나의 이미지에 정합할 때, 이미지로부터 추출된 제트는 집군 그래프에 부여된 대응하는 번치의 모든 제트들과 비교되어서, 가장-잘 정합되는 것이 선택된다. 이러한 정합 처리를 신축 집군 그래프 정합이라 부른다. 제대로(judiciously) 선택된 갤러리를 사용하여 구성될 때, 집군 그래프는 얼굴들-상이한 로컬 특성들, 예를 들어 남자와 여자의 얼굴, 및 다른 연령층 혹은 인종들의 샘플들을 가질 수 있음-의 큰 변화들을 수용할 수 있다.
다시 이미지 프레임에서 얼굴을 찾기 위해, 그래프가 가장 잘 정합(번치 제트들내에서 가장 잘 맞는 제트들이 노드들의 현재 점의 이미지로부터 추출된 제트들과 가장 유사함)하는 위치에 위치될 때가지, 그래프는 이동되고 스케일되며 왜곡된다(distored). 얼굴 특징들은 얼굴마다 다르기 때문에, 그 태스크(task)를 위해 그래프는 보다 일반적으로 만들어지는 예를 들어, 각 노드에는 10 내지 100개의 개인 얼굴들로부터 취해진 대응하는 표식의 제트들이 할당되어야 한다.
2개의 상이한(different) 또는 상보적(complementary)인 태스크에 대하여 2개의 다른 제트 유사도 함수들이 도입된다. 만일 제트의 성분들이 크기와 위상으로 씌여진다면, 2개의 제트들의 유사도에 대한 하나의 형태는 크기 벡터의 정규화된 스칼라 곱(scalar product)를 갖는다.
다른 유사도 함사는 다음과 같은 형태를 갖는다.
이 함수는 2개의 제트들이 가리키는 이미지 점들 간의 상대적(relative) 변위 벡터(displacement vector)를 포함한다. 그래프 정합 동안 2개의 제트들을 비교할 때, 2개의 제트들 간의 유사도는 d에 대하여 최대가 되어서, 제트 위치의 정확한 결정을 할 수 있게 한다. 첫번째로 그래프와 정합할 때, 유사도 함수 둘 다, 위상에 둔감한 버젼(version)(상대적 위치에 대해 스무드하게(smoothly) 변함)로 종종 주어진 프리퍼런스(preference)로, 제트에 정확하게 위치할 때 위치에 민감한 버젼으로 주어진 프리퍼런스로 사용된다.
얼굴 특징들이 위치된 후, 얼굴 특징들은 도 9에 도시된 바와 같은 연속적인 프레임을에 대하여 추적될 수 있다. 본 발명의 추적 기술은 특징 또는 노드의 추적이 놓쳐졌는 지를 탐지하고 그 노드에 대한 추적 처리를 다시 초기화하는 추적 정정 스킴(scheme)을 사용함으로써, 긴 프레임 열들에 대한 확고한 추적을 달성한다.
상술된 바와 같은 표식 발견 방법(블럭 80)을 사용한 이미지 I_n상의 표식 발견이나, 또는 추적 처리를 사용한 이미지 I_(n-1)에서 I_n까지의 노드의 추적에 의해 이미지 열의 이미지 I_n내의 단일 노드의 위치 X_n을 알 수 있다. 그 후, 노드는 여러 기술들 중의 하나를 이용하여, 이미지 I_(n+1)의 대응하는 위치 X_(n+1)로 추적된다(블럭 82). 하기에 설명될 추적 방법들은 빠른 움직임에 유리하게 적응한다.
제1 추적 기술은 선형 움직임 예상(linear motion prediction)을 포함한다. 새 이미지 I_(n+1)내의 대응하는 노드 위치 X_(n+1)에 대한 탐색은 움직임 추정기(motion estimator)에 의해 발생된 위치에서 시작된다. 차이 벡터(disparity vector)(X_n - X_(n-1))가 계산되며, 이것은 예상하는 2개의 프레임들 간의 노드의 속도가 일정하다는 것을 가정할 때, 변위를 나타낸다. 차이 또는 변위 벡터 D_n은 위치 X_n에 더해재서, 노드 위치 X_(n+1)을 예상할 수 있다. 이러한 선형 움직임 모델은 일정 속도 움직임에 적용될 때 특히 유리하다. 이러한 선형 움직임 모델은 또한, 프레임 속도가 추적될 대상의 가속도에 비해 높을 때, 우수한 추적을 제공한다. 그러나, 프레임 속도가 이미지 열(sequence) 내의 대상의 가속도에 비해 너무 낮으면, 선형 움직임 모델은 성능이 좋지 않다. 이러한 조건하에서, 임의의 움직임 모델이 대상들을 추적하는 것은 어렵기 때문에, 보다 고속의 프레임 속도를 갖는 카메라의 사용이 요망된다.
선형 움직임 모델은 추정된 움직임 벡터 D_n를 아주 크게 생성하여서, 이것은 움직임 추정에서의 에러가 누적하게 할 수 있다. 따라서, 선형 예상은 댐핑 요인(damping factor) f_D를 사용하여 댐핑될 수 있다. 그 결과의 추정된 움직임 벡터는 D_n = f_D * (X_n - X_(n-1))이다. 적당한 댐핑 요인은 0.9이다. 어떠한 이전 프레임 I_(n-1)도 존재하지 않았다면, 예를 들어 표식 바로 다음의 프레임에 대하여 추정된 움직임 벡터는 제로(zero)와 같게 설정된다(D_n=0).
1차원에 적용된 가우시안 이미지 피라밋에 기초된 추적 기술이 도 10에 도시된다. 원 이미지 해상도를 사용하는 것 대신, 이미지는 2-4 배(times)로 다운 샘플링되어서(down sampled), 이미지의 가우시안 피라밋을 생성한다. 4 레벨의 이미지 피라밋은 가장 세밀한(finest) 원래 해상도 레벨-가장 대강의(coarsest) 레벨상에서 3개의 픽셀로서만 표현될 것임-상에서 24개의 픽셀들의 거리로 결과한다. 제트들은 피라밋의 임의의 레벨에서 계산되고 비교될 수 있다.
가우시안 이미지 피라밋상의 노드의 추적은 일반적으로 가장 대강의 레벨에서 맨 처음 행해진다. 제트는 상술된 바와 같이 댐핑된 선형 움직임 추정 X_(n+1) = (X_n + D_n)을 사용하여, 위치 X_(n+1)의 사실적 이미지 프레임 I_(n+1)의 가장 대강의 가우스 레벨상에서 추출되고, 이전 이미지 프레임의 가장 대강의 가우스 레벨상에서 계산된 대응하는 제트와 비교된다. 이들 2개의 제트들로부터, 차이가 판정되어, 즉 2D 벡터 R은 X_(n+1)에서 이전 프레임으로부터의 제트에 가장 잘 대응하는 위치로, 포인팅한다. 이러한 새로운 위치를 X_(n+1)로 할당한다. 차이 계산은 하기에서 보다 더 자세하게 설명된다. 가장 대강의 가우스 레벨상의 위치 X_(n+1)에 대응하며, 사실적 이미지(2*X_(n+1))의 다음의 보다 세밀한 가우스 레벨상의 위치는 이러한 다음의 보다 세밀한 레벨사의 차이 계산에 대한 기저점이다. 이 점에서 추출된 제트는 이전 이미지 프레임의 동일 가우스 레벨상에서 계산된 대응하는 제트와 비교된다. 가장 세밀한 해상도 레벨에 도달할 때까지, 또는 가우스 레벨이 이전 프레임의 위치에 해당하는 노드 위치를 결정하기 위해 특정화된 것에 도달할 때까지 모든 가우스 레벨들에 대해 이러한 처리가 반복된다.
가우시안 이미지 피라밋의 2개의 대표적 레벨들이 도 10에 도시되며, 보다 대강의 레벨(94)은 위쪽에 보다 세밀한 레벨(96)은 아래쪽에 나타나 있다. 각 제트는 2개의 주파수 레벨들에 대해 주파수 반응을 갖는 것으로 가정된다. 보다 대강의 가우스 레벨, X_(n+1)=X_n+D_n상의 위치 1에서 시작하여, 최하위(lowest) 주파수 제트 계수만을 사용한 제1 차이 이동은 위치 2에 이른다. 주파수 레벨들 둘 다의 모든 제트 계수들을 사용함으로써, 제2 차이 이동은 위치 3에 이른다. 축들-상기 축들은 겹쳐질(doubled) 것임-을 가지며, 보다 세밀한 가우스 레벨상의 위치 1은 보다 대강의 레벨상의 위치 3에 대응한다. 차이 이동 열이 반복되고, 가장 세밀한 가우스 레벨상의 위치 3은 추적된 표식의 최종 위치이다. 사실적 이미지 프레임내의 추적된 노드의 새로운 위치가 결정된 후, 모든 가우스 레벨들상의 제트들은 이 위치에서 계산된다. 추적된 노드를 나타내는 이전 프레임에 대해 계산된 제트들의 저장된 어레이는 그 후, 현재 프레임에 대해 계산된 제트들의 새로운 어레로 대체된다.
가우스 이미지 피라밋을 사용하면 2가지의 주요 장점들을 갖는다. 첫번째, 노드들의 이동은 원 이미지상에서보다 대강의 레벨상의 픽셀들에서 훨씬 더 작고, 이것은 큰 이미자 영역에서 소모적으로 탐색하는 대신 로컬 이동만을 행함으로써 추적을 가능하게 한다. 둘째, 제트 성분들의 계산은 저 주파수에서 보다 더 빠른데, 그 이유는 원 해상도 이미지상의 큰 커널 윈도(kernel window)상에서보다 다음 샘플링된 이미지상의 작은 커널 윈도를 갖고 계산이 행해지기 때문이다.
상관도 레벨(correspondence level)은 역동적으로 선택될 수 있는 데, 예를 들어 얼굴 특징들의 경우, 상관도 레벨은 얼굴의 사실적 크기에 관련하여 선택될 수 있음을 유념해야할 것이다. 또한, 가우스 이미지 피라밋의 크기는 추적 처리 동안 바뀔 수 있는 데, 즉 그 크기는 움직임이 더 빨라질수록 증가하고, 움직임이 느려질수록 감소한다. 통상, 가장 대강의 가우스 레벨상의 최대 노드 움직임은 4 픽셀로 제한된다. 또한, 움직임 측정은 종종 가장 대강의 레벨상에서만 행해짐을 유념해야한다.
이제 동일한 가우스 레벨상의 2개의 주어진 제트들 간의 변위 벡터(차이 벡터)의 계산이 설명된다. 2개의 연속적 프레임들 사이의 변위를 계산하기 위해, D.J. Fleet와 A. D. Jepson에 의해 기초되며 원래 스테레오 이미지들의 차이 추정을 위해 계산되었던 방법이 사용된다. 1990년 International Journal of Computer Vision, Volume 5, issue 1, page 77-104의 W. M. Theimer와 H.A. Mallot에 의한 Computation of conponent image velocity from local phase information이 있으며, 1994sus 11월, CVGIP의 Image Understanding, Volume 60, issue 3, page 343-358의 Phase-based binocular vergence control and depth reconstruction using active vision이 있다.
복소수 필터 반응의 위상들에서 두드러진(strong) 변화는 서브픽셀의 정확도로 변위를 분명하게 계산하는 데 사용된다(wiskott, L., 'Labeled Graphs and Dynamic Link Matching for Face Recognition and Scene Analysis", Verlag Harri Deutsch, Thun-Frankfurt am Main, Reihe Physik 53(PhD thesis, 1995)). 크기 aj와 위상 j의 기호에서 j번째 가버 필터로의 반응 J를 씀으로써, 유사도 함수는 다음과 같이 정의될 수 있다.
J와 J'를 위치 X와 X'=X+d의 2개의 제트라 하고, 필터 발생 Jj와 관련된 웨이브 벡터들이 되는 d와 kj에 대한 유사도 S를 최대화함으로써, 변위 d가 발견될 수 있다. d의 추정은 작은 변위들에 대해서만 세밀한, 즉 가버 제트들의 크게 중첩된 것, 큰 변위 벡터들은 제1 추정으로서만 다루어지기 때문에, 그 처리는 다음의 방식으로 반복된다. 첫번째, 최하위 주파수 레벨의 필터 반응만이 제1 추정 d_1에서 결과되어 사용된다. 다음으로, 이 추정이 실행되고, 제트 J는 위치 X_1=X+d_1에서 재계산되고, 이 위치는 제트 H'의 위치 X'에 더 가깝다. 그 후, 최하위의 2개의 주파수 레벨들은 변위 d_2의 추정을 위해 사용되고, 제트 J는 위치 X_2=X_1+d_2에서 재계산된다. 이것은 사용된 최고 주파수 레벨에 도달할 때까지 계속되며, 2개의 시작 제트들 J와 J' 간의 최종 차이 d는 합 d= d_1+d_2+,...으로서 주어진다. 따라서, 최하위 주파수를 갖는 커널 파장의 절반가지의 변위가 계산될 수 있다(wiskott 1995, supra 참조).
변위들이 부동점 숫자들을 사용하여 결정되었으나, 제트들은 (정수; integer) 픽셀 위치들에서만 추출되어서(즉, 중첩(convolution)에 의해 계산됨), 규칙적인(systematic) 라운딩 에러(rounding error)를 결과한다. 이러한 서브픽셀(subpixel) 에러 Δd에 대해 보상하기 위해, 복소수 가버 필터 반응들의 위상들은 다음 식에 따라서 시프팅되어야만 하여서,
제트들이 올바른 서브픽셀 우치에서 추출되는 바와 같이, 제트들이 등장할 것이다. 따라서, 가버 제트들은 라운딩 에러들을 더 계산하지 않은 채, 서브픽셀의 정확도로 추적될 수 있다. 가버 제트들은 이미지 처리에 있어서 상당한 이점을 제공하는 데, 그 이유는 서브픽셀 정확도라는 문제는 대부분의 다른 이미지 처리 방법에서 다루어지는 것 중에서 보다 어렵기 문제이기 때문이다.
에러 추적은 신뢰도(confidence) 또는 유사도 값이 소정의 임계치보다 더 작은지(도 9의 블럭 84)를 판정함으로써 검출될 수 있다. 유사도(또는 신뢰도) 값 S는, 2개의 이미지 프레임의 2개의 이미지 영역들이 서로-서로 연속적 이미지 프레임들 간의 노드의 변위 계산을 동시에 함- 얼마나 잘 대응하는지를 나타내기 위해 계산될 수 있다. 통상, 신뢰도 값은 1에 가까우며, 이것은 우수한 상관도를 가리킨다. 신뢰도 값이 1에 가깝지 않으면, 이미지내의 대응 점이 발견되지 않거나(예를 들어, 프레임 속도가 이동 대상의 속도에 비해 너무 낮기 때문임), 또는 이러한 이미지 영역이 하나의 이미지 프레임에서 다음으로 너무 크게 변하여서, 상관도가 더이상 정의되지 않게 된다(예를 들어, 동공(pupil of the eye)을 추적하는 노드에 대해, 눈꺼풀이 닫혀있는 것). 특정 임계치 아래의 신뢰도 값을 갖는 노드들은 스위치 오프될 수 있다.
에러 추적은 또한, 특정의 지오메트리 제한이 깨질 때 검출될 수 있다(블럭 86). 만일 많은 노드들이 동시에 추적된다면, 노드들의 지오메트리 구조는 일관되어 있는지 체크될 수 있다. 이러한 지오메트리 제한들이 적당히 느슨(loose)해질 수 있는 데, 예를 들어 얼굴 특징들이 추적될 때, 코는 눈과 입 사이에 위치해야만 한다. 또 다른 한편, 이러한 지오메트리 제한들은 예를 들어, 추적된 얼굴의 정확한 형태 정보를 포함하는 모델에서 보다 더 정확할 수 있다. 중간 정도의 ㅈ어확성에 대하여, 제한들은 플랫한 평면 모델상에서 기초된다. 플랫한 평면 모델에서, 얼굴 그래프의 노드들은 플랫 평면상에 존재하는 것으로 가정된다. 정면에 시작하는 이미지 열들에 대하여, 추적된 노드 위치들은 사실적 프레임의 밀접하게 결합된(affine) 변환에 의해 변환된 정면 그래프의 해당 노드 위치들과 비교될 수 있다. 최적의 밀접하게 결합된 변환의 6개의 파라미터들은 노드 위치에서 가장 작은 스퀘어(square) 에러를 최소화함으로써 발견된다. 추적된 노드 위치들과 변환된 노드 위치들 간의 편차는 임계치와 비교된다. 임계치보다 큰 편차를 갖는 노드들은 스위치 오프된다. 밀접하게 결합된 변환의 파라미터들은 자세와 상대적 스케일(시작 그래프와 비교한)을 동시에 결정하는 데 사용된다(블럭 88). 따라서, 이러한 대략의 플랫한 평면 모델은 추적 에러가 소정의 임계치 이상으로 크지 않음을 보장한다.
추적된 노드가 추적 에러 때문에 스위치 오프되면, 상이한 자세들과 정정된 위치(블럭 92)로부터 계속된 추적을 포함하는 집군 그래프를 유익하게 사용하여, 그 노드는 정확한 위치에서 재활성화될 수 있다(블럭 90). 추적된 노드가 스위치 오프된 후, 시스템은 소정의 자세가 구체적인 집군 그래프가 존재하는 자세에 도달할 때까지 시스템은 기다릴 수 있다. 그렇지 않고, 정면 집군 그래프만이 저장되면 시스템은 정면 포즈가 임의의 추적 에러들을 정정하기 위해 정면 포즈에 도달할 대까지 시스템은 기다려야만 한다. 제트들의 저장된 번치는 맞는(fit) 위치(예를 들어, 플랫한 평면 모델로부터의) 주위의 이미지 영역과 비교될 수 있으며, 이것은 이전 이미지 프레임의 제트와 비교하는 것 대신, 그 비교는 예시에서의 번치의 모든 제트들에 대해 반복된다는 것을 제외하고는, 추적과 동일한 방식으로 동작하여, 가장 유사한 것이 채택된다. 얼굴 특징들은 예를 들어, 실재 자세, 스케일, 그리고 심지어는 대략의 위치에 대해서도 알려지기 때문에, 이미지 및/또는 포즈 공간에서의 그래프 정합 또는 과도한 탐색은 필요하지 않아서, 노드 추적 정정이 실시간에 행해질 수 있다.
도 11에 도시한 바와 같이, 추적 정정에 대해서, 많은 상이한 자세들과 스케일들에 대하여 집군 그래프들이 필요하지 않는 데, 그 이유는 스케일 뿐 아니라 이미지 평면의 회전은 로컬 이미지 영역 또는 집군 그래프의 제트들을 변환함으로서, 계산될 수 있기 때문이다. 정면 자세에 추가하여, 집군 그래프들은 회전들에 대해서만 철저히 생성될 것이 필요하다.
추적된 사람의 동일성은 이미지 열 동안 동일하게 유지된다는 사실에서의 이점을 이용함으로써, 재초기화 처리 속도를 증가시킬 수 있다. 따라서, 초기 학습 세션(learning session)에서, 사람의 제1 열(sequence)은 정면 얼굴 표현의 충분한 레파토리를 나타내는 사람으로서 취해진다. 이러한 제1 열은 크게 일반화된 집군 그래프-많은 다른 사람들에 대한 지식들을 포함함-에 기초하여 상술된 추적 및 정정 스킴을 사용하여 고도의 정확성으로 추적될 수 있다. 이 처리는 오프라인으로 행해지며, 새롭게 인간화된 집군 그래프를 생성할 수 있다. 인간화된 집군 그래프는 그 후, 실시간에 빠른 속도로 이러한 사람을 추적하기 위해 사용될 수 있는 데, 그 이유는 인간화된 집군 그래프는 보다 크고 일반화된 집군 그래프보다 훨씬 작기 때문이다.
재초기화 처리 속도는 또한, 부분적인 집군 그래프 재초기화를 사용함으로서 증가될 수 있다. 부분적인 집군 그래프는 전체 집군 그래프의 노드의 서브셋트만을 포함한다. 서브셋트는 하나의 단일 노드만큼 작을 수 있다.
자세 추정 집군 그래프는 이미지 평면에서 정의된 2차원의 집군 그래프 군(family)을 이용한다. 하나의 군 내의 상이한 그래프들은 상이한 자세들 및/또는 머리의 스케일들이 원인이 된다. 표식 발견 처리는 이미지내의 자세 또는 머리의 크기를 결정하기 위해, 군에서 입력 이미지까지 각 집군 그래프를 정합하는 것을 시도한다. 이러한 자세-추정 과정의 예가 도 12에 도시된다. 자세 추정의 제1 단계는 규칙적인 표식 발견 단계와 등가이다. 그래프 유사도 함수를 사용하기 위해 이미지(블럭 98)가 변환된다(블럭 100 및 102). 그 후, 단일한 하나 대신, 3개의 집군 그래프의 군이 사용된다. 첫번째 집군 그래프는 정면 자세의 얼굴들(상술된 정면도와 등가임)만 포함하고, 다른 2개의 집군 그래프들은 1/4 회전된 얼굴들(하나는 왼쪽으로 회전한 것을, 다른 하나는 오른쪽으로 회전한 것을 나타냄)을 포함한다. 전에서와 같이, 각 그래프들에 대한 초기 위치들은 상부 왼쪽 코너에 있으며, 그래프들의 위치는 이미지와 위치상에서 스캔되어, 그래프는 표식 발견이 선택된 후(블럭들 104-114) 최고의 유사도를 나타낸다.
각 그래프에 대한 초기 정합후, 최정 위치들의 유사도가 비교된다(블럭 116). 이미지상에 주어진 자세에 가장 잘 해당하는 그래프는 최고의 유사도를 가질 것이다. 도 12에서, 좌회전된 그래프는 그 유사도에 의해 지시된 바와 같이 이미지와 가장 잘 맞는다(블럭 118). 사진의 해상도와 얼굴의 회전 정도에 따라서, 정확한 그래프와 다른 자세들에 대한 그래프들의 유사도가 변할 것이고, 얼굴이 그래프가 정의된 2개의 포즈들 사이의 대략 중간 정도쯤에 있을 때, 그 유사도가 가장 가까워진다. 보다 많은 자세들에 대한 집군 그래프들을 생성함으로써, 보다 세밀한 자세 추정 과정이 실현될 수 있고, 그래서 머리 회전 각도의 정도들을 보다 자세히 분간하고 다른 방향들(예를 들어, 위와 아래)로의 회전들을 다룰 것이다.
카메라로부터의 임의적 위치에서 얼굴을 확실히 발견하기 위해, 각각 다른 스케일들을 갖는 2개 또는 3개의 다른 집군 그래프들이 사용될 수 있는 유사한 접근이 이용될 수 있다. 이미지에서의 얼굴은 얼굴 이미지의 많은 부분을 나타내는 집군 그래프와 동일한 스케일을 갖는 것으로 가정될 것이다.
상술된 기술에 관련된 3차원(3D) 표식 발견 기술들 또한, 상이한 자세들에 적응된 다중 집군 그래프들을 사용할 수 있다. 그러나, 3D 접근은 3D 공간에서 정의된 단 하나의 집군 그래프만을 도입한다. 3D 그래프의 지오메트리는 평균적인 얼굴 또는 머리 지오메트리를 반영한다. 서로 다른 회전 각도들내의 여러 사람들의 얼굴 이미지들로부터 제트들을 추출함으로서, 3D 집군 그래프는 2D 접근과 유사한 접근을 생성한다. 각 제트는 이제 3개의 회전 각도로 한정된다. 2D 접근에서, 노드들은 모리 표면의 기준 점들에 위치된다. 3D 그래프의 투영법(projection)이 그 후, 정합 처리에서 사용된다. 3D 접근의 하나의 중요한 일반화로 모든 노드는 다른 자세들에 적응된 번치 제트들의 부여되고 제한된 군을 갖는다. 제2 일반화로 그래프는 이미지 평면에서의 변환뿐 아니라, 유클리드(euclidean) 변환들을 갖는다.
그래프 정합 처리는 대강에서-세밀한 쪽으로(coarse-to-fine) 접근하는 것으로 조직화될 수 있어서, 첫번째로 소수의 노드들과 커널들을로 그래프들을 이용하고, 그 후 다음 단계에서 보다 집중적인(dense) 그래프들을 이용한다. 특히 얼굴의 특정 부위의 특징 점의 매우 세밀한 국지화가 요망될 때 대강에서-세밀한쪽으로의 접근이 적당하다. 따라서, 표식 발견이 보다 대강의 해상도상에 먼저 행해지는 계층적 접근 방식을 채택함으로써, 계산하는 데 있어서의 노력을 줄일 수 있고, 그 다음에 적용된 그래프들은 보다 높은 해상도로 체킹되어서, 특정 부위를 보다 세밀하게 세부를 분석할 수 있다.
또한, 계산적인 평균 작업량(workload)은 멀티-프로세서상에서 쉽게 분할되어서, 일단 대강의 영역들이 발견될 수 있으며, 몇 개의 차일드(child) 처리들이 전체 이미지 중의 그 자신의 부분상에서 각각 평행하게 작업을 시작한다. 차일드 처리들의 후반부에서, 처리들은 특징 좌표들과 통신하여서, 차일드 처리들은 마스터(master) 처리-상기 마스터 처리는 차일드 처리들을 원 이미지로 맞도록 적절히 스케일 조정하고 조합하여서, 총 계산 시간을 상당한 정도로 줄임-에 위치된다.
도 13에 도시한 바와 같이, 노드들에 대응하는 얼굴 특징들은 예를 들어, 깜박거리거나(blinking) 또는 입을 열고 있는(mouth opening) 것과 같은 부절적한 추적 에러 지시들을 설명하도록 분류될 수 있다. 얼굴 특징들, 예를 들어 눈을 뜨고/감는 것, 입을 벌리고/닫는 것 등에 대응하는 집군 그래프의 서로 다른 제트들에 라벨들(labels)이 부여된다. 라벨들은 현재의 이미지와 비교하여 가장 유사한 집군 그래프의 대응하는 제트와 함께 복사될 수 있다. 라벨 추적은 추적 에러가 검출됐는지 여부와 관계없이, 지속적으로 모니터링될 수 있다. 따라서, 분류 노드들이 다음에 대하여 추적된 노드들에 부여될 수 있다.
-눈을 뜨고/감는 것
-입을 벌리고/닫는 것
-혀가 보이는 것 또는 그렇지 않는 것
-헤어(hair) 타입의 분류
-주름살 검출(예를 들어, 이마에서의 주름살)
따라서, 추적은 2개의 정보 소스들의 이용을 가능하게 한다. 하나의 정보 소스는 특징 위치들, 즉 노드 위치들에 기초되고, 다른 정보 소스는 특징 분류(class)에 기초된다. 특징 분류 정보는 보다 조직적으로 기초되며, 로컬 이미지 영역을 저장된 예들의 셋트에 비교함으로써, 낮은 해상도와 추적 세밀도를 이용하여 노드 위치들 상에서만 기초된 특징 분류 정보와 기능할 수 있다.
본 발명의 얼굴 감지는 도 14에 도시된 바와 같이 정지되고 역동적인 아바타들의 생성과 에니메이션화에 적용될 수 있다. 아바타는 일반적인 얼굴 모델 또는 사람의 구체적인 얼굴 모델에 기초될 수 있다. 추적 및 얼굴 표현 인식은 사람의 얼굴을 갖는 아바타의 인간화를 위해 사용될 수 있다.
일반적인 얼굴 모델은 전형적인 여러 사람들에 적요될 수 있으며, 사실적 애니메이션과 얼굴 특징 및/또는 표현들의 넓은 범위에서의 표현을 행하기 위해 적용될 수 있다. 일반적 모델은 다음 기술에 의해 얻어질 수 있다.
1. 모노-카메라 시스템, 모노-카메라 시스템이 사용되어서(T. Akimoto 등, 1993), 로우-엔드 텔레-이머젼(low-end tele-immersion) 시스템에 사용하기 위한 사실적 아바타를 제공할 수 있다. 시상 봉합적이고(sagital) 관상 봉합적(coronal)인 평면으로부터 볼 수 있는 바와 같이, 얼굴 측면 정보는 아바타를 얻도록 병합될 수 있다.
2. 스테레오-카메라 시스템, 카메라들이 충분히 교정될 때(calibrate)(교정(calibration) 처리를 통해 카메라 파라미터들이 계산됨), 스테레오 카메라 시스템은 정확한 3-D 측정을 행할 수 있다. 그 후, 얻어진 3-D 데이터에 일반적 얼굴 모델을 맞춤으로써, 개인 얼굴 모델을 얻을 수 있다. 스테레오 알고리즘은 비-텍스쳐된(non-textured) 영역상에서는 정확한 정보를 제공하지 않기 때문에, 활성화되어-텍스쳐된(active-textured) 광(light)의 투영(projection)이 사용될 수 있다.
3. 특징-기본 스테레오 기술, 마커들의 세밀한 3-D 위치들을 계산하기 위해 사람 얼굴에 특징-기본 스테레오 기술들에서의 마커(marker)가 사용된다. 3-D 정보는 그 후 일반적인 모델에 맞추기 위해 사용된다.
4. 3-차원 디지털화 장치(digitalizer), 3-차원 디지털화 장치내의 감지기 또는 위치를 정하는 장치는 측정되어질 각 표면 점상으로 이동된다.
5. 활성화로 구성된 광, 활성화로 구성된 광에서, 패턴들이 투영되고, 그 결과의 비디오 스트림이 3D 측정들을 추출하기 위해 처리된다.
6. 레이저-기본 표면 스캐닝 장치들, 레이저-기본 표면 스캐닝 장치들(Cyberware. Inc에 의해 개발된 장치들과 같은)은 정확한 얼굴 측정을 한다.
7. 앞의 기술들의 조합. 이들 서로 다른 기술들은 사용자에게 동일한 편리함을 주지는 않는다. 어떤 것은 한 번의 처리로 사람의 모습(측정 기간 동안 희망된 모습으로 있는 얼굴)을 측정할 수 있으나, 어떤 것은 샘플의 수집을 필요로 하여서 사용하는 데 좀 더 불편하다.
특정한 사람에 대한 일반적인 3-차원 머리 모델은 정면과 옆면도를 나타내는 2개의 얼굴 이미지를 사용하여 생성될 수 있다. 얼굴 감지에 의해 3-D 얼굴 모델을 효과적이면서 확실하게 생성할 수 있다.
얼굴 윤곽 추출은 사람의 눈들, 코, 입, 및 빰의 국부화와 함께 행해진다. 이러한 특징 위치 정보는 도 14에 도시한 바와 같이, 얼굴 특징들을 자동적으로 추출하기 위해 계층적 정합과 조합하여, 신축 집군 그래프 기술을 사용함으로써, 얻을 수 있다. 그 후, 특징 위치 정보는 사람 얼굴의 3D 모델을 제공하기 위해 조합된다(T. Akimot와 Y. Suenaga, Automatic Creation of 3ㅇ Facial Models, In IEEE Computer Graphics & Applications, pages 16-22, September 1993을 볼 것). 일반적인 3차원 머리 모델이 적용되어서, 그 비율은 이미지의 측정과 관련된다. 마지막으로, 아바타에 대한 보다 더 조직적인 모델을 얻기 위해, 옆면과 정면 이미지 둘 다 결합되는 데, 즉 정면도는 모델의 정면을 텍스쳐 맵핑(texture map)하기 위해 이용되고, 옆면도는 모델의 옆면을 텍스쳐 맵핑하기 위해 이용된다. 얼굴 감지는 이러한 기술을 향상시키는 데, 그 이유는 추출된 특징들이 라벨로 분류화되어서(공지된 점들은 측면에서 규정될 수 있음), 동시에 2개의 이미지들을 택할 필요가 없다.
아바타 이미지는 다음의 일반적인 기술들(F. I. Parke and K. Waters, Computer Facial Animation, A K Peters, Ltd. Wellesley, Massachusetts, 1996을 볼 것)에 의해 애니메이션화될 수 있다.
1. 키 프레이밍(key framing) 및 지오메트리 인터폴레이션(geometric interpolation), 키 프레이밍 및 지오메트리 인터폴레이션에서, 키 자세들과 표현들의 갯수가 정의된다. 그 후, 애니메이션을 제공하기 위해 키 프레임들 간에 지오메트리 인터폴레이션이 사용된다. 이러한 시스템을 종종 퍼포먼스-기본(performance-based)(또는 퍼포먼스-유도) 모델로 언급한다.
2. 모델을 유도하기 위해 사용된 파라미터 셋트들에, 표현들 및 자세를 직접 맵핑하는 직접적 파라미터화(parameterization).
3. 의사-근육(pseudo-muscle) 모델, 의사-근육 모델은 지오메트리 변형들을 사용하여 근육 운동을 시뮬레이션한다.
4. 근육-기본 모델들, 근육-기본 모델들에서 근육들과 피부는 물리적 모델들을 사용하여 모델링된다.
5. 2D 애니메이션을 제공하기 위해 비디오 스트림내의 이미지들 사이에서 2D 몰핑(morphing)을 사용하는 2-D와 3-D 몰핑. 이러한 기술은 3D로 확장될 수 있다(F. F. Pighin, J. Hecker, D. Lischinski, R. Szeliski, and D.H. Salesin, Synthesizing Realistic Facial Expressions from Photographs, In SIGGRAPH 98 Conference Proceedings, pages 75-84, July 1998을 볼 것).
6. 제어 점들 및 유한 소자 모델들과 같은 다른 방법들.
이들 기술시, 얼굴 감지는 얼굴 특징의 자동 특징 및 캐릭터화를 제공함으로써 애니메이션 처리를 증강시킨다. 키 프레이밍 및 인터폴레이션 모델들의 경우 표현들을 인터폴레이팅하거나, 직접 파라미터화된 모델들이나 또는 의사-근육 혹은 근육들 모델들에 대하여 파라미터들을 선택하기 위해 추적된 특징들이 사용된다. 2-D 및 3-D 몰핑의 경우, 지오메트리 변환을 행하도록 적절한 정보를 제공하여서, 얼굴상의 특징들을 자동으로 선택하기 위해 얼굴 감지가 사용된다.
얼굴 특징 추적 및 분류를 사용하는 아바타 애니메이션의 예가 도 15에 따라 도시된다. 연습 단계(training phase) 동안, 소정의 얼굴 표현의 시리즈로 개인에게 질문되고(prompt)(블럭 120), 감지는 상기 특징들을 추적하는 데 사용된다(블럭 122). 소정 위치에서, 제트와 이미지 패치(patch)들은 다양한 표현들을 위해 추출된다(블럭 124). 얼굴 특징들 주변의 이미지 패치들은 이들 특징들로부터 추출된 제트들(126)과 함께 추출된다. 얼굴 특징들(128)을 분류하고 태그(tag)하기 위해 이들 제트들이 그 다음으로 사용된다. 인간화된 군집 그래프를 생성하기 위해 이들 제트들을 사용하고, 상술된 분류 방법을 적용함으로써, 이 일이 행해진다.
도 16A, 16B에 도시한 바와 같이, 아바타의 애니메이션을 위해 시스템은 이미지 패치들에서 나타난 부분들을 뺀 얼굴 전체(130)("얼굴 프레임")뿐 아니라 모든 이미지 패치들(128)을 원격 사이트로 전송한다(블럭 132 & 134). 애니메이션 기구에 대한 소프트웨어 또한 전송될 필요가 있다. 그 후, 감지 시스템은 사용자의 얼굴을 관측하고, 어떤 이미지 패치들이 현재 얼굴 표현에 가장 유사한지를 판정하기 위해 얼굴 감지가 적용된다(블럭 136 & 138). 이미지 태그들은 원격 사이트로 전송되어서(블럭 140), 정확한 이미지 패치들을 사용하여 애니메이션 기구가 얼굴(142)을 모아주는 것을 가능하게 한다.
이미지 패치들을 이미지 프레임이 스무드하게(smoothly) 맞추기 위해, 가우시안 블러링(Gaussian blurring)이 도입될 수 있다. 사실적인 표현을 위해, 로컬 이미지 몰핑이 필요될 수 있는 데, 그 이유는 감지에 의해 부여될 때 이미지 연속이 제공될 수 있다는 의미에서, 애니메이션은 연속적이지 않을 수 있다. 몰핑은 이미지 공간상의 대응점의 선형 인터폴레이션을 사용하여 실현될 수 있다. 중간적 이미지들을 창조하기 위해, 다음의 수학식들을 사용하여 선형 인터폴레이션이 적용된다.
여기서, P1및 P2는 이미지들 I1및 I2의 대응점들이고, Ii은 1≤i≤2의 조건에서의 i번째의 인터폴레이팅된 이미지이다. 효율적인 처리를 위해, 이미지 인터폴레이션은 Pi및 Ii에 대하여 미리-계산된 해쉬 테이블(hash table)을 사용하여 구현될 수 있다. 사용된 점들의 번호와 정확도를 통해, 일반적으로 인터폴레이팅된 얼굴 모델은 결과하는 이미지 품질을 결정한다.
따라서, 원격 디스플레이에서 재구성된 얼굴은 검출된 표현들에 대응하는 이미지 조각들을 습득(learning) 단계에서 조립함으로써 구성될 수 있다. 따라서, 아바타는 애니메이션을 지배하는(commanding) 사람에 대응하는 특징들을 나타낸다. 그래서, 초기화시 각 특징후의 얼굴의 결과한 이미지로서 각각의 추적된 얼굴 특징과 "얼굴 컨테이너(container)"에 대응하는 생산된 이미지 세트가 제거된다. 애니메이션이 시작되고 얼굴 감지는 이전에 설명된 바와 같이 전송된 특정 태그들을 발생시키기 위해 사용된다. 전송된 태그들, 예를 들어 태그 '웃는-입"(146)(도 16A, 16B)으로 라벨 분류된 입의 이미지과 관련된 이미지 조각들을 선택함으로써 디코딩이 일어난다.
상술된 다이내믹 텍스쳐 생성이 도 17에 도시한 바와 같은 부피 몰핑의 보다 편리한 기술로 구성될 때, 아바타 애니메이션은 보다 앞선 레벨에 도달할 수 있다. 부피 몰핑(volume morphing)을 달성하기 위해, 노드 위치들의 장소가 사용되어서 매시(mesh)(150)상의 제어 점들을 유도할 수 있다. 다음으로, 태그들을 사용하여 다이내믹하게 생성된 텍스쳐들(152)은 그 후, 매쉬로 맵핑되어서 사실적인 머리 이미지(154)를 나타낸다. 메시(mesh) 상의 제어 점들의 유도기들(driver)로서 감지된 노드의 사용에 대한 다른 대안으로, 로컬 몰프 타겟(local morph target)을 선택하기 위해 태그드을 사용하는 것을 들 수 있다. 몰프 타겟은 샘플 제트들이 수집된 서로 다른 얼굴 표현들과 몸짓들에 대해 결정된 로컬 메시 구성이다. 이들 로컬 메시 지오메트리들은 스테레오 비젼(vision) 기술들에 의해 결정될 수 있다. 몰프 타겟의 사용은 다음의 참조에서 보다 더 발전된다(J. R. Kent, W. E. Carlson, and R. E. Parent, Shape Transformation for Polyhedral Objects, In SIGGRAPH 92 Conference Proceedings, Volume 26, pages 47-54, August 1992; Pighin et al. 1998, supra를 볼 것).
비젼-기본 아바타 애니메이션으로의 유용한 확장은 소리(speech) 분석을 갖는 얼굴 감지과 결합하여, 도 18에 도시된 바와 같은 정확한 입술 움직임을 종합하는 것이다. 립 싱킹(lip synching) 기술은 소리로부터 결과되는 입술 움직임을 아바타에 맵핑하는 데, 특히 유용하다. 이것은 또한 비젼-기본 입술 추적 실패의 경우 백-업으로서도 도움이 된다.
앞서 말한 내용은 본 발명의 바람직한 실시예를 개시하였으나, 기술에서의 숙련자들은 본 발명의 범위에 멀어지지 않은 채 바람직한 실시예에 다양한 변화를 줄 수 있도록 이해될 수 있다. 본 발명은 다음의 청구항으로만 정의된다.

Claims (26)

  1. 일련의 이미지 프레임들상에서의 특징 감지를 위한 방법에 있어서,
    변환 이미지 프레임을 생성하기 위해, 웨이브렛(wavelet) 변환을 이용하여 각 이미지 프레임을 변환하기 위한 단계와,
    상기 변환된 이미지 프레임에 대하여 모델 그래프를 이동시키고, 노드 위치들과 상기 변환된 이미지 프레임 간의 최대 제트 유사도가 되는 상기 변환된 이미지 프레임의 위치에, 상기 모델 그래프를 위치시킴으로써, 상기 모델 그래프의 웨이브렛 제트(jet)들과 연관된 노드 위치들을 상기 변환된 이미지 프레임으로 초기화하기 위한 단계와,
    이미지 프레임들 간의 상기 모델 그래프의 하나 이상의 노드 위치들의 위치를 추적하기 위한 단계와,
    상기 노드 위치가 상기 이미지 프레임들 간의 소정의 위치 제한(constraint)에서 벗어날 때, 추적된 노드를 재초기화하기 위한 단계를 포함하는 특징 감지를 위한 방법.
  2. 제1항에 있어서, 상기 초기화 단계에 사용된 상기 모델 그래프는 소정의 자세(pose)에 기초되는 특징 감지를 위한 방법.
  3. 제1항에 있어서, 상기 추적 단계는 신축 집군 그래프 정합(bunch graph matching)을 사용하여 상기 노드 위치들을 추적하는 특징 감지를 위한 방법.
  4. 제1항에 있어서, 상기 추적 단계는 다음 이미지 프레임의 노드 위치들을 예상하기 위해 선형 위치 예상(linear position prediction)을 사용하고, 재초기화 단계는 소정의 임계치 편차보다 큰 상기 예상된 노드 위치로부터의 편차에 기초된 노드 위치를 재초기화하는 특징 감지를 위한 방법.
  5. 제1항에 있어서, 상기 소정의 위치 제한은 상기 노드 위치들 간의 상대적 위치들과 연관된 지오메트리(geometric) 위치 제한에 기초된 특징 감지를 위한 방법.
  6. 제1항에 있어서, 상기 노드 위치들은 아바타(avatar) 이미지를 애니메이션화하기 위해 원격 사이트(remote site)로 전송되는 특징 감지를 위한 방법.
  7. 제1항에 있어서, 상기 추적 단계는 얼굴 특성을 결정하는 단계를 포함하는 특징 감지를 위한 방법.
  8. 제7항에 있어서, 상기 추적 단계에 의해 결정된 상기 얼굴 특성들에 기초를 둔 얼굴 특성들을 갖는 아바타 이미지를 애니메이션화하기 위해, 상기 노드들과 상기 얼굴 특성들을 원격 사이트로 전송하는 단계를 더 포함하는 특징 감지를 위한 방법.
  9. 제7항에 있어서, 상기 추적 단계에 의해 결정된 얼굴 특성들은 입(mouth)이 벌려지거나(open) 또는 닫혀지는(closed) 것인 특징 감지를 위한 방법.
  10. 제7항에 있어서, 상기 추적 단계에 의해 결정된 상기 얼굴 특성은 눈(eye)이 떠지거나 또는 감겨지는 것인 특징 감지를 위한 방법.
  11. 제7항에 있어서, 상기 추적 단계에 의해 결정된 상기 얼굴 특성은 상기 입속의 혀(tongue)가 보이거나 또는 그렇지 않은 것인 특징 감지를 위한 방법.
  12. 제7항에 있어서, 상기 추적 단계에 의해 결정된 상기 얼굴 특성은 상기 이미지에서 검출된 얼굴 주름살에 기초를 둔 특징 감지를 위한 방법.
  13. 제7항에 있어서, 상기 추적 단계에 의해 결정된 상기 얼굴 특성은 헤어 타입(hair type)에 기초를 둔 특징 감지를 위한 방법.
  14. 제7항에 있어서, 각 얼굴 특성은 상기 얼굴 특성과 연관된 상기 이미지 프레임의 이미지 세그먼트(segment)를 식별하는 이미지 태그와의 트레이닝(training)에 의해 연관된 특징 감지를 위한 방법.
  15. 제14항에 있어서, 상기 연관된 이미지 태그에 의해 식별된 상기 이미지 세그먼트들이 아바타 이미지로 몰핑되는(morphed) 특징 감지를 위한 방법.
  16. 제14항에 있어서, 상기 노드 위치들과 특징 태그들은 상기 대응하는 이미지 세그먼트들을 3차원 이미지로 부피 몰핑(volume morphing)하기 위해 사용되는 특징 감지를 위한 방법.
  17. 제7항에 있어서, 상기 모델 그래프는 사람 얼굴상의 두드러진 특징들과 관련된 18개의 위치 노드들을 포함하는 특징 감지를 위한 방법.
  18. 제17항에 있어서, 상기 얼굴의 상기 18개의 노드 위치들은
    우안구 동공,
    좌안구 동공,
    코의 최상부,
    우측 눈썹의 우측 모서리,
    우측 눈썹의 좌측 모서리,
    좌측 눈썹의 우측 모서리,
    좌측 눈썹의 좌측 모서리,
    우측 콧구멍,
    코 끝,
    좌측 콧구멍,
    입의 우측 모서리,
    윗 입술의 중심,
    입의 좌측 모서리,
    아랫 입술의 중심,
    우측 귀의 최저부,
    우측 귀의 최상부,
    좌측 귀의 최상부, 및
    좌측 귀의 최저부에 각각 연관되는 특징 감지를 위한 방법.
  19. 제1항에 있어서, 상기 노드 위치 추적 단계는 오디오 신호-상기 오디오 신호는 상기 오디오 신호를 발생시키는 입의 상기 노드 위치들의 움직임과 연관됨-에 기초된 립 싱킹(lip synching)을 포함하는 특징 감지를 위한 방법.
  20. 얼굴 특징 발견에 기초된 머리 모델을 개별화하기 위한 방법에 있어서, 상기 얼굴 특징 발견은 신축 집군 그래프 정합에 기초를 둔 머리 모델을 개별화하기 위한 방법.
  21. 제20항에 있어서, 상기 정합은 대강에서-세밀한 쪽으로의 접근(coarse-to-fine approach)을 사용하여 행해지는 머리 모델을 개별화하기 위한 방법.
  22. 일련의 이미지 프레임들에서의 특징 감지를 위한 장치에 있어서,
    변환 이미지 프레임을 생성하기 위해, 웨이브렛(wavelet) 변환을 이용하여 각 이미지 프레임을 변환하기 위한 수단과,
    상기 변환된 이미지 프레임에 대해 모델 그래프를 이동시키고, 노드 위치들과 상기 변환된 이미지 프레임 간의 최대 제트 유사도가 되는 상기 변환된 이미지 프레임의 위치에, 상기 모델 그래프를 위치시킴으로써, 상기 모델 그래프의 웨이브렛 제트(jet)들과 연관된 노드 위치들을 상기 변환된 이미지 프레임으로 초기화하기 위한 수단과,
    이미지 프레임들 간의 상기 모델 그래프의 하나 이상의 노드 위치들의 위치를 추적하기 위한 수단과,
    상기 노드 위치가 상기 이미지 프레임들 간의 소정의 위치 제한(constraint)에서 벗어날 때, 추적된 노드를 재초기화하기 위한 수단을 포함하는 특징 감지를 위한 장치.
  23. 제22항에 있어서,
    얼굴 특성을 결정하기 위한 수단과,
    상기 결정된 수단에 의해 생성된 상기 얼굴 특성들에 기초된 얼굴 특성들을갖는 아바타 이미지를 애니메이션화하기 위한 수단을 더 포함하는 특징 감지를 위한 장치.
  24. 제23항에 있어서, 상기 모델 그래프는 사람 얼굴상의 두드러진 특징들과 연관된 18개의 위치 노드들을 포함하는 특징 감지를 위한 장치.
  25. 얼굴 이미지 분석을 위한 모델 그래프에 있어서, 상기 사람 얼굴상의 두드러진 특징들과 연관된 상기 18개의 위치 노드들을 포함하는 얼굴 이미지 분석을 위한 모델 그래프.
  26. 제25항에 있어서, 상기 얼굴의 상기 18개의 노드 위치들은
    우안구 동공,
    좌안구 동공,
    코의 최상부,
    우측 눈썹의 우측 모서리,
    우측 눈썹의 좌측 모서리,
    좌측 눈썹의 우측 모서리,
    좌측 눈썹의 좌측 모서리,
    우측 콧구멍,
    코 끝,
    좌측 콧구멍,
    입의 우측 모서리,
    윗 입술의 중심,
    입의 좌측 모서리,
    아랫 입술의 중심,
    우측 귀의 최저부,
    우측 귀의 최상부,
    좌측 귀의 최상부, 및
    좌측 귀의 최저부에 각각 연관되는 얼굴 이미지 분석을 위한 모델 그래프.
KR10-2000-7011375A 1998-04-13 1999-04-12 아바타 애니메이션을 위한 웨이브렛-기반 얼굴 움직임 캡쳐 KR100530812B1 (ko)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US8161598P 1998-04-13 1998-04-13
US60/081,615 1998-04-13
US09/188,079 1998-11-06
US09/188,079 US6272231B1 (en) 1998-11-06 1998-11-06 Wavelet-based facial motion capture for avatar animation
US9/188,079 1998-11-06

Publications (2)

Publication Number Publication Date
KR20010042673A true KR20010042673A (ko) 2001-05-25
KR100530812B1 KR100530812B1 (ko) 2005-11-28

Family

ID=26765754

Family Applications (1)

Application Number Title Priority Date Filing Date
KR10-2000-7011375A KR100530812B1 (ko) 1998-04-13 1999-04-12 아바타 애니메이션을 위한 웨이브렛-기반 얼굴 움직임 캡쳐

Country Status (10)

Country Link
US (1) US6580811B2 (ko)
EP (1) EP1072018B1 (ko)
JP (2) JP3970520B2 (ko)
KR (1) KR100530812B1 (ko)
AT (1) ATE248409T1 (ko)
AU (1) AU3639699A (ko)
BR (1) BR9909611B1 (ko)
CA (1) CA2327304A1 (ko)
DE (1) DE69910757T2 (ko)
WO (1) WO1999053443A1 (ko)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011062757A2 (en) * 2009-11-18 2011-05-26 1/4Microsoft Corporation Systems and methods for tracking a model
US8861839B2 (en) 2009-10-07 2014-10-14 Microsoft Corporation Human tracking system
US8867820B2 (en) 2009-10-07 2014-10-21 Microsoft Corporation Systems and methods for removing a background of an image
US8963829B2 (en) 2009-10-07 2015-02-24 Microsoft Corporation Methods and systems for determining and tracking extremities of a target

Families Citing this family (208)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100530812B1 (ko) 1998-04-13 2005-11-28 네브엔지니어링 인코포레이티드 아바타 애니메이션을 위한 웨이브렛-기반 얼굴 움직임 캡쳐
DE19837004C1 (de) * 1998-08-14 2000-03-09 Christian Eckes Verfahren zum Erkennen von Objekten in digitalisierten Abbildungen
US6714661B2 (en) 1998-11-06 2004-03-30 Nevengineering, Inc. Method and system for customizing facial feature tracking using precise landmark finding on a neutral face image
US7050655B2 (en) * 1998-11-06 2006-05-23 Nevengineering, Inc. Method for generating an animated three-dimensional video head
US7050624B2 (en) 1998-12-04 2006-05-23 Nevengineering, Inc. System and method for feature location and tracking in multiple dimensions including depth
SG91841A1 (en) * 1999-11-03 2002-10-15 Kent Ridge Digital Labs Face direction estimation using a single gray-level image
US6792144B1 (en) 2000-03-03 2004-09-14 Koninklijke Philips Electronics N.V. System and method for locating an object in an image using models
US6948131B1 (en) * 2000-03-08 2005-09-20 Vidiator Enterprises Inc. Communication system and method including rich media tools
US6992665B2 (en) * 2000-03-29 2006-01-31 Minolta Co., Ltd. Method and device for fitting surface to point group, modeling device, and computer program
US7227526B2 (en) 2000-07-24 2007-06-05 Gesturetek, Inc. Video-based image control system
KR20030029638A (ko) * 2000-07-24 2003-04-14 아이매틱 인터페이시즈, 인크. 무표정 얼굴 이미지를 사용하여 아바타 애니메이션 변환을생성하기 위한 방법 및 시스템
WO2002009038A2 (en) * 2000-07-24 2002-01-31 Eyematic Interfaces, Inc. Method and system for customizing facial feature tracking using precise landmark finding on a neutral face image
DE10063402A1 (de) * 2000-12-19 2002-06-20 Dietrich Karl Werner Elektronische Reproduktion eines menschlichen Individuums
US6917703B1 (en) 2001-02-28 2005-07-12 Nevengineering, Inc. Method and apparatus for image analysis of a gabor-wavelet transformed image using a neural network
US7116330B2 (en) * 2001-02-28 2006-10-03 Intel Corporation Approximating motion using a three-dimensional model
US6697072B2 (en) * 2001-03-26 2004-02-24 Intel Corporation Method and system for controlling an avatar using computer vision
US7392287B2 (en) 2001-03-27 2008-06-24 Hemisphere Ii Investment Lp Method and apparatus for sharing information using a handheld device
US8035612B2 (en) 2002-05-28 2011-10-11 Intellectual Ventures Holding 67 Llc Self-contained interactive video display system
US7259747B2 (en) * 2001-06-05 2007-08-21 Reactrix Systems, Inc. Interactive video display system
US8300042B2 (en) 2001-06-05 2012-10-30 Microsoft Corporation Interactive video display system using strobed light
SE0102360D0 (sv) * 2001-07-02 2001-07-02 Smart Eye Ab Method for image analysis
DE50102061D1 (de) * 2001-08-01 2004-05-27 Zn Vision Technologies Ag Hierarchische Bildmodellanpassung
US6834115B2 (en) * 2001-08-13 2004-12-21 Nevengineering, Inc. Method for optimizing off-line facial feature tracking
US6853379B2 (en) 2001-08-13 2005-02-08 Vidiator Enterprises Inc. Method for mapping facial animation values to head mesh positions
US6876364B2 (en) 2001-08-13 2005-04-05 Vidiator Enterprises Inc. Method for mapping facial animation values to head mesh positions
US7369686B2 (en) 2001-08-23 2008-05-06 Sony Corporation Robot apparatus, face recognition method, and face recognition apparatus
US7130446B2 (en) * 2001-12-03 2006-10-31 Microsoft Corporation Automatic detection and tracking of multiple individuals using multiple cues
CA2469565A1 (en) * 2001-12-06 2003-07-03 New York University Logic arrangement, data structure, system and method for multilinear representation of multimodal data ensembles for synthesis, recognition and compression
KR20050000369A (ko) 2002-03-12 2005-01-03 메나키, 엘엘씨 움직임 추적 시스템 및 방법
US7710391B2 (en) 2002-05-28 2010-05-04 Matthew Bell Processing an image utilizing a spatially varying pattern
DE10226257A1 (de) * 2002-06-13 2003-12-24 Bosch Gmbh Robert Verfahren zur Detektion einer Person in einem Raum
AU2003301043A1 (en) 2002-12-13 2004-07-09 Reactrix Systems Interactive directed light/sound system
US20040152512A1 (en) * 2003-02-05 2004-08-05 Collodi David J. Video game with customizable character appearance
US7009561B2 (en) 2003-03-11 2006-03-07 Menache, Llp Radio frequency motion tracking system and method
JP2004289254A (ja) 2003-03-19 2004-10-14 Matsushita Electric Ind Co Ltd テレビ電話端末
US7711155B1 (en) * 2003-04-14 2010-05-04 Videomining Corporation Method and system for enhancing three dimensional face modeling using demographic classification
US7415148B2 (en) * 2003-08-04 2008-08-19 Raytheon Company System and method for detecting anomalous targets including cancerous cells
WO2005020030A2 (en) * 2003-08-22 2005-03-03 University Of Houston Multi-modal face recognition
JP2005100367A (ja) * 2003-09-02 2005-04-14 Fuji Photo Film Co Ltd 画像生成装置、画像生成方法、及び画像生成プログラム
CA2440015A1 (en) * 2003-09-03 2005-03-03 National Research Council Of Canada Second order change detection in video
WO2005041579A2 (en) 2003-10-24 2005-05-06 Reactrix Systems, Inc. Method and system for processing captured image information in an interactive video display system
EP1676442A2 (en) 2003-10-24 2006-07-05 Reactrix Systems, Inc. Method and system for managing an interactive video display system
US20050163379A1 (en) * 2004-01-28 2005-07-28 Logitech Europe S.A. Use of multimedia data for emoticons in instant messaging
US20050168485A1 (en) * 2004-01-29 2005-08-04 Nattress Thomas G. System for combining a sequence of images with computer-generated 3D graphics
US7626569B2 (en) * 2004-10-25 2009-12-01 Graphics Properties Holdings, Inc. Movable audio/video communication interface system
TW200620049A (en) * 2004-12-14 2006-06-16 Bextech Inc System and method for processing stream video process
US20060184066A1 (en) * 2005-02-15 2006-08-17 Baylor College Of Medicine Method for aiding stent-assisted coiling of intracranial aneurysms by virtual parent artery reconstruction
JP4645223B2 (ja) * 2005-02-18 2011-03-09 富士通株式会社 顔追跡プログラムおよび顔追跡方法
US8235725B1 (en) 2005-02-20 2012-08-07 Sensory Logic, Inc. Computerized method of assessing consumer reaction to a business stimulus employing facial coding
EP1693783B1 (en) * 2005-02-21 2009-02-11 Mitsubishi Electric Information Technology Centre Europe B.V. Fast method of object detection by statistical template matching
DE602005012672D1 (de) * 2005-02-21 2009-03-26 Mitsubishi Electric Corp Verfahren zum Detektieren von Gesichtsmerkmalen
NZ561570A (en) 2005-03-16 2010-02-26 Lucasfilm Entertainment Compan Three-dimensional motion capture
US7353034B2 (en) 2005-04-04 2008-04-01 X One, Inc. Location sharing and tracking using mobile phones or other wireless devices
US9128519B1 (en) 2005-04-15 2015-09-08 Intellectual Ventures Holding 67 Llc Method and system for state-based control of objects
US8081822B1 (en) 2005-05-31 2011-12-20 Intellectual Ventures Holding 67 Llc System and method for sensing a feature of an object in an interactive video display
US8606950B2 (en) * 2005-06-08 2013-12-10 Logitech Europe S.A. System and method for transparently processing multimedia data
US7209577B2 (en) * 2005-07-14 2007-04-24 Logitech Europe S.A. Facial feature-localized and global real-time video morphing
WO2007020789A1 (ja) * 2005-08-12 2007-02-22 Sony Computer Entertainment Inc. 顔画像表示装置、顔画像表示方法及び顔画像表示プログラム
US7672504B2 (en) * 2005-09-01 2010-03-02 Childers Edwin M C Method and system for obtaining high resolution 3-D images of moving objects by use of sensor fusion
US8094928B2 (en) 2005-11-14 2012-01-10 Microsoft Corporation Stereo video for gaming
US8098277B1 (en) 2005-12-02 2012-01-17 Intellectual Ventures Holding 67 Llc Systems and methods for communication between a reactive video system and a mobile communication device
JP4760349B2 (ja) * 2005-12-07 2011-08-31 ソニー株式会社 画像処理装置および画像処理方法、並びに、プログラム
US20070230794A1 (en) * 2006-04-04 2007-10-04 Logitech Europe S.A. Real-time automatic facial feature replacement
CN101443784B (zh) 2006-04-26 2013-03-06 阿瓦尔有限公司 指纹预检质量和分割
US7961947B2 (en) * 2006-07-28 2011-06-14 Sony Corporation FACS cleaning in motion capture
US7782866B1 (en) 2006-09-29 2010-08-24 Qurio Holdings, Inc. Virtual peer in a peer-to-peer network
JP2008171108A (ja) * 2007-01-10 2008-07-24 Matsushita Electric Ind Co Ltd 顔状況判定処理装置および撮像装置
US20080166052A1 (en) * 2007-01-10 2008-07-10 Toshinobu Hatano Face condition determining device and imaging device
US8199152B2 (en) * 2007-01-16 2012-06-12 Lucasfilm Entertainment Company Ltd. Combining multiple session content for animation libraries
US8130225B2 (en) 2007-01-16 2012-03-06 Lucasfilm Entertainment Company Ltd. Using animation libraries for object identification
US8542236B2 (en) * 2007-01-16 2013-09-24 Lucasfilm Entertainment Company Ltd. Generating animation libraries
US7849420B1 (en) 2007-02-26 2010-12-07 Qurio Holdings, Inc. Interactive content representations enabling content sharing
US9098167B1 (en) 2007-02-26 2015-08-04 Qurio Holdings, Inc. Layered visualization of content representations
US7840903B1 (en) 2007-02-26 2010-11-23 Qurio Holdings, Inc. Group content representations
DE102007010664A1 (de) * 2007-03-02 2008-09-04 Deutsche Telekom Ag Verfahren und Videokommunikationssystem zur Einspeisung von Avatar-Informationen in einem Videodatenstrom
DE102007010662A1 (de) * 2007-03-02 2008-09-04 Deutsche Telekom Ag Verfahren und Videokommunikationssystem zur Gestik-basierten Echtzeit-Steuerung eines Avatars
US20080263040A1 (en) * 2007-04-02 2008-10-23 Nikhilesh Talreja System and method for making a face call
US8260266B1 (en) 2007-06-26 2012-09-04 Qurio Holdings, Inc. Method and system for third-party discovery of proximity-based services
US20090037822A1 (en) * 2007-07-31 2009-02-05 Qurio Holdings, Inc. Context-aware shared content representations
US9111285B2 (en) * 2007-08-27 2015-08-18 Qurio Holdings, Inc. System and method for representing content, user presence and interaction within virtual world advertising environments
US20090067706A1 (en) * 2007-09-12 2009-03-12 Artec Ventures System and Method for Multiframe Surface Measurement of the Shape of Objects
KR101141087B1 (ko) 2007-09-14 2012-07-12 인텔렉츄얼 벤처스 홀딩 67 엘엘씨 제스처-기반 사용자 상호작용의 프로세싱
KR102341800B1 (ko) 2007-09-26 2021-12-21 에이큐 미디어 인크 오디오-비주얼 내비게이션 및 통신
US8261307B1 (en) 2007-10-25 2012-09-04 Qurio Holdings, Inc. Wireless multimedia content brokerage service for real time selective content provisioning
US8159682B2 (en) 2007-11-12 2012-04-17 Intellectual Ventures Holding 67 Llc Lens system
US8144153B1 (en) 2007-11-20 2012-03-27 Lucasfilm Entertainment Company Ltd. Model production for animation libraries
KR100896065B1 (ko) * 2007-12-17 2009-05-07 한국전자통신연구원 3차원 얼굴 표정 애니메이션 생성 방법
JP5004181B2 (ja) * 2008-01-11 2012-08-22 Kddi株式会社 領域識別装置およびコンテンツ識別装置
US8126858B1 (en) 2008-01-23 2012-02-28 A9.Com, Inc. System and method for delivering content to a communication device in a content delivery system
EP2263190A2 (en) * 2008-02-13 2010-12-22 Ubisoft Entertainment S.A. Live-action image capture
US8259163B2 (en) 2008-03-07 2012-09-04 Intellectual Ventures Holding 67 Llc Display with built in 3D sensing
US8098938B1 (en) 2008-03-17 2012-01-17 Google Inc. Systems and methods for descriptor vector computation
US8212809B2 (en) * 2008-04-24 2012-07-03 International Business Machines Corporation Floating transitions
US8259100B2 (en) * 2008-04-24 2012-09-04 International Business Machines Corporation Fixed path transitions
US8466931B2 (en) * 2008-04-24 2013-06-18 International Business Machines Corporation Color modification of objects in a virtual universe
US8233005B2 (en) * 2008-04-24 2012-07-31 International Business Machines Corporation Object size modifications based on avatar distance
US7953255B2 (en) * 2008-05-01 2011-05-31 At&T Intellectual Property I, L.P. Avatars in social interactive television
US8676001B2 (en) 2008-05-12 2014-03-18 Google Inc. Automatic discovery of popular landmarks
US8595218B2 (en) 2008-06-12 2013-11-26 Intellectual Ventures Holding 67 Llc Interactive display management systems and methods
US9015778B2 (en) 2008-06-25 2015-04-21 AT&T Intellectual Property I. LP Apparatus and method for media on demand commentaries
US8839327B2 (en) 2008-06-25 2014-09-16 At&T Intellectual Property Ii, Lp Method and apparatus for presenting media programs
US8990705B2 (en) * 2008-07-01 2015-03-24 International Business Machines Corporation Color modifications of objects in a virtual universe based on user display settings
US8471843B2 (en) * 2008-07-07 2013-06-25 International Business Machines Corporation Geometric and texture modifications of objects in a virtual universe based on real world user characteristics
US8243988B1 (en) 2008-07-31 2012-08-14 Google Inc. Clustering images using an image region graph
US20100070987A1 (en) * 2008-09-12 2010-03-18 At&T Intellectual Property I, L.P. Mining viewer responses to multimedia content
US8225348B2 (en) 2008-09-12 2012-07-17 At&T Intellectual Property I, L.P. Moderated interactive media sessions
US20100070858A1 (en) * 2008-09-12 2010-03-18 At&T Intellectual Property I, L.P. Interactive Media System and Method Using Context-Based Avatar Configuration
US20100094936A1 (en) * 2008-10-15 2010-04-15 Nokia Corporation Dynamic Layering of an Object
US8872832B2 (en) * 2008-12-18 2014-10-28 Digital Domain 3.0, Inc. System and method for mesh stabilization of facial motion capture data
US9142024B2 (en) * 2008-12-31 2015-09-22 Lucasfilm Entertainment Company Ltd. Visual and physical motion sensing for three-dimensional motion capture
US20100177117A1 (en) 2009-01-14 2010-07-15 International Business Machines Corporation Contextual templates for modifying objects in a virtual universe
US8406507B2 (en) * 2009-01-14 2013-03-26 A9.Com, Inc. Method and system for representing image patches
US8738647B2 (en) * 2009-02-18 2014-05-27 A9.Com, Inc. Method and system for image matching
US8649555B1 (en) * 2009-02-18 2014-02-11 Lucasfilm Entertainment Company Ltd. Visual tracking framework
US9276761B2 (en) * 2009-03-04 2016-03-01 At&T Intellectual Property I, L.P. Method and apparatus for group media consumption
US8275623B2 (en) 2009-03-06 2012-09-25 At&T Intellectual Property I, L.P. Method and apparatus for analyzing discussion regarding media programs
US8224042B2 (en) * 2009-03-12 2012-07-17 Seiko Epson Corporation Automatic face recognition
US8442330B2 (en) * 2009-03-31 2013-05-14 Nbcuniversal Media, Llc System and method for automatic landmark labeling with minimal supervision
KR101555347B1 (ko) 2009-04-09 2015-09-24 삼성전자 주식회사 비디오 기반 얼굴 애니메이션 생성 장치 및 방법
US8396287B2 (en) 2009-05-15 2013-03-12 Google Inc. Landmarks from digital photo collections
US8321787B2 (en) 2009-06-30 2012-11-27 International Business Machines Corporation Managing multiple virtual world accounts from a single virtual lobby interface
US8413218B1 (en) * 2009-07-02 2013-04-02 United Services Automobile Association (Usaa) Systems and methods for videophone identity cloaking
US20110025689A1 (en) * 2009-07-29 2011-02-03 Microsoft Corporation Auto-Generating A Visual Representation
US8307308B2 (en) * 2009-08-27 2012-11-06 International Business Machines Corporation Updating assets rendered in a virtual world environment based on detected user interactions in another world
KR101615719B1 (ko) * 2009-09-18 2016-04-27 삼성전자주식회사 사용자의 3차원 얼굴 표정 추출 방법 및 장치
US8266652B2 (en) 2009-10-15 2012-09-11 At&T Intellectual Property I, L.P. Apparatus and method for transmitting media content
US9830605B2 (en) * 2009-10-30 2017-11-28 At&T Intellectual Property I, L.P. Apparatus and method for product marketing
US8224756B2 (en) * 2009-11-05 2012-07-17 At&T Intellectual Property I, L.P. Apparatus and method for managing a social network
US8760469B2 (en) 2009-11-06 2014-06-24 At&T Intellectual Property I, L.P. Apparatus and method for managing marketing
US9031379B2 (en) * 2009-11-10 2015-05-12 At&T Intellectual Property I, L.P. Apparatus and method for transmitting media content
US8316303B2 (en) 2009-11-10 2012-11-20 At&T Intellectual Property I, L.P. Method and apparatus for presenting media programs
US10708663B2 (en) 2009-11-13 2020-07-07 At&T Intellectual Property I, L.P. Apparatus and method for media on demand commentaries
US8387088B2 (en) 2009-11-13 2013-02-26 At&T Intellectual Property I, Lp Method and apparatus for presenting media programs
US9100550B2 (en) 2009-11-20 2015-08-04 At&T Intellectual Property I, L.P. Apparatus and method for managing a social network
US8373741B2 (en) * 2009-11-20 2013-02-12 At&T Intellectual Property I, Lp Apparatus and method for collaborative network in an enterprise setting
US8839306B2 (en) 2009-11-20 2014-09-16 At&T Intellectual Property I, Lp Method and apparatus for presenting media programs
US9094726B2 (en) * 2009-12-04 2015-07-28 At&T Intellectual Property I, Lp Apparatus and method for tagging media content and managing marketing
US8189964B2 (en) 2009-12-07 2012-05-29 Google Inc. Matching an approximately located query image against a reference image set
US8774527B1 (en) 2009-12-07 2014-07-08 Google Inc. Matching an approximately located query image against a reference image set using cellular base station and wireless access point information
US8238671B1 (en) 2009-12-07 2012-08-07 Google Inc. Scene classification for place recognition
CN101976330B (zh) * 2010-09-26 2013-08-07 中国科学院深圳先进技术研究院 手势识别方法和系统
US8990199B1 (en) 2010-09-30 2015-03-24 Amazon Technologies, Inc. Content search with category-aware visual similarity
US8463036B1 (en) 2010-09-30 2013-06-11 A9.Com, Inc. Shape-based search of a collection of content
US8422782B1 (en) 2010-09-30 2013-04-16 A9.Com, Inc. Contour detection and image classification
US8682041B2 (en) * 2011-01-28 2014-03-25 Honeywell International Inc. Rendering-based landmark localization from 3D range images
US8509525B1 (en) 2011-04-06 2013-08-13 Google Inc. Clustering of forms from large-scale scanned-document collection
US8937620B1 (en) 2011-04-07 2015-01-20 Google Inc. System and methods for generation and control of story animation
US8913055B2 (en) * 2011-05-31 2014-12-16 Honda Motor Co., Ltd. Online environment mapping
US9013489B2 (en) 2011-06-06 2015-04-21 Microsoft Technology Licensing, Llc Generation of avatar reflecting player appearance
US8948447B2 (en) 2011-07-12 2015-02-03 Lucasfilm Entertainment Companyy, Ltd. Scale independent tracking pattern
US8564684B2 (en) * 2011-08-17 2013-10-22 Digimarc Corporation Emotional illumination, and related arrangements
KR101381439B1 (ko) * 2011-09-15 2014-04-04 가부시끼가이샤 도시바 얼굴 인식 장치 및 얼굴 인식 방법
WO2013074926A1 (en) 2011-11-18 2013-05-23 Lucasfilm Entertainment Company Ltd. Path and speed based character control
US9398262B2 (en) * 2011-12-29 2016-07-19 Intel Corporation Communication using avatar
JP6259808B2 (ja) * 2012-03-14 2018-01-10 グーグル エルエルシー ビデオ会議中の参加者の風貌修正
WO2013152453A1 (en) 2012-04-09 2013-10-17 Intel Corporation Communication using interactive avatars
CN102880866B (zh) * 2012-09-29 2014-12-17 宁波大学 一种人脸特征提取方法
US9147275B1 (en) 2012-11-19 2015-09-29 A9.Com, Inc. Approaches to text editing
US9336435B1 (en) 2012-11-21 2016-05-10 Ozog Media, LLC System, method, and computer program product for performing processing based on object recognition
US9330301B1 (en) 2012-11-21 2016-05-03 Ozog Media, LLC System, method, and computer program product for performing processing based on object recognition
US9043349B1 (en) 2012-11-29 2015-05-26 A9.Com, Inc. Image-based character recognition
US9342930B1 (en) 2013-01-25 2016-05-17 A9.Com, Inc. Information aggregation for recognized locations
US10708545B2 (en) * 2018-01-17 2020-07-07 Duelight Llc System, method, and computer program for transmitting face models based on face data points
WO2014153689A1 (en) 2013-03-29 2014-10-02 Intel Corporation Avatar animation, social networking and touch screen applications
US9508197B2 (en) 2013-11-01 2016-11-29 Microsoft Technology Licensing, Llc Generating an avatar from real time image data
US9424598B1 (en) 2013-12-02 2016-08-23 A9.Com, Inc. Visual search in a controlled shopping environment
WO2015154205A1 (en) * 2014-04-11 2015-10-15 Xiaoou Tang Methods and systems for verifying face images based on canonical images
US9792716B2 (en) * 2014-06-13 2017-10-17 Arcsoft Inc. Enhancing video chatting
US9536161B1 (en) 2014-06-17 2017-01-03 Amazon Technologies, Inc. Visual and audio recognition for scene change events
US9665804B2 (en) * 2014-11-12 2017-05-30 Qualcomm Incorporated Systems and methods for tracking an object
US9830728B2 (en) 2014-12-23 2017-11-28 Intel Corporation Augmented facial animation
RU2596062C1 (ru) 2015-03-20 2016-08-27 Автономная Некоммерческая Образовательная Организация Высшего Профессионального Образования "Сколковский Институт Науки И Технологий" Способ коррекции изображения глаз с использованием машинного обучения и способ машинного обучения
EP3371778A4 (en) * 2015-11-06 2019-06-26 Mursion, Inc. CONTROL SYSTEM FOR VIRTUAL FIGURES
US10475225B2 (en) 2015-12-18 2019-11-12 Intel Corporation Avatar animation system
WO2017120247A1 (en) * 2016-01-05 2017-07-13 Reald Spark, Llc Gaze correction of multi-view images
US10534955B2 (en) * 2016-01-22 2020-01-14 Dreamworks Animation L.L.C. Facial capture analysis and training system
US9892326B2 (en) * 2016-03-31 2018-02-13 International Business Machines Corporation Object detection in crowded scenes using context-driven label propagation
EP3458897A4 (en) 2016-05-19 2019-11-06 RealD Spark, LLC DIRECTIONALLY WIDE IMAGING IMAGING BACKLIGHTS
WO2017205183A1 (en) 2016-05-23 2017-11-30 Reald Spark, Llc Wide angle imaging directional backlights
US10282530B2 (en) * 2016-10-03 2019-05-07 Microsoft Technology Licensing, Llc Verifying identity based on facial dynamics
WO2018129059A1 (en) 2017-01-04 2018-07-12 Reald Spark, Llc Optical stack for imaging directional backlights
US11094212B2 (en) 2017-01-18 2021-08-17 Microsoft Technology Licensing, Llc Sharing signal segments of physical graph
US10482900B2 (en) 2017-01-18 2019-11-19 Microsoft Technology Licensing, Llc Organization of signal segments supporting sensed features
US10637814B2 (en) 2017-01-18 2020-04-28 Microsoft Technology Licensing, Llc Communication routing based on physical status
US10635981B2 (en) 2017-01-18 2020-04-28 Microsoft Technology Licensing, Llc Automated movement orchestration
US10437884B2 (en) 2017-01-18 2019-10-08 Microsoft Technology Licensing, Llc Navigation of computer-navigable physical feature graph
US10606814B2 (en) 2017-01-18 2020-03-31 Microsoft Technology Licensing, Llc Computer-aided tracking of physical entities
US10679669B2 (en) 2017-01-18 2020-06-09 Microsoft Technology Licensing, Llc Automatic narration of signal segment
CN106770332B (zh) * 2017-02-14 2019-04-16 杭州字节信息技术有限公司 一种基于机器视觉的电子模切料缺陷检测实现方法
WO2018187154A1 (en) 2017-04-03 2018-10-11 Reald Spark, Llc Segmented imaging directional backlights
KR20230144661A (ko) * 2017-05-16 2023-10-16 애플 인크. 이모지 레코딩 및 전송
DK179948B1 (en) 2017-05-16 2019-10-22 Apple Inc. Recording and sending Emoji
CN111183405A (zh) 2017-08-08 2020-05-19 瑞尔D斯帕克有限责任公司 调整头部区域的数字表示
KR102079378B1 (ko) * 2017-09-26 2020-02-19 고려대학교 산학협력단 영상 복원 방법 및 그 장치
EP3707554B1 (en) 2017-11-06 2023-09-13 RealD Spark, LLC Privacy display apparatus
CN111919162B (zh) 2018-01-25 2024-05-24 瑞尔D斯帕克有限责任公司 用于隐私显示器的触摸屏
US11017575B2 (en) 2018-02-26 2021-05-25 Reald Spark, Llc Method and system for generating data to provide an animated visual representation
US11573679B2 (en) * 2018-04-30 2023-02-07 The Trustees of the California State University Integration of user emotions for a smartphone or other communication device environment
DK201870374A1 (en) 2018-05-07 2019-12-04 Apple Inc. AVATAR CREATION USER INTERFACE
DK179992B1 (en) 2018-05-07 2020-01-14 Apple Inc. DISPLAY OF USER INTERFACES ASSOCIATED WITH PHYSICAL ACTIVITIES
CN110634174B (zh) * 2018-06-05 2023-10-10 深圳市优必选科技有限公司 一种表情动画过渡方法、系统及智能终端
CN109377563A (zh) * 2018-11-29 2019-02-22 广州市百果园信息技术有限公司 一种人脸网格模型的重建方法、装置、设备和存储介质
US11107261B2 (en) 2019-01-18 2021-08-31 Apple Inc. Virtual avatar animation based on facial feature movement
DK201970530A1 (en) 2019-05-06 2021-01-28 Apple Inc Avatar integration with multiple applications
CN111582203A (zh) * 2020-05-13 2020-08-25 广州云从鼎望科技有限公司 一种图像识别处理方法、系统、设备及介质
US11544931B2 (en) * 2020-05-26 2023-01-03 Otis Elevator Company Machine learning based human activity detection and classification in first and third person videos
WO2021252160A1 (en) 2020-06-08 2021-12-16 Apple Inc. Presenting avatars in three-dimensional environments
US20230143019A1 (en) * 2021-11-10 2023-05-11 Evr Studio Co., Ltd. Method of generating facial expression and three-dimensional (3d) graphic interface device using the same

Family Cites Families (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59226981A (ja) 1983-06-08 1984-12-20 Fujitsu Ltd パタ−ンマツチング方法および装置
JPS60592A (ja) 1983-06-15 1985-01-05 三菱電機株式会社 いねむり防止装置
US4827413A (en) 1987-06-16 1989-05-02 Kabushiki Kaisha Toshiba Modified back-to-front three dimensional reconstruction algorithm
US4907169A (en) * 1987-09-30 1990-03-06 International Technical Associates Adaptive tracking vision and guidance system
US5168529A (en) 1988-08-29 1992-12-01 Rayethon Company Confirmed boundary pattern matching
WO1991019265A1 (en) 1990-05-29 1991-12-12 Axiom Innovation Limited Machine vision stereo matching
JPH0771288B2 (ja) 1990-08-24 1995-07-31 神田通信工業株式会社 自動視野調整方法及び装置
GB9019538D0 (en) * 1990-09-07 1990-10-24 Philips Electronic Associated Tracking a moving object
US5220441A (en) 1990-09-28 1993-06-15 Eastman Kodak Company Mechanism for determining parallax between digital images
DE59107938D1 (de) 1990-10-24 1996-07-18 Siemens Ag Verfahren zur erkennung und schätzung der räumlichen lage von objekten aus einer zweidimensionalen abbildung
US5159647A (en) * 1991-03-04 1992-10-27 David Sarnoff Research Center, Inc. Fast and efficient search method for graphical data
US5680487A (en) 1991-12-23 1997-10-21 Texas Instruments Incorporated System and method for determining optical flow
US5333165A (en) 1992-02-27 1994-07-26 John K. Grady Method and apparatus for three-dimensional video signals
JP3298072B2 (ja) 1992-07-10 2002-07-02 ソニー株式会社 ビデオカメラシステム
US5383013A (en) 1992-09-18 1995-01-17 Nec Research Institute, Inc. Stereoscopic computer vision system
US5550928A (en) 1992-12-15 1996-08-27 A.C. Nielsen Company Audience measurement system and method
JPH06301393A (ja) * 1993-04-13 1994-10-28 Matsushita Electric Ind Co Ltd 音声区間検出装置及び音声認識装置
US5511153A (en) 1994-01-18 1996-04-23 Massachusetts Institute Of Technology Method and apparatus for three-dimensional, textured models from plural video images
US5581625A (en) 1994-01-31 1996-12-03 International Business Machines Corporation Stereo vision system for counting items in a queue
JP3242529B2 (ja) 1994-06-07 2001-12-25 松下通信工業株式会社 ステレオ画像対応付け方法およびステレオ画像視差計測方法
US5736982A (en) 1994-08-03 1998-04-07 Nippon Telegraph And Telephone Corporation Virtual space apparatus with avatars and speech
US5699449A (en) 1994-11-14 1997-12-16 The University Of Connecticut Method and apparatus for implementation of neural networks for face recognition
US5714997A (en) 1995-01-06 1998-02-03 Anderson; David P. Virtual reality television system
US5982853A (en) * 1995-03-01 1999-11-09 Liebermann; Raanan Telephone for the deaf and method of using same
JP2840816B2 (ja) * 1995-03-13 1998-12-24 株式会社エイ・ティ・アール通信システム研究所 表情検出装置
US5588033A (en) 1995-06-06 1996-12-24 St. Jude Children's Research Hospital Method and apparatus for three dimensional image reconstruction from multiple stereotactic or isocentric backprojections
US5715325A (en) 1995-08-30 1998-02-03 Siemens Corporate Research, Inc. Apparatus and method for detecting a face in a video image
US5802220A (en) * 1995-12-15 1998-09-01 Xerox Corporation Apparatus and method for tracking facial motion through a sequence of images
US5774591A (en) 1995-12-15 1998-06-30 Xerox Corporation Apparatus and method for recognizing facial expressions and facial gestures in a sequence of images
US5809171A (en) 1996-01-05 1998-09-15 Mcdonnell Douglas Corporation Image processing method and apparatus for correlating a test image with a template
US5764803A (en) 1996-04-03 1998-06-09 Lucent Technologies Inc. Motion-adaptive modelling of scene content for very low bit rate model-assisted coding of video sequences
GB9610212D0 (en) * 1996-05-16 1996-07-24 Cyberglass Limited Method and apparatus for generating moving characters
US5828769A (en) 1996-10-23 1998-10-27 Autodesk, Inc. Method and apparatus for recognition of objects via position and orientation consensus of local image encoding
US6044168A (en) * 1996-11-25 2000-03-28 Texas Instruments Incorporated Model based faced coding and decoding using feature detection and eigenface coding
US5917937A (en) 1997-04-15 1999-06-29 Microsoft Corporation Method for performing stereo matching to recover depths, colors and opacities of surface elements
US6052123A (en) * 1997-05-14 2000-04-18 International Business Machines Corporation Animation reuse in three dimensional virtual reality
US5995119A (en) * 1997-06-06 1999-11-30 At&T Corp. Method for generating photo-realistic animated characters
US6011562A (en) 1997-08-01 2000-01-04 Avid Technology Inc. Method and system employing an NLE to create and modify 3D animations by mixing and compositing animation data
KR100530812B1 (ko) 1998-04-13 2005-11-28 네브엔지니어링 인코포레이티드 아바타 애니메이션을 위한 웨이브렛-기반 얼굴 움직임 캡쳐
US6301370B1 (en) * 1998-04-13 2001-10-09 Eyematic Interfaces, Inc. Face recognition from video images

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8963829B2 (en) 2009-10-07 2015-02-24 Microsoft Corporation Methods and systems for determining and tracking extremities of a target
US8861839B2 (en) 2009-10-07 2014-10-14 Microsoft Corporation Human tracking system
US8867820B2 (en) 2009-10-07 2014-10-21 Microsoft Corporation Systems and methods for removing a background of an image
US8891827B2 (en) 2009-10-07 2014-11-18 Microsoft Corporation Systems and methods for tracking a model
US8897495B2 (en) 2009-10-07 2014-11-25 Microsoft Corporation Systems and methods for tracking a model
US8970487B2 (en) 2009-10-07 2015-03-03 Microsoft Technology Licensing, Llc Human tracking system
US9522328B2 (en) 2009-10-07 2016-12-20 Microsoft Technology Licensing, Llc Human tracking system
US9582717B2 (en) 2009-10-07 2017-02-28 Microsoft Technology Licensing, Llc Systems and methods for tracking a model
US9659377B2 (en) 2009-10-07 2017-05-23 Microsoft Technology Licensing, Llc Methods and systems for determining and tracking extremities of a target
US9679390B2 (en) 2009-10-07 2017-06-13 Microsoft Technology Licensing, Llc Systems and methods for removing a background of an image
US9821226B2 (en) 2009-10-07 2017-11-21 Microsoft Technology Licensing, Llc Human tracking system
WO2011062757A3 (en) * 2009-11-18 2011-09-01 1/4Microsoft Corporation Systems and methods for tracking a model
WO2011062757A2 (en) * 2009-11-18 2011-05-26 1/4Microsoft Corporation Systems and methods for tracking a model

Also Published As

Publication number Publication date
CA2327304A1 (en) 1999-10-21
KR100530812B1 (ko) 2005-11-28
US6580811B2 (en) 2003-06-17
AU3639699A (en) 1999-11-01
JP2002511620A (ja) 2002-04-16
BR9909611A (pt) 2000-12-19
BR9909611B1 (pt) 2012-08-07
DE69910757D1 (de) 2003-10-02
WO1999053443A1 (en) 1999-10-21
JP4177402B2 (ja) 2008-11-05
US20010033675A1 (en) 2001-10-25
JP3970520B2 (ja) 2007-09-05
EP1072018B1 (en) 2003-08-27
ATE248409T1 (de) 2003-09-15
DE69910757T2 (de) 2004-06-17
JP2007109255A (ja) 2007-04-26
EP1072018A1 (en) 2001-01-31

Similar Documents

Publication Publication Date Title
KR100530812B1 (ko) 아바타 애니메이션을 위한 웨이브렛-기반 얼굴 움직임 캡쳐
US6272231B1 (en) Wavelet-based facial motion capture for avatar animation
KR100653288B1 (ko) 비디오 화상으로부터의 얼굴 인식
Noh et al. A survey of facial modeling and animation techniques
Wechsler Reliable Face Recognition Methods: System Design, Impementation and Evaluation
Pighin et al. Modeling and animating realistic faces from images
Malciu et al. A robust model-based approach for 3d head tracking in video sequences
Poggio et al. A novel approach to graphics
Achenbach et al. Accurate Face Reconstruction through Anisotropic Fitting and Eye Correction.
Ahlberg et al. Face tracking for model‐based coding and face animation
Zhi et al. Dual-space nerf: Learning animatable avatars and scene lighting in separate spaces
Fidaleo et al. Classification and volume morphing for performance-driven facial animation
US6931145B1 (en) Method and apparatus for measuring motion of an object surface by multi-resolution analysis using a mesh model
EP1580684B1 (en) Face recognition from video images
Darrell et al. Correlation and interpolation networks for real-time expression analysis/synthesis
Jian et al. Realistic face animation generation from videos
MXPA00010044A (en) Wavelet-based facial motion capture for avatar animation
Li et al. Parametric face modeling and tracking
AU2004212509B2 (en) Face recognition from video images
Yu Facial feature detection and tracking with a 3d constrained local model
Yu et al. 2D/3D model-based facial video coding/decoding at ultra-low bit-rate
Tang Human face modeling, analysis and synthesis
Cordea Real time three-dimensional head pose recovery for model-based video coding.
Chang et al. Robust head pose estimation using textured polygonal model with local correlation measure
Fisher et al. Learning cross-modal appearance models with application to tracking

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
N231 Notification of change of applicant
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20121105

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20131106

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20141105

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20151105

Year of fee payment: 11

FPAY Annual fee payment

Payment date: 20161103

Year of fee payment: 12

FPAY Annual fee payment

Payment date: 20171107

Year of fee payment: 13

LAPS Lapse due to unpaid annual fee