KR20010042659A - 비디오 화상으로부터의 얼굴 인식 - Google Patents

비디오 화상으로부터의 얼굴 인식 Download PDF

Info

Publication number
KR20010042659A
KR20010042659A KR1020007011358A KR20007011358A KR20010042659A KR 20010042659 A KR20010042659 A KR 20010042659A KR 1020007011358 A KR1020007011358 A KR 1020007011358A KR 20007011358 A KR20007011358 A KR 20007011358A KR 20010042659 A KR20010042659 A KR 20010042659A
Authority
KR
South Korea
Prior art keywords
image
node
graph
jet
picture
Prior art date
Application number
KR1020007011358A
Other languages
English (en)
Other versions
KR100653288B1 (ko
Inventor
토마스 모러
에거 발레리비치 엘라긴
루치아노 파스퀄 어고스티노 노세라
쟈네스 버나드 스텝판스
하트머트 네븐
Original Assignee
아이매틱 인터페이시즈, 인크.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 아이매틱 인터페이시즈, 인크. filed Critical 아이매틱 인터페이시즈, 인크.
Publication of KR20010042659A publication Critical patent/KR20010042659A/ko
Application granted granted Critical
Publication of KR100653288B1 publication Critical patent/KR100653288B1/ko

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/262Analysis of motion using transform domain methods, e.g. Fourier domain methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/246Calibration of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Geometry (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Processing (AREA)

Abstract

본 발명은 이미지 프레임내의 대상을 검출하고 인식하기 위한 장치 및 그에 간련된 방법에서 실시된다. 그 대상은 예를 들어, 특정 얼굴 특성들을 갖는 머리일 수 있다. 대상 검출 처리는 확실하면서 계산적으로도 효율적인 기술들을 사용한다. 대상 식별 및 인식 처리는 이미지 특징들을 제트와 같이 효율적으로 나타내는 모델 그래프 및 집군 그래프들에 기초된 이미지 처리 기술을 사용한다. 제트들은 웨이브렛 변환들로 구성되며, 쉽게 식별가능한 특징들에 대응하는 이미지상의 노드들 또는 식별 위치들에서 처리된다. 본 발명의 시스템은 자세 각도의 넓은 변화에 대하여 사람을 인식하는 것에 특히 장점이 있다.

Description

비디오 화상으로부터의 얼굴 인식{FACE RECOGNITION FROM VIDEO IMAGES}
최근에 개발된 물체 및 얼굴 인식 기술은 신축 집군 그래프 정합법을 포함한다. 상기 집군 그래프 인식 기술은 상기 화상의 얼굴 부분이 상기 화상의 실질적인 부분을 차지하도록 분석될 화상이 세그먼트될 때 얼굴을 인식하는데 매우 유효하다. 그러나, 상기 신축 집군 그래프 기술은 관심 있는 물체가 정경의 일부분만을 차지하는 큰 정경에서 물체를 확실히 검출할 수 없다. 더욱이, 상기 신축 집군 그래프 인식 기술을 실시간으로 사용하기 위하여, 상기 화상을 세그먼트화하는 프로세스는 계산상 유효하지 않으면 상기 인식 기술의 성능 이점들을 얻지 못한다.
그 외에, 비디오 화상에서 물체를 검출하고 계산상 유효하게 집군 그래프 정합 프로세스에 의해 더 프로세스할 비디오 화상을 준비하기 위한 화상 처리 기술이 상당이 필요하다. 본 발명은 이런 필요를 만족시킨다.
〈발명의 요약〉
본 발명은 화상 프레임에서 물체를 검출하고 인식하기 위한 장치, 및 관련된 방법에서 구현된다. 상기 물체 검출 프로세스는 강하고 계산상 유효한 기술을 사용한다. 상기 물체 식별 및 인식 프로세스는 화상 특징을 제트(jet)로서 유효하게 나타내는 모델 그래프와 집군 그래프에 기초를 둔 화상 처리 기술을 사용한다. 본 발명의 시스템은 갖가지 자세각에 대하여 사람을 인식하는데 특히 유리하다.
본 발명의 실시예에서, 상기 물체는 검출되고 상기 물체와 관련된 화상 프레임의 부분은 사각형 경계선으로 긋는다. 상기 화상 프레임의 경계 부분은 웨이브렛(wavelet) 변환을 사용하여 변환되어 변환 화상을 만들어낸다. 복수의 대표 물체상으로부터 만들어진 집군 그래프의 웨이브렛 제트(wavelet jet)에 의해 정의된 물체의 두드러진 특징과 관련된 노드(node)는 상기 변환 화상에 위치해 있다. 상기 물체는 물체상들의 갤러리에서 물체상과 관련된 웨이브렛 제트(wavelet jet)와 상기 변환 화상 위의 노드(node)에서 웨이브렛 제트(wavelet jet)간 유사점을 바탕으로 하여 식별된다.
그 외에, 상기 검출된 물체는 사이즈되고 상기 화상의 경계 부분의 내부 중심에 놓여질 수 있어서 상기 검출된 물체는 미리 정해진 크기와 상기 경계 부분의 내부에 위치를 갖고 상기 물체를 식별하기 전에 상기 물체와 관련 없는 화상 프레임의 경계 부분의 배경 부분은 억제될 수 있다. 종종, 상기 물체는 얼굴 영역을 나타내는 사람의 머리이다. 상기 집군 그래프는 상기 물체의 3차원 표현에 기초를 둘 수 있다. 그밖에, 상기 웨이브렛(wavelet) 변환은 하드웨어 어댑트 위상 표현을 사용한 위상 계산에 의해 수행될 수 있다.
본 발명의 대체적인 실시예에서, 상기 물체는 일련의 화상에 있고 상기 물체를 검출하는 단계는 상기 물체와 관련된 궤적에 기초를 둔 화상 프레임들 사이에서 상기 물체를 추적하는 것을 더 포함한다. 또한, 상기 노드(node)의 위치를 찾아내는 단계는 화상 프레임들 사이에서 상기 노드(node)를 추적하고 상기 노드(node)의 위치가 화상 프레임들 사이에서 미리 정해진 위치 제한을 벗어나면 추적된 노드(node)를 재초기화하는 것을 포함한다. 그 외에, 상기 화상 프레임은 입체 화상일 수 있고 상기 검출 단계는 머리 이동과 관련된 볼록 영역을 검출하는 것을 포함할 수 있다.
본 발명의 다른 특징과 이점들은 첨부한 도면과 함께 다음 바람직한 실시예들의 설명으로부터 명확하다.
본 발명은 시각에 기초를 둔 물체 검출 및 추적에 관한 것으로, 더욱 상세하게는 인간의 얼굴과 같은 비디오 화상에서 물체를 검출하며, 상기 물체를 실시간으로 추적하고 식별하기 위한 시스템에 관한 것이다.
도 1은 본 발명에 의한 얼굴 인식 프로세스의 블록 다이어그램.
도 2는 본 발명에 의한 얼굴 인식 시스템의 블록 다이어그램.
도 3은 도 1의 인식 프로세스 중 검출, 찾기 및 식별 프로세스를 나타내기 위한 일련의 화상.
도 4는 본 발명에 의한 머리 검출 및 추적 프로세스의 블록 다이어그램.
도 5는 본 발명에 의한 디스패리티(disparity) 검출 프로세스를 설명하기 위해, 화상을 첨부한 플로우 차트.
도 6은 본 발명에 의한 볼록 검출기의 개략적인 다이어그램.
도 7은 본 발명에 의한 머리 추적 프로세스의 플로우 차트.
도 8은 본 발명에 의한 프리실렉터(preselector)의 플로우 차트.
도 9는 도 1의 얼굴 인식 장치 및 시스템의 표식 찾기 기술을 설명하기 위해, 사진을 첨부한 플로우 차트.
도 10은 본 발명에 의한 가버 웨이브렛(Gabor wavelet)을 사용한 얼굴 화상의 처리를 나타내는 일련의 화상.
도 11은 본 발명에 의한 도 10의 웨이브렛(wavelet) 처리 기술을 사용한 제트(jet), 화상 그래프, 및 집군 그래프의 구성을 나타내는 그래프들.
도 12는 얼굴 화상을 처리하기 위한 본 발명에 의한 모델 그래프의 다이어그램.
도 13은 얼굴 특징의 위치를 찾아내기 위해 웨이브렛(wavelet) 처리를 사용한 두 다이어그램.
도 14는 대강에서 세밀한쪽으로의(coarse-to-fine) 표식 찾기 기술을 설명하기 위해, 눈과 입 영역이 추출된 얼굴의 다이어그램.
도 15는 위상의 원형 행동을 도시한 개략적인 다이어그램.
도 16은 본 발명에 의한 원형 행동하는 위상의 2의 보수 표현을 도시한 개략적인 다이어그램.
도 17은 본 발명의 표식 찾기 기술에 의해 찾아낸 표식을 추적하기 위한 추적 기술을 나타낸 플로우 다이어그램.
도 18은 본 발명에 의한 얼굴 특징의 추적을 나타낸 얼굴 화상들.
도 19는 1차원에서 표식 추적을 설명하기 위한 가우스 이미지 피라미드 기술의 다이어그램.
도 20은 일련의 50 화상 프레임에 대한 얼굴 특징의 추적을 나타내는 자세각 대 프레임 번호의 그래프를 첨부한 두 얼굴 화상들.
도 21은 도 1의 인식 장치 및 시스템의 자세 추정 기술을 설명하기 위한, 사진을 첨부한 플로우 다이어그램.
도 22는 3차원(3-D) 뷰(view) 액세스(access)의 오리엔테이션을 나타낸 바늘 구멍 사진기 모델의 그래프.
도 23은 3-D 사진기 교정 구성의 투시도.
도 24는 동일 행번호를 따라 입체 화상의 대응 화소를 투영하기 위한 조정의 개략적인 다이어그램.
도 25는 하나의 화상 프레임의 윈도와 다른 화상 프레임의 탐색 윈도간 상관 정합 프로세스를 나타낸 화상 프레임.
도 26은 3-D 화상 디코딩을 도시하는 입체 화상 쌍, 디스패리티 맵(disparity map) 및 화상 재구성의 화상들.
도 27은 본 발명에 의한 화상 식별 프로세스의 플로우 차트.
도 28은 배경 억제를 사용한 화상.
본 발명은 화상 프레임에서 물체를 검출하고 인식하기 위한 방법, 및 관련된 장치에서 구현된다. 상기 물체는 예를 들면, 독특한 얼굴 특징을 가진 머리일 수 있다. 상기 물체 검출 프로세스는 강하고 계산상 유효한 기술을 사용한다. 상기 물체 식별 및 인식 프로세스는 화상 특징을 제트(jet)로서 유효하게 나타내는 모델 그래프와 집군 그래프에 기초를 둔 화상 처리 기술을 사용한다. 상기 제트(jet)는 웨이브렛(wavelet) 변환으로 구성되고, 쉽게 식별할 수 있는 특징에 대응하는 화상의 노드(node)나 표식 위치에서 처리된다. 본 발명의 시스템은 갖가지 자세각에 대하여 사람을 인식하는데 특히 유리하다.
본 발명의 화상 처리 시스템은 도 1-3을 참고하여 설명된다. 상기 물체 인식 프로세스(10)는 화상 처리 시스템(12)에 의해 제공된 디지털화된 비디오 화상 데이터에 대해 작동한다. 상기 화상 데이터는 인간의 얼굴과 같은, 물체의 화상을 포함한다. 상기 화상 데이터는 단일 비디오 화상 프레임 또는 일련의 연속적인 단안(單眼)이나 입체 화상 프레임일 수 있다.
신축 집군 그래프 기술을 사용하여 얼굴 화상을 처리하기 전에, 본 발명에 의한 머리 검출 및 추적 프로세스(14)를 사용하여, 상기 화상에서 머리의 위치를 대강 찾아낸다. 상기 화상 데이터의 성질에 따라, 상기 머리 검출 모듈은 예를 들면, 운동, 색, 또는 크기(스테레오 비전), 토폴로지나 패턴에 기초를 둔 여러 가지 시각 경로들 중 하나를 사용한다. 상기 머리 검출 프로세스는 상기 검출된 머리 주위에 사각형 경계선을 두어서 상기 표식 찾기 프로세스에 의해 처리되어야 하는 화상 영역을 줄인다. 상기 머리 검출 및 추적 프로세스로부터 수신된 데이터를 바탕으로 하여, 프리실렉터(preselector)(16)는 분석할 화상 자료 중 가장 적당한 뷰(view)를 선택하며 상기 머리 화상을 중심에 놓고 기준화하도록 상기 머리 검출을 개선한다. 상기 선택된 머리 화상은 상기 신축 집군 그래프 기술을 사용하여 독특한 얼굴 특징을 검출하기 위해 표식 찾기 프로세스(18)에 제공된다. 얼굴 표식이 상기 얼굴 화상에서 발견되면, 표식 추적 프로세스(20)는 상기 표식의 추적에 사용될 수 있다. 그리고 나서 상기 표식에서 추출된 특징은 식별자 프로세스(22)에 의해 갤러리 화상으로부터 추출된 대응 특징과 비교된다. 상기 표식 찾기 프로세스가 비교적 많은 시간이 소요되고, 비교적 프레임 속도가 높은 일련의 화상 프레임에 대해 종종 실시간으로 수행될 수 없기 때문에 상기 화상 인식 프로세스의 분할은 유리하다. 그러나, 다른 한편으로, 표식 추적은 프레임 속도보다 더 빨리 수행될 수 있다. 따라서, 초기 표식 찾기 프로세스가 일어나는 동안에, 버퍼는 새로 들어오는 화상 프레임으로 채워질 수 있다. 상기 표식의 위치를 찾아내면, 표식 추적이 시작되고 상기 처리 시스템은 상기 버퍼가 클리어될 때까지 버퍼된 화상을 처리함으로써 따라잡을 수 있다. 상기 프리실렉터(preselector) 및 표식 추적 모듈은 상기 얼굴 인식 프로세스에서 생략될 수 있다.
상기 인식 프로세스의 스크린 출력은 상기 검출, 표식 찾기 및 식별자 프로세스를 위해 도 3에 나타나 있다. 상단 좌측 화상 윈도는 사각형 경계선에 의해 검출된 머리를 가진 포착된 화상을 나타낸다. 상기 머리 화상은 중심에 놓이고, 다시 사이즈되며, 상기 표식 찾기 프로세스에 제공된다. 상단 우측 화상 윈도는 상기 얼굴 표식 상에 노드(node)로 표시된 얼굴 화상을 가진 표식 찾기 모듈의 출력을 나타낸다. 상기 표시된 화상은 하단 윈도에 도시된 식별 프로세스에 제공된다. 가장 좌측 화상은 식별하기 위한 표식 찾기 프로세스에 의해 제공되는 선택된 얼굴을 나타낸다. 세 개의 가장 우측 화상들은 가장 유사한 얼굴이 가장 좌측에 있도록 유사한 순서로 분류되는 가장 유사한 갤러리 화상들을 나타낸다. 각 갤러리 화상은 상기 화상과 관련된 태그(예를 들면, 아이디 및 인명)를 가지고 있다. 그때 상기 시스템은 가장 유사한 얼굴과 관련된 태그를 보고한다.
상기 얼굴 인식 프로세스는 입체 화상에 기초한 3차원(3D) 재구성 프로세스(24)를 사용하여 구현될 수 있다. 상기 3D 얼굴 인식 프로세스는 관점과 무관한 인식을 제공한다.
본 발명의 얼굴 인식 프로세스를 구현하기 위한 화상 처리 시스템(12)은 도 2에 나타나 있다. 상기 처리 시스템은 디지털 비디오 화상 프레임의 스트림(stream)을 만들어내는 비디오 소스(26)로부터 사람의 화상을 수신한다. 상기 비디오 화상 프레임은 처리하기 위해 비디오 램(VRAM)에 보내진다. 만족스러운 화상 시스템은 종래의 CCD 카메라에 의해 디지털화된 화상을 만들어내고 상기 화상을 실시간에 30㎐의 프레임 속도로 상기 메모리에 보내는 매트록스(도벌, 퀘벡, 캐나다; www.matrox.com)로부터 입수할 수 있는 Matrox Meteor Ⅱ이다. 화상 프레임의 전형적인 해상도는 256 픽셀 × 256 픽셀이다. 상기 화상 프레임은 상기 VRAM과 램(RAM)(32)에 연결된 중앙 처리 장치(CPU)(30)를 구비한 화상 처리 장치에 의해 처리된다. 상기 RAM은 본 발명의 얼굴 인식 프로세스를 구현하기 위한 프로그램 코드(34)와 데이터를 저장한다. 대체적으로, 상기 화상 처리 시스템은 응용 주문형 하드웨어에서 구현될 수 있다.
상기 머리 검출 프로세스는 도 4를 참고하여 더 상세하게 설명된다. 상기 얼굴 화상은 단일 화상(36), 단안(單眼) 비디오 스트림 화상(38) 또는 쌍안(雙眼) 비디오 스트림 화상(40)으로 VRAM(28)에 저장될 수 있다.
단일 화상에 대하여, 처리 시간은 중요하지 않을 수 있으며, 상기 얼굴이 상기 화상의 적어도 10%에 미치고 직경이 적어도 50 픽셀이면 이하에서 더 상세하게 설명되는 신축 집군 그래프 정합은 얼굴을 검출하는데 사용될 수 있다. 상기 얼굴이 상기 화상의 10%보다 작거나 다수의 얼굴이 존재하면, 신경망에 기초를 둔 얼굴 검출기는 H. A. Rowley, S. Baluja and T. Kanade, "Rotation Invarient Neural Network-Based Face Detection", Proceedings Computer Vision and Pattern Recognition, 1998에서 설명되는 바와 같이 사용될 수 있다. 상기 화상이 색 정보를 포함하면, 피부 색 검출 프로세스는 가능한 피부 색을 포함하는 조견표를 바탕으로 할 수 있다. 얼굴 검출의 신뢰도를 나타내고 집군 그래프 정합 동안이나 상기 신경망에 의해 만들어진 신뢰도 값은 피부색 화상 영역에 대해 증가될 수 있다.
특히 상기 화상 스트림(stream)이 정지 배경 앞에서 움직이고 있는 한 사람만을 포함한다면, 초 당 적어도 10 프레임의 단안(單眼) 화상 스트림(stream)이 화상 이동을 위해 분석될 수 있다. 머리 추적용 한 가지 기술은 화상의 어느 영역이 움직였는지를 결정하기 위해 차화상법을 포함한다.
쌍안(雙眼) 화상에 관하여 이하에서 더 상세하게 설명되는 바와 같이, 머리 이동의 결과 종종 이동 실루엣의 내부에 볼록 영역을 가진 차화상이 생긴다. 화상이 정지 배경 앞에 직립 자세로 있는 한 사람을 포함하면 이 이동 실루엣 기술은 머리 이동의 위치를 쉽게 찾아내고 추적할 수 있다. 클러스터링(clustering) 알고리즘은 움직이는 영역을 클러스터(cluster)로 모은다. 최소 임계 크기 및 직경을 초과하는 가장 높은 클러스터(cluster)의 최상부는 머리로 간주되고 표시된다.
머리 이동 검출의 또 다른 유리한 용도는 화상 이동에 의해 영향 받은 화소의 수가 최소 임계값을 초과할 때만 시행되는 그래프 정합을 사용한다. 상기 화상의 충분한 변화가 갱신된 철저한 분석을 정당화하기만 하면 상기 임계값은 비교적 많은 시간이 소요되는 그래프 정합 화상 분석이 수행되도록 선택된다. 노이지(noisy) 이동 실루엣의 볼록 영역을 결정하기 위한 다른 기술은 예를 들면, Turk 등, "Eignefaces for Recognition", Journal of Cognitive Neuroscience, Vol. 3, No. 1 p. 71, 1991과 같이 사용될 수 있다. D. J. Fleet, "Measurement of Image Velocity", Kluwer International Series in Engineering and Computer Science, No. 169, 1992에서 설명되는 것과 같은 옵티컬 플로(optical flow)법은 어느 화상 영역이 변화하지만 계산상으로 더 집중적인지를 결정하기 위한 대체적이고 신뢰할 수 있는 수단을 제공한다.
도 5에 의하면, 신뢰할 수 있고 빠른 머리와 얼굴 검출은 입체 쌍안 비디오 화상들의 화상 스트림(50)을 사용하여 가능하다. 스테레오 비전은 전경과 배경 물체를 구별하게 하고, 머리와 손과 같은 알고 있는 크기의 물체에 대한 크기를 결정하게 한다. 이동은 우화상 채널 및 좌화상 채널의 화상들에 차 루틴을 적용함으로써 화상 시리즈의 두 화상 사이에서 검출된다(52). 디스패리티 맵(disparity map)은 양 화상 채널에서 움직이는 화소에 대하여 계산된다(54). 다음으로 상기 볼록 검출기는 상기 디스패리티(disparity)에 대한 화소의 수를 나타내는 디스패리티 히스토그램(56)을 사용한다. 어떤 디스패리티(disparity) 간격에 한정된 디스패리티(disparity)를 가지는 화상 영역은 상기 디스패리티 히스토그램의 국부 최고점(58)을 조사함으로써 선택된다. 국부 최고점과 관련된 화소는 이동 실루엣이라고 한다. 상기 이동 실루엣은 2진 이미지이다.
사람에 의해 만들어질 수 없을 정도로 너무 작아서 버려지는 이동 실루엣도 있다(60). 주어진 깊이와 관련된 이동 실루엣은 다른 움직이는 물체와 사람을 구별할 수 있다(62).
상기 이동 실루엣의 볼록 영역(64)은 도 6에 나타낸 볼록 검출기에 의해 검출된다. 상기 볼록 검출기는 상기 실루엣의 내부에서 볼록 영역을 분석한다. 상기 볼록 검출기는 인접 화소를 가진 이동 실루엣에 속하는 화소(68)가 상기 디스패리티(disparity)의 둘레나 폭(72) 상의 허용 영역(70) 내부에 있는지를 검사한다. 상기 연결된 허용 영역은 상기 둘레의 어느 부분에나 위치할 수 있다. 상기 볼록 검출기의 출력은 2진값이다.
피부 색 실루엣은 머리와 손을 검출하는데 마찬가지로 사용될 수 있다. 상기 이동 실루엣, 피부색 실루엣, 상기 이동 실루엣에 적용되는 볼록 검출기의 출력 및 상기 피부색 실루엣에 적용되는 볼록 검출기의 출력은 네 가지 상이한 증거 지도를 제공한다. 증거 지도는 어떤 화소가 얼굴 또는 손에 속하는 증거를 나타내는 화상 영역에 대한 스칼라 함수이다. 네 가지 증거 지도 각각은 2진값이다. 상기 증거 지도는 주어진 디스패리티(disparity)에 선형으로 겹치고, 국부 최고점이 검사된다. 상기 국부 최고점은 머리나 손이 발견될 것 같은 위치를 나타낸다. 그때 머리의 예상 직경은 상기 증거 지도를 야기한 디스패리티 맵(disparity map)에서 국부 최고점으로부터 추론될 수 있다. 설명한 것과 같은 머리 검출은 배경 이동이 강할 때 조차도 잘 수행된다.
상기 머리 추적 프로세스(42)는 머리 궤적 검사를 하는데 사용될 수 있는 머리 위치 정보를 만들어낸다. 도 7에 나타낸 바와 같이, 새로 검출된 머리 위치(78)는 존재하는 머리 궤적과 비교될 수 있다. 다수의 근처 검출들을 하나의 대표 검출(82)로 대체하는 세선화(細線化)(80)가 일어난다. 시간과 공간에 관한 연속성을 가정할 때 상기 새로운 추정 위치가 이미 존재하는 궤적(84)에 속하는지를 결정하기 위해 상기 새로운 위치는 검사된다. 시간 t에서 얻은 프레임에 대한 모든 위치 추정에 대하여, 상기 알고리즘은 시간 t-1에서의 이전 프레임에 대해 결정된 가장 가까운 머리 위치 추정을 찾아서(86) 그것을 연결한다(88). 충분히 가까운 추정을 찾아낼 수 없으면, 새로운 머리가 출현하였고(90) 새로운 궤적이 시작된다고 가정한다. 개개의 추정들을 궤적으로 연결하기 위해, 화상 좌표만이 사용된다.
각 궤적은 리크형(leaky) 적분기를 사용하여 갱신되는 신뢰도를 할당받는다. 상기 신뢰도 값이 미리 정해진 임계값 이하로 내려가면, 상기 궤적은 지워진다(92). 히스테리시스 메커니즘(hysteresis mechanism)은 궤적 생성 및 제거를 안정화시키는데 사용된다. 궤적을 초기화하기 위하여(90), 궤적을 지우는데 필요한 것보다 더 높은 신뢰도 값에 이르러야 한다.
상기 프리실렉터(16)(도 2)는 동일한 궤적에 속하는 일련의 화상으로부터 인식하기에 적당한 화상을 선택하도록 작동한다. 상기 하드웨어의 계산 전력이 궤적의 각 화상을 개별적으로 분석하는데 충분하지 않다면 이 선택은 특히 유용하다. 그러나, 이용할 수 있는 계산 전력이 찾은 얼굴 전부를 분석하는데 충분하다면, 상기 프리실렉터(preselector)를 사용할 필요는 없다.
상기 프리실렉터(16)는 상기 머리 추적 프로세스(14)로부터 입력을 수신하고, 상기 표식 찾기 프로세스(18)에 출력을 제공한다. 상기 입력은
· 바이트의 2차원 배열로 나타낸 256×256 픽셀 크기의 단안 그레이(gray) 값 화상
· 상기 화상의 순번호를 나타내는 정수. 이 숫자는 동일한 시퀀스에 속하는 화상에 대해서 같다.
· 상기 얼굴을 둘러싼 사각형 경계선의 상단 좌측 및 하단 우측 모서리의 화소 좌표를 나타내는 네 개의 정수값이다.
상기 프리실렉터(preselector)의 출력은
· 상기 이전 시퀀스로부터 선택된 단안 그레이(gray) 값 화상
· 프리실렉터(preselector)가 입력으로서 받아들이는 사각형보다 상기 얼굴 위치를 더 정확하게 나타내는 사각형 경계선의 상단 좌측 및 하단 우측 모서리의 화소 좌표를 나타내는 네 개의 정수값이다.
도 8에 나타낸 바와 같이, 상기 프리실렉터(16)는 상기 머리 추적 프로세스(14)에 의해 결정된 것과 같은 궤적에 속할 것 같은 얼굴들을 처리한다(100). 표식 찾기에 관하여 이하에서 설명되는 바와 같이, 신축 집군 그래프 정합은 더 처리(즉 표식 찾기/인식)할 가장 적당한 화상을 선택하기 위하여 관심 있는 물체(예를 들면 사람의 머리)를 포함하는 화상들의 시퀀스에 적용된다(102). 상기 프리실렉터(preselector)는 각 화상을 질적으로 평가하기 위하여 그래프 정합을 적용한다. 그 외에, 상기 정합 결과는 상기 머리 검출 모듈보다 상기 얼굴의 위치와 크기에 대한 더 정확한 정보를 제공한다. 상기 정합 절차에 의한 신뢰도 값은 상기 화상의 적합 척도로서 사용된다. 그 신뢰도 값이 현재의 시퀀스에서 여태까지 측정된 가장 좋은 신뢰도 값을 초과하면 프리실렉터(preselector)는 다음 모듈로 화상을 보낸다(104-110). 상기 프리실렉터(preselector)는 상기 검출된 화상을 사각형 경계선으로 긋고 상기 표식 찾기 프로세스(18)에 상기 화상을 제공한다. 다음 프로세스는 각 들어오는 화상에 대해 처리하기 시작하나, (상기 프리실렉터에 의해 측정된) 신뢰도 값이 더 높은 화상이 동일 시퀀스의 내부에 나타나면 종결된다. 이것은 CPU 작업량을 증가시킬 수 있으나 예비 결과를 더 빨리 산출한다.
따라서, 상기 프리실렉터(preselector)는 더 처리할 적당한 화상들의 집합을 필터한다. 상기 프리실렉터(preselector)는 상기 화상을 다음과 같이 대체적으로 평가할 수 있다:
- 다음 모듈(예를 들면 랜드마커, 식별자)은 프리실렉터(preselector)에 의해 승인된 마지막 따라서 가장 가망이 있는 화상을 선택하기 위하여 상기 시퀀스가 끝날 때까지 기다린다. 이것은 CPU 작업량을 낮게 하나 상기 최종 결과(예를 들면 인식)를 이용할 수 있을 때까지 시간 지연을 의미한다.
- 다음 모듈은 프리실렉터(preselector)에 의해 승인된 각 화상을 받아들이고, 그것을 개별적으로 평가하며, (예를 들면 인식 신뢰도에 의해) 최종 선택을 다음 모듈에게 맡긴다. 또한 이것은 빠른 예비 결과를 산출한다. 이 경우에 최종 인식 결과는 한 시퀀스 안에서 변할 수 있고, 결국 더 좋은 인식 속도를 산출한다. 그러나, 이 방법은 세 가지 평가 방법 중에서 가장 많은 CPU 시간을 필요로 한다.
도 9에 나타낸 신축 그래프 정합 기술을 사용하여 상기 머리의 얼굴 표식 및 특징의 위치를 찾을 수 있다. 상기 신축 그래프 정합 기술에서, 포착된 화상(140)은 도 10에 관하여 더 상세하게 이하에서 설명되는 웨이브렛(wavelet) 변환(142)을 사용하여 가버(Gabor) 공간으로 변환된다. 상기 변환 화상(144)은 상기 원래 화상의 각 화소 당, 웨이브렛(wavelet) 성분을 나타내는 40 복소수값으로 나타낸다. 다음으로, 도 12에 관하여 이하에서 더 상세하게 설명되는 모델 그래프의 정밀 사본은 최적으로 유사한 위치를 찾아내도록 각각의 모델 노드 위치에서 상기 변환 화상 위에 위치한다(146). 상기 최적 유사도 탐색은 상기 모델 그래프를 상기 화상의 상단 좌측 모서리에 위치시키고, 상기 노드(node)에서 상기 제트(jet)를 추출하며, 상기 화상 그래프와 상기 모델 그래프간 유사도를 결정함으로써 수행될 수 있다. 상기 탐색은 상기 화상의 상단 좌측 모서리에서 시작하여 좌측에서 우측으로 상기 모델 그래프를 나아가면서 계속된다(148). 상기 얼굴의 대강 위치를 찾을 때(150), 상기 노드(node)는 개별적으로 움직이게 되고, 신축 그래프 왜곡을 가져온다(152). 이하에서 설명되는 위상 둔감 유사 함수는 우수한 매치(match)의 위치를 찾아내기 위하여 사용된다(154). 그 밖에 위상 민감 유사 함수는 상기 위상이 작은 제트(jet) 변위에 민감하기 때문에 제트(jet)의 위치를 정확하게 찾아내는데 사용된다. 상기 위상 둔감 및 위상 민감 유사 함수는 도 10-13에 관하여 이하에서 설명된다. 상기 그래프는 상기 원래 화상에 관하여 도 9에 나타내지만, 상기 모델 그래프 이동 및 정합은 실제로 상기 변환 화상 위에서 수행된다.
상기 웨이브렛(wavelet) 변환은 도 10을 참고하여 설명된다. 원래 화상은 중첩 결과를 만들어내기 위해 가버 웨이브렛(Gabor wavelet)을 사용하여 처리된다. 상기 가버 웨이브렛(Gabor wavelet)은, 가우스 엔벨로프(Gaussian envelope)에 의해 변조된 2차원 복소 파장으로 구성된다.
상기 웨이브렛(wavelet)은 파동 벡터 를 가진 평면파이고, 가우스 윈도에 의해 제한되며, 파장에 대한 크기는 σ로 매개 변수화된다. 대괄호 안에 있는 항은 DC 성분을 제거한다. 상기 파동벡터 k의 진폭은 ν가 원하는 공간 해상도에 관계되도록 다음과 같이 선택될 수 있다.
화상 위치 가 중심이 되는, 웨이브렛(wavelet)은 그레이 레벨 분포 를 가진 화상으로부터 웨이브렛(wavelet) 성분 를 추출하는데 사용된다,
파동 벡터 의 공간은 전형적으로 (반 옥타브만큼 다른) 5 해상도 레벨과 각 해상도 레벨의 8 오리엔테이션의 이산적 계층에서 샘플되어서(예를 들면 도 13 참조), 각 샘플된 상점에 대해 40 복소값(상기 평면파의 코사인 및 사인 위상을 말하는 실수 및 허수 성분)을 만들어낸다. k 공간에서 샘플은 색인 j = 1,..,40으로 표시되고 하나의 상점 중심에 놓인 모든 웨이브렛(wavelet) 성분들은 제트(60)라고 불리는 벡터로서 간주된다. 각 제트(jet)는 를 둘러싼 영역의 국부 특징을 설명한다. 충분한 밀도로 샘플되면, 상기 화상은 샘플 주파수에 의해 포함된 통과 대역폭내 제트(jet)로부터 재구성될 수 있다. 따라서, 제트(jet)의 각 성분은 상기 화상의 점 (x, y)에서 추출된 가버 웨이브렛(Gabor wavelet)의 필터 응답이다.
도 11에 나타낸 바와 같이, 화상 그래프(162)는 물체(이에 관련해서, 얼굴)의 생김새를 설명하는데 사용된다. 상기 그래프의 노드(164)는 상기 물체 위의 점들을 말하고 제트(160)라고 부른다. 상기 그래프의 에지(166)는 상기 노드간 거리 벡터라고 부른다. 노드(node) 및 에지(edge)는 상기 그래프 토폴로지를 정의한다. 기하학이 같은 그래프가 비교될 수 있다. 두 제트(jet)의 절대 성분들의 정규화된 도트 곱은 상기 제트(jet) 유사도를 정의한다. 이 값은 조도 및 콘트라스트(contrast) 변화에 무관하다. 두 그래프간 유사도를 계산하기 위해, 상기 그래프간 대응 제트(jet)의 유사도에 대한 합을 구한다.
특히 화상에서 인간의 얼굴을 찾아내기 위해 고안된 모델 그래프(168)가 도 12에 나타나 있다. 상기 그래프의 번호를 붙인 노드(node)의 위치는 다음과 같다:
0 우안구 동공
1 좌안구 동공
2 코의 최상부
3 우측 눈썹의 우측 모서리
4 우측 눈썹의 좌측 모서리
5 좌측 눈썹의 우측 모서리
6 좌측 눈썹의 좌측 모서리
7 우측 콧구멍
8 코 끝
9 좌측 콧구멍
10 입의 우측 모서리
11 윗 입술의 중심
12 입의 좌측 모서리
13 아랫 입술의 중심
14 우측 귀의 최저부
15 우측 귀의 최상부
16 좌측 귀의 최상부
17 좌측 귀의 최저부
얼굴을 나타내기 위해, 집군 그래프(170)라고 불리는 데이터 구조가 사용된다. 그것은 상술한 그래프와 유사하나, 각 노드(node)에 제트(jet) 하나만을 붙이는 대신에, 제트들의 집군 전체(172)(집군 제트)가 각 노드(node)에 붙여진다. 각 제트(jet)는 상이한 얼굴 화상으로부터 유도된다. 집군 그래프를 형성하기 위해, 얼굴 화상들의 집합(집군 그래프 갤러리)은 상기 머리의 정해진 위치에서 노드(node) 위치로 표시된다. 이런 정해진 위치는 표식이라고 불린다. 집군 그래프를 화상에 정합시킬 때, 상기 화상으로부터 추출된 각 제트(jet)는 상기 집군 그래프에 붙여진 대응 집군에서 모든 제트(jet)와 비교되고, 가장 잘 정합한 것이 선택된다. 이 정합 프로세스는 신축 집군 그래프 정합이라고 불린다. 사려깊게 선택된 갤러리를 사용하여 구성될 때, 집군 그래프는 국부 성질이 상당히 다를 수 있는 갖가지 얼굴을 포함한다.
화상 프레임에서 얼굴을 찾아내기 위하여, 상기 그래프가 가장 잘 정합하는 위치를 찾아낼 때까지 상기 그래프는 이동되고 상기 화상 프레임에 대하여 기준화된다(상기 집군 제트의 내부에서 가장 잘 맞는 제트는 상기 노드(node)의 현위치에서 화상으로부터 추출된 제트와 가장 유사하다). 얼굴 특징은 얼굴마다 상이하므로, 상기 그래프는 상기 작업에 더 일반적으로 된다, 예를 들면, 각 노드(node)는 10 내지 100 개개의 얼굴에서 택한 대응 표식의 제트(jet)를 할당받는다.
상기 그래프가 비교적 왜곡이 있으면, 기하학적 왜곡을 설명하는 두 번째 항이 도입될 수 있다. 두 상이한 제트(jet) 유사 함수는 두 상이한, 심지어는 상보적인 작업에 사용된다. 제트(jet)의 성분이 진폭 aj및 위상 φj형태로 쓰여지면, 두 제트(jet) 및 의 유사도는 상기 진폭 벡터의 규준화된 스칼라 곱이다:
다른 유사 함수의 형태는 다음과 같다
이 함수는 상기 두 제트(jet)가 말하는 상점간 상대 변위 벡터를 포함한다. 그래프 정합 동안 두 제트(jet)를 비교할 때, 그들간 유사도는 d에 관하여 최대로 되어, 제트(jet) 위치를 정확하게 결정하도록 한다. 양 유사 함수가 사용되는데, 우선 그래프를 정합할 때, (상대 위치에 따라 매끄럽게 변하는) 위상 둔감 버전이 선호되고, 상기 제트(jet)의 위치를 정확하게 둘 때 상기 위상 민감 버전이 주어진다.
도 14에 나타낸, 대강에서 세밀한쪽으로의 표식 찾기 방법은 저해상도 화상에 대해 노드(node)와 커널(kernel)이 거의 없는 그래프를 사용한다. 대강의 표식 찾기를 한 후에, 고정밀 위치 결정은 독특한 얼굴 특징을 정확하게 찾기 위해 고해상도 화상에 대해 수행될 수 있다.
절대값 및 위상값이 실-허수 영역보다는 그 영역에 표현되면 가버 제트(Gabor jet)를 더 유효하게 비교할 수 있기 때문에 가버(Gabor) 중첩의 응답은 대개 상기 값들로 저장되는 복소수이다. 전형적으로 상기 절대값 및 위상값은 '부동' 값으로 저장된다. 그리고 나서 부동 산술을 사용하여 계산된다. 도 15에 나타낸 바와 같이 상기 위상값은 -π가 π와 같은 -π 내지 π의 범위 내에 있어서 숫자 분포는 원형 축 상에 나타낼 수 있다. 즉 일정한 위상값의 덧셈이나 뺄셈 때문에, 상기 위상값이 이 범위를 초과할 때마다, 그 결과 값은 상기 부동 덧셈보다 더 많은 계산 노력을 필요로 하는 이 범위 내에서 재조정되어야 한다.
대부분의 처리 장치에 의해 제공된 흔히 사용되는 정수 표현 및 관련된 산술은 2의 보수이다. 이 값은 유한한 범위를 가지므로, 오버플로 또는 언더플로가 덧셈 및 뺄셈 연산에서 일어날 수 있다. 2 바이트 정수의 최대 양수는 32767이다. 1을 더하는 것은 -32768을 산출한다. 그러므로 상기 2의 보수 정수의 산술은 위상 산술에 대한 요건과 매우 밀접하다. 따라서, 위상값을 2 바이트 정수로 나타낼 수 있다. 도 16에 나타낸 바와 같이 위상값 j는 정수값 I로 사상된다. -π 내지 π의 범위에 있는 값은 후에 설명되는 정합 및 비교 단계 동안 거의 필요하지 않다. 따라서 [-π, π]와 [-32768, 32768]간 사상은 그다지 자주 계산될 필요가 없다. 그러나 위상 덧셈 및 뺄셈은 매우 자주 행해진다. 이것은 상기 처리 장치에 적합한 간격을 사용하여 훨씬 더 빨리 계산한다. 따라서 이 적응 기술은 상기 처리 장치의 계산 속도를 상당히 향상시킬 수 있다.
상기 얼굴 특징 및 표식의 위치를 찾아낸 후에, 도 17 및 18에 도시한 바와 같이 상기 얼굴 특징은 연속 프레임에 대해 추적될 수 있다. 본 발명의 추적 기술은 특징 또는 노드(node)의 추적이 유실되었는지를 검출하고 그 노드(node)에 대해 추적 프로세스를 재초기화하는 추적 상관 체계를 사용함으로써 긴 프레임 시퀀스에 대해 로버스트(robust) 추적을 한다.
화상 시퀀스 중 화상 I_n에서 노드(node) 하나의 위치 X_n은 상술한 표식 찾기 방법(180)을 사용하여 화상 I_n에 대한 표식 찾기, 또는 상기 추적 프로세스를 사용하여 화상 I_(n-1)에서 I_n까지 상기 노드(node)를 추적함으로써 알아낸다. 그리고 나서 상기 노드(node)는 몇 가지 기술들 중 하나에 의해 상기 화상 I_(n+1)에 대응하는 위치 X_(n+1)로 추적된다(182). 이하에서 설명되는 추적법은 빠른 이동에 유리하게 조정된다.
첫 번째 추적 기술은 선형 운동 예측을 포함한다. 새로운 화상 I_(n+1)에 대응하는 위치 X_(n+1) 탐색은 운동 추정 법칙에 의해 발생된 위치에서 시작된다. 일정 속도를 가정하여, 상기 이전 두 프레임간 노드(node)의 변위를 나타내는 디스패리티 벡터 (X_n - X_(n-1))이 계산된다. 상기 디스패리티(disparity) 또는 변위 벡터 D_n은 상기 노드(node) 위치 X_(n+1)을 예측하기 위해 상기 위치 X_n에 더할 수 있다. 이 선형 운동 모델은 일정 속도 운동을 조정하는데 특히 유리하다. 또한 상기 프레임 속도가 추적될 물체의 가속도보다 높으면 상기 선형 운동 모델은 우수한 추적을 제공한다. 그러나, 상기 물체의 가속도가 상기 화상 시퀀스에서 프레임들 사이에 있을 만큼 상기 프레임 속도가 너무 낮으면 상기 선형 운동 모델은 제대로 수행되지 못한다. 운동 모델이 그런 조건하에서 물체를 추적하는 것은 곤란하기 때문에, 프레임 속도가 더 높은 사진기를 사용하도록 권장된다.
상기 선형 운동 모델은 상기 운동 추정에서 오차를 누적시키는 너무 큰 추정 운동 벡터 D_n을 발생시킬 수 있다. 따라서, 상기 선형 예측은 감쇠 계수 f_D를 사용하여 감쇠될 수 있다. 그 결과 추정 운동 벡터 D_n = f_D * (X_n - X_(n-1))이다. 적당한 감쇠 계수는 0.9이다. 예를 들면, 표식 찾기 직후 프레임에 대한 이전 프레임 I_(n-1)이 존재하지 않으면, 상기 추정 운동 벡터는 영과 같게 설정된다(D_n = 0).
1차원에 적용되는 가우스 이미지 피라미드에 기초를 둔 추적 기술은 도 19에 도시된다. 원래 화상 해상도를 사용하는 대신에, 상기 화상의 가우스 피라미드를 만들기 위해 상기 화상은 2-4번 다운 샘플된다. 4 레벨 화상 피라미드의 결과 가장 세밀한 원래 해상도 레벨에서 24 화소의 거리가 가장 대강의 레벨에서 3 화소만으로 표현된다. 제트(jet)는 상기 피라미드의 어느 레벨에서든지 계산되고 비교될 수 있다.
상기 가우스 이미지 피라미드 상에서 노드(node) 추적은 일반적으로 가장 세밀한 레벨에 앞서 우선 가장 대강의 레벨에서 수행된다. 상술한 바와 같이 제트(jet)는 상기 감쇠 선형 운동 추정 X_(n+1) = (X_n + D_n)을 사용하여 상기 위치 X_(n+1)에서 실제 화상 프레임 I_(n+1)의 가장 대강의 가우스 레벨에서 추출되고, 이전 화상 프레임의 가장 대강의 가우스 레벨에서 계산된 대응 제트(jet)와 비교된다. 이런 두 제트(jet)로부터, 상기 디스패리티(disparity)가 결정된다, 즉, 2D 벡터 R은 X_(n+1)에서 상기 이전 프레임의 제트(jet)에 가장 잘 대응하는 위치까지 가리킨다. 이 새로운 위치는 X_(n+1)로 정해진다. 상기 디스패리티(disparity) 계산은 더 상세하게 이하에서 설명된다. 가장 대강의 가우스 레벨에서 위치 X_(n+1)에 대응하는, 실제 화상의 다음 더 세밀한 가우스 레벨에서 위치(2*X_(n+1))는 이 다음 세밀한 레벨에서 디스패리티(disparity) 계산을 위한 기점이다. 이 점에서 추출된 제트(jet)는 상기 이전 화상 프레임의 동일한 가우스 레벨에서 계산된 대응 제트(jet)와 비교된다. 이 프로세스는 가장 세밀한 해상도 레벨에 이르거나, 상기 이전 프레임의 위치에 대응하는 노드(node)의 위치를 결정하기 위해 특정된 가우스 레벨에 이를 때까지 모든 가우스 레벨에 대해 반복된다.
상기 가우스 이미지 피라미드의 두 대표적인 레벨은 위에 더 대강의 레벨(194)과, 아래에 더 세밀한 레벨(196)로, 도 19에 나타내고 있다. 각 제트(jet)는 두 주파수 레벨에 대한 필터 응답을 가진다고 가정한다. 상기 더 대강의 가우스 레벨의 위치 1, X_(n+1)=X_n+D_n에서 시작하면, 가장 낮은 주파수 제트(jet) 계수만을 사용한 제1 디스패리티(disparity) 이동은 위치 2에 도달한다. 양 주파수 레벨의 모든 제트(jet) 계수를 사용함으로써 제2 디스패리티 이동은 이 가우스 레벨의 최종 위치, 위치 3에 도달한다. 상기 더 세밀한 가우스 레벨의 위치 1은 상기 좌표가 두배로 되어 상기 더 대강의 레벨의 위치 3에 대응된다. 상기 디스패리티(disparity) 이동 시퀀스는 반복되고, 상기 가장 세밀한 가우스 레벨의 위치 3은 상기 추적된 표식의 최종 위치이다.
실제 화상 프레임에서 추적된 노드(node)의 새로운 위치가 결정된 후에, 모든 가우스 레벨의 제트(jet)는 이 위치에서 계산된다. 그리고 나서 상기 추적된 노드(node)를 나타내는 이전 프레임에 대해 계산된 제트(jet)들의 저장 배열은, 상기 현재 프레임에 대해 계산된 제트(jet)들의 새로운 배열로 대체된다.
가우스 이미지 피라미드법은 두 가지 주요한 이점이 있다: 첫째, 노드(node)의 이동은 상기 원래 화상에서보다 더 대강의 레벨의 화소 견지에서 훨씬 더 작은데, 그것은 큰 화상 영역에서 소모적인 탐색 대신에 국부 이동만을 수행함으로써 추적을 가능하게 한다. 둘째, 제트(jet) 성분의 계산은 상기 원래 해상도 화상에 대한 큰 커널(kernel) 윈도에서보다, 다운 샘플된 화상에 대한 작은 커널(kernel) 윈도로 수행되기 때문에, 상기 계산은 더 낮은 주파수에 대해 훨씬 빠르다.
대응 레벨은 동적으로 선택될 수 있다, 예를 들면, 얼굴 특징을 추적하는 경우에, 대응 레벨은 상기 얼굴의 실제 크기에 따라 선택될 수 있다. 또한 상기 가우스 이미지 피라미드의 크기는 상기 추적 프로세스를 통하여 변경될 수 있다, 즉, 상기 크기는 운동이 더 빨라질 때 커질 수 있고, 운동이 더 느려질 때 작아질 수 있다. 전형적으로, 가장 대강의 가우스 레벨에서 최대 노드(node) 이동은 1 내지 4 화소 범위에 한정된다. 상기 운동 추정은 종종 가장 대강의 레벨에서만 수행된다.
동일한 가우스 레벨에 주어진 두 제트(jet)간 변위 벡터(상기 디스패리티 벡터)의 계산을 설명한다. 두 연속 프레임간 변위를 계산하기 위해, D. J. Fleet and A. D. Jepson, "Computation of component image velocity from local phase information", International Journal of Computer Vision, volume 5, issue 1, 77-104 페이지, 1990과 W. M. Theimer and H. A. Mallot, "Phase-based binocular vergence control and depth reconstruction using active vision", CVGIP:Image Understanding, volume 60, issue 3, 343-358 페이지, November 1994를 바탕으로 하여, 입체 화상에서 디스패리티(disparity) 추정을 위해 본래 개발되었던 방법이 사용된다. 상기 복소 필터 응답 위상의 뚜렷한 변화는 서브픽셀 정확성을 가진 변위를 계산하는데 사용된다(Wiskott, L., "Labeled Graphs and Dynamic Link Matching for Face Recognition and Scene Analysis", Verlag Harri Deutsch, Thun-Frankfurt am Main, Reihe Physik 53, PhD Thesis, 1995 참조). 진폭 aj및 위상 Φj에 의해 j번째 가버(Gabor) 필터에 상기 응답 J를 쓰면, 유사 함수는 다음과 같이 정의될 수 있다.
J와 J'는 위치 X와 X'=X+d에서 두 제트(jet)라고 하고, kj는 Jj를 발생시키는 필터와 관련된 파동벡터일 때, 상기 변위 d는 상기 유사도 S를 d에 관하여 최대로 함으로써 구할 수 있다. d의 추정은 작은 변위, 즉, 상기 가버 제트(Gabor jet)의 큰 오버랩에 대해서만 정확하기 때문에, 큰 변위 벡터는 제1 추정으로만 다루어지고, 상기 프로세스는 다음과 같은 식으로 반복된다. 우선, 가장 낮은 주파수 레벨의 필터 응답만이 제1 추정 d_1으로 사용된다. 다음으로, 이 추정은 수행되고 상기 제트(jet) J는 상기 위치 X_1=X+d_1에서 재계산되는데, 그것은 제트(jet) J'의 위치 X'보다 더 가깝다. 그리고 나서, 가장 낮은 두 주파수 레벨은 변위 d_2의 추정에 사용되고, 상기 제트(jet) J는 위치 X_2 = X_1 + d_2에서 재계산된다. 이것은 사용된 가장 높은 주파수에 이를 때까지 되풀이되고, 상기 두 시작 제트(jet) J 및 J'간 최종 디스패리티 d는 합 d = d_1 + d_2 + ...으로 주어진다. 따라서, 가장 낮은 주파수를 가진 커널(kernel) 파장의 반까지의 변위가 계산될 수 있다(위에 Wiskott 1995 참조).
상기 변위는 부동 소수점수를 사용하여 결정되지만, 제트(jet)는 (정수) 화소 위치에서만 추출(즉, 중첩에 의해 계산)되어, 계통 끝맺음 오차를 생성한다. 이 서브픽셀 오차 △d를 보상하기 위해, 상기 복소 가버(Gabor) 필터 응답의 위상은 다음에 따라 제트(jet)가 정확한 서브픽셀 위치에서 추출되는 것처럼 나타나도록 이동되어야 한다.
따라서, 상기 가버 제트(Gabor jet)는 끝맺음 오차 없이 서브픽셀 정확성으로 추적될 수 있다. 서브픽셀 정확성의 문제는 대부분의 다른 화상 처리 방법에서 설명하기가 더 곤란하기 때문에 가버 제트(Gabor jet)는 실질적인 이점을 제공한다.
또한 오차를 추적하는 것은 신뢰도나 유사도 값이 미리 정해진 임계값보다 더 작은지를 결정함으로써 검출될 수 있다(도 17의 184). 상기 유사도(또는 신뢰도) 값 S는 상기 두 화상 프레임에서 상기 두 화상 영역이 연속 화상 프레임간 노드(node)의 변위 계산과 함께 서로 얼마나 잘 대응하는지를 나타내기 위해 계산될 수 있다. 전형적으로, 상기 신뢰도 값은 1에 가까워서, 잘 대응하는 것을 나타낸다. 상기 신뢰도 값이 1에 가깝지 않으면, 상기 화상에서 대응점을 구하지 못하거나(예를 들면, 상기 프레임 속도는 상기 움직이는 물체의 속도보다 너무 낮았다), 이 화상 영역은 한 화상 프레임에서 다음 화상 프레임으로 너무 격렬하게 변화해서 상기 대응은 더 이상 잘 정해지지 않는다(예를 들면, 눈의 동공을 추적하는 노드에 대해 눈꺼풀이 닫혀졌다). 신뢰도 값이 특정 임계값 이하인 노드(node)는 바꾸어질 수 있다.
또한 기하학적 제한이 위반될 때 추적 오차는 검출될 수 있다(186). 많은 노드들이 동시에 추적되면, 상기 노드(node)의 기하학적 구성은 일관성을 위해 검사될 수 있다. 그런 기하학적 제한은 아주 느슨할 수 있다, 예를 들면, 얼굴 특징이 추적될 때, 상기 코는 상기 눈과 입 사이에 있어야 한다. 대체적으로, 그런 기하학적 제한은 다소 정확할 수 있다, 예를 들면, 추적된 얼굴의 정확한 형태 정보를 포함하는 모델. 중간 정확성을 위해, 상기 제한은 평면 모델에 기초를 둘 수 있다. 상기 평면 모델에서, 상기 얼굴 그래프의 노드(node)는 평면 위에 있다고 가정한다. 정면도로 시작한 화상 시퀀스에 대해, 상기 추적된 노드(node) 위치는 관계 변환에 의해 상기 실제 프레임으로 변환된 정면 그래프의 대응 노드(node) 위치와 비교될 수 있다. 최적 관계 변환의 6 매개 변수는 상기 노드(node) 위치에서 최소 제곱 오차를 최소화함으로써 구한다. 상기 추적된 노드(node) 위치와 상기 변환된 노드(node) 위치간 편차는 임계값과 비교된다. 상기 임계값보다 편차가 더 큰 노드(node)는 바뀐다. 상기 관계 변환의 매개 변수는 상기 자세 및 (상기 시작 그래프와 비교한) 상대 스케일을 동시에 결정하는데 사용될 수 있다(188). 따라서, 이 개략적인 평면 모델은 추적 오차가 미리 정해진 임계값을 넘지 않도록 한다.
추적 노드(node)가 추적 오차 때문에 바뀌면, 상기 노드(node)는 정확한 위치에서 재개되어(190), 상이한 자세를 포함하는 집군 그래프를 유리하게 사용하고 상기 정확한 위치에서 계속 추적한다(192). 추적 노드(node)가 바뀐 후에, 상기 시스템은 자세 특정 집군 그래프가 존재하는 미리 정해진 자세에 이를 때까지 기다릴 수 있다. 그렇지 않고, 정면 집군 그래프만이 저장되면, 상기 시스템은 정면 자세의 추적 오차가 보정될 때까지 기다려야 한다. 제트(jet)들의 저장된 집군은 알맞은 위치를 둘러싼 화상 영역과 비교되는데(예를 들면, 상기 평면 모델에서), 그것은 상기 이전 화상 프레임의 제트(jet)와 비교하는 대신에, 예들의 집군 제트(jet) 전부와 반복해서 비교되어, 가장 유사한 것을 택하는 점을 제외하고는, 추적과 같은 식으로 작동한다. 상기 얼굴 특징들, 예를 들면, 실제 자세, 스케일, 및 심지어 대강의 위치는 알려져 있기 때문에, 그래프 정합이나 상기 화상 및/또는 자세 공간에서 철저한 탐색은 필요 없고 노드(node) 추적 보정은 실시간으로 수행될 수 있다.
추적 보정을 하기 위해, 도 20에 나타낸 바와 같이 스케일 뿐만 아니라 상기 화상 평면에서 회전은 집군 그래프의 국부 화상 영역이나 제트(jet)를 변환함으로써 고려될 수 있기 때문에 상기 집군 그래프는 여러 가지 상이한 자세 및 스케일이 필요 없다. 정면 자세 이외에, 집군 그래프는 깊이 회전에 대해서만 만들어질 필요가 있다.
재초기화 프로세스의 속도는 추적된 사람의 동일성이 화상 시퀀스 동안 같다라는 사실을 이용함으로써 증가될 수 있다. 따라서, 초기 학습 세션에서, 상기 사람의 제1 시퀀스는 정면 얼굴 표정들의 충분한 레퍼터리를 나타내는 사람으로 정해질 수 있다. 이 제1 시퀀스는 많은 상이한 사람들에 관해 알고 있는 크게 일반화된 집군 그래프를 바탕으로 하여 상술한 추적 및 보정 체계를 사용하여 매우 정확하게 추적될 수 있다. 이 프로세스는 오프라인으로 수행될 수 있고 새로 개인별 집군 그래프를 만들어낸다. 그때 상기 개인별 집군 그래프는 더 큰, 일반화된 집군 그래프보다 훨씬 작기 때문에 상기 개인별 집군 그래프는 이 사람을 빠른 속도로 실시간에 추적하는데 사용될 수 있다.
또한 상기 재초기화 프로세스의 속도는 부분 집군 그래프 재초기화를 사용함으로써 증가될 수 있다. 부분 집군 그래프는 완전 집군 그래프 노드(node)들의 부분 집합만을 포함한다. 상기 부분 집합은 단지 노드(node) 하나만큼 작을 수 있다.
자세 추정 집군 그래프는 상기 화상 평면에 정의된 2차원 집군 그래프의 패밀리를 이용한다. 한 패밀리 내에서 상이한 그래프들은 상기 머리의 상이한 자세 및/또는 스케일을 설명한다. 상기 표식 찾기 프로세스는 상기 화상에서 머리의 자세나 크기를 결정하기 위하여 상기 패밀리로부터 각 집군 그래프를 입력 화상에 정합하려고 한다. 그런 자세 추정 절차의 예는 도 21에 나타나 있다. 상기 자세 추정의 첫 단계는 정규 표식 찾기와 같다. 상기 화상(198)은 상기 그래프 유사 함수를 사용하기 위하여 변환된다(200 및 202). 그리고 나서, 하나만이 아니라, 세 집군 그래프들의 패밀리가 사용된다. 첫 번째 집군 그래프는 (상술한 정면도와 같은) 정면 얼굴만을 포함하고, 다른 두 집군 그래프는 4분의 1 회전된 얼굴(좌회전한 것 및 우회전한 것)을 포함한다. 이전과 마찬가지로, 상기 그래프의 각각에 대한 초기 위치는 상단 좌측 모서리에 있고, 상기 그래프들의 위치는 상기 화상 및 위치에 대해 스캔되어 상기 표식 찾기 후에 가장 유사도가 높은 그래프가 선택된다(204-214).
각 그래프에 대한 초기 정합 후에, 상기 최종 위치의 유사도가 비교된다(216). 상기 화상에 대한 자세에 가장 잘 대응하는 그래프의 유사도가 가장 높을 것이다(218). 도 21에서, 유사도에 의해 나타낸 바와 같이, 좌회전한 그래프는 상기 화상에 가장 잘 맞는다. 상기 그림에서 얼굴의 해상도 및 회전 각도에 따라, 상기 정확한 그래프 및 다른 자세에 대한 그래프의 유사도는 변하고, 상기 그래프들이 정의된 두 자세 사이에 상기 얼굴이 중간에 있을 때 유사도는 매우 가깝다. 더 많은 자세에 대한 집군 그래프를 만듦으로써, 머리 회전 각도들을 구별하고 다른 방향(예를 들면 위 또는 아래) 회전을 다루는 더 세밀한 자세 추정 절차가 구현될 수 있다.
상기 사진기로부터 임의 거리에서 얼굴을 로버스트(robust)하게 찾기 위하여, 스케일이 다른 두세 개의 상이한 집군 그래프 각각을 이용하는 유사한 방법이 사용될 수 있다. 상기 화상에서 얼굴은 상기 얼굴 화상을 최대한 반환하는 집군 그래프의 스케일과 같다고 가정할 것이다.
또한 상술한 기술과 관련된 3차원(3D) 표식 찾기 기술은 상이한 자세에 적합한 다수의 집군 그래프들을 사용할 수 있다. 그러나, 상기 3D 방법은 3D 공간에서 정의된 하나의 집군 그래프만을 사용한다. 상기 3D 그래프의 기하학은 보통 얼굴 또는 머리 기하학을 반영한다. 상이한 회전 각도에서 몇 사람의 얼굴 화상으로부터 제트(jet)를 추출함으로써, 2D 방법과 유사한 3D 집군 그래프가 만들어진다. 각 제트(jet)는 세 가지 회전각으로 매개 변수화된다. 상기 2D 방법에서와 같이, 상기 노드(node)는 머리 표면의 기저점에 있다. 그때 상기 정합 프로세스에서, 상기 3D 그래프의 투영법이 사용된다. 상기 3D 방법의 한 가지 중요한 일반화는 모든 노드(node)가 상이한 자세에 적합한 집군 제트(jet)의 매개 변수화된 패밀리를 가지고 있다라는 것이다. 두 번째 일반화는 상기 그래프가 상기 상면(image plane)에서 변환만이 아니라 3D 공간에서 유클리드 변환을 겪을 수 있다는 것이다.
상기 3D 그래프 정합 프로세스는 우선 노드(node)와 커널(kernel)이 거의 없는 그래프를 이용하고 나서 다음 단계에서 더 조밀한 그래프를 이용하는 대강에서 세밀한쪽으로의 방법으로서 공식화될 수 있다. 상기 얼굴의 특정 영역에 상기 특징점의 고정밀 국부화를 원하면 상기 대강에서 세밀한쪽으로의 방법은 특히 적당하다. 따라서, 먼저 더 대강의 해상도에서 표식 찾기가 수행된 후에, 특정 영역을 더 상세하게 분석하기 위해 적합한 그래프가 고해상도에서 검사되는 계층적 방법을 채택함으로써 계산 노력을 덜게 된다.
더우기, 계산 작업량은 다중 처리 기계에서 쉽게 분배되어서 상기 대강의 영역을 찾으면, 차일드(child) 프로세스들은 전체 화상의 부분에 대해 각각 평행하게 작동하기 시작한다. 차일드(child) 프로세스들의 끝에서, 상기 프로세스들은 마스터(master) 프로세스의 위치를 가리키는 특징 좌표를 알리는데, 상기 마스터(master) 프로세스는 상기 원래 화상에 맞게 하기 위해 그것들을 적당히 기준화하고 결합하여서 총 계산 시간을 줄인다.
머리의 텍스처 맵트(texture mapped) 3D 모델을 구성하기 위해 수많은 방법들이 개발되었다. 이 절은 입체에 기초를 둔 방법을 설명한다. 상기 입체에 기초를 둔 알고리즘은 완전히 교정된 사진기에 대해 설명된다. 상기 알고리즘은 화상 화소의 영역에 기초를 둔 정합을 수행하고, 조밀 3-D 정보가 필요한 경우에 적당하다. 그때 그것은 주요한 물체 설명을 정확하게 정의하기 위해 사용될 수 있다. 입체 이미징 및 정합에 관한 그밖의 배경 정보는 U. Dhond and J. Aggrawal, "Structure from Stereo: a review", IEEE Transactions on System, Man, and Cybernetics, 19(6), 1489-1510 페이지, 1989, 또는 더 최근에 R. Sara and R. Bajcsy, "On Occluding Contour Artifacts in Stereo Vision", Proc. Int. Conf. Computer Vision and Pattern Recognition, IEEE Computer Society, Puerto rico, 1997.; M. Okutomi and T. Kanade, "Multiple-baseline Stereo", IEEE Trans. on Pattern Analysis and Machine Intelligence, 15(4), 353-363 페이지, 1993; P. Belhumeur, "A Bayesian Approach to Binocular Stereopsis'", Intl. J. of Computer Vision, 19(3), 237-260 페이지, 1996; Roy, S. and Cox, I., "Maximum-Flow Formulation of the N-camera Stereo Correspondence Problem", Proc. Int. Conf. Computer Vision, Narosa Publishing House, Bombay, India, 1998; Scharstein, D. and Szeliski, R., "Stereo Matching with Non-Linear Diffusion", Proc. Int. Conf. Computer Vision and Pattern Recognition, IEEE Computer Society, San Francisco, CA, 1996; 및 Tomasi, C. and Manduchi, R., "Stereo without Search", Proc. European Conf. Computer Vision, Cambridge, UK, 1996에서 찾을 수 있다.
입체 영상 기술에서 중요한 문제는 대응(정합) 문제로서 알려져 있다; 즉 쌍안 입체로부터 범위 데이터를 회복하기 위해, 공간 3D 점의 대응 투영은 좌우 화상에서 발견되어야 한다. 탐색 공간 차원을 줄이기 위해 외극(epipolar) 제한이 적용된다(S. Maybank and O. Faugeras, "A Theory of Self-calibration of a Moving Camera", Intl. J. of Computer Vision, 8(2), 123-151 페이지, 1992 참조). 입체 영상 기술은 4 단계 프로세스로 공식화될 수 있다:
· 교정: 상기 사진기의 매개 변수 계산.
· 조정: 상기 화상에서 대응 특징이 동일선 위에 있도록, 입체 쌍이 투영된다. 이런 선은 외극(epipolar)선이라고 불린다. 상기 정합 프로세스가 조정된 화상에서 수평선을 따라, 1차원 탐색으로서, 수행될 수 있을 때, 이것은 절대로 필요한 것은 아니지만 상기 알고리즘의 성능을 크게 향상시킨다.
· 정합: 비용 함수는 탐색 윈도에서 각 위치에 대해 국부적으로 계산된다. 상관의 최대값은 상기 입체 쌍에서 대응 화소를 선택하는데 사용된다.
· 재구성: 3-D 좌표는 상기 입체 쌍에서 정합된 화소 좌표로부터 계산된다.
정합 오차를 제거하기 위하여 상기 정합 직후에 후처리를 더할 수 있다. 상기 정합이 국부적으로 행해지기 때문에 정합 모호성은 대개 오차를 일으킬 수 있다. 필터링 뿐만 아니라 기하학적 제한은 잘못된 매치(match)의 수를 줄이기 위해 적용될 수 있다. 또한 연속면(예를 들면 정면 위치에서 얼굴)을 다룰 때 보간법은 매치(match)되지 않은 영역(대개 상관 점수가 명확한 단일모드 최대값을 갖지 않는 논텍스처드 영역)을 회복하는데 사용될 수 있다.
상기 조정 및 재구성 프로세스에서 사용된 식을 가져오는 형식은 사영 기하학이라 불리고 O. Faugeras, "Three-Dimensional Computer Vision, A Geometric Viewpoint", MIT Press, Cambridge, Massachusetts, 1993에 상세하게 제시된다. 사용된 모델은 상당한 이점들을 제공한다. 일반적으로, 도 22에 나타낸, 간단한 바늘 구멍 사진기 모델을 가정한다. 또한 필요하면, 렌즈 왜곡이 교정 시간에서 계산될 수 있다(가장 중요한 인자는 방사상 렌즈 왜곡). 실용적인 관점으로부터, 상기 교정은 교정 보조 기구, 즉 3-D 구조가 알려진 물체를 사용하여 행해진다. 대개, 도 23에 나타낸 바와 같이 가시 도트나 정방형 패턴을 가진 정육면체가 교정 보조 기구로서 사용된다.
상기 조정 알고리즘을 단순하게 하기 위해, 대응점들이 동일 화상선 위에 있도록, 각 입체 쌍의 입력 화상은 먼저 조정된다(N. Ayache and C. Hansen, "Rectification of Images for Binocular and Trinocular Stereovision", Proc. of 9th International Conference on Pattern Recognition, 1, 11-16 페이지, Italy, 1988 참조). 그때, 대응점의 좌표는 좌우 조정 화상에서 (uL, vL) 및 (uL-d,vL)이라 정의되는데, 여기서 "d"는 디스패리티(disparity)로서 알려져 있다. 상기 조정 프로세스의 세부 사항에 대해, 위 Faugeras를 참조해라. 조정 평면(상기 조정된 화상을 얻기 위해 상기 화상을 투영하는데 사용된 평면)의 선택은 중요하다. 대개 이 평면은 상기 투영된 화상의 왜곡을 최소화하도록 선택되어서, 도 24에 나타낸 바와 같이 대응 화소는 상기 동일선 번호에 있다(외극선은 평행하게 정렬된다). 그런 구성은 표준 기하학이라고 불린다.
도 26에 의하면, 정합은 좌우 화상에서 대응점을 찾는 프로세스이다. 상관 함수는 이 디스패리티(disparity)를 측정하는데 사용될 수 있다; 예를 들면 규준화된 상호 상관(H. Moravec, "Robot Rover Visual Navigation", Computer Science: Artificial Intelligence, 13-15, 105-108 페이지, UMI Research Press 1980/1981 참조)은 다음과 같이 주어진다:
여기서 IL및 IR은 좌우 조정 화상이다. 상기 상관 함수는 점 (uL, vL) 및 (uR,vR)에서 사각 영역에 적용된다. 도 25에 나타낸 바와 같이, 상기 비용 함수 c(IL, IR)은 (상기 조정 프로세스 때문에) 크기 1×N의 탐색 윈도에 대해 계산되는데, 여기서 N은 허용 가능한 정수이다. 상기 좌화상에서 각 화소 (uL, vL)에 대해, 상기 정합은 "d"가 상기 점 (uL, vL)에서의 디스패리티(disparity)로서 정의되는 상관 프로파일 c(uL, vL, d)를 산출한다, 즉:
두 번째 식은 외극(epipolar)선이 정렬된다는 것을 나타낸다. 결과적으로 상기 정합 절차는 디스패리티 맵(disparity map), 즉 기준 화상(여기서 상기 입체 쌍의 좌화상)에 겹쳐놓일 수 있는 디스패리티(disparity)들의 화상을 출력한다. 상기 디스패리티 맵(disparity map)은 "상기 입체 쌍의 우화상에서 대응 화소를 찾기 위해 상기 외극(epipolar)선을 따라 얼마나 이동해야 하는지"를 알려준다.
정합시 몇 가지가 개선될 수 있다. 예를 들면 가능한 대응 리스트가 각 점에 있고 가시도 제한, 순서 제한, 및 디스패리티(disparity) 구배 제한과 같은 제한들(A. Yuille and T. Poggio, "A Generalized Ordering Constraint for Stereo Correspondence", MIT, Artificial Intelligence Laboratory Memo, No. 777, 1984; 위, Dhond 등; 및 위, Faugeras 참조)은 불가능한 구성을 제거하는데 사용될 수 있다(위, R. Sara 등, 1997 참조). 또한 교차 정합을 사용할 수 있는데, 상기 정합은 좌에서 우로 그리고 나서 우에서 좌로 수행되고, 양 매치(match)가 동일 화상 화소를 가져오면 후보(상관 피크)를 받아들인다, 즉 다음과 같은 경우이다,
여기서 dLR은 좌에서 우로 그리고 dRL은 우에서 좌로 정합할 때 디스패리티(disparity)이다. 더우기 피라미드형 전략은 상기 탐색 윈도를 제한함으로써 전체 정합 프로세스를 촉진하는데 사용될 수 있다. 이것은 이전 레벨의 추정을 사용하여, 해상도 피라미드의 각 레벨에서 정합을 수행하여 구현된다. 또한 계층적 체계는 표면 연속성을 강요한다.
입체가 2-D 세그먼테이션 목적에 사용될 때, 상기 디스패리티 맵(disparity map)만이 필요하다. 그때 전술한 교정 프로세스를 사용하지 않고, 기본 행렬을 이용할 수 있으면 교정될 수 있는 사영 기하학의 결과를 사용할 수 있다(Q.T. Luong, "Fundamental Matrix and autocalibration in Computer Vision", Ph.D. Thesis, University of Paris Sud, Orsay, France, December 1992 참조). 상기 기본 행렬은 상기 화상을 교정하는데 사용되어서, 전술한 바와 같이 정합이 수행될 수 있다.
상기 3-D 위치 추정을 개선하기 위해, 상기 정수 디스패리티 맵(disparity map)의 서브픽셀 보정의 결과 서브픽셀 디스패리티 맵이 계산된다. 상기 서브픽셀 디스패리티 맵은 다음 중 어느 한 가지 방법으로 구할 수 있다:
· 검출된 최대값 근처에서 상기 보정 점수의 2차 보간법을 사용하기,
· F. Devernay, "Computing Differential Properties of {3-D} Shapes from Stereoscopic Images without {3-D} Models", INRIA, RR-2304, Sophia Antipolis, 1994(그것은 평면 패치의 상을 비춘다고 가정하여, 투시 투영에 의해 유도된 좌우 상관 윈도간 왜곡을 고려한다)에서 설명된 것과 같은 더 일반적인 방법을 사용하기.
첫 번째 방법은 가장 빠르지만, 두 번째 방법은 더 신뢰할 수 있는 서브픽셀 디스패리티의 추정을 제공한다. 추정의 정확성을 유지하면서도, 서브픽셀 추정을 빨리 하기 위해, 다음과 같이 진행한다. IL및 IR은 좌우 교정 화상이라고 하자. ε은 미지의 서브픽셀 보정이고, A(u, v)는 좌화상에서 우화상으로 상기 상관 윈도를 사상하는 변환(평면 표적에 대해 그것은 상열을 유지하는 관계 사상이다)이라고 하자. 상기 좌우 화상에서 대응 화소에 대해,
여기서 계수 α는 사진기 이득에서 가능한 차이를 고려한다. 'ε'과 'A'에 관하여 상기 식의 1차 선형 근사는 각 계수가 상기 대응하는 좌우 상관 윈도에서 추정되는 선형 시스템을 제공한다. 이 선형 시스템의 최소 제곱 해는 상기 서브픽셀 보정을 제공한다.
(정면 자세에서 얼굴처럼) 연속면이 회복되는 경우에, 보간법 체계가 필터된 디스패리티 맵(disparity map)에 사용될 수 있다. 그런 체계는 다음 고려 사항으로부터 유도될 수 있다. 하면이 연속적이라고 가정할 때, 보간된 평활화 디스패리티 맵 d는 다음 식을 입증하여야 한다:
여기서 λ는 평활화 매개 변수이고 상기 적분은 화상에 (화소 좌표 u와 v에 대해) 행해진다. 반복적인 알고리즘은 오일러 방정식과, 라플라스의 연산자 ∇의 근사를 사용하여 간단하게 구해진다.
상기 디스패리티 맵(disparity map) 및 사진기 교정으로부터, 상기 3D 점의 공간 위치는 삼각법에 기초하여 계산된다(위, Dhond 등 참조). (하나의 입체 화상 쌍으로부터) 상기 재구성의 결과는 공간점들의 리스트이다.
몇 개의 화상이 사용되는 경우에(다안 입체) 입증 단계가 사용될 수 있다(R. Sara, "Reconstruction of 3-D Geometry and Topology from Polynocular Stereo", http://cmp.felk.cvut.cz/~sara 참조). 이 절차 동안, 모든 입체 쌍으로부터, 재구성된 점들의 집합은 모든 사진기 쌍들의 디스패리티 공간에 다시 투영되고 상기 투영된 점들이 상기 쌍들 각각의 다른 화상에서 예측 위치와 정합하면 입증된다. 상기 입증은 부정합점(특히 맞물림 근처에서 정합한 것)을 매우 효과적으로 제거하는 것 같다.
도 26은 텍스처 빛을 투영하여 얻은 화상의 입체 쌍에 입체 알고리즘을 적용한 대표적인 결과를 나타낸다. 도 26의 윗 줄은 피검자가 움직이지 않게 하여 단시간에 택한 좌우 및 컬러 화상을 나타낸다. 아랫 줄은 텍스처 화상에 입체를 적용하여 구하고, 상기 컬러 화상으로 텍스처 맵트 재구성된 얼굴 모델의 두 가지 뷰(view)를 나타낸다. 보간법 및 필터링이 상기 디스패리티 맵(disparity map)에 적용되어서, 상기 얼굴에 대한 재구성은 순조롭고 연속적이다. 또한 상기 결과는 상기 입체로부터 구한 점들의 원집합으로서 디스플레이된다; 예를 들면 저장된 갤러리 화상으로부터 추출된 제트(jet)와 위치가 비교될 수 있는 알고리즘을 사용하면 이런 점들은 망상으로 만들어져 연속면을 얻을 수 있다. 얼굴 인식 응용을 위한 경우와 같이, 완전 그래프가 비교되거나, 부분 그래프 또는 심지어 개개의 노드(node)만이 비교된다.
상기 제트(jet)가 실제 비교하기 위해 추출되기 전에, 수많은 화상 규준화가 사용된다. 그런 규준화는 배경 억제라고 불린다. 프로브와 갤러리 화상간 상이한 배경은 유사도를 낮추고 오분류(misclassification)를 자주 가져오기 때문에 프로브 화상에 미치는 상기 배경의 영향은 억제될 필요가 있다. 따라서 상기 얼굴을 둘러싼 노드(node)와 에지(edge)를 얼굴 경계로서 택한다. 상기 얼굴에서 벗어날 때 배경 화소의 색조는 온화하게 낮아진다. 상기 머리를 제외한 각 화소값은 다음과 같이 변경된다:
여기서
이고 c는 상기 그래프의 가장 가까운 변으로부터 화소 위치의 유클리드 거리를 나타내는 일정한 배경 그레이 값이다. d0는 일정한 톤 다운(tone down) 값이다. 물론, 상기 그래프 경계로부터 화소 값과 거리간 다른 함수 종속이 가능하다.
도 28에 나타낸 바와 같이, 자동 배경 억제는 가장 가까운 변으로부터 벗어날 때 상기 그레이 값을 상수로 드래그(drag)한다. 이 방법은 여전히 상기 얼굴을 둘러싼 배경 영역을 볼 수 있게 하지만, 그것은 상기 화상에서 강한 동요 에지(edge)를 피하는데, 그것은 이 영역이 일정한 그레이 값만으로 채워지면 생길 것이다.
본 발명의 특정 실시예들을 참고하여 전술하였지만, 이것은 설명일 뿐이고 이런 실시예는 본 발명의 원리, 첨부된 청구항에 의해 한정된 범위에서 벗어나지 않게 변화될 수 있다고 당업자는 생각할 것이다.
상기에서 설명한 바와 같이, 본 발명은 인간의 얼굴과 같은 비디오 화상에서 물체를 검출하며, 상기 물체를 실시간으로 추적하고 식별하는데 사용될 수 있다.
본 발명의 시스템은 다양한 자세각에 대하여 사람을 인식하는데 특히 유리하다.

Claims (24)

  1. 화상 프레임에서 물체를 인식하기 위한 프로세스에 있어서,
    상기 화상 프레임에서 물체를 검출하고 상기 물체와 관련된 화상 프레임 부분의 경계를 긋는 단계와,
    변환 화상을 만들어내기 위해 웨이브렛(wavelet) 변환을 사용하여 상기 화상 프레임의 경계 부분을 변환하는 단계와,
    복수의 대표 물체상으로부터 만들어진 집군 그래프(bunch graph)의 웨이브렛 제트(wavelet jet)에 의해 정의된 물체의 두드러진 특징과 관련된 노드(node)의 위치를 상기 변환 화상에서 찾아내는 단계와,
    물체상들의 갤러리에서 물체상과 관련된 웨이브렛 제트(wavelet jet)와 상기 변환 화상의 노드(node)에서 웨이브렛 제트(wavelet jet)간 유사도를 바탕으로 하여 상기 물체를 식별하는 단계를 포함하는 물체를 인식하기 위한 프로세스.
  2. 제1항에 있어서, 상기 검출된 물체가 상기 경계 부분의 내부에 미리 정해진 크기와 위치를 가지도록 상기 화상의 경계 부분의 내부에 상기 검출된 물체를 사이징(sizing)하고 중심에 놓는 단계를 더 포함하는 물체를 인식하기 위한 프로세스.
  3. 제1항에 있어서, 상기 물체를 식별하기 전에 상기 물체와 관련 없는 화상 프레임의 상기 경계 부분의 배경 부분을 억제하는 단계를 더 포함하는 물체를 인식하기 위한 프로세스.
  4. 제3항에 있어서, 상기 억제된 배경 부분은 상기 화상 프레임의 상기 경계 부분내의 물체의 에지(edge) 근처에서 점차 억제되는 물체를 인식하기 위한 프로세스.
  5. 제1항에 있어서, 상기 물체는 얼굴 부분(region)을 나타내는 사람의 머리인 물체를 인식하기 위한 프로세스.
  6. 제1항에 있어서, 상기 집군 그래프는 상기 물체의 3차원 표현에 기초를 둔 물체를 인식하기 위한 프로세스.
  7. 제1항에 있어서, 상기 웨이브렛(wavelet) 변환은 하드웨어 어댑트(adapted) 위상 표현을 사용한 위상 계산에 의해 행해지는 물체를 인식하기 위한 프로세스.
  8. 제1항에 있어서, 상기 위치 찾기 단계는 대강에서 세밀한쪽으로의 방법(coarse-to-fine approach)을 사용하여 수행되는 물체를 인식하기 위한 프로세스.
  9. 제1항에 있어서, 상기 집군 그래프는 미리 정해진 자세를 바탕으로 한 물체를 인식하기 위한 프로세스.
  10. 제1항에 있어서, 상기 식별 단계는 상기 물체의 3차원 표현을 사용하는 물체를 인식하기 위한 프로세스.
  11. 일련의 화상 프레임에서 물체를 인식하기 위한 프로세스에 있어서,
    상기 화상 프레임에서 물체를 검출하고 상기 물체와 관련된 각 화상 프레임 부분의 경계를 긋는 단계와,
    변환 화상을 만들어내기 위해 웨이브렛(wavelet) 변환을 사용하여 각 화상 프레임의 경계 부분을 변환하는 단계와,
    복수의 대표 물체상으로부터 만들어진 집군 그래프의 웨이브렛 제트(wavelet jet)에 의해 정의된 물체의 두드러진 특징과 관련된 노드(node)의 위치를 상기 변환 화상에서 찾아내는 단계와,
    물체상(object image)들의 갤러리에서 물체상과 관련된 웨이브렛 제트(wavelet jet)와 상기 변환 화상의 노드(node)에서 웨이브렛 제트(wavelet jet)간 유사도를 바탕으로 하여 상기 물체를 식별하는 단계를 포함하는 물체를 인식하기 위한 프로세스.
  12. 제11항에 있어서, 상기 물체를 검출하는 단계는 상기 물체와 관련된 궤적을바탕으로 하여 화상 프레임간 물체를 추적하는 단계를 더 포함하는 물체를 인식하기 위한 프로세스.
  13. 제11항에 있어서, 특정 궤적에 속하는 뷰(view)들에서 물체의 가장 적당한 뷰(view)를 선택하는 프리실렉팅 프로세스(preselecting process)를 더 포함하는 물체를 인식하기 위한 프로세스.
  14. 제11항에 있어서, 상기 노드(node)의 위치를 찾아내는 단계는 화상 프레임간 노드(node)를 추적하는 단계를 포함하는 물체를 인식하기 위한 프로세스.
  15. 제14항에 있어서, 상기 노드(node)의 위치가 화상 프레임간의 미리 정해진 위치 제한(constraint)을 벗어나면 추적된 노드(node)를 재초기화하는 것으로 더 구성된 물체를 인식하기 위한 프로세스.
  16. 제15항에 있어서, 상기 미리 정해진 위치 제한은 상기 노드(node) 위치간 상대 위치와 관련된 기하학적 위치 제한(geometrical position constraint)에 기초를 둔 물체를 인식하기 위한 프로세스.
  17. 제11항에 있어서, 상기 화상 프레임은 입체 화상이고 상기 검출 단계는 상기 물체를 검출하기 위해 디스패리티 히스토그램과 실루엣 화상을 만들어내는 것을 포함하는 물체를 인식하기 위한 프로세스.
  18. 제17항에 있어서, 상기 디스패리티 히스토그램과 실루엣 화상은 머리 이동과 관련되며 볼록 검출기에 의해 검출된 볼록 영역을 만들어내는 물체를 인식하기 위한 프로세스.
  19. 제11항에 있어서, 상기 웨이브렛(wavelet) 변환은 하드웨어 어댑트 위상 표현을 사용한 위상 계산에 의해 수행되는 물체를 인식하기 위한 프로세스.
  20. 제11항에 있어서, 상기 집군 그래프는 상기 물체의 3차원 표현에 기초를 둔 물체를 인식하기 위한 프로세스.
  21. 제11항에 있어서, 상기 위치 찾기 단계는 대강에서 세밀한쪽으로의 방법을 사용하여 수행되는 물체를 인식하기 위한 프로세스.
  22. 제11항에 있어서, 상기 집군 그래프는 미리 정해진 자세를 바탕으로 한 물체를 인식하기 위한 프로세스.
  23. 화상 프레임에서 물체를 인식하기 위한 장치에 있어서,
    상기 화상 프레임에서 물체를 검출하고 상기 물체와 관련된 화상 프레임 부분의 경계를 긋기 위한 수단과,
    변환 화상을 만들어내기 위해 웨이브렛(wavelet) 변환을 사용하여 상기 화상 프레임의 경계 부분을 변환하기 위한 수단과,
    복수의 대표 물체상으로부터 만들어진 집군 그래프의 웨이브렛 제트(wavelet jet)에 의해 정의된 물체의 두드러진 특징과 관련된 노드(node)의 위치를 상기 변환 화상에서 찾아내기 위한 수단과,
    물체상들의 갤러리에서 물체상과 관련된 웨이브렛 제트(wavelet jet)와 상기 변환 화상의 노드(node)에서 웨이브렛 제트(wavelet jet)간 유사도를 바탕으로 하여 상기 물체를 식별하기 위한 수단을 포함하는 물체를 인식하기 위한 장치.
  24. 일련의 화상 프레임에서 물체를 인식하기 위한 프로세스에 있어서,
    상기 화상 프레임에서 물체를 검출하고 상기 물체와 관련된 각 화상 프레임 부분의 경계를 긋기 위한 수단과,
    변환 화상을 만들어내기 위해 웨이브렛(wavelet) 변환을 사용하여 각 화상 프레임의 경계 부분을 변환하기 위한 수단과,
    복수의 대표 물체상으로부터 만들어진 집군 그래프의 웨이브렛 제트(wavelet jet)에 의해 정의된 물체의 두드러진 특징과 관련된 노드(node)의 위치를 상기 변환 화상에서 찾아내기 위한 수단과,
    물체상들의 갤러리에서 물체상과 관련된 웨이브렛 제트(wavelet jet)와 상기 변환 화상의 노드(node)에서 웨이브렛 제트(wavelet jet)간 유사도를 바탕으로 하여 상기 물체를 식별하기 위한 수단을 포함하는 물체를 인식하기 위한 프로세스.
KR1020007011358A 1998-04-13 1999-04-12 비디오 화상으로부터의 얼굴 인식 KR100653288B1 (ko)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US8161598P 1998-04-13 1998-04-13
US60/081,615 1998-04-13
US09/206,195 1998-12-04
US9/206,195 1998-12-04
US09/206,195 US6301370B1 (en) 1998-04-13 1998-12-04 Face recognition from video images

Publications (2)

Publication Number Publication Date
KR20010042659A true KR20010042659A (ko) 2001-05-25
KR100653288B1 KR100653288B1 (ko) 2006-12-04

Family

ID=26765755

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020007011358A KR100653288B1 (ko) 1998-04-13 1999-04-12 비디오 화상으로부터의 얼굴 인식

Country Status (10)

Country Link
US (1) US6301370B1 (ko)
EP (1) EP1072014B1 (ko)
JP (1) JP2002511617A (ko)
KR (1) KR100653288B1 (ko)
AT (2) ATE419591T1 (ko)
AU (1) AU3554199A (ko)
BR (1) BR9909623B1 (ko)
CA (1) CA2326816C (ko)
DE (2) DE69922183T2 (ko)
WO (1) WO1999053427A1 (ko)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030073895A (ko) * 2002-03-09 2003-09-19 박동발 얼굴인식 현금인출기 차단시스템
KR100478222B1 (ko) * 2002-06-17 2005-03-21 전진규 영상 데이터의 처리장치
KR100840022B1 (ko) * 2007-11-05 2008-06-20 (주)올라웍스 프리뷰 히스토리를 참조로 디지털 데이터에 포함된 인물을인식하는 방법 및 시스템
KR100957888B1 (ko) * 2000-07-07 2010-05-13 미쓰비시덴키 가부시키가이샤 화상 내의 물체를 표현하고 검색하는 방법 및 장치
KR101506155B1 (ko) * 2013-12-12 2015-03-26 주식회사 슈프리마 생체 인증 장치와 얼굴 검출 방법

Families Citing this family (363)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6850252B1 (en) 1999-10-05 2005-02-01 Steven M. Hoffberg Intelligent electronic appliance system and method
USRE48056E1 (en) 1991-12-23 2020-06-16 Blanding Hovenweep, Llc Ergonomic man-machine interface incorporating adaptive pattern recognition based control system
USRE46310E1 (en) 1991-12-23 2017-02-14 Blanding Hovenweep, Llc Ergonomic man-machine interface incorporating adaptive pattern recognition based control system
US5903454A (en) 1991-12-23 1999-05-11 Hoffberg; Linda Irene Human-factored interface corporating adaptive pattern recognition based controller apparatus
USRE47908E1 (en) 1991-12-23 2020-03-17 Blanding Hovenweep, Llc Ergonomic man-machine interface incorporating adaptive pattern recognition based control system
US10361802B1 (en) 1999-02-01 2019-07-23 Blanding Hovenweep, Llc Adaptive pattern recognition based control system and method
US7650015B2 (en) 1997-07-22 2010-01-19 Image Processing Technologies. LLC Image processing method
KR100530812B1 (ko) * 1998-04-13 2005-11-28 네브엔지니어링 인코포레이티드 아바타 애니메이션을 위한 웨이브렛-기반 얼굴 움직임 캡쳐
US7121946B2 (en) * 1998-08-10 2006-10-17 Cybernet Systems Corporation Real-time head tracking system for computer games and other applications
US7036094B1 (en) 1998-08-10 2006-04-25 Cybernet Systems Corporation Behavior recognition system
US6681031B2 (en) * 1998-08-10 2004-01-20 Cybernet Systems Corporation Gesture-controlled interfaces for self-service machines and other applications
US6950534B2 (en) * 1998-08-10 2005-09-27 Cybernet Systems Corporation Gesture-controlled interfaces for self-service machines and other applications
US20010008561A1 (en) * 1999-08-10 2001-07-19 Paul George V. Real-time object tracking system
DE19837004C1 (de) * 1998-08-14 2000-03-09 Christian Eckes Verfahren zum Erkennen von Objekten in digitalisierten Abbildungen
JP3141004B2 (ja) * 1998-08-31 2001-03-05 インターナショナル・ビジネス・マシーンズ・コーポレ−ション 動画中のオブジェクトを分類する方法
US6714661B2 (en) * 1998-11-06 2004-03-30 Nevengineering, Inc. Method and system for customizing facial feature tracking using precise landmark finding on a neutral face image
US6545706B1 (en) * 1999-07-30 2003-04-08 Electric Planet, Inc. System, method and article of manufacture for tracking a head of a camera-generated image of a person
US6526161B1 (en) * 1999-08-30 2003-02-25 Koninklijke Philips Electronics N.V. System and method for biometrics-based facial feature extraction
JP4157234B2 (ja) * 1999-09-02 2008-10-01 株式会社東芝 動画像内の移動物体検出装置
US6741756B1 (en) * 1999-09-30 2004-05-25 Microsoft Corp. System and method for estimating the orientation of an object
US6792135B1 (en) * 1999-10-29 2004-09-14 Microsoft Corporation System and method for face detection through geometric distribution of a non-intensity image property
US6674877B1 (en) * 2000-02-03 2004-01-06 Microsoft Corporation System and method for visually tracking occluded objects in real time
US6807290B2 (en) * 2000-03-09 2004-10-19 Microsoft Corporation Rapid computer modeling of faces for animation
GB2360581A (en) * 2000-03-15 2001-09-26 Television Monitoring Services Quantification of brand exposure on screen
US6738520B1 (en) * 2000-06-19 2004-05-18 Intel Corporation Method of compressing an image
US7046728B1 (en) * 2000-06-30 2006-05-16 Intel Corporation Method of video coding the movement of a human face from a sequence of images
AUPQ921600A0 (en) * 2000-08-04 2000-08-31 Canon Kabushiki Kaisha Automatic person meta-data labeller
US6529620B2 (en) 2000-09-11 2003-03-04 Pinotage, L.L.C. System and method for obtaining and utilizing maintenance information
WO2002023901A2 (en) * 2000-09-11 2002-03-21 Dynapel Systems, Inc. Special effects in video in response to depicted motion
US20030215128A1 (en) * 2001-09-12 2003-11-20 Pinotage Llc System and method for obtaining and utilizing maintenance information
US7095444B1 (en) * 2000-11-06 2006-08-22 Sri International Method and apparatus for generating, distributing and reconstructing deconstructed video
US7020305B2 (en) * 2000-12-06 2006-03-28 Microsoft Corporation System and method providing improved head motion estimations for animation
JP2002175538A (ja) * 2000-12-08 2002-06-21 Mitsubishi Electric Corp 似顔絵生成装置及び似顔絵生成方法及び似顔絵生成プログラムを記録した記録媒体及び通信用端末及び通信用端末による通信方法
US6690414B2 (en) * 2000-12-12 2004-02-10 Koninklijke Philips Electronics N.V. Method and apparatus to reduce false alarms in exit/entrance situations for residential security monitoring
KR100416991B1 (ko) * 2001-01-11 2004-02-05 삼성전자주식회사 가상 배경 표시 기능을 갖는 영상 단말 장치 및 그 구현방법
US6961449B2 (en) * 2001-01-16 2005-11-01 University Of Massachusetts Lowell Method of correlation of images in biometric applications
US7031502B1 (en) 2001-01-29 2006-04-18 University Of Massachusetts Lowell Adjustable guide for viewing biometric surface patterns
US6917703B1 (en) * 2001-02-28 2005-07-12 Nevengineering, Inc. Method and apparatus for image analysis of a gabor-wavelet transformed image using a neural network
US7392287B2 (en) 2001-03-27 2008-06-24 Hemisphere Ii Investment Lp Method and apparatus for sharing information using a handheld device
GB0110480D0 (en) 2001-04-28 2001-06-20 Univ Manchester Metropolitan Methods and apparatus for analysing the behaviour of a subject
US9400921B2 (en) * 2001-05-09 2016-07-26 Intel Corporation Method and system using a data-driven model for monocular face tracking
TW505892B (en) * 2001-05-25 2002-10-11 Ind Tech Res Inst System and method for promptly tracking multiple faces
US20050008198A1 (en) * 2001-09-14 2005-01-13 Guo Chun Biao Apparatus and method for selecting key frames of clear faces through a sequence of images
WO2003025805A1 (en) * 2001-09-18 2003-03-27 Pro-Corp Holdings International Limited Image recognition inventory management system
CA2359269A1 (en) * 2001-10-17 2003-04-17 Biodentity Systems Corporation Face imaging system for recordal and automated identity confirmation
JP3758034B2 (ja) * 2001-10-30 2006-03-22 株式会社デンソー 車両用乗員保護装置
US20030126622A1 (en) * 2001-12-27 2003-07-03 Koninklijke Philips Electronics N.V. Method for efficiently storing the trajectory of tracked objects in video
US20030123734A1 (en) * 2001-12-28 2003-07-03 Koninklijke Philips Electronics N.V. Methods and apparatus for object recognition
AU2003209355A1 (en) * 2002-01-22 2003-09-02 Matchlight Software Inc. System and method for image attribute recording and analysis for biometric applications
US6990639B2 (en) 2002-02-07 2006-01-24 Microsoft Corporation System and process for controlling electronic components in a ubiquitous computing environment using multimodal integration
US20040052418A1 (en) * 2002-04-05 2004-03-18 Bruno Delean Method and apparatus for probabilistic image analysis
US7369685B2 (en) * 2002-04-05 2008-05-06 Identix Corporation Vision-based operating method and system
EP1357515A1 (de) * 2002-04-22 2003-10-29 Agfa-Gevaert AG Verfahren zur Verarbeitung digitaler Bilddaten von fotografischen Bildern
US20030210808A1 (en) * 2002-05-10 2003-11-13 Eastman Kodak Company Method and apparatus for organizing and retrieving images containing human faces
US7031499B2 (en) * 2002-07-22 2006-04-18 Mitsubishi Electric Research Laboratories, Inc. Object recognition system
US7512571B2 (en) * 2002-08-29 2009-03-31 Paul Rudolf Associative memory device and method based on wave propagation
US6996460B1 (en) 2002-10-03 2006-02-07 Advanced Interfaces, Inc. Method and apparatus for providing virtual touch interaction in the drive-thru
KR20040042501A (ko) * 2002-11-14 2004-05-20 엘지전자 주식회사 형판 정합 기반 얼굴 검출방법
US7283650B1 (en) 2002-11-27 2007-10-16 Video Mining Corporation Method and system for printing of automatically captured facial images augmented with promotional content
AU2003300959A1 (en) 2002-12-17 2004-07-22 Evolution Robotics, Inc. Systems and methods for visual simultaneous localization and mapping
US7734070B1 (en) * 2002-12-31 2010-06-08 Rajeev Sharma Method and system for immersing face images into a video sequence
JP3854229B2 (ja) * 2003-01-07 2006-12-06 株式会社東芝 画像処理装置
WO2004072899A1 (ja) 2003-02-13 2004-08-26 Nec Corporation 成り済まし検出装置、および成り済まし検出方法
DE602004008594T2 (de) * 2003-03-18 2008-07-31 Koninklijke Philips Electronics N.V. Verfahren und vorrichtung zum optimalen anpassen von datensätzen
JP2004289254A (ja) * 2003-03-19 2004-10-14 Matsushita Electric Ind Co Ltd テレビ電話端末
US7665041B2 (en) 2003-03-25 2010-02-16 Microsoft Corporation Architecture for controlling a computer using hand gestures
US8745541B2 (en) * 2003-03-25 2014-06-03 Microsoft Corporation Architecture for controlling a computer using hand gestures
US7599524B2 (en) * 2003-04-04 2009-10-06 Sarnoff Corporation Method and apparatus for providing a robust object finder
US7711155B1 (en) * 2003-04-14 2010-05-04 Videomining Corporation Method and system for enhancing three dimensional face modeling using demographic classification
US7602941B2 (en) * 2003-05-14 2009-10-13 Siemens Corporate Research, Inc. Component fusion for face detection
US7421097B2 (en) * 2003-05-27 2008-09-02 Honeywell International Inc. Face identification verification using 3 dimensional modeling
US7391888B2 (en) 2003-05-30 2008-06-24 Microsoft Corporation Head pose assessment methods and systems
US8989453B2 (en) 2003-06-26 2015-03-24 Fotonation Limited Digital image processing using face detection information
US8155397B2 (en) 2007-09-26 2012-04-10 DigitalOptics Corporation Europe Limited Face tracking in a camera processor
US8593542B2 (en) 2005-12-27 2013-11-26 DigitalOptics Corporation Europe Limited Foreground/background separation using reference images
US7471846B2 (en) * 2003-06-26 2008-12-30 Fotonation Vision Limited Perfecting the effect of flash within an image acquisition devices using face detection
US7574016B2 (en) 2003-06-26 2009-08-11 Fotonation Vision Limited Digital image processing using face detection information
US7440593B1 (en) 2003-06-26 2008-10-21 Fotonation Vision Limited Method of improving orientation and color balance of digital images using face detection information
US8553949B2 (en) 2004-01-22 2013-10-08 DigitalOptics Corporation Europe Limited Classification and organization of consumer digital images using workflow, and face detection and recognition
US7362368B2 (en) * 2003-06-26 2008-04-22 Fotonation Vision Limited Perfecting the optics within a digital image acquisition device using face detection
US8330831B2 (en) 2003-08-05 2012-12-11 DigitalOptics Corporation Europe Limited Method of gathering visual meta data using a reference image
US9129381B2 (en) 2003-06-26 2015-09-08 Fotonation Limited Modification of post-viewing parameters for digital images using image region or feature information
US7792335B2 (en) 2006-02-24 2010-09-07 Fotonation Vision Limited Method and apparatus for selective disqualification of digital images
US7587068B1 (en) 2004-01-22 2009-09-08 Fotonation Vision Limited Classification database for consumer digital images
US7680342B2 (en) 2004-08-16 2010-03-16 Fotonation Vision Limited Indoor/outdoor classification in digital images
US8896725B2 (en) 2007-06-21 2014-11-25 Fotonation Limited Image capture device with contemporaneous reference image capture mechanism
US8494286B2 (en) 2008-02-05 2013-07-23 DigitalOptics Corporation Europe Limited Face detection in mid-shot digital images
US7792970B2 (en) 2005-06-17 2010-09-07 Fotonation Vision Limited Method for establishing a paired connection between media devices
US8363951B2 (en) 2007-03-05 2013-01-29 DigitalOptics Corporation Europe Limited Face recognition training method and apparatus
US8498452B2 (en) 2003-06-26 2013-07-30 DigitalOptics Corporation Europe Limited Digital image processing using face detection information
US7269292B2 (en) 2003-06-26 2007-09-11 Fotonation Vision Limited Digital image adjustable compression and resolution using face detection information
US8682097B2 (en) 2006-02-14 2014-03-25 DigitalOptics Corporation Europe Limited Digital image enhancement with reference images
US7315630B2 (en) 2003-06-26 2008-01-01 Fotonation Vision Limited Perfecting of digital image rendering parameters within rendering devices using face detection
US7620218B2 (en) 2006-08-11 2009-11-17 Fotonation Ireland Limited Real-time face tracking with reference images
US7317815B2 (en) * 2003-06-26 2008-01-08 Fotonation Vision Limited Digital image processing composition using face detection information
US8948468B2 (en) 2003-06-26 2015-02-03 Fotonation Limited Modification of viewing parameters for digital images using face detection information
US7565030B2 (en) 2003-06-26 2009-07-21 Fotonation Vision Limited Detecting orientation of digital images using face detection information
US9692964B2 (en) 2003-06-26 2017-06-27 Fotonation Limited Modification of post-viewing parameters for digital images using image region or feature information
US7844076B2 (en) 2003-06-26 2010-11-30 Fotonation Vision Limited Digital image processing using face detection and skin tone information
US7616233B2 (en) * 2003-06-26 2009-11-10 Fotonation Vision Limited Perfecting of digital image capture parameters within acquisition devices using face detection
US7218760B2 (en) * 2003-06-30 2007-05-15 Microsoft Corporation Stereo-coupled face shape registration
US7778328B2 (en) * 2003-08-07 2010-08-17 Sony Corporation Semantics-based motion estimation for multi-view video coding
WO2005034025A1 (en) * 2003-10-08 2005-04-14 Xid Technologies Pte Ltd Individual identity authentication systems
JP4860472B2 (ja) * 2003-10-09 2012-01-25 ユニヴァーシティ オブ ヨーク 画像認識
US7088846B2 (en) * 2003-11-17 2006-08-08 Vidient Systems, Inc. Video surveillance system that detects predefined behaviors based on predetermined patterns of movement through zones
US7136507B2 (en) * 2003-11-17 2006-11-14 Vidient Systems, Inc. Video surveillance system with rule-based reasoning and multiple-hypothesis scoring
US7127083B2 (en) * 2003-11-17 2006-10-24 Vidient Systems, Inc. Video surveillance system with object detection and probability scoring based on object class
US7148912B2 (en) * 2003-11-17 2006-12-12 Vidient Systems, Inc. Video surveillance system in which trajectory hypothesis spawning allows for trajectory splitting and/or merging
US20050104960A1 (en) * 2003-11-17 2005-05-19 Mei Han Video surveillance system with trajectory hypothesis spawning and local pruning
US20050105764A1 (en) * 2003-11-17 2005-05-19 Mei Han Video surveillance system with connection probability computation that is a function of object size
US20050104959A1 (en) * 2003-11-17 2005-05-19 Mei Han Video surveillance system with trajectory hypothesis scoring based on at least one non-spatial parameter
US6984039B2 (en) * 2003-12-01 2006-01-10 Eastman Kodak Company Laser projector having silhouette blanking for objects in the output light path
US7525584B2 (en) * 2004-01-05 2009-04-28 Lifesize Communications, Inc. Fast edge directed demosaicing
US20050197981A1 (en) * 2004-01-20 2005-09-08 Bingham Clifton W. Method for identifying unanticipated changes in multi-dimensional data sets
US7558408B1 (en) 2004-01-22 2009-07-07 Fotonation Vision Limited Classification system for consumer digital images using workflow and user interface modules, and face detection and recognition
US7555148B1 (en) 2004-01-22 2009-06-30 Fotonation Vision Limited Classification system for consumer digital images using workflow, face detection, normalization, and face recognition
US7551755B1 (en) 2004-01-22 2009-06-23 Fotonation Vision Limited Classification and organization of consumer digital images using workflow, and face detection and recognition
US7564994B1 (en) * 2004-01-22 2009-07-21 Fotonation Vision Limited Classification system for consumer digital images using automatic workflow and face detection and recognition
US7072494B2 (en) * 2004-02-20 2006-07-04 Siemens Corporate Research, Inc. Method and system for multi-modal component-based tracking of an object using robust information fusion
US20070159522A1 (en) * 2004-02-20 2007-07-12 Harmut Neven Image-based contextual advertisement method and branded barcodes
US7751805B2 (en) * 2004-02-20 2010-07-06 Google Inc. Mobile image-based information retrieval system
US7565139B2 (en) * 2004-02-20 2009-07-21 Google Inc. Image-based search engine for mobile phones with camera
US8421872B2 (en) * 2004-02-20 2013-04-16 Google Inc. Image base inquiry system for search engines for mobile telephones with integrated camera
US7292735B2 (en) * 2004-04-16 2007-11-06 Microsoft Corporation Virtual image artifact detection
US7257272B2 (en) * 2004-04-16 2007-08-14 Microsoft Corporation Virtual image generation
WO2005114588A1 (fr) * 2004-04-19 2005-12-01 Allegorithmic Methode et dispositif pour generer une carte procedurale a partir d'un parametre externe tel une caracteristique d’une image
US20050267657A1 (en) * 2004-05-04 2005-12-01 Devdhar Prashant P Method for vehicle classification
GB2414614A (en) * 2004-05-28 2005-11-30 Sony Uk Ltd Image processing to determine most dissimilar images
TW200540732A (en) * 2004-06-04 2005-12-16 Bextech Inc System and method for automatically generating animation
EP1766555B1 (en) * 2004-06-21 2010-08-04 Google Inc. Single image based multi-biometric system and method
WO2006010855A1 (fr) * 2004-06-30 2006-02-02 France Telecom Procede et dispositif de signature et de reconnaissance d'un visage base sur des transformations ondelettes
WO2006135394A2 (en) * 2004-08-20 2006-12-21 The Regents Of The University Of Colorado, A Body Corporate Biometric signature and identification through the use of projective invariants
US7555151B2 (en) * 2004-09-02 2009-06-30 Siemens Medical Solutions Usa, Inc. System and method for tracking anatomical structures in three dimensional images
EP1640910A1 (de) * 2004-09-28 2006-03-29 AgfaPhoto GmbH Verfahren zum Erkennen von Rote-Augen-Defekten in digitalen Bilddaten von fotografischen Aufnahmen
US8477173B2 (en) * 2004-10-15 2013-07-02 Lifesize Communications, Inc. High definition videoconferencing system
US7545435B2 (en) * 2004-10-15 2009-06-09 Lifesize Communications, Inc. Automatic backlight compensation and exposure control
US7864221B2 (en) * 2004-10-15 2011-01-04 Lifesize Communications, Inc. White balance for video applications
US7626569B2 (en) * 2004-10-25 2009-12-01 Graphics Properties Holdings, Inc. Movable audio/video communication interface system
US8320641B2 (en) 2004-10-28 2012-11-27 DigitalOptics Corporation Europe Limited Method and apparatus for red-eye detection using preview or other reference images
US20060120571A1 (en) * 2004-12-03 2006-06-08 Tu Peter H System and method for passive face recognition
TWI235041B (en) * 2004-12-09 2005-07-01 Univ Tsinghua Characteristic points automatically identification method for three-dimensional space scanning data of human body
US8503800B2 (en) 2007-03-05 2013-08-06 DigitalOptics Corporation Europe Limited Illumination detection using classifier chains
US7315631B1 (en) 2006-08-11 2008-01-01 Fotonation Vision Limited Real-time face tracking in a digital image acquisition device
US7715597B2 (en) 2004-12-29 2010-05-11 Fotonation Ireland Limited Method and component for image recognition
US8488023B2 (en) * 2009-05-20 2013-07-16 DigitalOptics Corporation Europe Limited Identifying facial expressions in acquired digital images
US8995715B2 (en) * 2010-10-26 2015-03-31 Fotonation Limited Face or other object detection including template matching
US20060184066A1 (en) * 2005-02-15 2006-08-17 Baylor College Of Medicine Method for aiding stent-assisted coiling of intracranial aneurysms by virtual parent artery reconstruction
US8235725B1 (en) 2005-02-20 2012-08-07 Sensory Logic, Inc. Computerized method of assessing consumer reaction to a business stimulus employing facial coding
US7370190B2 (en) * 2005-03-03 2008-05-06 Digimarc Corporation Data processing systems and methods with enhanced bios functionality
US7317836B2 (en) * 2005-03-17 2008-01-08 Honda Motor Co., Ltd. Pose estimation based on critical point analysis
US7353034B2 (en) 2005-04-04 2008-04-01 X One, Inc. Location sharing and tracking using mobile phones or other wireless devices
US8606950B2 (en) * 2005-06-08 2013-12-10 Logitech Europe S.A. System and method for transparently processing multimedia data
JP2007037088A (ja) * 2005-06-24 2007-02-08 Matsushita Electric Ind Co Ltd ドアホン装置
JP4830650B2 (ja) * 2005-07-05 2011-12-07 オムロン株式会社 追跡装置
ATE546800T1 (de) * 2005-07-05 2012-03-15 Omron Tateisi Electronics Co Tracking-vorrichtung
US7450736B2 (en) * 2005-10-28 2008-11-11 Honda Motor Co., Ltd. Monocular tracking of 3D human motion with a coordinated mixture of factor analyzers
US7471292B2 (en) * 2005-11-15 2008-12-30 Sharp Laboratories Of America, Inc. Virtual view specification and synthesis in free viewpoint
US7917286B2 (en) 2005-12-16 2011-03-29 Google Inc. Database assisted OCR for street scenes and other images
US8311129B2 (en) * 2005-12-16 2012-11-13 Lifesize Communications, Inc. Temporal video filtering
JP2007174378A (ja) * 2005-12-22 2007-07-05 Fujifilm Corp 画像ファイリング方法及びデジタルカメラ及び画像ファイリング処理プログラム及び動画記録再生装置
US20070162761A1 (en) 2005-12-23 2007-07-12 Davis Bruce L Methods and Systems to Help Detect Identity Fraud
CN100361138C (zh) * 2005-12-31 2008-01-09 北京中星微电子有限公司 视频序列中人脸的实时检测与持续跟踪的方法及系统
US8125509B2 (en) * 2006-01-24 2012-02-28 Lifesize Communications, Inc. Facial recognition for a videoconference
US8487976B2 (en) * 2006-01-24 2013-07-16 Lifesize Communications, Inc. Participant authentication for a videoconference
US8150155B2 (en) * 2006-02-07 2012-04-03 Qualcomm Incorporated Multi-mode region-of-interest video object segmentation
US8265349B2 (en) * 2006-02-07 2012-09-11 Qualcomm Incorporated Intra-mode region-of-interest video object segmentation
US8265392B2 (en) * 2006-02-07 2012-09-11 Qualcomm Incorporated Inter-mode region-of-interest video object segmentation
US7606424B2 (en) * 2006-02-13 2009-10-20 3M Innovative Properties Company Combined forward and reverse correlation
US7804983B2 (en) 2006-02-24 2010-09-28 Fotonation Vision Limited Digital image acquisition control and correction method and apparatus
US8611587B2 (en) * 2006-03-27 2013-12-17 Eyecue Vision Technologies Ltd. Device, system and method for determining compliance with an instruction by a figure in an image
US7515734B2 (en) * 2006-03-27 2009-04-07 Eyecue Vision Technologies Ltd. Device, system and method for determining compliance with a positioning instruction by a figure in an image
JP2009533786A (ja) 2006-04-10 2009-09-17 アヴァワークス インコーポレーテッド 自分でできるフォトリアリスティックなトーキングヘッド作成システム及び方法
US20080086311A1 (en) * 2006-04-11 2008-04-10 Conwell William Y Speech Recognition, and Related Systems
EP2033142B1 (en) 2006-06-12 2011-01-26 Tessera Technologies Ireland Limited Advances in extending the aam techniques from grayscale to color images
CN101089874B (zh) * 2006-06-12 2010-08-18 华为技术有限公司 一种远程人脸图像的身份识别方法
WO2008015586A2 (en) 2006-08-02 2008-02-07 Fotonation Vision Limited Face recognition with combined pca-based datasets
US7751599B2 (en) * 2006-08-09 2010-07-06 Arcsoft, Inc. Method for driving virtual facial expressions by automatically detecting facial expressions of a face image
US7916897B2 (en) 2006-08-11 2011-03-29 Tessera Technologies Ireland Limited Face tracking for controlling imaging parameters
US7403643B2 (en) * 2006-08-11 2008-07-22 Fotonation Vision Limited Real-time face tracking in a digital image acquisition device
US8010511B2 (en) 2006-08-29 2011-08-30 Attributor Corporation Content monitoring and compliance enforcement
US8707459B2 (en) 2007-01-19 2014-04-22 Digimarc Corporation Determination of originality of content
US7725547B2 (en) * 2006-09-06 2010-05-25 International Business Machines Corporation Informing a user of gestures made by others out of the user's line of sight
US8296808B2 (en) * 2006-10-23 2012-10-23 Sony Corporation Metadata from image recognition
US7987111B1 (en) * 2006-10-30 2011-07-26 Videomining Corporation Method and system for characterizing physical retail spaces by determining the demographic composition of people in the physical retail spaces utilizing video image analysis
WO2008062416A2 (en) * 2006-11-22 2008-05-29 Nader Butto A system and method for diagnosis of human behavior based on external body markers
EP2104930A2 (en) 2006-12-12 2009-09-30 Evans & Sutherland Computer Corporation System and method for aligning rgb light in a single modulator projector
US8380558B1 (en) * 2006-12-21 2013-02-19 Videomining Corporation Method and system for analyzing shopping behavior in a store by associating RFID data with video-based behavior and segmentation data
US7792328B2 (en) * 2007-01-12 2010-09-07 International Business Machines Corporation Warning a vehicle operator of unsafe operation behavior based on a 3D captured image stream
US8588464B2 (en) * 2007-01-12 2013-11-19 International Business Machines Corporation Assisting a vision-impaired user with navigation based on a 3D captured image stream
US7840031B2 (en) * 2007-01-12 2010-11-23 International Business Machines Corporation Tracking a range of body movement based on 3D captured image streams of a user
US8269834B2 (en) * 2007-01-12 2012-09-18 International Business Machines Corporation Warning a user about adverse behaviors of others within an environment based on a 3D captured image stream
US7801332B2 (en) * 2007-01-12 2010-09-21 International Business Machines Corporation Controlling a system based on user behavioral signals detected from a 3D captured image stream
US8295542B2 (en) 2007-01-12 2012-10-23 International Business Machines Corporation Adjusting a consumer experience based on a 3D captured image stream of a consumer response
US7971156B2 (en) * 2007-01-12 2011-06-28 International Business Machines Corporation Controlling resource access based on user gesturing in a 3D captured image stream of the user
US7877706B2 (en) * 2007-01-12 2011-01-25 International Business Machines Corporation Controlling a document based on user behavioral signals detected from a 3D captured image stream
US8055067B2 (en) 2007-01-18 2011-11-08 DigitalOptics Corporation Europe Limited Color segmentation
AU2008209447B2 (en) * 2007-01-23 2013-01-17 Jostens, Inc. Method and system for creating customized output
DE602008001607D1 (de) 2007-02-28 2010-08-05 Fotonation Vision Ltd Trennung der direktionalen beleuchtungsvariabilität in der statistischen gesichtsmodellierung auf basis von texturraumzerlegungen
WO2008109622A1 (en) 2007-03-05 2008-09-12 Fotonation Vision Limited Face categorization and annotation of a mobile phone contact list
US8649604B2 (en) 2007-03-05 2014-02-11 DigitalOptics Corporation Europe Limited Face searching and detection in a digital image acquisition device
US20080243614A1 (en) * 2007-03-30 2008-10-02 General Electric Company Adaptive advertising and marketing system and method
US20080263040A1 (en) * 2007-04-02 2008-10-23 Nikhilesh Talreja System and method for making a face call
US7916971B2 (en) 2007-05-24 2011-03-29 Tessera Technologies Ireland Limited Image processing method and apparatus
US8726194B2 (en) 2007-07-27 2014-05-13 Qualcomm Incorporated Item selection using enhanced control
US8165352B1 (en) 2007-08-06 2012-04-24 University Of South Florida Reconstruction of biometric image templates using match scores
US8331632B1 (en) 2007-08-06 2012-12-11 University Of South Florida Indexing face templates using linear models
US20090067706A1 (en) * 2007-09-12 2009-03-12 Artec Ventures System and Method for Multiframe Surface Measurement of the Shape of Objects
CN101874404B (zh) * 2007-09-24 2013-09-18 高通股份有限公司 用于语音和视频通信的增强接口
US20110238361A1 (en) * 2007-09-28 2011-09-29 Kazuya Ueki Tallying system, tallying apparatus and tallying method
JP4881278B2 (ja) * 2007-10-31 2012-02-22 株式会社東芝 物体認識装置及びその方法
US20090123035A1 (en) * 2007-11-13 2009-05-14 Cisco Technology, Inc. Automated Video Presence Detection
US8064653B2 (en) * 2007-11-29 2011-11-22 Viewdle, Inc. Method and system of person identification by facial image
KR100940862B1 (ko) * 2007-12-17 2010-02-09 한국전자통신연구원 3차원 얼굴 애니메이션을 위한 헤드 모션 추적 방법
CN101211411B (zh) * 2007-12-21 2010-06-16 北京中星微电子有限公司 一种人体检测的方法和装置
KR100939294B1 (ko) 2007-12-26 2010-01-29 주식회사 케이티 3차원 공간에서의 사람 움직임 추적 방법 및 장치
US8705810B2 (en) * 2007-12-28 2014-04-22 Intel Corporation Detecting and indexing characters of videos by NCuts and page ranking
US9639740B2 (en) 2007-12-31 2017-05-02 Applied Recognition Inc. Face detection and recognition
CN102016882B (zh) 2007-12-31 2015-05-27 应用识别公司 利用脸部签名来标识和共享数字图像的方法、系统和计算机程序
US9721148B2 (en) 2007-12-31 2017-08-01 Applied Recognition Inc. Face detection and recognition
US8014573B2 (en) * 2008-01-03 2011-09-06 International Business Machines Corporation Digital life recording and playback
US9270950B2 (en) * 2008-01-03 2016-02-23 International Business Machines Corporation Identifying a locale for controlling capture of data by a digital life recorder based on location
US7894639B2 (en) * 2008-01-03 2011-02-22 International Business Machines Corporation Digital life recorder implementing enhanced facial recognition subsystem for acquiring a face glossary data
US9105298B2 (en) * 2008-01-03 2015-08-11 International Business Machines Corporation Digital life recorder with selective playback of digital video
US8005272B2 (en) * 2008-01-03 2011-08-23 International Business Machines Corporation Digital life recorder implementing enhanced facial recognition subsystem for acquiring face glossary data
US9164995B2 (en) * 2008-01-03 2015-10-20 International Business Machines Corporation Establishing usage policies for recorded events in digital life recording
US8750578B2 (en) 2008-01-29 2014-06-10 DigitalOptics Corporation Europe Limited Detecting facial expressions in digital images
KR101607224B1 (ko) 2008-03-03 2016-03-29 아비길론 페이턴트 홀딩 2 코포레이션 동적 물체 분류 방법 및 장치
US7855737B2 (en) 2008-03-26 2010-12-21 Fotonation Ireland Limited Method of making a digital camera image of a scene including the camera user
KR101618735B1 (ko) 2008-04-02 2016-05-09 구글 인코포레이티드 디지털 영상 컬렉션에 자동 얼굴 인식 기능을 통합하는 방법 및 장치
CN103402070B (zh) 2008-05-19 2017-07-07 日立麦克赛尔株式会社 记录再现装置及方法
US8358317B2 (en) 2008-05-23 2013-01-22 Evans & Sutherland Computer Corporation System and method for displaying a planar image on a curved surface
WO2009148731A1 (en) * 2008-06-02 2009-12-10 Massachusetts Institute Of Technology Fast pattern classification based on a sparse transform
US8702248B1 (en) 2008-06-11 2014-04-22 Evans & Sutherland Computer Corporation Projection method for reducing interpixel gaps on a viewing surface
CN102112989A (zh) * 2008-06-17 2011-06-29 乔斯滕斯股份有限公司 用于年鉴创建的系统和方法
JP5547730B2 (ja) 2008-07-30 2014-07-16 デジタルオプティックス・コーポレイション・ヨーロッパ・リミテッド 顔検知を用いた顔及び肌の自動美化
JP2010039788A (ja) * 2008-08-05 2010-02-18 Toshiba Corp 画像処理装置及びその方法並びに画像処理プログラム
US8805110B2 (en) * 2008-08-19 2014-08-12 Digimarc Corporation Methods and systems for content processing
US8843974B2 (en) 2008-08-27 2014-09-23 Albert John McGowan Media playback system with multiple video formats
JP5237037B2 (ja) * 2008-10-01 2013-07-17 キヤノン株式会社 画像処理装置および画像処理方法、プログラム
CN101727568B (zh) * 2008-10-10 2013-04-17 索尼(中国)有限公司 前景动作估计装置和前景动作估计方法
US8077378B1 (en) 2008-11-12 2011-12-13 Evans & Sutherland Computer Corporation Calibration system and method for light modulation device
DE102008060141B4 (de) * 2008-12-03 2017-12-21 Forschungszentrum Jülich GmbH Verfahren zur Vermessung des Wachstums von Blattscheiben sowie eine dazu geeignete Vorrichtung
WO2010063463A2 (en) 2008-12-05 2010-06-10 Fotonation Ireland Limited Face recognition using face tracker classifier data
US8649555B1 (en) * 2009-02-18 2014-02-11 Lucasfilm Entertainment Company Ltd. Visual tracking framework
US20100259610A1 (en) * 2009-04-08 2010-10-14 Celsia, Llc Two-Dimensional Display Synced with Real World Object Movement
JP5214533B2 (ja) * 2009-05-21 2013-06-19 富士フイルム株式会社 人物追跡方法、人物追跡装置および人物追跡プログラム
US20100295782A1 (en) 2009-05-21 2010-11-25 Yehuda Binder System and method for control based on face ore hand gesture detection
JP5227888B2 (ja) * 2009-05-21 2013-07-03 富士フイルム株式会社 人物追跡方法、人物追跡装置および人物追跡プログラム
JPWO2010134200A1 (ja) * 2009-05-22 2012-11-08 株式会社東芝 画像処理装置、方法及びプログラム
US9134848B2 (en) * 2009-06-03 2015-09-15 Stmicroelectronics Asia Pacific Pte Ltd Touch tracking on a touch sensitive interface
US9277021B2 (en) * 2009-08-21 2016-03-01 Avaya Inc. Sending a user associated telecommunication address
US8379917B2 (en) 2009-10-02 2013-02-19 DigitalOptics Corporation Europe Limited Face recognition performance using additional image features
US8774527B1 (en) 2009-12-07 2014-07-08 Google Inc. Matching an approximately located query image against a reference image set using cellular base station and wireless access point information
US8238671B1 (en) 2009-12-07 2012-08-07 Google Inc. Scene classification for place recognition
US8189964B2 (en) 2009-12-07 2012-05-29 Google Inc. Matching an approximately located query image against a reference image set
JP5406705B2 (ja) 2009-12-28 2014-02-05 キヤノン株式会社 データ補正装置及び方法
US8385630B2 (en) * 2010-01-05 2013-02-26 Sri International System and method of processing stereo images
CN102214291B (zh) * 2010-04-12 2013-01-16 云南清眸科技有限公司 一种快速准确的基于视频序列的人脸检测跟踪方法
US8249361B1 (en) 2010-04-22 2012-08-21 Google Inc. Interdependent learning of template map and similarity metric for object identification
US9015139B2 (en) 2010-05-14 2015-04-21 Rovi Guides, Inc. Systems and methods for performing a search based on a media content snapshot image
US9053562B1 (en) 2010-06-24 2015-06-09 Gregory S. Rabin Two dimensional to three dimensional moving image converter
US9286810B2 (en) 2010-09-24 2016-03-15 Irobot Corporation Systems and methods for VSLAM optimization
US20120098971A1 (en) * 2010-10-22 2012-04-26 Flir Systems, Inc. Infrared binocular system with dual diopter adjustment
US8831416B2 (en) 2010-12-22 2014-09-09 Michael Braithwaite System and method for illuminating and identifying a person
US20110181684A1 (en) * 2011-02-07 2011-07-28 InnovatioNet Method of remote video communication and system of synthesis analysis and protection of user video images
US8836777B2 (en) 2011-02-25 2014-09-16 DigitalOptics Corporation Europe Limited Automatic detection of vertical gaze using an embedded imaging device
US8509525B1 (en) 2011-04-06 2013-08-13 Google Inc. Clustering of forms from large-scale scanned-document collection
US8306267B1 (en) 2011-05-09 2012-11-06 Google Inc. Object tracking
US9251402B2 (en) 2011-05-13 2016-02-02 Microsoft Technology Licensing, Llc Association and prediction in facial recognition
US9323980B2 (en) 2011-05-13 2016-04-26 Microsoft Technology Licensing, Llc Pose-robust recognition
US9552376B2 (en) 2011-06-09 2017-01-24 MemoryWeb, LLC Method and apparatus for managing digital files
CN102254304B (zh) * 2011-06-17 2012-08-29 电子科技大学 一种目标物体轮廓检测方法
US8776250B2 (en) * 2011-07-08 2014-07-08 Research Foundation Of The City University Of New York Method of comparing private data without revealing the data
US9197637B2 (en) 2011-07-08 2015-11-24 Research Foundation Of The City University Of New York Method of comparing private data without revealing the data
US8548207B2 (en) 2011-08-15 2013-10-01 Daon Holdings Limited Method of host-directed illumination and system for conducting host-directed illumination
US8903138B1 (en) 2011-09-06 2014-12-02 Google Inc. Face recognition using pre-templates
US8966613B2 (en) 2011-09-30 2015-02-24 Microsoft Technology Licensing, Llc Multi-frame depth image information identification
US8798840B2 (en) 2011-09-30 2014-08-05 Irobot Corporation Adaptive mapping with spatial summaries of sensor data
US9641826B1 (en) 2011-10-06 2017-05-02 Evans & Sutherland Computer Corporation System and method for displaying distant 3-D stereo on a dome surface
US8811938B2 (en) 2011-12-16 2014-08-19 Microsoft Corporation Providing a user interface experience based on inferred vehicle state
KR20130070340A (ko) * 2011-12-19 2013-06-27 한국전자통신연구원 모션인식에서 광흐름 처리 가속기 및 방법
US20130201316A1 (en) 2012-01-09 2013-08-08 May Patents Ltd. System and method for server based control
US9202105B1 (en) 2012-01-13 2015-12-01 Amazon Technologies, Inc. Image analysis for user authentication
TWI488128B (zh) * 2012-03-07 2015-06-11 Altek Corp 人臉辨識系統及其人臉辨識方法
JP5949002B2 (ja) * 2012-03-15 2016-07-06 オムロン株式会社 画像マッチング方法、およびこの方法を用いた画像マッチング装置およびプログラム
US9020192B2 (en) 2012-04-11 2015-04-28 Access Business Group International Llc Human submental profile measurement
CN102799871A (zh) * 2012-07-13 2012-11-28 Tcl集团股份有限公司 一种人脸跟踪识别的方法
US8977003B1 (en) 2012-07-17 2015-03-10 Google Inc. Detecting objects in a sequence of images
US8953843B1 (en) 2012-07-17 2015-02-10 Google Inc. Selecting objects in a sequence of images
CN103632672B (zh) * 2012-08-28 2017-03-22 腾讯科技(深圳)有限公司 一种变声系统、方法及人机交互系统及方法
US9020637B2 (en) 2012-11-02 2015-04-28 Irobot Corporation Simultaneous localization and mapping for a mobile robot
US9482732B2 (en) * 2012-11-08 2016-11-01 Nicolas Chesneau MRI reconstruction with motion-dependent regularization
US9330301B1 (en) 2012-11-21 2016-05-03 Ozog Media, LLC System, method, and computer program product for performing processing based on object recognition
US9336435B1 (en) 2012-11-21 2016-05-10 Ozog Media, LLC System, method, and computer program product for performing processing based on object recognition
US8761448B1 (en) 2012-12-13 2014-06-24 Intel Corporation Gesture pre-processing of video stream using a markered region
US8805017B2 (en) * 2012-12-13 2014-08-12 Intel Corporation Gesture pre-processing of video stream to reduce platform power
US9104240B2 (en) 2013-01-09 2015-08-11 Intel Corporation Gesture pre-processing of video stream with hold-off period to reduce platform power
US8856541B1 (en) 2013-01-10 2014-10-07 Google Inc. Liveness detection
KR20140099098A (ko) * 2013-02-01 2014-08-11 한국전자통신연구원 능동 스테레오 매칭 방법 및 그 장치
US9094576B1 (en) 2013-03-12 2015-07-28 Amazon Technologies, Inc. Rendered audiovisual communication
US9292103B2 (en) 2013-03-13 2016-03-22 Intel Corporation Gesture pre-processing of video stream using skintone detection
US9992021B1 (en) 2013-03-14 2018-06-05 GoTenna, Inc. System and method for private and point-to-point communication between computing devices
US9190061B1 (en) 2013-03-15 2015-11-17 Google Inc. Visual speech detection using facial landmarks
US9262671B2 (en) 2013-03-15 2016-02-16 Nito Inc. Systems, methods, and software for detecting an object in an image
US9037396B2 (en) 2013-05-23 2015-05-19 Irobot Corporation Simultaneous localization and mapping for a mobile robot
CN104252614A (zh) * 2013-06-27 2014-12-31 南京理工大学常熟研究院有限公司 基于sift算法的二代身份证人脸比对方法
EP2824913A1 (en) * 2013-07-09 2015-01-14 Alcatel Lucent A method for generating an immersive video of a plurality of persons
US9269012B2 (en) 2013-08-22 2016-02-23 Amazon Technologies, Inc. Multi-tracker object tracking
US10055013B2 (en) * 2013-09-17 2018-08-21 Amazon Technologies, Inc. Dynamic object tracking for user interfaces
TWI671657B (zh) * 2013-09-18 2019-09-11 日商半導體能源研究所股份有限公司 顯示裝置、顯示裝置的驅動方法、程式以及儲存介質
WO2015054342A1 (en) 2013-10-09 2015-04-16 Mindset Systems Method of and system for automatic compilation of crowdsourced digital media productions
US9147061B1 (en) 2013-11-22 2015-09-29 Google Inc. Multi-level authentication
WO2015123647A1 (en) * 2014-02-14 2015-08-20 Nant Holdings Ip, Llc Object ingestion through canonical shapes, systems and methods
EP2916290A1 (en) * 2014-03-07 2015-09-09 Thomson Licensing Method and apparatus for disparity estimation
US9483997B2 (en) 2014-03-10 2016-11-01 Sony Corporation Proximity detection of candidate companion display device in same room as primary display using infrared signaling
EP4250738A3 (en) 2014-04-22 2023-10-11 Snap-Aid Patents Ltd. Method for controlling a camera based on processing an image captured by other camera
US9195904B1 (en) * 2014-05-08 2015-11-24 Mitsubishi Electric Research Laboratories, Inc. Method for detecting objects in stereo images
US9696414B2 (en) 2014-05-15 2017-07-04 Sony Corporation Proximity detection of candidate companion display device in same room as primary display using sonic signaling
US10070291B2 (en) 2014-05-19 2018-09-04 Sony Corporation Proximity detection of candidate companion display device in same room as primary display using low energy bluetooth
US9727776B2 (en) 2014-05-27 2017-08-08 Microsoft Technology Licensing, Llc Object orientation estimation
US10027883B1 (en) 2014-06-18 2018-07-17 Amazon Technologies, Inc. Primary user selection for head tracking
US9729865B1 (en) * 2014-06-18 2017-08-08 Amazon Technologies, Inc. Object detection and tracking
US10614204B2 (en) 2014-08-28 2020-04-07 Facetec, Inc. Facial recognition authentication system including path parameters
CA3186147A1 (en) 2014-08-28 2016-02-28 Kevin Alan Tussy Facial recognition authentication system including path parameters
US10915618B2 (en) 2014-08-28 2021-02-09 Facetec, Inc. Method to add remotely collected biometric images / templates to a database record of personal information
US10698995B2 (en) 2014-08-28 2020-06-30 Facetec, Inc. Method to verify identity using a previously collected biometric image/data
US10803160B2 (en) 2014-08-28 2020-10-13 Facetec, Inc. Method to verify and identify blockchain with user question data
US11256792B2 (en) 2014-08-28 2022-02-22 Facetec, Inc. Method and apparatus for creation and use of digital identification
MX2017003776A (es) 2014-09-24 2018-03-23 Princeton Identity Inc Control de la capacidad de un dispositivo de comunicacion inalambrica en un dispositivo movil con una llave biometrica.
KR102349059B1 (ko) 2014-11-07 2022-01-10 삼성전자주식회사 영상의 관심영역으로부터 랜드마크를 결정하는 장치 및 방법
US9665804B2 (en) * 2014-11-12 2017-05-30 Qualcomm Incorporated Systems and methods for tracking an object
MX2017007139A (es) 2014-12-03 2017-11-10 Princeton Identity Inc Sistema y metodo para un complemento biometrico de dispositivo movil.
US9940726B2 (en) * 2014-12-19 2018-04-10 The Boeing Company System and method to improve object tracking using tracking fingerprints
US9791541B2 (en) * 2014-12-19 2017-10-17 The Boeing Company System and method to improve object tracking using multiple tracking systems
RU2595620C1 (ru) * 2015-01-29 2016-08-27 Общество с ограниченной ответственностью "Вокорд СофтЛаб" Способ автокалибровки стереокамер, используемых в целях автоматического распознавания лица человека
US10445391B2 (en) 2015-03-27 2019-10-15 Jostens, Inc. Yearbook publishing system
EP3298506A1 (en) 2015-05-19 2018-03-28 Entit Software LLC Database comparison operation to identify an object
WO2016207875A1 (en) 2015-06-22 2016-12-29 Photomyne Ltd. System and method for detecting objects in an image
KR102415503B1 (ko) 2015-08-21 2022-07-01 삼성전자주식회사 분류기 학습 방법 및 객체 검출 방법
EP3387627B1 (en) 2015-12-09 2022-11-30 APSTEC Systems Ltd Multi-threat detection system
KR20180102637A (ko) 2016-01-12 2018-09-17 프린스톤 아이덴티티, 인크. 바이오메트릭 분석의 시스템 및 방법
US10424072B2 (en) 2016-03-01 2019-09-24 Samsung Electronics Co., Ltd. Leveraging multi cues for fine-grained object classification
US10366296B2 (en) 2016-03-31 2019-07-30 Princeton Identity, Inc. Biometric enrollment systems and methods
WO2017172695A1 (en) 2016-03-31 2017-10-05 Princeton Identity, Inc. Systems and methods of biometric anaysis with adaptive trigger
USD987653S1 (en) 2016-04-26 2023-05-30 Facetec, Inc. Display screen or portion thereof with graphical user interface
US10579860B2 (en) 2016-06-06 2020-03-03 Samsung Electronics Co., Ltd. Learning model for salient facial region detection
US10282595B2 (en) 2016-06-24 2019-05-07 International Business Machines Corporation Facial recognition encode analysis
US10627887B2 (en) 2016-07-01 2020-04-21 Microsoft Technology Licensing, Llc Face detection circuit
US10950275B2 (en) 2016-11-18 2021-03-16 Facebook, Inc. Methods and systems for tracking media effects in a media effect index
US10303928B2 (en) * 2016-11-29 2019-05-28 Facebook, Inc. Face detection for video calls
US10122965B2 (en) 2016-11-29 2018-11-06 Facebook, Inc. Face detection for background management
US10554908B2 (en) 2016-12-05 2020-02-04 Facebook, Inc. Media effect application
US10372974B2 (en) 2017-01-11 2019-08-06 Microsoft Technology Licensing, Llc 3D imaging recognition by stereo matching of RGB and infrared images
US10817722B1 (en) 2017-03-20 2020-10-27 Cross Match Technologies, Inc. System for presentation attack detection in an iris or face scanner
US10607096B2 (en) 2017-04-04 2020-03-31 Princeton Identity, Inc. Z-dimension user feedback biometric system
JP2020529073A (ja) 2017-07-26 2020-10-01 プリンストン・アイデンティティー・インコーポレーテッド 生体セキュリティシステムおよび方法
US10691925B2 (en) * 2017-10-28 2020-06-23 Altumview Systems Inc. Enhanced face-detection and face-tracking for resource-limited embedded vision systems
CN108062511A (zh) * 2017-11-17 2018-05-22 维库(厦门)信息技术有限公司 一种跨区域多摄像头目标识别关联跟踪方法及计算机设备
US10311334B1 (en) 2018-12-07 2019-06-04 Capital One Services, Llc Learning to process images depicting faces without leveraging sensitive attributes in deep learning models
US10936178B2 (en) 2019-01-07 2021-03-02 MemoryWeb, LLC Systems and methods for analyzing and organizing digital photos and videos
CN109871771A (zh) * 2019-01-21 2019-06-11 北京轻舟科技有限公司 一种基于单视角视频的自动检测人体的方法及系统
CN111738096B (zh) * 2020-05-28 2022-08-19 复旦大学 一种基于骨架姿态的人物跟踪方法
WO2022147411A1 (en) 2020-12-30 2022-07-07 Assa Abloy Ab Facial expression to augment face id and presentation attack detection

Family Cites Families (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59226981A (ja) 1983-06-08 1984-12-20 Fujitsu Ltd パタ−ンマツチング方法および装置
JPS60592A (ja) 1983-06-15 1985-01-05 三菱電機株式会社 いねむり防止装置
US4827413A (en) 1987-06-16 1989-05-02 Kabushiki Kaisha Toshiba Modified back-to-front three dimensional reconstruction algorithm
US5168529A (en) 1988-08-29 1992-12-01 Rayethon Company Confirmed boundary pattern matching
WO1991019265A1 (en) 1990-05-29 1991-12-12 Axiom Innovation Limited Machine vision stereo matching
JPH0771288B2 (ja) 1990-08-24 1995-07-31 神田通信工業株式会社 自動視野調整方法及び装置
GB9019538D0 (en) 1990-09-07 1990-10-24 Philips Electronic Associated Tracking a moving object
US5220441A (en) 1990-09-28 1993-06-15 Eastman Kodak Company Mechanism for determining parallax between digital images
DE59107938D1 (de) 1990-10-24 1996-07-18 Siemens Ag Verfahren zur erkennung und schätzung der räumlichen lage von objekten aus einer zweidimensionalen abbildung
US5159647A (en) 1991-03-04 1992-10-27 David Sarnoff Research Center, Inc. Fast and efficient search method for graphical data
US5680487A (en) 1991-12-23 1997-10-21 Texas Instruments Incorporated System and method for determining optical flow
US5333165A (en) 1992-02-27 1994-07-26 John K. Grady Method and apparatus for three-dimensional video signals
JP3298072B2 (ja) 1992-07-10 2002-07-02 ソニー株式会社 ビデオカメラシステム
US5383013A (en) 1992-09-18 1995-01-17 Nec Research Institute, Inc. Stereoscopic computer vision system
US5550928A (en) 1992-12-15 1996-08-27 A.C. Nielsen Company Audience measurement system and method
US5511153A (en) 1994-01-18 1996-04-23 Massachusetts Institute Of Technology Method and apparatus for three-dimensional, textured models from plural video images
US5581625A (en) 1994-01-31 1996-12-03 International Business Machines Corporation Stereo vision system for counting items in a queue
DE4406020C1 (de) 1994-02-24 1995-06-29 Zentrum Fuer Neuroinformatik G Verfahren zur automatisierten Erkennung von Objekten
JP3242529B2 (ja) 1994-06-07 2001-12-25 松下通信工業株式会社 ステレオ画像対応付け方法およびステレオ画像視差計測方法
US5736982A (en) 1994-08-03 1998-04-07 Nippon Telegraph And Telephone Corporation Virtual space apparatus with avatars and speech
US5699449A (en) 1994-11-14 1997-12-16 The University Of Connecticut Method and apparatus for implementation of neural networks for face recognition
US5714997A (en) 1995-01-06 1998-02-03 Anderson; David P. Virtual reality television system
US5982853A (en) 1995-03-01 1999-11-09 Liebermann; Raanan Telephone for the deaf and method of using same
US5588033A (en) 1995-06-06 1996-12-24 St. Jude Children's Research Hospital Method and apparatus for three dimensional image reconstruction from multiple stereotactic or isocentric backprojections
US5715325A (en) 1995-08-30 1998-02-03 Siemens Corporate Research, Inc. Apparatus and method for detecting a face in a video image
US5802220A (en) 1995-12-15 1998-09-01 Xerox Corporation Apparatus and method for tracking facial motion through a sequence of images
US5774591A (en) 1995-12-15 1998-06-30 Xerox Corporation Apparatus and method for recognizing facial expressions and facial gestures in a sequence of images
US5809171A (en) 1996-01-05 1998-09-15 Mcdonnell Douglas Corporation Image processing method and apparatus for correlating a test image with a template
US5764803A (en) 1996-04-03 1998-06-09 Lucent Technologies Inc. Motion-adaptive modelling of scene content for very low bit rate model-assisted coding of video sequences
GB9610212D0 (en) 1996-05-16 1996-07-24 Cyberglass Limited Method and apparatus for generating moving characters
US5828769A (en) 1996-10-23 1998-10-27 Autodesk, Inc. Method and apparatus for recognition of objects via position and orientation consensus of local image encoding
US6044168A (en) 1996-11-25 2000-03-28 Texas Instruments Incorporated Model based faced coding and decoding using feature detection and eigenface coding
US5917937A (en) * 1997-04-15 1999-06-29 Microsoft Corporation Method for performing stereo matching to recover depths, colors and opacities of surface elements
US6052123A (en) 1997-05-14 2000-04-18 International Business Machines Corporation Animation reuse in three dimensional virtual reality
US5995119A (en) 1997-06-06 1999-11-30 At&T Corp. Method for generating photo-realistic animated characters

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100957888B1 (ko) * 2000-07-07 2010-05-13 미쓰비시덴키 가부시키가이샤 화상 내의 물체를 표현하고 검색하는 방법 및 장치
KR20030073895A (ko) * 2002-03-09 2003-09-19 박동발 얼굴인식 현금인출기 차단시스템
KR100478222B1 (ko) * 2002-06-17 2005-03-21 전진규 영상 데이터의 처리장치
KR100840022B1 (ko) * 2007-11-05 2008-06-20 (주)올라웍스 프리뷰 히스토리를 참조로 디지털 데이터에 포함된 인물을인식하는 방법 및 시스템
KR101506155B1 (ko) * 2013-12-12 2015-03-26 주식회사 슈프리마 생체 인증 장치와 얼굴 검출 방법

Also Published As

Publication number Publication date
KR100653288B1 (ko) 2006-12-04
BR9909623A (pt) 2000-12-19
EP1072014B1 (en) 2004-11-24
ATE419591T1 (de) 2009-01-15
ATE283519T1 (de) 2004-12-15
CA2326816C (en) 2005-04-05
CA2326816A1 (en) 1999-10-21
EP1072014A1 (en) 2001-01-31
JP2002511617A (ja) 2002-04-16
DE69940225D1 (de) 2009-02-12
DE69922183T2 (de) 2005-12-01
US6301370B1 (en) 2001-10-09
DE69922183D1 (de) 2004-12-30
AU3554199A (en) 1999-11-01
BR9909623B1 (pt) 2012-09-04
WO1999053427A1 (en) 1999-10-21

Similar Documents

Publication Publication Date Title
KR100653288B1 (ko) 비디오 화상으로부터의 얼굴 인식
JP4177402B2 (ja) 人間の姿を与えたものを動画化するためのウェーブレットに基づく顔の動きの捕捉
US6272231B1 (en) Wavelet-based facial motion capture for avatar animation
Alvarez et al. Dense disparity map estimation respecting image discontinuities: A PDE and scale-space based approach
Malciu et al. A robust model-based approach for 3d head tracking in video sequences
CN112750198B (zh) 一种基于非刚性点云的稠密对应预测方法
Niese et al. A Novel Method for 3D Face Detection and Normalization.
EP1580684B1 (en) Face recognition from video images
US6931145B1 (en) Method and apparatus for measuring motion of an object surface by multi-resolution analysis using a mesh model
EP4107699A1 (en) A method for generating a dataset, a method for generating a neural network, and a method for constructing a model of a scene
WO1999053430A1 (en) Vision architecture to describe features of persons
AU2004212509B2 (en) Face recognition from video images
Bronstein et al. Facetoface: An isometric model for facial animation
Medioni et al. Recognition of non-cooperative individuals at a distance with 3D face modeling
MXPA00010043A (en) Face recognition from video images
Hemayed et al. Investigation of stereo-based 3D surface reconstruction
Subramanian et al. Segmentation and range sensing using a moving-aperture lens
Benoit et al. Towards direct recovery of shape and motion parameters from image sequences
Convertino et al. Optic flow estimation by a Hopfield neural network using geometrical constraints
Calow et al. Solutions for model-based analysis of human gait
Mitran Active surface reconstruction from optical flow.
Ji A holistic approach to structure from motion
Gupta Contour-based three-dimensional face modeling from monocular video
Anandan Motion and Stereopsis Research
MXPA00010044A (en) Wavelet-based facial motion capture for avatar animation

Legal Events

Date Code Title Description
A201 Request for examination
AMND Amendment
N231 Notification of change of applicant
E902 Notification of reason for refusal
AMND Amendment
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
J201 Request for trial against refusal decision
AMND Amendment
B701 Decision to grant
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20121107

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20131108

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20141107

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20151109

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20161108

Year of fee payment: 11

FPAY Annual fee payment

Payment date: 20171110

Year of fee payment: 12

LAPS Lapse due to unpaid annual fee