KR20210024859A - 영상 처리 방법 및 장치 - Google Patents
영상 처리 방법 및 장치 Download PDFInfo
- Publication number
- KR20210024859A KR20210024859A KR1020190104570A KR20190104570A KR20210024859A KR 20210024859 A KR20210024859 A KR 20210024859A KR 1020190104570 A KR1020190104570 A KR 1020190104570A KR 20190104570 A KR20190104570 A KR 20190104570A KR 20210024859 A KR20210024859 A KR 20210024859A
- Authority
- KR
- South Korea
- Prior art keywords
- area
- window
- image processing
- face
- scan
- Prior art date
Links
- 238000012545 processing Methods 0.000 title claims description 105
- 238000000034 method Methods 0.000 title claims description 60
- 238000003672 processing method Methods 0.000 claims abstract description 27
- 210000001508 eye Anatomy 0.000 claims description 65
- 210000001747 pupil Anatomy 0.000 claims description 18
- 230000004044 response Effects 0.000 claims description 7
- 230000008921 facial expression Effects 0.000 claims description 5
- 238000004590 computer program Methods 0.000 claims description 2
- 210000001331 nose Anatomy 0.000 description 30
- 238000010586 diagram Methods 0.000 description 11
- 238000004891 communication Methods 0.000 description 6
- 238000001514 detection method Methods 0.000 description 6
- 210000003128 head Anatomy 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 230000014509 gene expression Effects 0.000 description 4
- 210000004709 eyebrow Anatomy 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000007717 exclusion Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000000214 mouth Anatomy 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000000513 principal component analysis Methods 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/248—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
-
- G06K9/00228—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G06K9/00268—
-
- G06K9/00302—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
- G06T7/0014—Biomedical image inspection using an image reference approach
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/215—Motion-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/167—Detection; Localisation; Normalisation using comparisons between temporally consecutive images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30041—Eye; Retina; Ophthalmic
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Medical Informatics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Quality & Reliability (AREA)
- Signal Processing (AREA)
- Ophthalmology & Optometry (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
일 실시예에 따른 영상 처리 방법 및 장치는 영상 프레임을 획득하고, 영상 프레임의 적어도 하나의 이전 프레임으로부터 획득한 제1 사전 정보에 기초하여 사용자의 얼굴 영역을 추적하고, 얼굴 영역의 추적에 실패했다는 판단에 따라 적어도 하나의 이전 프레임으로부터 획득한 제2 사전 정보에 기초하여 영상 프레임에서의 스캔 영역을 설정하며, 스캔 영역에 기초하여 영상 프레임에서 얼굴 영역을 검출한다.
Description
아래의 실시예들은 영상 처리 방법 및 장치에 관한 것이다.
카메라 기반의 눈추적 기술은 예를 들어, 시점 추적 기반의 무안경 3D 초다시점 디스플레이, 및/또는 HUD(Head Up Display) 등 많은 분야에서 활용될 수 있다. 카메라 기반의 눈추적 기술은 카메라의 영상 품질 및/또는 눈 추적 방법에 의해 성능이 좌우될 수 있다. 카메라 기반의 눈추적 기술은 실제 운전시의 역광, 강한 태양광, 어두운 저조도 환경, 터널 통과 등과 같이 조도가 급변화 환경 및/또는 운전자의 움직임 등에 의해 동작의 안정성이 떨어질 수 있다. 증강 현실(Augmented Reality) 3D HUD(Head Up Display)의 실제 사용 환경인 운전 시를 고려하면, 사용자의 움직임 또는 조도의 영향 등에 의해 사용자의 눈 추적에 실패한 경우에 빠르게 눈의 위치를 재검출하여 눈의 좌표를 확보할 수 있는 방법이 요구된다.
일 실시예에 따르면, 영상 처리 방법은 영상 프레임을 획득하는 단계; 상기 영상 프레임의 적어도 하나의 이전 프레임으로부터 획득한 제1 사전 정보에 기초하여, 사용자의 얼굴 영역을 추적(tracking)하는 단계; 상기 얼굴 영역의 추적에 실패했다는 판단에 따라, 상기 적어도 하나의 이전 프레임으로부터 획득한 제2 사전 정보에 기초하여 상기 영상 프레임에서의 스캔 영역을 설정하는 단계; 및 상기 스캔 영역에 기초하여 상기 영상 프레임에서 상기 얼굴 영역을 검출하는 단계를 포함한다.
상기 제2 사전 정보는 상기 적어도 하나의 이전 프레임에서 상기 얼굴 영역이 검출된 적어도 하나의 이전 스캔 영역에 대한 정보를 포함하고, 상기 스캔 영역을 설정하는 단계는 상기 이전 스캔 영역을 확장한 영역에 의해 상기 스캔 영역을 재설정하는 단계를 포함할 수 있다.
상기 스캔 영역을 재설정하는 단계는 상기 스캔 영역에서 상기 얼굴 영역의 추적에 실패했는지 여부를 기초로, 상기 스캔 영역을 설정하는 윈도우의 크기를 순차적으로 확장시킴으로써 상기 스캔 영역을 재설정하는 단계를 포함할 수 있다.
상기 윈도우의 크기를 순차적으로 확장시킴으로써 상기 스캔 영역을 재설정하는 단계는 상기 스캔 영역에서 상기 얼굴 영역의 추적에 실패한 횟수에 대응하여 상기 스캔 영역을 설정하는 윈도우의 크기를 순차적으로 확장하는 단계; 및 상기 순차적으로 확장된 윈도우의 크기에 따라 상기 스캔 영역을 재설정하는 단계를 포함할 수 있다.
상기 얼굴 영역의 추적에 실패한 횟수에 대응하여 상기 윈도우의 크기를 순차적으로 확장하는 단계는 상기 얼굴 영역의 추적에 1회 실패했다는 판단에 따라, 상기 윈도우의 크기를 상기 이전 스캔 영역을 상, 하, 좌, 우로 확장한 제1 윈도우의 크기로 확장하는 단계; 상기 얼굴 영역의 추적에 2회 실패했다는 판단에 따라, 상기 윈도우의 크기를 상기 제1 윈도우를 기초로 상기 스캔 영역을 좌우로 확장한 제2 윈도우의 크기로 확장하는 단계; 및 상기 얼굴 영역의 추적에 3회 실패했다는 판단에 따라, 상기 윈도우의 크기를 상기 제2 윈도우를 기초로 상기 스캔 영역을 상하로 확장한 제3 윈도우의 크기로 확장하는 단계 중 적어도 하나를 포함할 수 있다.
상기 영상 처리 방법은 상기 적어도 하나의 이전 프레임에서 누적된 사용자의 동공 중심 좌표들을 기초로 상기 스캔 영역에 대응하는 초기 스캔 윈도우를 설정하는 단계를 더 포함할 수 있다.
상기 영상 처리 방법은 상기 영상 프레임에 포함된 사용자 얼굴의 특징 부위들을 기초로, 복수의 후보 윈도우들 중 상기 스캔 영역에 대응하는 초기 스캔 윈도우를 선택하는 단계; 및 상기 초기 스캔 윈도우의 위치에 의해 초기 스캔 영역을 설정하는 단계를 더 포함할 수 있다.
상기 초기 스캔 윈도우를 선택하는 단계는 상기 영상 프레임을 촬영한 카메라의 위치 및 상기 사용자의 통계적 위치 좌표를 기초로, 상기 복수의 후보 윈도우들 중 상기 초기 스캔 윈도우를 선택하는 단계를 포함할 수 있다.
상기 사용자의 얼굴 영역을 추적하는 단계는 미리 정해진 복수의 특징점들을 상기 얼굴 영역의 복수의 특징 부위들에 정렬(align)하는 단계; 및 상기 정렬된 복수의 특징점들에 기초하여 상기 사용자의 얼굴을 추적하는 단계를 포함할 수 있다.
상기 정렬하는 단계는 상기 얼굴 영역 내 영상 정보에 기초하여, 상기 미리 정해진 복수의 특징점들을 이동시키는 단계를 포함할 수 있다.
상기 정렬하는 단계는 상기 복수의 특징점들을, 상기 얼굴 영역 및 상기 얼굴 영역의 인접 영역 내에 포함된 복수의 특징 부위들에 정렬하는 단계를 포함할 수 있다.
상기 제1 사전 정보는 상기 적어도 하나의 이전 프레임에서 누적된 사용자의 동공 중심 좌표들, 상기 적어도 하나의 이전 프레임에서 상기 사용자의 얼굴에 대응하는 특징점들의 위치 좌표 및 상기 이전 프레임에서 상기 사용자의 눈 및 코에 대응하는 특징점들의 위치 좌표 중 적어도 하나를 포함할 수 있다.
상기 사용자의 얼굴 영역을 추적하는 단계는 상기 제1 사전 정보에 기초하여, 상기 얼굴 영역에 대응하는 추적 맵(tracking map)을 생성하는 단계; 및 상기 추적 맵에 따라 상기 사용자의 얼굴 영역을 추적하는 단계를 포함할 수 있다.
상기 추적 맵을 생성하는 단계는 상기 영상 프레임에서 상기 제1 사전 정보를 기초로 이동 가능한 상기 얼굴 영역의 이동 범위에 기초하여 상기 추적 맵을 생성하는 단계를 포함할 수 있다.
상기 영상 처리 방법은 상기 사용자의 얼굴 영역에 대한 정보를 출력하는 단계를 더 포함할 수 있다.
상기 사용자의 얼굴에 대한 정보를 출력하는 단계는 상기 스캔 영역에 포함된 눈동자 및 코의 위치, 상기 눈동자의 위치에 의한 시점(view point), 상기 스캔 영역에 표현되는 사용자의 얼굴 표정 중 적어도 하나에 대한 정보를 출력하는 단계를 포함할 수 있다.
상기 영상 프레임은 컬러 영상 프레임 및 적외선 영상 프레임 중 적어도 하나를 포함할 수 있다.
일 실시예에 따르면, 영상 처리 장치는 영상 프레임을 획득하는 센서; 상기 영상 프레임의 적어도 하나의 이전 프레임으로부터 획득한 제1 사전 정보에 기초하여, 사용자의 얼굴 영역을 추적하고, 상기 얼굴 영역의 추적에 실패했다는 판단에 따라, 상기 적어도 하나의 이전 프레임으로부터 획득한 제2 사전 정보에 기초하여 상기 영상 프레임에서의 스캔 영역을 설정하며, 상기 스캔 영역에 기초하여 상기 영상 프레임에서 상기 얼굴 영역을 검출하는 프로세서; 및 상기 사용자의 얼굴 영역에 대한 정보를 출력하는 디스플레이를 포함한다.
상기 제2 사전 정보는 상기 적어도 하나의 이전 프레임에서 상기 얼굴 영역이 검출된 적어도 하나의 이전 스캔 영역에 대한 정보를 포함하고, 상기 프로세서는 상기 이전 스캔 영역을 확장한 영역에 의해 상기 스캔 영역을 재설정할 수 있다.
상기 프로세서는 상기 스캔 영역에서 상기 얼굴 영역의 추적에 실패했는지 여부를 기초로, 상기 스캔 영역을 설정하는 윈도우의 크기를 순차적으로 확장시킴으로써 상기 스캔 영역을 재설정할 수 있다.
상기 프로세서는 상기 스캔 영역에서 상기 얼굴 영역의 추적에 실패한 횟수에 대응하여 상기 스캔 영역을 설정하는 윈도우의 크기를 순차적으로 확장하고, 상기 순차적으로 확장된 윈도우의 크기에 따라 상기 스캔 영역을 재설정할 수 있다.
상기 프로세서는 상기 얼굴 영역의 추적에 1회 실패했다는 판단에 따라, 상기 윈도우의 크기를 상기 이전 스캔 영역을 상, 하, 좌, 우로 확장한 제1 윈도우의 크기로 확장하고, 상기 얼굴 영역의 추적에 2회 실패했다는 판단에 따라, 상기 윈도우의 크기를 상기 제1 윈도우를 기초로 상기 스캔 영역을 좌우로 확장한 제2 윈도우의 크기로 확장하고, 상기 얼굴 영역의 추적에 3회 실패했다는 판단에 따라, 상기 윈도우의 크기를 상기 제2 윈도우를 기초로 상기 스캔 영역을 상하로 확장한 제3 윈도우의 크기로 확장할 수 있다.
상기 프로세서는 상기 적어도 하나의 이전 프레임에서 누적된 사용자의 동공 중심 좌표들을 기초로 상기 스캔 영역에 대응하는 초기 스캔 윈도우를 설정할 수 있다.
상기 프로세서는 상기 영상 프레임에 포함된 사용자 얼굴의 특징 부위들을 기초로, 복수의 후보 윈도우들 중 상기 스캔 영역에 대응하는 초기 스캔 윈도우를 선택하고, 상기 초기 스캔 윈도우의 위치에 의해 초기 스캔 영역을 설정할 수 있다.
상기 프로세서는 상기 영상 프레임을 촬영한 카메라의 위치 및 상기 사용자의 통계적 위치 좌표를 기초로, 상기 복수의 후보 윈도우들 중 상기 초기 스캔 윈도우를 선택할 수 있다.
상기 프로세서는 미리 정해진 복수의 특징점들을 상기 얼굴 영역의 복수의 특징 부위들에 정렬하고, 상기 정렬된 복수의 특징점들에 기초하여 상기 사용자의 얼굴을 추적할 수 있다.
상기 프로세서는 상기 얼굴 영역 내 영상 정보에 기초하여, 상기 미리 정해진 복수의 특징점들을 이동시킬 수 있다.
상기 프로세서는 상기 복수의 특징점들을, 상기 얼굴 영역 및 상기 얼굴 영역의 인접 영역 내에 포함된 복수의 특징 부위들에 정렬할 수 있다.
상기 제1 사전 정보는 상기 적어도 하나의 이전 프레임에서 누적된 사용자의 동공 중심 좌표들, 상기 적어도 하나의 이전 프레임에서 상기 사용자의 얼굴에 대응하는 특징점들의 위치 좌표 및 상기 이전 프레임에서 상기 사용자의 눈 및 코에 대응하는 특징점들의 위치 좌표 중 적어도 하나를 포함할 수 있다.
상기 프로세서는 상기 제1 사전 정보에 기초하여, 상기 얼굴 영역에 대응하는 추적 맵을 생성하고, 상기 추적 맵에 따라 상기 사용자의 얼굴 영역을 추적할 수 있다.
상기 프로세서는 상기 영상 프레임에서 상기 제1 사전 정보를 기초로 이동 가능한 상기 얼굴 영역의 이동 범위에 기초하여 상기 추적 맵을 생성할 수 있다.
상기 디스플레이는 상기 스캔 영역에 포함된 눈동자 및 코의 위치, 상기 눈동자의 위치에 의한 시점, 상기 스캔 영역에 표현되는 사용자의 얼굴 표정 중 적어도 하나에 대한 정보를 출력할 수 있다.
상기 영상 프레임은 컬러 영상 프레임 및 적외선 영상 프레임 중 적어도 하나를 포함할 수 있다.
도 1은 일 실시예에 따라 얼굴 영역을 추적 및 검출하는 과정을 설명하기 위한 도면.
도 2 내지 도 4는 실시예들에 따른 영상 처리 방법을 나타낸 흐름도.
도 5는 일 실시예에 따라 초기 스캔 윈도우의 위치를 설정하는 방법을 설명하기 위한 도면.
도 6은 일 실시예에 따라 스캔 영역을 설정하는 방법을 설명하기 위한 도면.
도 7은 일 실시예에 따라 사용자의 얼굴 영역을 추적하는 방법을 설명하기 위한 도면.
도 8은 일 실시예에 따른 영상 처리 장치의 블록도.
도 2 내지 도 4는 실시예들에 따른 영상 처리 방법을 나타낸 흐름도.
도 5는 일 실시예에 따라 초기 스캔 윈도우의 위치를 설정하는 방법을 설명하기 위한 도면.
도 6은 일 실시예에 따라 스캔 영역을 설정하는 방법을 설명하기 위한 도면.
도 7은 일 실시예에 따라 사용자의 얼굴 영역을 추적하는 방법을 설명하기 위한 도면.
도 8은 일 실시예에 따른 영상 처리 장치의 블록도.
실시예들에 대한 특정한 구조적 또는 기능적 설명들은 단지 예시를 위한 목적으로 개시된 것으로서, 다양한 형태로 변경되어 실시될 수 있다. 따라서, 실시예들은 특정한 개시형태로 한정되는 것이 아니며, 본 명세서의 범위는 기술적 사상에 포함되는 변경, 균등물, 또는 대체물을 포함한다.
제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이런 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 해석되어야 한다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 설명된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함으로 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 해당 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
하기에서 설명될 실시예들은 무안경 3D 모니터, 무안경 3D 태블릿/스마트폰, 및 차량용 3D HUD (Head-up display) 등을 이용하는 경우에 적외선 카메라 또는 RGB 카메라를 이용하여 사용자의 눈을 추적하여 눈의 좌표를 출력하는 데에 활용될 수 있다. 또한, 실시예들은 예를 들어, 모니터 내의 칩에 소프트웨어 알고리즘의 형태로 구현되거나, 태블릿/스마트 폰에서 앱의 형태로도 구현 가능하며, 하드웨어 눈추적 장치로도 구현될 수 있다. 실시예들은 예를 들어, 자율 주행 자동차, 지능형 자동차, 스마트 폰, 및 모바일 기기 등에 적용될 수 있다. 이하, 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.
도 1은 일 실시예에 따라 얼굴 영역을 추적 및 검출하는 과정을 설명하기 위한 도면이다. 도 1을 참조하면, 일 실시예에 따른 영상 처리 장치가 영상 프레임(110)을 스캔하여 얼굴 영역을 검출하고, 얼굴 영역에 포함된 눈 및 코를 추적하는 과정이 도시된다.
예를 들어, 동공 중심 또는 눈 및 코를 중심으로 얼굴을 추적하는 다양한 응용에서 눈 검출기가 영상 프레임(110)에서의 눈 또는 눈 영역의 추적에 실패했다고 하자. 영상 프레임(110)에서 사용자의 눈 추적에 실패한 경우, 영상 처리 장치는 스캔 윈도우(115)를 이용하여 영상(120)과 같이 사용자의 눈 및 코 영역을 검출할 수 있다. 이하에서 구체적으로 설명하겠지만, 스캔 윈도우(115)는 영상 프레임에서 스캔 영역을 설정하는 윈도우에 해당할 수 있다.
영상 처리 장치는 영상(120)에서 스캔 윈도우(115) 내에 포함된 눈 영역 및 코 영역에 대응하여 미리 정해진 복수의 특징점들을 얼굴에 대응하는 위치에 정렬할 수 있다. 미리 정해진 복수의 특징점들은 예를 들어, 눈 및 코 등과 같이 얼굴의 특징을 나타내는 키 포인트(key point)에 해당하는 11개의 특징점들일 수 있다. 복수의 특징점들은 예를 들어, 영상(120) 및 영상(130)에 표시된 것과 같이 점(●)의 형태로 표시될 수도 있고, 별표(*) 또는 그 밖의 다양한 형태로 표시될 수도 있다.
영상 처리 장치는 영상(120)에서 정렬된 복수의 특징점들에 기초하여 사용자의 얼굴을 추적하여 영상(130)과 같이 사용자의 눈동자 및/또는 사용자의 얼굴 영역을 추출할 수 있다.
영상(130)에서 사용자의 눈동자 및/또는 사용자의 얼굴 영역의 추출에 실패한 경우, 영상 처리 장치는 영상 프레임(110)을 다시 스캔할 수 있다(140).
얼굴 추적에 실패(Tracking Lost)하여 스캐닝을 통하여 얼굴 영역을 다시 검출해야 하는 경우, 일 실시예에 따른 영상 처리 장치는 영상 프레임 전체를 스캐닝하는 대신에, 사전 정보(예를 들어, 이전에 검출된 얼굴 영역 또는 스캔 영역 등)에 기초하여 영상 프레임에서 눈 또는 눈 영역을 검출하는 스캔 영역을 제한함으로써 눈 좌표의 검출 속도를 향상시킬 수 있습니다. 일 실시예에서는 차량 내 운전자 촬영 시와 같이 사용자 또는 운전자를 촬영하는 카메라의 위치가 고정되고, 운전 중인 사용자가 제한된 범위 내에서의 이동 또는 움직임이 가능한 점을 고려하여 영상 프레임에서 스캔 영역을 제한함으로써 눈 또는 얼굴의 검출 속도를 향상시킬 수 있습니다. 또한, 일 실시예에 따르면, 제한된 스캔 영역에서 얼굴 영역의 검출에 실패한 경우, 스캔 영역을 재설정하는 윈도우의 크기를 순차적으로 확장시킴으로써 눈좌표 재확보 시의 레이턴시(latency)를 감소시킬 수 있습니다.
도 2는 일 실시예에 따른 영상 처리 방법을 나타낸 흐름도이다. 도 2를 참조하면, 일 실시예에 따른 영상 처리 장치는 영상 프레임을 획득한다(210). 영상 프레임은 예를 들어, 컬러 영상 프레임, 및/또는 적외선 영상 프레임을 포함할 수 있다. 영상 프레임은 예를 들어, 차량 내부에 설치된 카메라, 이미지 센서 등에 의해 촬영된 운전자의 영상에 해당할 수 있다.
영상 처리 장치는 단계(210)에서 획득한 영상 프레임의 적어도 하나의 이전 프레임으로부터 획득한 제1 사전 정보에 기초하여, 사용자의 얼굴 영역을 추적(tracking)한다(220). 영상 프레임이 t 시점에 획득된 것이라면, 적어도 하나의 이전 프레임은 영상 프레임이 획득된 시점을 기준으로 이전 시점(예를 들어, t-1 시점) 혹은 이전 시점들(예를 들어, t-1 시점, t-2 시점, t-3 시점)에서 획득된 것일 수 있다. 제1 사전 정보는 예를 들어, 적어도 하나의 이전 프레임에서 누적된 사용자의 동공 중심 좌표들, 적어도 하나의 이전 프레임에서 사용자의 얼굴에 대응하는 특징점들의 위치 좌표 및 이전 프레임에서 사용자의 눈 및 코에 대응하는 특징점들의 위치 좌표 등을 포함할 수 있다.
단계(220)에서, 영상 처리 장치는 미리 정해진 복수의 특징점들을 얼굴 영역의 복수의 특징 부위들에 정렬(align)하고, 정렬된 복수의 특징점들에 기초하여 사용자의 얼굴을 추적할 수 있다. '복수의 특징 부위들'은 영상 프레임의 얼굴 영역에 포함된 일부 부위 또는 영역으로서, 예를 들어, 눈, 코 이외에도 입, 눈썹, 안경 등을 포함할 수 있다. 이때, 영상 처리 장치는 복수의 특징점들을, 얼굴 영역 및/또는 얼굴 영역의 인접 영역 내에 포함된 복수의 특징 부위들에 정렬할 수 있다. 영상 처리 장치는 얼굴 영역 내 영상 정보에 기초하여, 미리 정해진 복수의 특징점들을 이동시킬 수 있다.
단계(220)에서, 영상 처리 장치는 제1 사전 정보에 기초하여 사용자의 얼굴 영역의 추적에 성공했는지 또는 실패했는지를 판단할 수 있다. 영상 처리 장치가 얼굴 영역을 추적하는 방법은 아래의 도 7을 참조하여 구체적으로 설명한다.
영상 처리 장치는 단계(220)에서 얼굴 영역의 추적에 실패했다는 판단에 따라, 적어도 하나의 이전 프레임으로부터 획득한 제2 사전 정보에 기초하여 영상 프레임에서의 스캔 영역을 설정한다(230). 제2 사전 정보는 예를 들어, 적어도 하나의 이전 프레임에서 얼굴 영역이 검출된 적어도 하나의 이전 스캔 영역에 대한 정보를 포함할 수 있다. 적어도 하나의 이전 스캔 영역은 예를 들어, 초기 스캔 윈도우에 설정되는 초기 스캔 영역일 수 있다.
이하, 설명의 편의를 위하여 영상 프레임에서 스캔 영역을 설정하는 윈도우를 '스캔 윈도우(scan window)'라 부르고, 해당 영상 프레임에서 스캔 영역을 설정하기 위해 처음 사용되는 스캔 윈도우를 '초기 스캔 윈도우(initial scan window)'라 부를 수 있다. 초기 스캔 윈도우에 의해 설정되는 스캔 영역은 '초기 스캔 영역'이라 부를 수 있다. 초기 스캔 윈도우의 위치 및 크기를 설정하는 방법은 아래의 도 5를 참조하여 구체적으로 설명한다.
일 실시예에서 '스캔 영역을 설정한다'는 것은 스캔 영역을 설정하는 것 이외에도, 초기 스캔 영역을 설정하거나, 또는 스캔 영역을 조정 또는 재설정하는 것을 모두 포함하는 의미로 이해될 수 있다.
단계(230)에서, 영상 처리 장치는 예를 들어, 이전 스캔 영역을 확장한 영역에 의해 스캔 영역을 재설정할 수 있다. 영상 처리 장치는 스캔 영역에서 얼굴 영역의 추적에 실패했는지 여부를 기초로, 스캔 영역을 설정하는 윈도우의 크기를 순차적으로 확장시킴으로써 스캔 영역을 재설정할 수 있다. 영상 처리 장치가 스캔 영역을 설정 또는 재설정하는 방법을 아래의 도 6을 참조하여 구체적으로 설명한다.
영상 처리 장치는 단계(230)에서 설정한 스캔 영역에 기초하여 영상 프레임에서 얼굴 영역을 검출한다(240). 실시예에 따라서, 영상 처리 장치는 단계(240)에서 검출한 얼굴 영역에 대한 정보를 출력할 수 있다. 이때, 사용자의 얼굴 영역에 대한 정보는 예를 들어, 스캔 영역에 포함된 눈동자 및 코의 위치, 눈동자의 위치에 의한 시점, 스캔 영역에 표현되는 사용자의 얼굴 표정 등을 포함할 수 있다. 영상 처리 장치는 얼굴 영역에 관한 정보를 명시적(explicitly)으로 출력할 수도 있고, 암시적(implicitly)으로 출력할 수도 있다. '얼굴 영역에 대한 정보를 명시적으로 출력'하는 것은 예를 들어, 얼굴 영역에 포함된 눈동자의 위치 및/또는 얼굴 영역에 표현되는 표정을 화면 상에 표시하거나, 및/또는 오디오로 출력하는 것 등을 포함할 수 있다. 또는 '얼굴 영역에 대한 정보를 암시적으로 출력'하는 것은 예를 들어, 얼굴 영역에 포함된 눈동자의 위치, 눈동자의 위치에 의한 시점 등에 의해 HUD(Head Up Display)에 표시되는 영상을 조정하거나, 또는 얼굴 영역에 표현되는 표정에 대응하는 서비스를 제공하는 것 등을 포함할 수 있다.
도 3은 다른 실시예에 따른 영상 처리 방법을 나타낸 흐름도이다. 도 3을 참조하면, 일 실시예에 따른 영상 처리 장치는 카메라로부터 n번째 영상 프레임을 획득할 수 있다(310). 영상 프레임은 예를 들어, RGB 컬러 영상 프레임 또는 적외선(IR) 영상 프레임일 수 있다.
영상 처리 장치는 이전 n-1 번째 영상 프레임에서 눈 및 코가 검출 되었는지를 판단할 수 있다(320). 이때, 영상 처리 장치는 예를 들어, 이전 n-1 번째 영상 프레임의 초기 스캔 영역 내에서 눈 및 코가 검출 되었는지를 판단할 수 있다. 단계(320)에서 눈 및 코가 검출되지 않았다는 판단에 따라, 영상 처리 장치는 사전 정보에 기초하여 스캔 영역을 설정 또는 조정하여 눈 또는 눈 및 코를 검출하고(370), 미리 정해진 11개의 특징점들을 단계(370)에서 검출된 눈 또는 눈 및 코에 정렬할 수 있다(330).
이와 달리, 단계(320)에서 눈 및 코가 검출되었다는 판단에 따라, 영상 처리 장치는 예를 들어, 미리 정해진 11개의 특징점들을 스캔 영역 또는 스캔 영역의 인접 영역 내에 포함된 복수의 특징 부위들에 정렬할 수 있다(330). 미리 정해진 11개의 특징점들은 예를 들어, 양 눈 각각의 3개의 특징점들, 양 눈 사이 중심의 1개의 특징점, 코 끝의 1개의 특징점, 입의 3개의 특징점들(또는 코의 3개의 특징점들)일 수 있다.
단계(330)에서, 영상 처리 장치는 복수의 특징점들을, 얼굴 영역 및 얼굴 영역의 인접 영역 내에 포함된 복수의 특징 부위들에 정렬할 수 있다. 영상 처리 장치는 얼굴 영역 내 영상 정보에 기초하여, 미리 정해진 복수의 특징점들을 이동시켜 복수의 특징 부위들에 정렬할 수 있다. 영상 처리 장치는 예를 들어, 초기 모양 구성으로부터 학습한 하강 벡터(descent vector)를 이용하여 특징점들을 이미지의 모양에 정렬하는 SDM(Supervised Descent Method) 기법, 모양(shape)과 모양의 주요 구성 요소 분석(principal component analysis; PCA)에 기반하여 특징점들을 정렬하는 ASM(Active Shape Model) 기법, AAM(Active Appearance Model) 기법 또는 CLM(Constrained Local Models) 기법 등에 의해 영상 프레임의 얼굴 영역으로부터 사용자의 눈, 코에 해당하는 복수의 특징 부위들의 위치를 인식할 수 있다. 영상 처리 장치는 인식된 복수의 특징 부위들의 위치로 미리 정해진 복수의 특징점들을 이동시켜 정렬할 수 있다. 예를 들어, 영상 프레임이 초기 영상 프레임인 경우, 정렬 전 복수의 특징점들은 복수의 사용자들의 특징 부위들의 평균 위치에 대응할 수 있다. 또한, 영상 프레임이 초기 영상 프레임이 아닌 경우, 정렬 전 복수의 특징점들은 이전 영상 프레임에 기초하여 정렬된 복수의 특징점들에 대응할 수 있다.
영상 처리 장치는 11개의 특징점들을 이용하여 복수의 특징 부위들의 조합에 해당하는 정렬 결과를 검증(check)할 수 있다(340). 영상 처리 장치는 스캔 영역 내 영상 정보에 기초하여, 스캔 영역 내에 복수의 특징 부위들의 조합(예를 들어, 눈과 코)에 해당하는 얼굴 영역의 정렬 결과를 검증할 수 있다.
영상 처리 장치는 스캔 영역 내 영상 정보에 기초하여, 스캔 영역 내에 복수의 특징 부위들이 눈 및 코의 조합에 해당하는 클래스(class)인지 여부를 검증할 수 있다. 영상 처리 장치는 예를 들어, SIFR(Scale Invariant Feature Transform) 특징에 기초하는 검증기를 이용하여 스캔 영역이 얼굴 클래스인지 여부를 검증할 수 있다. 여기서, 'SIFR 특징'은 다음의 두 단계를 거쳐 획득할 수 있다. 영상 처리 장치는 스캔 영역의 영상 데이터를 영상 피라미드에 의한 스케일 공간에서 영상의 밝기가 지역적으로 극대 또는 극소인 후보 특징점들을 추출하고, 명암비가 낮은 특징점을 필터링하여 영상 정합에 사용할 특징점을 선별할 수 있다. 영상 처리 장치는 선별된 특징점들을 중심으로 주변 영역의 그래디언드(gradient)를 통해 방향 성분을 얻고, 얻어진 방향 성분을 중심으로 관심 영역을 재설정하여 특징점의 크기를 검출하여 서술자를 생성할 수 있다. 여기서, 서술자가 SIFR 특징에 해당할 수 있다. 또한, '검증기'는 학습 영상 DB에 저장된 각 얼굴의 눈 및 코의 키 포인트에 해당하는 11개의 특징점들을 학습 영상 프레임의 얼굴 영역에 정렬시킨 경우, 정렬된 각각의 특징점들로부터 추출된 SIFT 특징을 학습한 분류기일 수 있다. 검증기는 영상 프레임의 얼굴 영역 내 영상 정보를 이용하여, 특징점들이 정렬된 얼굴 영역이 실제 얼굴 클래스에 해당하는지를 검증할 수 있다. 검증기는 예를 들어, 서포트 벡터 머신 분류기(Support Vector Machine classifier)일 수 있다. 검증기는 얼굴 영역에 대한 정렬 여부를 검증한다는 점에서 '얼굴 검증기(face checker)'라고 부를 수 있다.
영상 처리 장치는 단계(340)의 검증 결과, 눈이 검출되었는지 여부를 판단할 수 있다(350). 단계(350)에서 눈이 추적되지 않았다는 판단에 따라, 영상 처리 장치는 사전 정보에 기초하여 스캔 영역을 설정하여 눈 또는 눈 및 코를 검출할 수 있다(370).
단계(350)에서 눈이 추적되었다는 판단에 따라, 영상 처리 장치는 눈의 좌표 또는 눈동자의 좌표를 출력할 수 있다(360).
도 4는 다른 실시예에 따른 영상 처리 방법을 나타낸 흐름도이다. 도 4를 참조하면, 일 실시예에 따른 영상 처리 장치는 영상 프레임(예를 들어, n 프레임)에서 눈 및 코를 포함하는 얼굴 영역이 검출되었는지를 판단할 수 있다(410). 단계(410)에서 눈 및 코가 검출되었다면, 영상 처리 장치는 미리 정해진 복수의 특징점들을 얼굴 영역의 복수의 특징 부위들(예를 들어, 눈, 코, 눈 사이 중간, 눈동자 등)에 정렬할 수 있다(440). 영상 처리 장치는 단계(440)에서 정렬된 복수의 특징점들에 기초하여 사용자의 얼굴 영역을 추적할 수 있다(450).
이와 달리, 단계(410)에서 얼굴 영역이 검출되지 않았다면, 영상 처리 장치는 영상 프레임의 적어도 하나의 이전 프레임(예를 들어, n-1 프레임)에서 획득한 사전 정보에 기초하여 영상 프레임에서의 스캔 영역을 설정할 수 있다(420). 이때, 스캔 영역은 스캔 영역을 설정하는 윈도우에 의해 설정될 수 있다.
영상 처리 장치는 단계(420)에서 설정된 스캔 영역에서 얼굴 영역이 검출되었는지, 다시 말해 얼굴 영역의 검출에 성공했는지를 판단할 수 있다(430). 단계(430)에서 얼굴 영역의 검출에 성공했다는 판단에 따라, 영상 처리 장치는 미리 정해진 복수의 특징점들을 얼굴 영역의 복수의 특징 부위들에 정렬할 수 있다(440). 영상 처리 장치는 단계(440)에서 정렬된 복수의 특징점들에 기초하여 사용자의 얼굴 영역을 추적할 수 있다(450).
이와 달리, 단계(430)에서 얼굴 영역의 검출에 실패했다는 판단에 따라, 영상 처리 장치는 스캔 영역을 설정하는 윈도우의 크기를 순차적으로 확장시킴으로써 스캔 영역을 재설정할 수 있다. 영상 처리 장치는 단계(430)에서 얼굴 영역의 검출에 실패했다는 판단에 따라, 스캔 윈도우의 크기를 확장할 수 있다(460). 단계(460)에서, 영상 처리 장치는 스캔 영역에서 얼굴 영역의 추적에 실패했는지 여부를 기초로, 스캔 영역을 설정하는 윈도우의 크기를 순차적으로 확장시킴으로써 스캔 영역을 재설정할 수 있다. 영상 처리 장치는 단계(460)에서 순차적으로 확장된 윈도우의 크기에 따라 스캔 영역을 재설정할 수 있다(420). 영상 처리 장치는 스캔 영역에서 얼굴 영역의 추적에 실패한 횟수에 대응하여 스캔 윈도우의 크기의 순차적 확장을 반복함으로써 스캔 영역을 재설정할 수 있다. 일 실시예에서 스캔 윈도우의 크기를 확장하는 반복 횟수는 사용자에 의해 미리 일정 회수(예를 들어, 3회 또는 4회)로 정해질 수도 있고, 스캔 영역에서 얼굴 영역의 추적에 성공할 때까지, 다시 말해 스캔 윈도우의 크기가 영상 프레임 전체로 확장될 때까지 반복될 수도 있다. 영상 처리 장치가 스캔 영역을 설정 또는 재설정하는 하는 방법은 아래의 도 6을 참조하여 구체적으로 설명한다.
도 5는 일 실시예에 따라 초기 스캔 윈도우의 위치를 설정하는 방법을 설명하기 위한 도면이다. 도 5를 참조하면, 일 실시예에 따른 영상 프레임(510)에서 초기 스캔 윈도우(517)가 설정된 도면이 도시된다.
일 실시예에 따른 영상 처리 장치는 예를 들어, 눈, 코, 입, 눈썹, 안경 등과 같이 영상 프레임(510)의 얼굴 영역에 포함된 사용자 얼굴의 특징 부위들을 기초로, 복수의 후보 윈도우들(515) 중 스캔 영역에 대응하는 초기 스캔 윈도우(517)를 선택할 수 있다. 영상 처리 장치는 예를 들어, 영상 프레임(510)을 촬영한 카메라의 위치 및 사용자의 통계적 위치 좌표를 기초로, 복수의 후보 윈도우들(515) 중 초기 스캔 윈도우(517)를 선택할 수 있다. 이때, 사용자의 통계적 위치 좌표는 예를 들어, 차량의 운전석에 앉아 있는 사용자가 평균적으로 이동 가능한 위치 좌표를 평균한 위치 좌표에 해당할 수 있다. 영상 처리 장치는 초기 스캔 윈도우(517)의 위치에 의해 초기 스캔 영역을 설정할 수 있다.
실시예에 따라서, 영상 처리 장치는 적어도 하나의 이전 프레임에서 누적된 사용자의 동공 중심 좌표들을 기초로 해당 영상 프레임을 위한 초기 스캔 윈도우(517)를 설정할 수 있다. 영상 처리 장치는 예를 들어, 사용자의 동공 중심 좌표들을 기초로 좌우 마진을 둔 영역에 초기 스캔 윈도우(517)를 설정할 수 있다.
도 6은 일 실시예에 따라 스캔 영역을 설정하는 방법을 설명하기 위한 도면이다. 도 6을 참조하면, 일 실시예에 따른 초기 스캔 윈도우(611), 및 제1 윈도우(615)가 설정된 영상(610), 제2 윈도우(635)가 설정된 영상(630), 및 제3 윈도우(655)가 설정된 영상(650)이 도시된다.
일 실시예에 따른 영상 처리 장치는 스캔 영역에서 얼굴 영역의 추적에 실패했는지 여부를 기초로, 스캔 영역을 설정하는 윈도우의 크기를 순차적으로 확장시킴으로써 스캔 영역을 설정할 수 있다.
예를 들어, 스캔 윈도우에 의해 얼굴 영역의 추적에 1회 실패한 경우, 영상 처리 장치는 스캔 윈도우의 크기를 영상(610)에 도시된 것과 같이 제1 윈도우(615)의 크기로 확장될 수 있다. 제1 윈도우(615)의 크기는 예를 들어, 도 6에 도시된 초기 스캔 윈도우(611)에 대응하는 초기 스캔 영역을 상, 하, 좌, 우로 확장한 크기에 해당할 수 있다. 제1 윈도우(615)의 크기는 예를 들어, 초기 스캔 영역을 상, 하, 좌, 우로 5% 씩 확장한 크기에 해당할 수 있다.
예를 들어, 얼굴 영역의 추적에 2회 실패한 경우, 영상 처리 장치는 스캔 윈도우의 크기를 도 6의 영상(630)에 도시된 것과 같이 제2 윈도우(635)의 크기로 확장할 수 있다. 제2 윈도우(635)의 크기는 예를 들어, 도 6에 도시된 제1 윈도우(615)를 기초로 스캔 영역을 좌우로 확장한 크기에 해당할 수 있다. 제2 윈도우(635)의 크기는 예를 들어, 제1 윈도우(615)의 좌, 우를, 초기 스캔 윈도우(611)에서 눈 사이 중심에서 각 양 눈까지의 거리 + 일정 마진(margine)(예를 들어, 2 mm)의 거리만큼 확장한 크기에 해당할 수 있다. 예를 들어, 눈 사이 중심에서 오른쪽 눈(또는 왼쪽 눈)까지의 거리가 3.5 cm라고 하자. 이 경우, 제2 윈도우(635)의 크기는 제1 윈도우(615)의 좌, 우를 각각 3.7 cm 만큼 확장한 크기에 해당할 수 있다.
예를 들어, 얼굴 영역의 추적에 3회 실패한 경우, 영상 처리 장치는 스캔 윈도우의 크기를 도 6의 영상(650)에 도시된 것과 같이 제3 윈도우(655)의 크기로 확장할 수 있다. 제3 윈도우(655)의 크기는 예를 들어, 도 6에 도시된 제2 윈도우(635)를 기초로 스캔 영역을 상하로 확장한 크기에 해당할 수 있다. 제3 윈도우(655)의 크기는 예를 들어, 제2 윈도우(655)의 상, 하를, '초기 스캔 윈도우(611)에서 눈 사이 중심에서 각 양 눈까지의 거리 + 일정 마진(margin)(예를 들어, 2 mm)'의 거리만큼 확장한 크기에 해당할 수 있다. 예를 들어, 눈 사이 중심에서 오른쪽 눈(또는 왼쪽 눈)까지의 거리가 3.5 cm라고 하자. 이 경우, 제3 윈도우(655)의 크기는 제2 윈도우(655)의 상, 하를 각각 3.7 cm 만큼 확장한 크기에 해당할 수 있다.
도 7은 일 실시예에 따라 사용자의 얼굴 영역을 추적하는 방법을 설명하기 위한 도면이다. 도 7을 참조하면, 일 실시예에 따른 영상 프레임(710) 및 영상 프레임(710)의 이전 프레임에 기초하여 생성된 추적 맵(tracking map)(720)이 도시된다.
일 실시예에 따른 영상 처리 장치는 영상 프레임(710)의 적어도 하나의 이전 프레임으로부터 획득한 사전 정보(예를 들어, 제1 사전 정보)에 기초하여, 영상 프레임(710)의 얼굴 영역에 대응하는 추적 맵(720)을 생성할 수 있다. 제1 사전 정보는 예를 들어, 적어도 하나의 이전 프레임에서 누적된 사용자의 동공 중심 좌표들, 적어도 하나의 이전 프레임에서 사용자의 얼굴에 대응하는 특징점들의 위치 좌표 및 적어도 하나의 이전 프레임에서 사용자의 눈 및 코에 대응하는 특징점들의 위치 좌표 등을 포함할 수 있다.
영상 처리 장치는 예를 들어, 제1 사전 정보를 기초로, 영상 프레임(710)에서 이동 가능한 얼굴 영역의 이동 범위를 결정할 수 있다. 이때, 이동 가능한 얼굴 영역의 이동 범위는 도 7에 도시된 것과 같이 운전자가 운전석에 앉은 자세에서 상체 또는 고개를 좌, 우로 움직이는 경우에 얼굴 영역의 이동 범위뿐만 아니라, 운전자가 상체 또는 고개를 앞, 뒤로 회전시키는 경우에 얼굴 영역의 이동 범위 또한 포함하는 의미로 이해될 수 있다.
영상 처리 장치는 얼굴 영역의 이동 범위에 기초하여 추적 맵(720)을 생성할 수 있다. 추적 맵(720)은 얼굴 영역의 이동 가능한 상, 하, 좌, 우의 최대 이동 범위에 대한 좌표를 포함할 수 있다. 영상 처리 장치는 추적 맵(720)에 따라 사용자의 얼굴 영역을 추적할 수 있다.
도 8은 일 실시예에 따른 영상 처리 장치의 블록도이다. 도 8을 참조하면, 일 실시예에 따른 영상 처리 장치(800)는 센서(810), 프로세서(830), 메모리(850), 통신 인터페이스(870) 및 디스플레이(890)를 포함할 수 있다. 센서(810), 프로세서(830), 메모리(850), 통신 인터페이스(870) 및 디스플레이(890)는 통신 버스(805)를 통해 서로 통신할 수 있다.
센서(810)는 영상 프레임을 획득한다. 센서(810)는 예를 들어, 적외선 조명에 의하여 입력 영상을 촬영하는 이미지(image) 센서, 비전(vision) 센서 또는 적외선 카메라일 수 있다. 영상 프레임은 예를 들어, 사용자의 얼굴 영상 또는 차량에서 주행 중인 사용자의 영상을 포함할 수 있다.
프로세서(830)는 영상 프레임의 적어도 하나의 이전 프레임으로부터 획득한 제1 사전 정보에 기초하여, 사용자의 얼굴 영역을 추적한다. 프로세서(830)는 얼굴 영역의 추적에 실패했다는 판단에 따라, 적어도 하나의 이전 프레임으로부터 획득한 제2 사전 정보에 기초하여 영상 프레임에서의 스캔 영역을 설정한다. 프로세서(830)는 스캔 영역에 기초하여 영상 프레임에서 얼굴 영역을 검출한다. 프로세서(830)는 하나일 수도 있고, 복수 개일 수도 있다.
프로세서(830)는 도 1 내지 도 7을 통해 전술한 적어도 하나의 방법 또는 적어도 하나의 방법에 대응되는 알고리즘을 수행할 수 있다. 프로세서(830)는 프로그램을 실행하고, 영상 처리 장치(800)를 제어할 수 있다. 프로세서(830)에 의하여 실행되는 프로그램 코드는 메모리(850)에 저장될 수 있다. 프로세서(830)는 예를 들어, CPU(Central Processing Unit), GPU(Graphics Processing Unit) 또는 NPU(Neural Network Processing Unit)로 구성될 수 있다.
메모리(850)는 센서(810)에 의해 획득한 영상 프레임, 프로세서(830)가 영상 프레임의 적어도 하나의 이전 프레임으로부터 획득한 제1 사전 정보 및 제2 사전 정보, 프로세서(830)가 획득한 사용자의 얼굴 영역, 및/또는 얼굴 영역에 관한 정보 등을 저장할 수 있다. 또한, 메모리(850)는 프로세서(830)가 검출한 얼굴 영역에 ?엿? 정보를 저장할 수 있다. 메모리(850)는 휘발성 메모리 또는 비 휘발성 메모리일 수 있다.
통신 인터페이스(870)는 영상 처리 장치(800)의 외부로부터 영상 프레임을 수신할 수 있다. 통신 인터페이스(870)는 프로세서(830)에서 검출한 얼굴 영역 및/또는 사용자의 얼굴 영역에 대한 정보를 출력할 수 있다. 통신 인터페이스(870)는 영상 처리 장치(800)의 외부에서 캡쳐된 영상 프레임 또는 영상 처리 장치(800)의 외부로부터 수신되는 각종 센서들의 정보 등을 수신할 수 있다.
디스플레이(890)는 예를 들어, 사용자의 얼굴 영역에 대한 정보 등과 같이 프로세서(830)의 처리 결과를 표시할 수 있다. 예를 들어, 영상 처리 장치(800)가 차량에 내장(embedded)된 경우, 디스플레이(890)는 차량에 설치된 헤드 업 디스플레이(HUD)로 구성될 수 있다.
이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
Claims (34)
- 영상 프레임을 획득하는 단계;
상기 영상 프레임의 적어도 하나의 이전 프레임으로부터 획득한 제1 사전 정보에 기초하여, 사용자의 얼굴 영역을 추적(tracking)하는 단계;
상기 얼굴 영역의 추적에 실패했다는 판단에 따라, 상기 적어도 하나의 이전 프레임으로부터 획득한 제2 사전 정보에 기초하여 상기 영상 프레임에서의 스캔 영역을 설정하는 단계; 및
상기 스캔 영역에 기초하여 상기 영상 프레임에서 상기 얼굴 영역을 검출하는 단계
를 포함하는, 영상 처리 방법. - 제1항에 있어서,
상기 제2 사전 정보는
상기 적어도 하나의 이전 프레임에서 상기 얼굴 영역이 검출된 적어도 하나의 이전 스캔 영역에 대한 정보를 포함하고,
상기 스캔 영역을 설정하는 단계는
상기 이전 스캔 영역을 확장한 영역에 의해 상기 스캔 영역을 재설정하는 단계
를 포함하는, 영상 처리 방법. - 제2항에 있어서,
상기 스캔 영역을 재설정하는 단계는
상기 스캔 영역에서 상기 얼굴 영역의 추적에 실패했는지 여부를 기초로, 상기 스캔 영역을 설정하는 윈도우의 크기를 순차적으로 확장시킴으로써 상기 스캔 영역을 재설정하는 단계
를 포함하는, 영상 처리 방법. - 제3항에 있어서,
상기 윈도우의 크기를 순차적으로 확장시킴으로써 상기 스캔 영역을 재설정하는 단계는
상기 스캔 영역에서 상기 얼굴 영역의 추적에 실패한 횟수에 대응하여 상기 스캔 영역을 설정하는 윈도우의 크기를 순차적으로 확장하는 단계; 및
상기 순차적으로 확장된 윈도우의 크기에 따라 상기 스캔 영역을 재설정하는 단계
를 포함하는, 영상 처리 방법. - 제4항에 있어서,
상기 얼굴 영역의 추적에 실패한 횟수에 대응하여 상기 윈도우의 크기를 순차적으로 확장하는 단계는
상기 얼굴 영역의 추적에 1회 실패했다는 판단에 따라, 상기 윈도우의 크기를 상기 이전 스캔 영역을 상, 하, 좌, 우로 확장한 제1 윈도우의 크기로 확장하는 단계;
상기 얼굴 영역의 추적에 2회 실패했다는 판단에 따라, 상기 윈도우의 크기를 상기 제1 윈도우를 기초로 상기 스캔 영역을 좌우로 확장한 제2 윈도우의 크기로 확장하는 단계; 및
상기 얼굴 영역의 추적에 3회 실패했다는 판단에 따라, 상기 윈도우의 크기를 상기 제2 윈도우를 기초로 상기 스캔 영역을 상하로 확장한 제3 윈도우의 크기로 확장하는 단계
중 적어도 하나를 포함하는, 영상 처리 방법. - 제1항에 있어서,
상기 적어도 하나의 이전 프레임에서 누적된 사용자의 동공 중심 좌표들을 기초로 상기 스캔 영역에 대응하는 초기 스캔 윈도우를 설정하는 단계
를 더 포함하는, 영상 처리 방법. - 제1항에 있어서,
상기 영상 프레임에 포함된 사용자 얼굴의 특징 부위들을 기초로, 복수의 후보 윈도우들 중 상기 스캔 영역에 대응하는 초기 스캔 윈도우를 선택하는 단계; 및
상기 초기 스캔 윈도우의 위치에 의해 초기 스캔 영역을 설정하는 단계
를 더 포함하는, 영상 처리 방법. - 제7항에 있어서,
상기 초기 스캔 윈도우를 선택하는 단계는
상기 영상 프레임을 촬영한 카메라의 위치 및 상기 사용자의 통계적 위치 좌표를 기초로, 상기 복수의 후보 윈도우들 중 상기 초기 스캔 윈도우를 선택하는 단계
를 포함하는, 영상 처리 방법. - 제1항에 있어서,
상기 사용자의 얼굴 영역을 추적하는 단계는
미리 정해진 복수의 특징점들을 상기 얼굴 영역의 복수의 특징 부위들에 정렬(align)하는 단계; 및
상기 정렬된 복수의 특징점들에 기초하여 상기 사용자의 얼굴을 추적하는 단계
를 포함하는, 영상 처리 방법. - 제9항에 있어서,
상기 정렬하는 단계는
상기 얼굴 영역 내 영상 정보에 기초하여, 상기 미리 정해진 복수의 특징점들을 이동시키는 단계
를 포함하는, 영상 처리 방법. - 제9항에 있어서,
상기 정렬하는 단계는
상기 복수의 특징점들을, 상기 얼굴 영역 및 상기 얼굴 영역의 인접 영역 내에 포함된 복수의 특징 부위들에 정렬하는 단계
를 포함하는, 영상 처리 방법. - 제1항에 있어서,
상기 제1 사전 정보는
상기 적어도 하나의 이전 프레임에서 누적된 사용자의 동공 중심 좌표들, 상기 적어도 하나의 이전 프레임에서 상기 사용자의 얼굴에 대응하는 특징점들의 위치 좌표 및 상기 이전 프레임에서 상기 사용자의 눈 및 코에 대응하는 특징점들의 위치 좌표 중 적어도 하나를 포함하는, 영상 처리 방법. - 제1항에 있어서,
상기 사용자의 얼굴 영역을 추적하는 단계는
상기 제1 사전 정보에 기초하여, 상기 얼굴 영역에 대응하는 추적 맵(tracking map)을 생성하는 단계; 및
상기 추적 맵에 따라 상기 사용자의 얼굴 영역을 추적하는 단계
를 포함하는, 영상 처리 방법. - 제13항에 있어서,
상기 추적 맵을 생성하는 단계는
상기 영상 프레임에서 상기 제1 사전 정보를 기초로 이동 가능한 상기 얼굴 영역의 이동 범위에 기초하여 상기 추적 맵을 생성하는 단계
를 포함하는, 영상 처리 방법. - 제1항에 있어서,
상기 사용자의 얼굴 영역에 대한 정보를 출력하는 단계
를 더 포함하는, 영상 처리 방법. - 제15항에 있어서,
상기 사용자의 얼굴에 대한 정보를 출력하는 단계는
상기 스캔 영역에 포함된 눈동자 및 코의 위치, 상기 눈동자의 위치에 의한 시점(view point), 및 상기 스캔 영역에 표현되는 사용자의 얼굴 표정 중 적어도 하나에 대한 정보를 출력하는 단계
를 포함하는, 영상 처리 방법. - 제1항에 있어서,
상기 영상 프레임은
컬러 영상 프레임 및 적외선 영상 프레임 중 적어도 하나를 포함하는, 영상 처리 방법. - 하드웨어와 결합되어 제1항 내지 제17항 중 어느 하나의 항의 방법을 실행시키기 위하여 컴퓨터 판독 가능한 기록 매체에 저장된 컴퓨터 프로그램.
- 영상 프레임을 획득하는 센서;
상기 영상 프레임의 적어도 하나의 이전 프레임으로부터 획득한 제1 사전 정보에 기초하여, 사용자의 얼굴 영역을 추적하고, 상기 얼굴 영역의 추적에 실패했다는 판단에 따라, 상기 적어도 하나의 이전 프레임으로부터 획득한 제2 사전 정보에 기초하여 상기 영상 프레임에서의 스캔 영역을 설정하며, 상기 스캔 영역에 기초하여 상기 영상 프레임에서 상기 얼굴 영역을 검출하는 프로세서; 및
상기 사용자의 얼굴 영역에 대한 정보를 출력하는 디스플레이
를 포함하는, 영상 처리 장치. - 제19항에 있어서,
상기 제2 사전 정보는
상기 적어도 하나의 이전 프레임에서 상기 얼굴 영역이 검출된 적어도 하나의 이전 스캔 영역에 대한 정보를 포함하고,
상기 프로세서는
상기 이전 스캔 영역을 확장한 영역에 의해 상기 스캔 영역을 재설정하는, 영상 처리 장치. - 제20항에 있어서,
상기 프로세서는
상기 스캔 영역에서 상기 얼굴 영역의 추적에 실패했는지 여부를 기초로, 상기 스캔 영역을 설정하는 윈도우의 크기를 순차적으로 확장시킴으로써 상기 스캔 영역을 재설정하는, 영상 처리 장치. - 제21항에 있어서,
상기 프로세서는
상기 스캔 영역에서 상기 얼굴 영역의 추적에 실패한 횟수에 대응하여 상기 스캔 영역을 설정하는 윈도우의 크기를 순차적으로 확장하고, 상기 순차적으로 확장된 윈도우의 크기에 따라 상기 스캔 영역을 재설정하는, 영상 처리 장치. - 제22항에 있어서,
상기 프로세서는
상기 얼굴 영역의 추적에 1회 실패했다는 판단에 따라, 상기 윈도우의 크기를 상기 이전 스캔 영역을 상, 하, 좌, 우로 확장한 제1 윈도우의 크기로 확장하고,
상기 얼굴 영역의 추적에 2회 실패했다는 판단에 따라, 상기 윈도우의 크기를 상기 제1 윈도우를 기초로 상기 스캔 영역을 좌우로 확장한 제2 윈도우의 크기로 확장하고,
상기 얼굴 영역의 추적에 3회 실패했다는 판단에 따라, 상기 윈도우의 크기를 상기 제2 윈도우를 기초로 상기 스캔 영역을 상하로 확장한 제3 윈도우의 크기로 확장하는,
영상 처리 장치. - 제19항에 있어서,
상기 프로세서는
상기 적어도 하나의 이전 프레임에서 누적된 사용자의 동공 중심 좌표들을 기초로 상기 스캔 영역에 대응하는 초기 스캔 윈도우를 설정하는, 영상 처리 장치. - 제19항에 있어서,
상기 프로세서는
상기 영상 프레임에 포함된 사용자 얼굴의 특징 부위들을 기초로, 복수의 후보 윈도우들 중 상기 스캔 영역에 대응하는 초기 스캔 윈도우를 선택하고, 상기 초기 스캔 윈도우의 위치에 의해 초기 스캔 영역을 설정하는, 영상 처리 장치. - 제25항에 있어서,
상기 프로세서는
상기 영상 프레임을 촬영한 카메라의 위치 및 상기 사용자의 통계적 위치 좌표를 기초로, 상기 복수의 후보 윈도우들 중 상기 초기 스캔 윈도우를 선택하는, 영상 처리 장치. - 제19항에 있어서,
상기 프로세서는
미리 정해진 복수의 특징점들을 상기 얼굴 영역의 복수의 특징 부위들에 정렬하고, 상기 정렬된 복수의 특징점들에 기초하여 상기 사용자의 얼굴을 추적하는, 영상 처리 장치. - 제27항에 있어서,
상기 프로세서는
상기 얼굴 영역 내 영상 정보에 기초하여, 상기 미리 정해진 복수의 특징점들을 이동시키는, 영상 처리 장치. - 제27항에 있어서,
상기 프로세서는
상기 복수의 특징점들을, 상기 얼굴 영역 및 상기 얼굴 영역의 인접 영역 내에 포함된 복수의 특징 부위들에 정렬하는, 영상 처리 장치. - 제19항에 있어서,
상기 제1 사전 정보는
상기 적어도 하나의 이전 프레임에서 누적된 사용자의 동공 중심 좌표들, 상기 적어도 하나의 이전 프레임에서 상기 사용자의 얼굴에 대응하는 특징점들의 위치 좌표 및 상기 이전 프레임에서 상기 사용자의 눈 및 코에 대응하는 특징점들의 위치 좌표 중 적어도 하나를 포함하는, 영상 처리 장치. - 제19항에 있어서,
상기 프로세서는
상기 제1 사전 정보에 기초하여, 상기 얼굴 영역에 대응하는 추적 맵을 생성하고, 상기 추적 맵에 따라 상기 사용자의 얼굴 영역을 추적하는, 영상 처리 장치. - 제31항에 있어서,
상기 프로세서는
상기 영상 프레임에서 상기 제1 사전 정보를 기초로 이동 가능한 상기 얼굴 영역의 이동 범위에 기초하여 상기 추적 맵을 생성하는, 영상 처리 장치. - 제19항에 있어서,
상기 디스플레이는
상기 스캔 영역에 포함된 눈동자 및 코의 위치, 상기 눈동자의 위치에 의한 시점, 상기 스캔 영역에 표현되는 사용자의 얼굴 표정 중 적어도 하나에 대한 정보를 출력하는, 영상 처리 장치. - 제19항에 있어서,
상기 영상 프레임은
컬러 영상 프레임 및 적외선 영상 프레임 중 적어도 하나를 포함하는, 영상 처리 장치.
Priority Applications (7)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190104570A KR20210024859A (ko) | 2019-08-26 | 2019-08-26 | 영상 처리 방법 및 장치 |
US16/890,114 US11315261B2 (en) | 2019-08-26 | 2020-06-02 | Image processing method and apparatus |
CN202010650136.2A CN112434549A (zh) | 2019-08-26 | 2020-07-08 | 图像处理方法和设备 |
EP20185149.0A EP3786838A1 (en) | 2019-08-26 | 2020-07-10 | Face tracking method and apparatus |
JP2020134567A JP2021034040A (ja) | 2019-08-26 | 2020-08-07 | 映像処理方法、コンピュータプログラム及び映像処理装置 |
US17/728,308 US20220245834A1 (en) | 2019-08-26 | 2022-04-25 | Image processing method and apparatus |
US18/491,506 US20240046487A1 (en) | 2019-08-26 | 2023-10-20 | Image processing method and apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190104570A KR20210024859A (ko) | 2019-08-26 | 2019-08-26 | 영상 처리 방법 및 장치 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20210024859A true KR20210024859A (ko) | 2021-03-08 |
Family
ID=71575123
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190104570A KR20210024859A (ko) | 2019-08-26 | 2019-08-26 | 영상 처리 방법 및 장치 |
Country Status (5)
Country | Link |
---|---|
US (3) | US11315261B2 (ko) |
EP (1) | EP3786838A1 (ko) |
JP (1) | JP2021034040A (ko) |
KR (1) | KR20210024859A (ko) |
CN (1) | CN112434549A (ko) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7200965B2 (ja) * | 2020-03-25 | 2023-01-10 | カシオ計算機株式会社 | 画像処理装置、画像処理方法及びプログラム |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3627468B2 (ja) | 1997-09-08 | 2005-03-09 | 日産自動車株式会社 | 動作検出装置 |
JP2000070225A (ja) | 1998-08-27 | 2000-03-07 | Canon Inc | 視線検出装置 |
KR100338805B1 (ko) | 1999-06-01 | 2002-05-31 | 윤종용 | 졸음 레벨 검출 방법 |
US7676063B2 (en) | 2005-03-22 | 2010-03-09 | Microsoft Corp. | System and method for eye-tracking and blink detection |
US7916897B2 (en) * | 2006-08-11 | 2011-03-29 | Tessera Technologies Ireland Limited | Face tracking for controlling imaging parameters |
JP5279635B2 (ja) * | 2008-08-20 | 2013-09-04 | キヤノン株式会社 | 画像処理装置、画像処理方法、および、プログラム |
KR20100121817A (ko) | 2009-05-11 | 2010-11-19 | 호서대학교 산학협력단 | 눈의 영역을 추적하는 방법 |
EP2712541B1 (en) | 2012-09-27 | 2015-12-30 | SensoMotoric Instruments Gesellschaft für innovative Sensorik mbH | Tiled image based scanning for head and/or eye position for eye tracking |
EP2984628B1 (en) | 2013-04-10 | 2019-03-27 | Auckland Uniservices Limited | Head and eye tracking |
KR20170046005A (ko) * | 2015-10-20 | 2017-04-28 | 삼성전자주식회사 | 얼굴 검출 방법 및 이를 지원하는 전자 장치 |
CN105760826B (zh) | 2016-02-03 | 2020-11-13 | 歌尔股份有限公司 | 一种人脸跟踪方法、装置和智能终端 |
KR101913648B1 (ko) | 2017-01-23 | 2018-10-31 | 광주과학기술원 | 다중 객체 추적 방법 |
KR20200067465A (ko) | 2018-12-04 | 2020-06-12 | 삼성전자주식회사 | 영상 처리 방법 및 장치 |
-
2019
- 2019-08-26 KR KR1020190104570A patent/KR20210024859A/ko not_active Application Discontinuation
-
2020
- 2020-06-02 US US16/890,114 patent/US11315261B2/en active Active
- 2020-07-08 CN CN202010650136.2A patent/CN112434549A/zh active Pending
- 2020-07-10 EP EP20185149.0A patent/EP3786838A1/en active Pending
- 2020-08-07 JP JP2020134567A patent/JP2021034040A/ja active Pending
-
2022
- 2022-04-25 US US17/728,308 patent/US20220245834A1/en not_active Abandoned
-
2023
- 2023-10-20 US US18/491,506 patent/US20240046487A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
US20210065383A1 (en) | 2021-03-04 |
JP2021034040A (ja) | 2021-03-01 |
EP3786838A1 (en) | 2021-03-03 |
US20240046487A1 (en) | 2024-02-08 |
CN112434549A (zh) | 2021-03-02 |
US11315261B2 (en) | 2022-04-26 |
US20220245834A1 (en) | 2022-08-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108629168B (zh) | 脸部验证方法、设备以及计算设备 | |
US10579865B2 (en) | Facial verification method and apparatus | |
EP3435284B1 (en) | Neural network foreground separation for mixed reality | |
KR102463169B1 (ko) | 시점 추적 방법 및 장치 | |
KR102291461B1 (ko) | 디스플레이를 위한 캡처된 이미지의 시각을 조정하는 기술들 | |
KR20190096703A (ko) | 영상 융합 방법 및 장치 | |
KR20180109634A (ko) | 얼굴 인증 방법 및 장치 | |
EP2842075A1 (en) | Three-dimensional face recognition for mobile devices | |
KR20190053602A (ko) | 얼굴 인증 방법 및 장치 | |
US11972634B2 (en) | Image processing method and apparatus | |
KR20160054783A (ko) | 영상의 관심영역으로부터 랜드마크를 결정하는 장치 및 방법 | |
US20240046487A1 (en) | Image processing method and apparatus | |
KR20180037746A (ko) | 객체 추적 방법 및 장치, 및 이를 이용한 3d 디스플레이 장치 | |
US20220028109A1 (en) | Image processing method and apparatus | |
US11488415B2 (en) | Three-dimensional facial shape estimating device, three-dimensional facial shape estimating method, and non-transitory computer-readable medium | |
KR102415507B1 (ko) | 영상 처리 방법 및 영상 처리 장치 | |
KR102160955B1 (ko) | 딥 러닝 기반 3d 데이터 생성 방법 및 장치 | |
US20210248769A1 (en) | Array-based depth estimation | |
KR102380426B1 (ko) | 얼굴 인증 방법 및 장치 | |
KR20220013834A (ko) | 영상 처리 방법 및 장치 | |
JP2021114111A (ja) | 撮像支援装置、撮像支援方法、及びプログラム | |
KR20210050649A (ko) | 모바일 기기의 페이스 인증 방법 | |
WO2024095627A1 (ja) | 認証装置、プログラム、及び認証方法 | |
US20230419513A1 (en) | Object detection and tracking in extended reality devices |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal |