KR20210024859A - 영상 처리 방법 및 장치 - Google Patents
영상 처리 방법 및 장치 Download PDFInfo
- Publication number
- KR20210024859A KR20210024859A KR1020190104570A KR20190104570A KR20210024859A KR 20210024859 A KR20210024859 A KR 20210024859A KR 1020190104570 A KR1020190104570 A KR 1020190104570A KR 20190104570 A KR20190104570 A KR 20190104570A KR 20210024859 A KR20210024859 A KR 20210024859A
- Authority
- KR
- South Korea
- Prior art keywords
- area
- window
- image processing
- face
- scan
- Prior art date
Links
- 238000012545 processing Methods 0.000 title claims description 105
- 238000000034 method Methods 0.000 title claims description 60
- 238000003672 processing method Methods 0.000 claims abstract description 27
- 210000001508 eye Anatomy 0.000 claims description 65
- 210000001747 pupil Anatomy 0.000 claims description 18
- 230000004044 response Effects 0.000 claims description 7
- 230000008921 facial expression Effects 0.000 claims description 5
- 238000004590 computer program Methods 0.000 claims description 2
- 210000001331 nose Anatomy 0.000 description 30
- 238000010586 diagram Methods 0.000 description 11
- 238000004891 communication Methods 0.000 description 6
- 238000001514 detection method Methods 0.000 description 6
- 210000003128 head Anatomy 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 230000014509 gene expression Effects 0.000 description 4
- 210000004709 eyebrow Anatomy 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000007717 exclusion Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000000214 mouth Anatomy 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000000513 principal component analysis Methods 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/248—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
-
- G06K9/00228—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G06K9/00268—
-
- G06K9/00302—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
- G06T7/0014—Biomedical image inspection using an image reference approach
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/215—Motion-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/167—Detection; Localisation; Normalisation using comparisons between temporally consecutive images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30041—Eye; Retina; Ophthalmic
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Medical Informatics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Quality & Reliability (AREA)
- Signal Processing (AREA)
- Ophthalmology & Optometry (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
Description
도 2 내지 도 4는 실시예들에 따른 영상 처리 방법을 나타낸 흐름도.
도 5는 일 실시예에 따라 초기 스캔 윈도우의 위치를 설정하는 방법을 설명하기 위한 도면.
도 6은 일 실시예에 따라 스캔 영역을 설정하는 방법을 설명하기 위한 도면.
도 7은 일 실시예에 따라 사용자의 얼굴 영역을 추적하는 방법을 설명하기 위한 도면.
도 8은 일 실시예에 따른 영상 처리 장치의 블록도.
Claims (34)
- 영상 프레임을 획득하는 단계;
상기 영상 프레임의 적어도 하나의 이전 프레임으로부터 획득한 제1 사전 정보에 기초하여, 사용자의 얼굴 영역을 추적(tracking)하는 단계;
상기 얼굴 영역의 추적에 실패했다는 판단에 따라, 상기 적어도 하나의 이전 프레임으로부터 획득한 제2 사전 정보에 기초하여 상기 영상 프레임에서의 스캔 영역을 설정하는 단계; 및
상기 스캔 영역에 기초하여 상기 영상 프레임에서 상기 얼굴 영역을 검출하는 단계
를 포함하는, 영상 처리 방법. - 제1항에 있어서,
상기 제2 사전 정보는
상기 적어도 하나의 이전 프레임에서 상기 얼굴 영역이 검출된 적어도 하나의 이전 스캔 영역에 대한 정보를 포함하고,
상기 스캔 영역을 설정하는 단계는
상기 이전 스캔 영역을 확장한 영역에 의해 상기 스캔 영역을 재설정하는 단계
를 포함하는, 영상 처리 방법. - 제2항에 있어서,
상기 스캔 영역을 재설정하는 단계는
상기 스캔 영역에서 상기 얼굴 영역의 추적에 실패했는지 여부를 기초로, 상기 스캔 영역을 설정하는 윈도우의 크기를 순차적으로 확장시킴으로써 상기 스캔 영역을 재설정하는 단계
를 포함하는, 영상 처리 방법. - 제3항에 있어서,
상기 윈도우의 크기를 순차적으로 확장시킴으로써 상기 스캔 영역을 재설정하는 단계는
상기 스캔 영역에서 상기 얼굴 영역의 추적에 실패한 횟수에 대응하여 상기 스캔 영역을 설정하는 윈도우의 크기를 순차적으로 확장하는 단계; 및
상기 순차적으로 확장된 윈도우의 크기에 따라 상기 스캔 영역을 재설정하는 단계
를 포함하는, 영상 처리 방법. - 제4항에 있어서,
상기 얼굴 영역의 추적에 실패한 횟수에 대응하여 상기 윈도우의 크기를 순차적으로 확장하는 단계는
상기 얼굴 영역의 추적에 1회 실패했다는 판단에 따라, 상기 윈도우의 크기를 상기 이전 스캔 영역을 상, 하, 좌, 우로 확장한 제1 윈도우의 크기로 확장하는 단계;
상기 얼굴 영역의 추적에 2회 실패했다는 판단에 따라, 상기 윈도우의 크기를 상기 제1 윈도우를 기초로 상기 스캔 영역을 좌우로 확장한 제2 윈도우의 크기로 확장하는 단계; 및
상기 얼굴 영역의 추적에 3회 실패했다는 판단에 따라, 상기 윈도우의 크기를 상기 제2 윈도우를 기초로 상기 스캔 영역을 상하로 확장한 제3 윈도우의 크기로 확장하는 단계
중 적어도 하나를 포함하는, 영상 처리 방법. - 제1항에 있어서,
상기 적어도 하나의 이전 프레임에서 누적된 사용자의 동공 중심 좌표들을 기초로 상기 스캔 영역에 대응하는 초기 스캔 윈도우를 설정하는 단계
를 더 포함하는, 영상 처리 방법. - 제1항에 있어서,
상기 영상 프레임에 포함된 사용자 얼굴의 특징 부위들을 기초로, 복수의 후보 윈도우들 중 상기 스캔 영역에 대응하는 초기 스캔 윈도우를 선택하는 단계; 및
상기 초기 스캔 윈도우의 위치에 의해 초기 스캔 영역을 설정하는 단계
를 더 포함하는, 영상 처리 방법. - 제7항에 있어서,
상기 초기 스캔 윈도우를 선택하는 단계는
상기 영상 프레임을 촬영한 카메라의 위치 및 상기 사용자의 통계적 위치 좌표를 기초로, 상기 복수의 후보 윈도우들 중 상기 초기 스캔 윈도우를 선택하는 단계
를 포함하는, 영상 처리 방법. - 제1항에 있어서,
상기 사용자의 얼굴 영역을 추적하는 단계는
미리 정해진 복수의 특징점들을 상기 얼굴 영역의 복수의 특징 부위들에 정렬(align)하는 단계; 및
상기 정렬된 복수의 특징점들에 기초하여 상기 사용자의 얼굴을 추적하는 단계
를 포함하는, 영상 처리 방법. - 제9항에 있어서,
상기 정렬하는 단계는
상기 얼굴 영역 내 영상 정보에 기초하여, 상기 미리 정해진 복수의 특징점들을 이동시키는 단계
를 포함하는, 영상 처리 방법. - 제9항에 있어서,
상기 정렬하는 단계는
상기 복수의 특징점들을, 상기 얼굴 영역 및 상기 얼굴 영역의 인접 영역 내에 포함된 복수의 특징 부위들에 정렬하는 단계
를 포함하는, 영상 처리 방법. - 제1항에 있어서,
상기 제1 사전 정보는
상기 적어도 하나의 이전 프레임에서 누적된 사용자의 동공 중심 좌표들, 상기 적어도 하나의 이전 프레임에서 상기 사용자의 얼굴에 대응하는 특징점들의 위치 좌표 및 상기 이전 프레임에서 상기 사용자의 눈 및 코에 대응하는 특징점들의 위치 좌표 중 적어도 하나를 포함하는, 영상 처리 방법. - 제1항에 있어서,
상기 사용자의 얼굴 영역을 추적하는 단계는
상기 제1 사전 정보에 기초하여, 상기 얼굴 영역에 대응하는 추적 맵(tracking map)을 생성하는 단계; 및
상기 추적 맵에 따라 상기 사용자의 얼굴 영역을 추적하는 단계
를 포함하는, 영상 처리 방법. - 제13항에 있어서,
상기 추적 맵을 생성하는 단계는
상기 영상 프레임에서 상기 제1 사전 정보를 기초로 이동 가능한 상기 얼굴 영역의 이동 범위에 기초하여 상기 추적 맵을 생성하는 단계
를 포함하는, 영상 처리 방법. - 제1항에 있어서,
상기 사용자의 얼굴 영역에 대한 정보를 출력하는 단계
를 더 포함하는, 영상 처리 방법. - 제15항에 있어서,
상기 사용자의 얼굴에 대한 정보를 출력하는 단계는
상기 스캔 영역에 포함된 눈동자 및 코의 위치, 상기 눈동자의 위치에 의한 시점(view point), 및 상기 스캔 영역에 표현되는 사용자의 얼굴 표정 중 적어도 하나에 대한 정보를 출력하는 단계
를 포함하는, 영상 처리 방법. - 제1항에 있어서,
상기 영상 프레임은
컬러 영상 프레임 및 적외선 영상 프레임 중 적어도 하나를 포함하는, 영상 처리 방법. - 하드웨어와 결합되어 제1항 내지 제17항 중 어느 하나의 항의 방법을 실행시키기 위하여 컴퓨터 판독 가능한 기록 매체에 저장된 컴퓨터 프로그램.
- 영상 프레임을 획득하는 센서;
상기 영상 프레임의 적어도 하나의 이전 프레임으로부터 획득한 제1 사전 정보에 기초하여, 사용자의 얼굴 영역을 추적하고, 상기 얼굴 영역의 추적에 실패했다는 판단에 따라, 상기 적어도 하나의 이전 프레임으로부터 획득한 제2 사전 정보에 기초하여 상기 영상 프레임에서의 스캔 영역을 설정하며, 상기 스캔 영역에 기초하여 상기 영상 프레임에서 상기 얼굴 영역을 검출하는 프로세서; 및
상기 사용자의 얼굴 영역에 대한 정보를 출력하는 디스플레이
를 포함하는, 영상 처리 장치. - 제19항에 있어서,
상기 제2 사전 정보는
상기 적어도 하나의 이전 프레임에서 상기 얼굴 영역이 검출된 적어도 하나의 이전 스캔 영역에 대한 정보를 포함하고,
상기 프로세서는
상기 이전 스캔 영역을 확장한 영역에 의해 상기 스캔 영역을 재설정하는, 영상 처리 장치. - 제20항에 있어서,
상기 프로세서는
상기 스캔 영역에서 상기 얼굴 영역의 추적에 실패했는지 여부를 기초로, 상기 스캔 영역을 설정하는 윈도우의 크기를 순차적으로 확장시킴으로써 상기 스캔 영역을 재설정하는, 영상 처리 장치. - 제21항에 있어서,
상기 프로세서는
상기 스캔 영역에서 상기 얼굴 영역의 추적에 실패한 횟수에 대응하여 상기 스캔 영역을 설정하는 윈도우의 크기를 순차적으로 확장하고, 상기 순차적으로 확장된 윈도우의 크기에 따라 상기 스캔 영역을 재설정하는, 영상 처리 장치. - 제22항에 있어서,
상기 프로세서는
상기 얼굴 영역의 추적에 1회 실패했다는 판단에 따라, 상기 윈도우의 크기를 상기 이전 스캔 영역을 상, 하, 좌, 우로 확장한 제1 윈도우의 크기로 확장하고,
상기 얼굴 영역의 추적에 2회 실패했다는 판단에 따라, 상기 윈도우의 크기를 상기 제1 윈도우를 기초로 상기 스캔 영역을 좌우로 확장한 제2 윈도우의 크기로 확장하고,
상기 얼굴 영역의 추적에 3회 실패했다는 판단에 따라, 상기 윈도우의 크기를 상기 제2 윈도우를 기초로 상기 스캔 영역을 상하로 확장한 제3 윈도우의 크기로 확장하는,
영상 처리 장치. - 제19항에 있어서,
상기 프로세서는
상기 적어도 하나의 이전 프레임에서 누적된 사용자의 동공 중심 좌표들을 기초로 상기 스캔 영역에 대응하는 초기 스캔 윈도우를 설정하는, 영상 처리 장치. - 제19항에 있어서,
상기 프로세서는
상기 영상 프레임에 포함된 사용자 얼굴의 특징 부위들을 기초로, 복수의 후보 윈도우들 중 상기 스캔 영역에 대응하는 초기 스캔 윈도우를 선택하고, 상기 초기 스캔 윈도우의 위치에 의해 초기 스캔 영역을 설정하는, 영상 처리 장치. - 제25항에 있어서,
상기 프로세서는
상기 영상 프레임을 촬영한 카메라의 위치 및 상기 사용자의 통계적 위치 좌표를 기초로, 상기 복수의 후보 윈도우들 중 상기 초기 스캔 윈도우를 선택하는, 영상 처리 장치. - 제19항에 있어서,
상기 프로세서는
미리 정해진 복수의 특징점들을 상기 얼굴 영역의 복수의 특징 부위들에 정렬하고, 상기 정렬된 복수의 특징점들에 기초하여 상기 사용자의 얼굴을 추적하는, 영상 처리 장치. - 제27항에 있어서,
상기 프로세서는
상기 얼굴 영역 내 영상 정보에 기초하여, 상기 미리 정해진 복수의 특징점들을 이동시키는, 영상 처리 장치. - 제27항에 있어서,
상기 프로세서는
상기 복수의 특징점들을, 상기 얼굴 영역 및 상기 얼굴 영역의 인접 영역 내에 포함된 복수의 특징 부위들에 정렬하는, 영상 처리 장치. - 제19항에 있어서,
상기 제1 사전 정보는
상기 적어도 하나의 이전 프레임에서 누적된 사용자의 동공 중심 좌표들, 상기 적어도 하나의 이전 프레임에서 상기 사용자의 얼굴에 대응하는 특징점들의 위치 좌표 및 상기 이전 프레임에서 상기 사용자의 눈 및 코에 대응하는 특징점들의 위치 좌표 중 적어도 하나를 포함하는, 영상 처리 장치. - 제19항에 있어서,
상기 프로세서는
상기 제1 사전 정보에 기초하여, 상기 얼굴 영역에 대응하는 추적 맵을 생성하고, 상기 추적 맵에 따라 상기 사용자의 얼굴 영역을 추적하는, 영상 처리 장치. - 제31항에 있어서,
상기 프로세서는
상기 영상 프레임에서 상기 제1 사전 정보를 기초로 이동 가능한 상기 얼굴 영역의 이동 범위에 기초하여 상기 추적 맵을 생성하는, 영상 처리 장치. - 제19항에 있어서,
상기 디스플레이는
상기 스캔 영역에 포함된 눈동자 및 코의 위치, 상기 눈동자의 위치에 의한 시점, 상기 스캔 영역에 표현되는 사용자의 얼굴 표정 중 적어도 하나에 대한 정보를 출력하는, 영상 처리 장치. - 제19항에 있어서,
상기 영상 프레임은
컬러 영상 프레임 및 적외선 영상 프레임 중 적어도 하나를 포함하는, 영상 처리 장치.
Priority Applications (7)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190104570A KR20210024859A (ko) | 2019-08-26 | 2019-08-26 | 영상 처리 방법 및 장치 |
US16/890,114 US11315261B2 (en) | 2019-08-26 | 2020-06-02 | Image processing method and apparatus |
CN202010650136.2A CN112434549A (zh) | 2019-08-26 | 2020-07-08 | 图像处理方法和设备 |
EP20185149.0A EP3786838A1 (en) | 2019-08-26 | 2020-07-10 | Face tracking method and apparatus |
JP2020134567A JP7608709B2 (ja) | 2019-08-26 | 2020-08-07 | 映像処理方法、コンピュータプログラム及び映像処理装置 |
US17/728,308 US20220245834A1 (en) | 2019-08-26 | 2022-04-25 | Image processing method and apparatus |
US18/491,506 US20240046487A1 (en) | 2019-08-26 | 2023-10-20 | Image processing method and apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190104570A KR20210024859A (ko) | 2019-08-26 | 2019-08-26 | 영상 처리 방법 및 장치 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20210024859A true KR20210024859A (ko) | 2021-03-08 |
Family
ID=71575123
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190104570A KR20210024859A (ko) | 2019-08-26 | 2019-08-26 | 영상 처리 방법 및 장치 |
Country Status (5)
Country | Link |
---|---|
US (3) | US11315261B2 (ko) |
EP (1) | EP3786838A1 (ko) |
JP (1) | JP7608709B2 (ko) |
KR (1) | KR20210024859A (ko) |
CN (1) | CN112434549A (ko) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7200965B2 (ja) * | 2020-03-25 | 2023-01-10 | カシオ計算機株式会社 | 画像処理装置、画像処理方法及びプログラム |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3627468B2 (ja) | 1997-09-08 | 2005-03-09 | 日産自動車株式会社 | 動作検出装置 |
JP2000070225A (ja) | 1998-08-27 | 2000-03-07 | Canon Inc | 視線検出装置 |
KR100338805B1 (ko) | 1999-06-01 | 2002-05-31 | 윤종용 | 졸음 레벨 검출 방법 |
JP3812298B2 (ja) | 2000-06-26 | 2006-08-23 | 日産自動車株式会社 | 眼の状態検出装置 |
US7676063B2 (en) | 2005-03-22 | 2010-03-09 | Microsoft Corp. | System and method for eye-tracking and blink detection |
US7916897B2 (en) * | 2006-08-11 | 2011-03-29 | Tessera Technologies Ireland Limited | Face tracking for controlling imaging parameters |
JP5279635B2 (ja) * | 2008-08-20 | 2013-09-04 | キヤノン株式会社 | 画像処理装置、画像処理方法、および、プログラム |
JP5270319B2 (ja) | 2008-11-28 | 2013-08-21 | トヨタ自動車株式会社 | 画像監視装置 |
KR20100121817A (ko) | 2009-05-11 | 2010-11-19 | 호서대학교 산학협력단 | 눈의 영역을 추적하는 방법 |
EP2712541B1 (en) | 2012-09-27 | 2015-12-30 | SensoMotoric Instruments Gesellschaft für innovative Sensorik mbH | Tiled image based scanning for head and/or eye position for eye tracking |
US10506924B2 (en) | 2013-04-10 | 2019-12-17 | Auckland Uniservices Limited | Head and eye tracking |
KR20170046005A (ko) * | 2015-10-20 | 2017-04-28 | 삼성전자주식회사 | 얼굴 검출 방법 및 이를 지원하는 전자 장치 |
CN105760826B (zh) | 2016-02-03 | 2020-11-13 | 歌尔股份有限公司 | 一种人脸跟踪方法、装置和智能终端 |
KR101913648B1 (ko) | 2017-01-23 | 2018-10-31 | 광주과학기술원 | 다중 객체 추적 방법 |
JP6941966B2 (ja) | 2017-04-19 | 2021-09-29 | 株式会社日立製作所 | 人物認証装置 |
KR20200067465A (ko) | 2018-12-04 | 2020-06-12 | 삼성전자주식회사 | 영상 처리 방법 및 장치 |
-
2019
- 2019-08-26 KR KR1020190104570A patent/KR20210024859A/ko not_active Application Discontinuation
-
2020
- 2020-06-02 US US16/890,114 patent/US11315261B2/en active Active
- 2020-07-08 CN CN202010650136.2A patent/CN112434549A/zh active Pending
- 2020-07-10 EP EP20185149.0A patent/EP3786838A1/en active Pending
- 2020-08-07 JP JP2020134567A patent/JP7608709B2/ja active Active
-
2022
- 2022-04-25 US US17/728,308 patent/US20220245834A1/en not_active Abandoned
-
2023
- 2023-10-20 US US18/491,506 patent/US20240046487A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
US20220245834A1 (en) | 2022-08-04 |
CN112434549A (zh) | 2021-03-02 |
JP2021034040A (ja) | 2021-03-01 |
EP3786838A1 (en) | 2021-03-03 |
JP7608709B2 (ja) | 2025-01-07 |
US20210065383A1 (en) | 2021-03-04 |
US20240046487A1 (en) | 2024-02-08 |
US11315261B2 (en) | 2022-04-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108629168B (zh) | 脸部验证方法、设备以及计算设备 | |
US10579865B2 (en) | Facial verification method and apparatus | |
CN108664879B (zh) | 脸部验证方法和设备 | |
KR102463169B1 (ko) | 시점 추적 방법 및 장치 | |
KR20190096703A (ko) | 영상 융합 방법 및 장치 | |
KR20180109634A (ko) | 얼굴 인증 방법 및 장치 | |
US20130286161A1 (en) | Three-dimensional face recognition for mobile devices | |
KR20190053602A (ko) | 얼굴 인증 방법 및 장치 | |
KR20160054783A (ko) | 영상의 관심영역으로부터 랜드마크를 결정하는 장치 및 방법 | |
KR20180037746A (ko) | 객체 추적 방법 및 장치, 및 이를 이용한 3d 디스플레이 장치 | |
US11972634B2 (en) | Image processing method and apparatus | |
US11488415B2 (en) | Three-dimensional facial shape estimating device, three-dimensional facial shape estimating method, and non-transitory computer-readable medium | |
US20240046487A1 (en) | Image processing method and apparatus | |
US20220028109A1 (en) | Image processing method and apparatus | |
KR102415507B1 (ko) | 영상 처리 방법 및 영상 처리 장치 | |
KR102160955B1 (ko) | 딥 러닝 기반 3d 데이터 생성 방법 및 장치 | |
KR102380426B1 (ko) | 얼굴 인증 방법 및 장치 | |
JP7590057B2 (ja) | 目復元に基づく目追跡方法及び装置 | |
KR20220013834A (ko) | 영상 처리 방법 및 장치 | |
JP2021114111A (ja) | 撮像支援装置、撮像支援方法、及びプログラム | |
KR20210050649A (ko) | 모바일 기기의 페이스 인증 방법 | |
US20230419513A1 (en) | Object detection and tracking in extended reality devices |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20190826 |
|
PG1501 | Laying open of application | ||
A201 | Request for examination | ||
PA0201 | Request for examination |
Patent event code: PA02012R01D Patent event date: 20220705 Comment text: Request for Examination of Application Patent event code: PA02011R01I Patent event date: 20190826 Comment text: Patent Application |
|
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20240920 Patent event code: PE09021S01D |