KR20170012191A - 영상 처리 방법 및 영상 처리 장치 - Google Patents

영상 처리 방법 및 영상 처리 장치 Download PDF

Info

Publication number
KR20170012191A
KR20170012191A KR1020167022297A KR20167022297A KR20170012191A KR 20170012191 A KR20170012191 A KR 20170012191A KR 1020167022297 A KR1020167022297 A KR 1020167022297A KR 20167022297 A KR20167022297 A KR 20167022297A KR 20170012191 A KR20170012191 A KR 20170012191A
Authority
KR
South Korea
Prior art keywords
eye
reference line
user
input image
determining
Prior art date
Application number
KR1020167022297A
Other languages
English (en)
Other versions
KR102415507B1 (ko
Inventor
캉 쉐
슈젱 가오
씨잉 왕
하이타오 왕
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Publication of KR20170012191A publication Critical patent/KR20170012191A/ko
Application granted granted Critical
Publication of KR102415507B1 publication Critical patent/KR102415507B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06K9/20
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • G06V10/507Summing image-intensity values; Histogram projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20068Projection on vertical or horizontal image axis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30088Skin; Dermal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

영상 처리 방법 및 영상 처리 장치가 개시된다. 개시된 영상 처리 장치는 사용자 눈을 포함하는 입력 영상에서 사용자 눈의 경계에 대응하는 수직 기준선 및 수평 기준선을 결정하고, 수직 기준선 및 수평 기준선에 기초하여 입력 영상을 정렬할 수 있다.

Description

영상 처리 방법 및 영상 처리 장치{IMAGE PROCESSING METHOD AND IMAGE PROCESSING APPARATUS}
아래 실시예들은 영상 처리 방법 및 영상 처리 장치에 관한 것이다.
시선 변화에 따른 눈 운동 정보를 분석하는 것은 시선 추측 기술 분야에서 중요한 사안이다. 시선 변화에 따른 눈 운동 정보를 정확하게 분석함으로써 눈 영상 중에서 불필요한 정보를 제거할 수 있을 뿐만 아니라, 영상 정렬 및 영상 정보에 따른 시선 응용의 정밀도 및 효율을 향상시킬 수 있다.
눈 운동 정보를 정확하게 분석하기 위해서는 눈 영상이 일정하게 정렬될 필요가 있다. 눈 영상에 포함된 사용자 눈을 높은 정확도로 검출함으로써, 복수의 눈 영상들을 일정한 기준에 따라 정렬시킬 수 있다. 정렬된 복수의 눈 영상들에 포함된 사용자 눈을 비교함으로써 눈 운동 정보를 효과적으로 분석할 수 있다.
일실시예에 따라 사용자 눈을 포함하는 입력 영상에서 사용자 눈의 경계에 대응하는 수직 기준선 및 수평 기준선을 정확하게 추출함으로써, 입력 영상을 정렬하는 정확도를 효과적으로 높일 수 있는 방법을 제공할 수 있다.
일실시예에 따른 영상 처리 방법은 사용자 눈을 포함하는 입력 영상에서 상기 사용자 눈의 경계에 대응하는 수직 기준선(vertical baseline) 및 수평 기준선(horizontal baseline)을 결정하는 단계; 및 상기 수직 기준선 및 수평 기준선에 기초하여 상기 입력 영상을 정렬하는 단계를 포함할 수 있다.
일실시예에 따른 영상 처리 방법에서 상기 수직 기준선 및 상기 수평 기준선을 결정하는 단계는, 상기 입력 영상을 제1 축에 투영시킨 제1 투영 결과 및 상기 입력 영상을 제2 축에 투영시킨 제2 투영 결과에 기초하여, 상기 수직 기준선을 결정할 수 있다.
일실시예에 따른 영상 처리 방법에서 상기 수직 기준선 및 상기 수평 기준선을 결정하는 단계는, 상기 제1 투영 결과를 이용하여 상기 제2 투영 결과를 정규화하고, 상기 제2 투영 결과의 정규화 값에 기초하여 상기 수직 기준선을 결정할 수 있다.
일실시예에 따른 영상 처리 방법에서 상기 제1 축은, 상기 입력 영상의 x축에 해당하고, 상기 제2 축은, 상기 입력 영상의 y축에 해당할 수 있다.
일실시예에 따른 영상 처리 방법에서 상기 수직 기준선 및 상기 수평 기준선을 결정하는 단계는, 상기 입력 영상을 제1 축에 투영시킨 제1 투영 결과 및 상기 입력 영상을 제2 축에 투영시킨 제2 투영 결과에 기초하여, 상기 사용자 눈의 위 경계 및 아래 경계에 대응하는 제1 직선들을 결정하는 단계; 및 상기 제1 직선들 사이에 위치하는 부분 영상을 상기 제1 축에 투영시킨 제3 투영 결과 및 상기 부분 영상을 상기 제2 축에 투영시킨 제4 투영 결과에 기초하여 상기 사용자 눈의 아래 경계에 대응하는 제2 직선을 결정하고, 상기 제2 직선을 상기 수직 기준선으로 결정하는 단계를 포함할 수 있다.
일실시예에 따른 영상 처리 방법에서 상기 수직 기준선은, 상기 사용자 눈의 아래 눈꺼풀에 접하고 x축에 평행한 직선일 수 있다.
일실시예에 따른 영상 처리 방법에서 상기 수직 기준선 및 상기 수평 기준선을 결정하는 단계는, 상기 입력 영상에 포함된 내안각 영역을 이용하여 피부 모델을 결정하는 단계 - 상기 내안각 영역은, 상기 사용자 눈의 내안각점을 포함함-; 상기 피부 모델에 기초하여 상기 내안각 영역을 피부 영역과 눈 영역으로 분류하는 단계; 및 상기 눈 영역에 기초하여 상기 수평 기준선을 결정하는 단계를 포함할 수 있다.
일실시예에 따른 영상 처리 방법에서 상기 피부 모델을 결정하는 단계는, 상기 내안각 영역의 인근 피부 픽셀에 기초하여 상기 피부 모델을 결정할 수 있다.
일실시예에 따른 영상 처리 방법에서 상기 피부 모델은, 상기 분류된 피부 영역과 눈 영역에 기초하여 재설정된 내안각 영역을 이용하여 업데이트될 수 있다.
일실시예에 따른 영상 처리 방법에서 상기 눈 영역에 기초하여 상기 수평 기준선을 결정하는 단계는, 상기 눈 영역에서 가장 안쪽에 위치하는 픽셀을 상기 내안각점으로 결정하고, 상기 결정된 내안각점을 지나고 y축에 평행한 직선을 상기 수평 기준선으로 결정할 수 있다.
일실시예에 따른 영상 처리 방법은 상기 수직 기준선 및 상기 수평 기준선에 따라 정렬된 입력 영상에 기초하여 상기 사용자 눈의 움직임 응답도를 결정하는 단계를 더 포함할 수 있다.
일실시예에 따른 영상 처리 방법에서 상기 움직임 응답도의 수평 성분은, 상기 사용자 눈의 시선 위치가 수직 방향으로는 같으나 수평 방향으로는 다른 입력 영상들 간의 차이에 기초하여 결정될 수 있다.
일실시예에 따른 영상 처리 방법에서 상기 움직임 응답도의 수직 성분은, 상기 사용자 눈의 시선 위치가 수평 방향으로는 같으나 수직 방향으로는 다른 입력 영상들 간의 픽셀값 차이에 기초하여 결정될 수 있다.
일실시예에 따른 영상 처리 방법에서 상기 움직임 응답도의 수평 성분은, 상기 사용자 눈의 시선 위치가 수직 방향으로는 같으나 수평 방향으로는 다른 입력 영상들에 주성분 분석을 적용함으로써 결정될 수 있다.
일실시예에 따른 영상 처리 방법에서 상기 움직임 응답도의 수직 성분은, 상기 사용자 눈의 시선 위치가 수평 방향으로는 같으나 수직 방향으로는 다른 입력 영상들에 주성분 분석을 적용함으로써 결정될 수 있다.
일실시예에 따른 영상 처리 방법은 상기 움직임 응답도에 기초하여 상기 사용자 눈의 움직임 정보를 결정하는 단계; 및 상기 사용자 눈의 움직임 정보에 기초하여 사용자의 시선을 예측하는 단계를 더 포함할 수 있다.
일실시예에 따른 영상 처리 장치는 사용자 눈을 포함하는 입력 영상을 수신하는 수신부; 및 상기 입력 영상을 처리하는 프로세서를 포함하고, 상기 프로세서는, 사용자 눈을 포함하는 입력 영상에서 상기 사용자 눈의 경계에 대응하는 수직 기준선 및 수평 기준선을 결정하는 단계, 상기 수직 기준선 및 수평 기준선에 기초하여 상기 입력 영상을 정렬하는 단계를 수행할 수 있다.
일실시예에 따르면, 사용자 눈을 포함하는 입력 영상에서 사용자 눈의 경계에 대응하는 수직 기준선 및 수평 기준선을 정확하게 추출함으로써, 입력 영상을 정렬하는 정확도를 효과적으로 높일 수 있다.
도 1은 일실시예에 따른 영상 처리 장치를 나타낸 도면이다.
도 2는 일실시예에 따라 입력 영상을 정렬하기 위한 기준선들을 설명하기 위한 도면이다.
도 3은 일실시예에 따라 결정된 수직 기준선 및 수평 기준선에 기초하여 입력 영상을 정렬하는 과정을 설명하기 위한 도면이다.
도 4는 일실시예에 따른 조준점들의 예시를 도시하고 있다.
도 5 및 도 6은 일실시예에 따라 수직 기준선을 결정하는 예시를 설명하기 위한 도면이다.
도 7 내지 도 9는 일실시예에 따라 수평 기준선을 결정하는 예시를 설명하기 위한 도면이다.
도 10은 일실시예에 따라 입력 영상에 포함된 사용자 눈의 움직임 정보를 결정하는 과정을 설명하기 위한 도면이다.
도 11은 일실시예에 따른 영상 처리 방법을 나타낸 도면이다.
도 12는 다른 일실시예에 따른 영상 처리 방법을 나타낸 도면이다.
도 13 내지 도 16은 일실시예에 따라 정렬된 입력 영상들의 예시를 도시한다.
이하, 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다. 아래의 특정한 구조적 내지 기능적 설명들은 단지 실시예들을 설명하기 위한 목적으로 예시된 것으로, 실시예의 범위가 본문에 설명된 내용에 한정되는 것으로 해석되어서는 안된다. 관련 기술 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다. 또한, 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타내며, 공지된 기능 및 구조는 생략하도록 한다.
도 1은 일실시예에 따른 영상 처리 장치를 나타낸 도면이다.
도 1을 참조하면, 영상 처리 장치(100)는 수신부(110) 및 프로세서(120)를 포함할 수 있다. 예를 들어, 영상 처리 장치(100)는 소프트웨어 모듈, 하드웨어 모듈, 또는 이들의 조합으로 구현될 수 있다. 영상 처리 장치(100)는 스마트 폰, 테블릿 컴퓨터, 랩톱 컴퓨터, 데스크톱 컴퓨터, 텔레비전, 웨어러블 장치, 보안 시스템, 스마트 홈 시스템 등 다양한 컴퓨팅 장치 및/또는 시스템에 탑재될 수 있다.
수신부(110)는 사용자 눈을 포함하는 입력 영상을 수신한다. 예를 들어, 수신부(110)는 비전 센서가 사용자 눈을 캡쳐한 입력 영상을 비전 센서로부터 수신하거나 스토리지에 저장된 입력 영상을 스토리지로부터 수신할 수 있다. 비전 센서 및 스토리지는 영상 처리 장치(100)에 내장될 수도 있고 영상 처리 장치(100)의 외부에 위치할 수도 있다.
입력 영상은 사용자 눈의 양 코너가 수평적으로 정렬된 영상일 수 있다. 다시 말해, 입력 영상은 사용자 눈의 내안각점(inner canthus point) 및 외안각점(outer canthus point) 간을 연결하는 직선이 수평적으로 정렬된 영상일 수 있다.
프로세서(120)는 사용자 눈을 포함하는 입력 영상에서 사용자 눈의 경계에 대응하는 수직 기준선(vertical baseline) 및 수평 기준선(horizontal baseline)을 결정한다. 그리고, 프로세서(120)는 수직 기준선 및 수평 기준선에 기초하여 입력 영상을 정렬한다. 수직 기준선 및 수평 기준선은 입력 영상에서 사용자 눈을 검출함으로써 결정될 수 있다. 그리고, 프로세서(120)는 정렬된 입력 영상에 기초하여 사용자 눈의 움직임 응답도를 결정할 수 있다. 그리고, 프로세서(120)는 움직임 응답도에 기초하여 사용자 눈의 움직임 정보를 결정하고, 움직임 정보에 기초하여 사용자의 시선을 예측할 수 있다.
도 2는 일실시예에 따라 입력 영상을 정렬하기 위한 기준선들을 설명하기 위한 도면이다.
도 2를 참조하면, 두 개의 수직 기준선들(예컨대, 제1 수직 기준선 및 제2 수직 기준선)과 하나의 수평 기준선이 도시되어 있다. 수직 기준선들과 수평 기준선은 입력 영상에 포함된 사용자 눈의 경계에 기초하여 설정됨으로써, 입력 영상에서 사용자 눈을 검출할 때 고려될 수 있다.
수직 기준선들은 사용자 눈의 위 경계와 아래 경계에 기초하여 설정될 수 있다. 예를 들어, 수직 기준선들은 사용자 눈의 눈꺼풀과 평행하게 접하는 직선일 수 있다. 입력 영상에 포함된 사용자 눈의 양 코너가 수평적으로 정렬됨에 따라, 수직 기준선들은 입력 영상의 x축에 평행하게 설정될 수 있다. 수직 기준선들은 사용자 눈의 수직적인 위치를 검출할 때 이용될 수 있다. 예를 들어, 제1 수직 기준선은 사용자 눈의 위 눈꺼풀에 접하면서 x축에 평행한 직선일 수 있다. 제2 수직 기준선은 사용자 눈의 아래 눈꺼풀에 접하면서 x축에 평행한 직선일 수 있다.
수평 기준선은 사용자 눈의 내안각점을 지나는 수직선일 수 있다. 입력 영상에 포함된 사용자 눈의 양 코너가 수평적으로 정렬됨에 따라, 수평 기준선은 입력 영상의 y축에 평행하게 설정될 수 있다. 수평 기준선은 사용자 눈의 수평적인 위치를 검출할 때 이용될 수 있다. 예를 들어, 수평 기준선은 사용자 눈의 내안각점을 지나면서 y축에 평행한 직선일 수 있다.
내안각점은 사용자 눈의 양 코너 중에서 안쪽에 위치하는 코너에 해당하는 내안각을 나타내는 점일 수 있다. 안쪽에 위치하는 코너는 사용자 눈의 양 코너 중에서 사용자 코에 근접한 코너를 의미할 수 있다.
도 3은 일실시예에 따라 결정된 수직 기준선 및 수평 기준선에 기초하여 입력 영상을 정렬하는 과정을 설명하기 위한 도면이다.
도 3을 참조하면, 프로세서(300)는 추출부(310), 기준선 결정부(320) 및 정렬부(330)를 포함할 수 있다. 프로세서(300)는 도 1의 영상 처리 장치(100)에 포함되는 프로세서(120)를 나타내며, 입력되는 영상을 처리할 수 있다.
추출부(310)는 입력 영상으로부터 서로 다른 시선 상태의 눈 영상들을 추출할 수 있다. 서로 다른 시선 상태는 사용자 눈이 서로 다른 위치의 물체를 응시할 때의 시선 상태를 의미하고, 서로 다른 시선 상태의 눈 영상들은 서로 다른 시선 상태의 사용자 눈을 포함하는 영상들을 의미할 수 있다.
예를 들어, 사용자가 도 4의 디스플레이(400) 내부의 서로 다른 조준점들(410~440)을 응시하는 경우를 가정하여 서로 다른 시선 상태의 눈 영상들을 설명한다. 서로 다른 조준점들(410~440)이 서로 다른 곳에 위치하므로 사용자가 조준점들(410~440)을 응시하는 장면이 캡쳐됨으로써 서로 다른 시선 상태의 눈 영상이 생성될 수 있다.
사용자가 제1 조준점(410)을 응시하다가 제2 조준점(420)을 응시하는 경우, 추출부(310)는 수평적으로 서로 다른 시선 상태의 눈 영상들을 추출할 있다. 동일하게, 사용자가 제3 조준점(430)을 응시하다가 제4 조준점(440)을 응시하는 경우, 추출부(310)는 수평적으로 서로 다른 시선 상태의 눈 영상들을 추출할 수 있다. 사용자가 제1 조준점(410)을 응시하다가 제3 조준점(430)을 응시하는 경우, 추출부(310)는 수직적으로 서로 다른 시선 상태의 눈 영상들을 추출할 수 있다. 동일하게, 사용자가 제2 조준점(420)을 응시하다가 제4 조준점(440)을 응시하는 경우, 추출부(310)는 수직적으로 서로 다른 시선 상태의 눈 영상들을 추출할 수 있다.
서로 다른 시선 상태의 눈 영상들은 디스플레이(400)에 설치된 비전 센서에 의해 사용자가 조준점들(410~440)을 각각 응시할 때의 장면이 촬영됨으로써 추출될 수 있다. 도 4에서는 디스플레이(400)에 4개의 조준점들(410~440)이 포함되어 있는 것으로 도시되어 있으나, 조준점들의 실시예가 한정되는 것은 아니며 다양한 개수의 조준점들이 존재할 수 있다.
기준선 결정부(320)는 사용자 눈을 포함하는 입력 영상에서 사용자 눈의 경계에 대응하는 수직 기준선 및 수평 기준선을 결정한다. 도 3에서는 도시되지 않았으나, 예를 들어, 기준선 결정부(320)는 수직 기준선 결정부와 수평 기준선 결정부를 독립적으로 포함할 수도 있다. 이하 설명의 편의를 위해, 사용자 눈을 포함하는 입력 영상은 추출부(310)에서 추출된 눈 영상을 의미할 수 있다.
기준선 결정부(320)는 입력 영상을 투영시킴으로써 수직 기준선을 결정할 수 있다. 이 때, 투영되는 입력 영상은 그레이스케일(gray scale)의 영상일 수 있다. 또한, 투영되는 입력 영상은 그레이스케일 영상에 대해 색반전 처리(예컨대, 255-I의 연산을 수행하고, I는 입력 영상에 포함된 픽셀에서의 그레이스케일 값을 나타냄)를 수행한 결과 영상일 수도 있다.
기준선 결정부(320)는 입력 영상을 제1 축에 투영시킨 제1 투영 결과와 입력 영상을 제2 축에 투영시킨 제2 투영 결과에 기초하여 수직 기준선을 결정할 수 있다. 여기서, 제1 축은 입력 영상의 x축에 해당하고, 제2 축은 입력 영상의 y축에 해당할 수 있다.
기준선 결정부(320)는 입력 영상에서 동일한 열(column)에 포함되는 픽셀들의 값들을 열 방향에 따라 누적시킴으로써, 입력 영상을 제1 축에 투영시킬 수 있다. 기준선 결정부(320)는 수평 방향의 제1 투영 결과를 다음과 같이 정규화할 수 있다.
Figure pct00001
위의 수학식 1에서,
Figure pct00002
은 입력 영상에서 동일한 열에 포함되는 픽셀들의 값들을 열 방향에 따라 누적시킴으로써 획득된 열 방향 누적 픽셀값들의 집합인 제1 투영 결과를 나타낼 수 있다.
Figure pct00003
은 입력 영상의 제i 번째 열에 대응하는 픽셀들의 값들을 누적시켜 획득된 제i 번째 열 방향 누적 픽셀값을 나타낸다.
Figure pct00004
은 열 방향 누적 픽셀값들의 집합에서 가장 큰 값을 가지는 열 방향 누적 픽셀값을 나타내고,
Figure pct00005
은 열 방향 누적 픽셀들의 집합에서 가장 작은 값을 가지는 열 방향 누적 픽셀값을 나타낼 수 있다.
Figure pct00006
은 제1 투영 결과를 정규화한 값을 나타낼 수 있다.
Figure pct00007
은 제i 번째 열 방향 누적 픽셀값의 정규화된 값을 나타낸다. 다시 말해,
Figure pct00008
은 입력 영상의 제i 번째 열에 대응하는 정규화 누적 픽셀값을 나타내는 것으로, 0 내지 1 사이의 값을 가질 수 있다.
기준선 결정부(320)는 입력 영상에서 동일한 행(row)에 포함되는 픽셀들의 값들을 행 방향에 따라 누적시킴으로써, 입력 영상을 제2 축에 투영시킬 수 있다. 그리고, 기준선 결정부(320)는 수평 방향의 제1 투영 결과를 이용하여 수직 방향의 제2 투영 결과를 다음과 같이 정규화할 수 있다.
Figure pct00009
위의 수학식 2에서,
Figure pct00010
은 입력 영상에서 동일한 행에 포함되는 픽셀들의 값들을 행 방향에 따라 누적시킴으로써 획득된 행 방향 누적 픽셀값들의 집합인 제2 투영 결과를 나타낼 수 있다.
Figure pct00011
은 입력 영상의 제i 번째 행에 대응하는 픽셀들의 값들을 누적시켜 획득된 제i 번째 행 방향 누적 픽셀값을 나타낸다.
Figure pct00012
은 행 방향 누적 픽셀값들의 집합에서 가장 큰 값을 가지는 행 방향 누적 픽셀값을 나타내고,
Figure pct00013
은 행 방향 누적 픽셀들의 집합에서 가장 작은 값을 가지는 행 방향 누적 픽셀값을 나타낼 수 있다.
Figure pct00014
은 제2 투영 결과를 정규화한 값을 나타낼 수 있다.
Figure pct00015
은 제i 번째 행 방향 누적 픽셀값의 정규화된 값을 나타낸다. 다시 말해,
Figure pct00016
은 입력 영상의 제i 번째 행에 대응하는 정규화 누적 픽셀값을 나타내는 것으로, 0 내지 1 사이의 값을 가질 수 있다. 다만, 수학식 1에서 설명한 수평 방향의 제1 투영 결과의 정규화와는 달리, 수직 방향의 제2 투영 결과의 정규화는 제1 투영 결과를 고려하여 다음과 같이 수행될 수 있다.
Figure pct00017
기준선 결정부(320)는 수평 방향의 제1 투영 결과의 정규화 값을 사전확률로 하여 수직 방향의 제2 투영 결과를 정규화할 수 있다. 사전 확률(prior probability)은 베이즈 추론(Bayesian inference)에서 관측자가 관측을 하기 전에 가지고 있는 확률 분포를 의미하는 것으로, 경계 확률 또는 선험적 확률이라고도 할 수 있다.
기준선 결정부(320)는 제2 투영 결과의 정규화 값과 미리 정해진 임계값에 기초하여 수직 기준선을 결정할 수 있다. 일례로, 기준선 결정부(320)는 미리 정해진 임계값과 동일한 제2 투영 결과의 정규화 값을 가지는 행을 수직 기준선으로 결정할 수 있다. 다른 일례로, 기준선 결정부(320)는 미리 정해진 두 개의 임계값들로 결정된 범위에 속하는 제2 투영 결과의 정규화 값을 가지는 행을 수직 기준선으로 결정할 수 있다.
기준선 결정부(320)는 입력 영상에서 내안각점의 위치를 결정하고, 내안각점을 지나면서 입력 영상의 y축에 평행한 직선을 수평 기준선으로 결정할 수 있다.
기준선 결정부(320)는 피부 모델에 기초하여 입력 영상에서 내안각점의 위치를 결정할 수 있다. 예를 들어, 기준선 결정부(320)는 내안각점 추출 알고리즘을 이용하여 입력 영상으로부터 내안각 영역을 결정할 수 있다. 내안각 영역은 피부 영역과 눈 영역(다시 말해, 비피부 영역)으로 분류될 수 있으며, 내안각점을 포함할 수 있다.
기준선 결정부(320)는 내안각 영역의 인근 피부 픽셀에 기초하여 피부 모델을 결정할 수 있다. 예를 들어, 기준선 결정부(320)는 내안각 영역을 둘러싸고 있는 픽셀들 중에서 피부에 해당하는 피부 픽셀에 기초하여 피부 모델을 결정할 수 있다. 또는, 기준선 결정부(320)는 내안각 영역 내의 피부 영역에 포함된 피부 픽셀을 임의로 선택하고 선택된 피부 픽셀에 기초하여 피부 모델을 생성할 수 있다. 기준선 결정부(320)는 다음과 같은 피부 모델을 결정할 수 있다.
Figure pct00018
위의 수학식 4에서,
Figure pct00019
은 초기의 피부 픽셀(예컨대, 선택된 내안각 영역의 인근 피부 픽셀)의 그레이스케일 값의 평균을 나타내고,
Figure pct00020
은 초기의 피부 픽셀의 그레이스케일 값의 분산을 나타낸다.
기준선 결정부(320)는 피부 모델에 기초하여 내안각 영역을 피부 영역과 눈 영역으로 분류할 수 있다. 예를 들어, 기준선 결정부(320)는 다음과 같이 내안각 영역에 포함된 픽셀을 분류할 수 있다.
Figure pct00021
위의 수학식 5에서,
Figure pct00022
은 내안각 영역에 포함된 픽셀
Figure pct00023
가 피부 픽셀일 확률을 나타낸다. 그래서, 기준선 결정부(320)는
Figure pct00024
가 미리 정해진 임계값보다 큰 지 여부에 기초하여 픽셀
Figure pct00025
가 피부 영역에 속하는지 여부를 판단할 수 있다. 예를 들어,
Figure pct00026
가 미리 정해진 임계값보다 큰 경우, 기준선 결정부(320)는 픽셀
Figure pct00027
가 피부 영역에 속하는 것으로 분류할 수 있다. 반대로,
Figure pct00028
가 미리 정해진 임계값보다 작거나 같은 경우, 기준선 결정부(320)는 픽셀
Figure pct00029
가 눈 영역에 속하는 것으로 분류할 수 있다.
기준선 결정부(320)는 분류된 눈 영역에 기초하여 내안각점의 위치를 결정할 수 있다. 예를 들어, 기준선 결정부(320)는 눈 영역에서 가장 안쪽에 위치하는 픽셀을 내안각점으로 결정할 수 있다. 눈 영역에서 가장 안쪽에 위치하는 픽셀은 사용자 코에 가장 근접한 위치를 나타낼 수 있다. 다른 일례로, 기준선 결정부(320)는 눈 영역에서 눈썹에 가장 가까운 곳에 위치하는 픽셀을 내안각점의 위치로 결정할 수 있다.
기준선 결정부(320)는 내안각점을 지나면서 y축에 평행한 직선을 수평 기준선으로 결정할 수 있다.
정렬부(330)는 수직 기준선 및 수평 기준선에 기초하여 입력 영상을 정렬한다. 정렬부(330)는 수직 기준선 및 수평 기준선에 기초하여 서로 다른 시선 상태의 입력 영상들을 정렬시킴으로써, 서로 다른 시선 상태의 입력 영상들에 포함된 사용자 눈을 효율적으로 분석할 수 있다.
예를 들어, 정렬부(330)는 기준선 결정부(320)에서 결정된 두 개의 수직 기준선들 중에서 사용자 눈의 아래 눈꺼풀에 접하는 수직 기준선에 기초하여 입력 영상을 정렬할 수 있다. 일반적으로, 위 눈꺼풀의 움직임이 아래 눈꺼풀의 움직임보다 격렬하다. 그래서, 위 눈꺼풀에 대응하는 수직 기준선을 검출하기 위한 임계값보다는 아래 눈꺼풀에 대응하는 수직 기준선을 검출하기 위한 임계값을 설정하기가 쉽다. 아래 눈꺼풀에 대응하는 수직 기준선에 기초하여 입력 영상을 정렬시킴으로써 눈 정렬의 정확도를 높일 수 있다.
도 5 및 도 6은 일실시예에 따라 수직 기준선을 결정하는 예시를 설명하기 위한 도면이다.
도 5를 참조하면, 입력 영상을 제1 축에 투영시킨 제1 투영 결과의 정규화 값(510)와 입력 영상을 제2 축에 투영시킨 제2 투영 결과의 정규화 값(520)이 도시되어 있다. 제2 투영 결과의 정규화 값(520)은 제1 투영 결과의 정규화 값(510)을 사전확률로 하여 제2 투영 결과를 정규화한 결과일 수 있다. 수직 기준선들(530)은 제2 투영 결과의 정규화 값(520)과 미리 결정된 임계값에 기초하여 결정될 수 있다.
다만, 도 5에서 도시된 바와 같이, 한차례의 제1 축으로의 투영과 제2 축으로의 투영(이하, "첫 번째 투영 과정"이라 한다)으로 결정된 수직 기준선들(530)은 사용자 눈의 눈꺼풀에 인접한 피부에 위치할 수 있다. 이러한 경우에는 추가적으로 제1 축으로의 투영과 제2 축으로의 투영을 수행함으로써 보다 정확한 수직 기준선들을 결정할 수 있다.
도 6을 참조하면, 첫 번째 투영 과정을 통해 결정된 수직 기준선들(530) 사이에 위치하는 부분 영상을 제1 축에 투영시킨 제3 투영 결과의 정규화 값(610)과 부분 영상을 제2 축에 투영시킨 제4 투영 결과의 정규화 값(620)이 도시되어 있다.
다시 말해, 제3 투영 결과는 첫 번째 투영 과정을 통해 결정된 수직 기준선들(530) 사이에 위치하는 부분 영상에서 동일한 열에 포함되는 픽셀들의 값들을 열 방향에 따라 누적시킴으로써 생성되고 정규화될 수 있다. 제4 투영 결과는 부분 영상에서 동일한 행에 포함되는 픽셀들의 값들을 행 방향에 따라 누적시킴으로써 생성될 수 있다. 제4 투영 결과는 제3 투영 결과의 정규화 값(610)을 사전확률로 하여 정규화될 수 있다. 수직 기준선들(630)은 제4 투영 결과의 정규화 값(620)과 미리 결정된 임계값에 기초하여 결정될 수 있다.
일실시예에 따라 첫 번째 투영 과정과 두 번째 투영 과정을 통해 결정된 수직 기준선들(630)이 첫 번째 투영 과정만을 통해 결정된 수직 기준선들(530)보다 사용자 눈의 눈꺼풀에 근접하게 위치하도록 결정될 수 있다.
다만, 수직 기준선들이 총 두 번의 투영 과정을 통해 결정되는 것으로 설명하였지만, 이는 설명의 편의를 위한 것으로 수직 기준선들을 결정함에 있어 적용되는 투영 과정의 횟수가 제한되지 않는다. 총 두 번의 투영 과정을 통해 결정된 수직 기준선들의 정확도가 높지 않은 경우에는 추가적인 투영 과정이 수행될 수도 있고, 한 번의 투영 과정을 통해서 결정된 수직 기준선들의 정확도가 높은 경우에는 추가적인 투영 과정이 생략될 수도 있다.
또한, 제2 투영 결과가 제1 투영 결과의 정규화 값을 사전확률로 하여 정규화되는 것으로 설명하였지만, 이는 설명의 편의를 위한 것으로 제2 투영 결과의 정규화 방법을 제한하지 않는다. 다시 말해, 제2 투영 결과는 제1 투영 결과의 정규화 값을 사전확률로 이용하지 않고 정규화될 수도 있다. 마찬가지로, 제4 투영 결과는 제2 투영 결과의 정규화 값을 사전확률로 이용하지 않고 정규화될 수 있다.
도 7 내지 도 9는 일실시예에 따라 수평 기준선을 결정하는 예시를 설명하기 위한 도면이다.
도 7을 참조하면, 입력 영상(710)과 내안각 영역(720)이 도시되어 있다. 내안각 영역(720)은 내안각점 추출 알고리즘에 따라 입력 영상(710)으로부터 결정될 수 있다. 내안각 영역(720)을 결정하는 내안각점 추출 알고리즘은 관련 기술 분야에서 이용되는 다양한 알고리즘을 나타낼 수 있다.
피부 모델은 내안각 영역(720)의 인근 피부 픽셀에 기초하여 결정될 수 있다. 예를 들어, 피부 모델은 내안각 영역(720)을 둘러싸고 있는 픽셀들 중에서 피부에 해당하는 피부 픽셀에 기초하여 결정될 수 있다. 내안각 영역(720)의 왼쪽 부분을 둘러싸고 있는 픽셀이 피부에 해당되므로, 피부 모델은 내안각 영역(720)의 왼쪽 부분을 둘러싸고 있는 피부 픽셀에 기초하여 결정될 수 있다.
또는, 피부 모델은 내안각 영역(720) 내의 피부 영역에 포함된 피부 픽셀을 임의로 선택하고 선택된 피부 픽셀에 기초하여 피부 모델을 생성할 수 있다. 예를 들어, 내안각 영역(720)에서 왼쪽 가장자리 부분이 피부에 해당되므로, 피부 모델은 내안각 영역(720)에서 왼쪽 가장자리 부분의 피부 픽셀에 기초하여 결정될 수 있다.
내안각 영역은 피부 모델에 기초하여 피부 영역과 눈 영역으로 분류될 수 있다. 도 8에 도시된 내안각 영역에서 피부 모델에 의해 눈 영역으로 분류된 부분은 격자무늬로 표시될 수 있다. 눈 영역에서 가장 안쪽에 위치하는 픽셀은 내안각점으로 결정되고, 내안각점을 지나면서 y축에 평행한 직선은 수평 기준선으로 결정될 수 있다.
다만, 피부 모델이 임의의 피부 픽셀에 의해 결정되기 때문에, 피부 모델에 노이즈가 반영될 수 있고 눈 영역이 명확하게 분류되지 않을 수 있다. 도 8에 도시된 바와 같이 피부 영역의 일부가 눈 영역으로 분류됨으로써, 피부 모델에 의해 분류된 눈 영역이 사용자 눈의 형태로 나타나지 않을 수 있다. 이러한 경우에는 분류된 피부 영역과 눈 영역에 기초하여 내안각 영역을 재설정하고, 재설정된 내안각 영역을 이용하여 피부 모델을 업데이트할 수 있다.
도 3의 기준선 결정부(320)는 1차적으로 분류된 피부 영역과 눈 영역을 고려하여 내안각 영역의 인근 피부 픽셀을 높은 정확도로 재선택할 수 있다. 기준선 결정부(320)는 재선택된 피부 픽셀에 기초하여 피부 모델을 다음과 같이 업데이트할 수 있다.
Figure pct00030
위의 수학식 6에서,
Figure pct00031
은 재선택된 피부 픽셀(예건대, 1차적으로 분류된 피부 영역과 눈 영역에 기초하여 재설정된 내안각 영역의 인근 피부 픽셀)의 그레이스케일 값의 평균을 나타내고,
Figure pct00032
은 재선택된 피부 픽셀의 그레이스케일 값의 분산을 나타낸다.
기준선 결정부(320)는 업데이트된 피부 모델에 기초하여 내안각 영역을 피부 영역과 눈 영역으로 분류할 수 있다. 예를 들어, 기준선 결정부(320)는 다음과 같이 내안각 영역에 포함된 픽셀을 분류할 수 있다.
Figure pct00033
위의 수학식 7에서,
Figure pct00034
은 내안각 영역에 포함된 픽셀
Figure pct00035
가 피부 픽셀일 확률을 나타낸다. 그래서, 기준선 결정부(320)는
Figure pct00036
가 미리 정해진 임계값보다 큰 지 여부에 기초하여 픽셀
Figure pct00037
가 피부 영역에 속하는지 여부를 판단할 수 있다. 예를 들어,
Figure pct00038
가 미리 정해진 임계값보다 큰 경우, 기준선 결정부(320)는 픽셀
Figure pct00039
가 피부 영역에 속하는 것으로 분류할 수 있다. 반대로,
Figure pct00040
가 미리 정해진 임계값보다 작거나 같은 경우, 기준선 결정부(320)는 픽셀
Figure pct00041
가 눈 영역에 속하는 것으로 분류할 수 있다.
도 9를 참조하면, 업데이트된 피부 모델에 기초하여 분류된 피부 영역과 눈 영역이 도시되어 있다. 도 9에 도시된 내안각 영역에서 눈 영역은 격자무늬로 표시될 수 있다. 눈 영역에서 가장 안쪽에 위치하는 픽셀은 내안각점(910)으로 결정되고, 내안각점(910)을 지나면서 y축에 평행한 직선은 수평 기준선(920)으로 결정될 수 있다.
일실시예에 따라 총 두 번의 내안각 영역을 피부 영역과 눈 영역으로 분류하는 과정을 수행하는 것으로 설명하였지만, 이는 설명의 편의를 위한 것으로 수평 기준선을 결정함에 있어 적용되는 분류 과정의 횟수가 제한되지 않는다. 총 두 번의 분류 과정을 통해 결정된 수평 기준선의 정확도가 높지 않은 경우에는 추가적인 분류 과정이 수행될 수도 있다. 한번의 분류 과정만으로도 수평 기준선을 높은 정확도로 결정할 수 있다면, 두 번째 분류 과정은 생략될 수도 있다.
도 10은 일실시예에 따라 입력 영상에 포함된 사용자 눈의 움직임 정보를 결정하는 과정을 설명하기 위한 도면이다.
도 10을 참조하면, 프로세서(1000)는 추출부(1010), 기준선 결정부(1020), 정렬부(1030), 움직임 응답도 결정부(1040) 및 움직임 정보 결정부(1050)를 포함할 수 있다. 프로세서(1000)는 도 1의 영상 처리 장치(100)에 포함된 프로세서(120)를 나타내며, 입력되는 영상을 처리할 수 있다.
추출부(1010)는 입력 영상으로부터 서로 다른 시선 상태의 눈 영상들을 추출할 수 있다. 기준선 결정부(1020)는 사용자 눈을 포함하는 입력 영상에서 사용자 눈의 경계에 대응하는 수직 기준선 및 수평 기준선을 결정할 수 있다. 정렬부(1030)는 수직 기준선 및 수평 기준선에 기초하여 입력 영상을 정렬할 수 있다. 추출부(1010), 기준선 결정부(1020), 정렬부(1030)에 관해서는 도 3에서 전술한 내용이 그대로 적용될 수 있으므로, 보다 자세한 설명은 생략한다.
움직임 응답도 결정부(1040)는 수직 기준선 및 수평 기준선에 따라 정렬된 입력 영상에 기초하여 사용자 눈의 움직임 응답도를 결정할 수 있다. 예를 들어, 움직임 응답도 결정부(1040)는 정렬된 적어도 두 개의 입력 영상들에 기초하여 사용자 눈의 움직임 응답도를 결정할 수 있다.
움직임 응답도는 수평 성분 및 수직 성분을 포함할 수 있다. 움직임 응답도의 수평 성분은 안구가 주로 수평 방향으로 움직임에 따라 사용자 눈의 시선 상태가 수직 방향에서는 동일하고 수평 방향에 대해서는 변화하는 입력 영상들로부터 추출될 수 있다. 반대로, 움직임 응답도의 수직 성분은 안구의 수직 방향의 움직임 및 눈꺼풀의 수직 방향의 움직임에 따라 사용자 눈의 시선 상태가 수평 방향에서는 동일하고 수직 방향에 대해서는 변화하는 입력 영상들로부터 추출될 수 있다.
예를 들어, 움직임 응답도의 수평 성분은 사용자가 도 2의 제1 조준점(410) 및 제2 조준점(420)을 각각 응시할 때 추출된 서로 다른 시선 상태의 영상 영상들을 비교하고, 사용자가 제3 조준점(430) 및 제4 조준점(440)을 각각 응시할 때 추출된 서로 다른 시선 상태의 입력 영상들을 비교함으로써 결정될 수 있다.
일실시예에 따른 움직임 응답도 결정부(1040)는 평균값 차분법에 기초하여 움직임 응답도를 결정할 수 있다. 움직임 응답도 결정부(1040)는 사용자 눈의 시선 위치가 수직 방향으로는 같으나 수평 방향으로는 다른 입력 영상들 간의 차이에 기초하여 움직임 응답도의 수평 성분을 결정할 수 있다.
예를 들어, 움직임 응답도 결정부(1040)는 사용자가 도 4의 조준점들(410~440)을 응시함에 따라 생성된 입력 영상들을 각각 미리 결정된 크기의 영상 블록들로 분할할 수 있다.
움직임 응답도 결정부(1040)는 제1 조준점(410) 및 제2 조준점(420)의 입력 영상들에 각각 포함되고 서로 대응하는 영상 블록들 사이의 평균 픽셀값 차이
Figure pct00042
를 계산할 수 있다. 움직임 응답도 결정부(1040)는 제3 조준점(430) 및 제4 조준점(440)의 입력 영상들에 각각 포함되고 서로 대응하는 영상 블록들 간의 평균 픽셀값 차이
Figure pct00043
를 계산할 수 있다. 여기서,
Figure pct00044
는 제1 조준점(410)과 제2 조준점(420)의 입력 영상에서 서로 대응하는 제i 번째 영상 블록 간의 평균 픽셀값 차이를 나타내고,
Figure pct00045
는 제3 조준점(430)과 제4 조준점(440)의 입력 영상에서 서로 대응하는 제i 번째 영상 블록 간의 평균 픽셀값 차이를 나타낼 수 있다.
Figure pct00046
은 제1 조준점(410)의 입력 영상에서 제i 번째 영상 블록의 평균 픽셀값을 나타내고,
Figure pct00047
은 제2 조준점(420)의 입력 영상에서 제i 번째 영상 블록의 평균 픽셀값을 나타내고,
Figure pct00048
은 제3 조준점(430)의 입력 영상에서 제i 번째 영상 블록의 평균 픽셀값을 나타내며,
Figure pct00049
은 제4 조준점(440)의 입력 영상에서 제i 번째 영상 블록의 평균 픽셀값을 나타낼 수 있다. 이 때, 평균 픽셀값은 해당 픽셀의 그레이스케일 값의 평균을 나타낼 수 있다.
Figure pct00050
은 놈(norm)을 나타낼 수 있다.
움직임 응답도 결정부(1040)는 제i 번째 영상 블록의 수평 방향에 관한 평균 픽셀값의 차이
Figure pct00051
를 다음과 같이 결정할 수 있다.
Figure pct00052
움직임 응답도 결정부(1040)는 제i 번째 영상 블록의 수평 방향에 관한 평균 픽셀값의 차이
Figure pct00053
에 기초하여 움직임 응답도의 수평 성분을 다음과 같이 결정할 수 있다.
Figure pct00054
위의 수학식 9에서,
Figure pct00055
은 제i 번째 영상 블록에서의 움직임 응답도의 수평 성분을 나타내고,
Figure pct00056
은 미리 정해진 임계값으로서, 예를 들어, 사용자에 의해 설정될 수 있다.
마찬가지로, 움직임 응답도의 수직 성분은 사용자가 도 2의 제1 조준점(410) 및 제3 조준점(430)을 각각 응시할 때 추출된 서로 다른 시선 상태의 입력 영상들을 비교하고, 사용자가 제2 조준점(420) 및 제4 조준점(440)을 각각 응시할 때 추출된 서로 다른 시선 상태의 입력 영상들을 비교함으로써 결정될 수 있다.
그리고, 움직임 응답도 결정부(1040)는 사용자 눈의 시선 위치가 수평 방향으로는 같으나 수직 방향으로는 다른 입력 영상들 간의 차이에 기초하여 움직임 응답도의 수직 성분을 결정할 수 있다.
움직임 응답도 결정부(1040)는 제1 조준점(410) 및 제3 조준점(430)의 눈 영상들에 각각 포함되고 서로 대응하는 영상 블록들 사이의 평균 픽셀값 차이
Figure pct00057
를 계산할 수 있다. 움직임 응답도 결정부(1040)는 제2 조준점(420) 및 제4 조준점(440)의 눈 영상들에 각각 포함되고 서로 대응하는 영상 블록들 간의 평균 픽셀값 차이
Figure pct00058
를 계산할 수 있다. 여기서,
Figure pct00059
는 제1 조준점(410)과 제3 조준점(430)의 입력 영상에서 서로 대응하는 제i 번째 영상 블록 간의 평균 픽셀값 차이를 나타내고,
Figure pct00060
는 제2 조준점(420)과 제4 조준점(440)의 입력 영상에서 서로 대응하는 제i 번째 영상 블록 간의 평균 픽셀값 차이를 나타낼 수 있다.
움직임 응답도 결정부(1040)는 제i 번째 영상 블록의 수직 방향에 관한 평균 픽셀값의 차이
Figure pct00061
를 다음과 같이 결정할 수 있다.
Figure pct00062
움직임 응답도 결정부(1040)는 제i 번째 영상 블록의 수직 방향에 관한 평균 픽셀값의 차이
Figure pct00063
에 기초하여 움직임 응답도의 수직 성분을 다음과 같이 결정할 수 있다.
Figure pct00064
위의 수학식 11에서,
Figure pct00065
은 제i 번째 영상 블록에서의 움직임 응답도의 수직 성분을 나타내고,
Figure pct00066
은 미리 정해진 임계값으로서, 예를 들어, 사용자에 의해 설정될 수 있다.
다른 일실시예에 따른 움직임 응답도 결정부(1040)는 주성분 분석법(PCA; Principal Component Analysis)에 기초하여 움직임 응답도를 결정할 수 있다. 주성분 분석법은 데이터들의 특징을 가장 잘 나타내는 벡터를 추출하고, 데이터들을 추출된 벡터에 투사(project)시킴으로써 데이터들을 효과적으로 분석할 수 있는 방법이다.
움직임 응답도 결정부(1040)는 사용자 눈의 시선 위치가 수직 방향으로는 같으나 수평 방향으로는 다른 입력 영상들에 주성분 분석을 적용함으로써 움직임 응답도의 수평 성분을 결정할 수 있다.
예를 들어, 움직임 응답도 결정부(1040)는 제1 조준점(410)의 입력 영상의 영상 데이터 집합(I1)과 제2 조준점(420)의 입력 영상의 영상 데이터 집합(I2)을 하나의 집합
Figure pct00067
으로 설정할 수 있다. 그리고, 움직임 응답도 결정부(1040)는
Figure pct00068
에 포함된 영상 데이터를 벡터화할 수 있다. 다시 말해, 움직임 응답도 결정부(1040)는 크기가 M x N인 2차원 입력 영상의 영상 데이터를 M x N의 1차원 벡터로 펼치고, 주성분 분석법을 이용하여
Figure pct00069
중에서 벡터값의 변화가 가장 큰 특징 벡터
Figure pct00070
를 찾을 수 있다. 동일하게, 움직임 응답도 결정부(1040)는 제3 조준점(430)의 입력 영상의 영상 데이터 집합(I3)과 제4 조준점(440)의 입력 영상의 영상 데이터 집합(I4)을 하나의 집합
Figure pct00071
으로 설정하고,
Figure pct00072
중에서 벡터값의 변화가 가장 큰 특징 벡터
Figure pct00073
를 찾을 수 있다.
그리고, 움직임 응답도 결정부(1040)는 특징 벡터들
Figure pct00074
,
Figure pct00075
에 기초하여 수평 방향의 변화가 가장 큰 특징 EH을 다음과 같이 결정할 수 있다.
Figure pct00076
움직임 응답도 결정부(1040)는 M x N의 1차원 벡터 EH를 정규화한 크기가 M x N의 2차원 특징 영상
Figure pct00077
으로 전환하고, 2차원 특징 영상
Figure pct00078
에 기초하여 각 픽셀에서의 움직임 응답도의 수평 성분을 다음과 같이 결정할 수 있다.
Figure pct00079
위의 수학식 13에서,
Figure pct00080
은 제i 번째 픽셀에서의 움직임 응답도의 수평 성분을 나타내고,
Figure pct00081
은 2차원 특징 영상
Figure pct00082
에서 제i 번째 픽셀에 대응하는 계산 결과를 나타내고,
Figure pct00083
은 미리 정해진 임계값으로서, 예를 들어, 사용자에 의해 설정될 수 있다.
그리고, 움직임 응답도 결정부(1040)는 사용자 눈의 시선 위치가 수평 방향으로는 같으나 수직 방향으로는 다른 입력 영상들에 주성분 분석을 적용함으로써 움직임 응답도의 수직 성분을 결정할 수 있다.
예를 들어, 움직임 응답도 결정부(1040)는 제1 조준점(410)의 입력 영상의 영상 데이터 집합(I1)과 제3 조준점(430)의 입력 영상의 영상 데이터 집합(I2)을 하나의 집합
Figure pct00084
으로 설정하고,
Figure pct00085
중에서 벡터값의 변화가 가장 큰 특징 벡터
Figure pct00086
를 찾을 수 있다. 동일하게, 움직임 응답도 결정부(1040)는 제2 조준점(420)의 입력 영상의 영상 데이터 집합(I2)과 제4 조준점(440)의 입력 영상의 영상 데이터 집합(I4)을 하나의 집합
Figure pct00087
으로 설정하고,
Figure pct00088
중에서 벡터값의 변화가 가장 큰 특징 벡터
Figure pct00089
를 찾을 수 있다.
그리고, 움직임 응답도 결정부(1040)는 특징 벡터들
Figure pct00090
,
Figure pct00091
에 기초하여 수직 방향의 변화가 가장 큰 특징 EV을 다음과 같이 결정할 수 있다.
Figure pct00092
움직임 응답도 결정부(1040)는 M x N의 1차원 벡터 EV를 정규화한 크기가 M x N의 2차원 특징 영상
Figure pct00093
으로 전환하고 2차원 특징 영상
Figure pct00094
에 따라 각 픽셀에서의 움직임 응답도의 수직 성분을 다음과 같이 결정할 수 있다.
Figure pct00095
위의 수학식 13에서,
Figure pct00096
은 제i 번째 픽셀에 대응하는 위치에서의 움직임 응답도의 수직 성분을 나타내고,
Figure pct00097
은 2차원 특징 영상
Figure pct00098
에서 제i 번째 픽셀에 대응하는 계산 결과를 나타내고,
Figure pct00099
은 미리 정해진 임계값으로서, 예를 들어, 사용자에 의해 설정될 수 있다.
움직임 정보 결정부(1050)는 움직임 응답도에 기초하여 사용자 눈의 움직임 정보를 결정할 수 있다. 움직임 정보는 사용자 눈에 관한 정보로서, 예를 들어, 사용자 눈의 시선 방향, 시선 위치, 시선 변화량 등을 포함할 수 있다.
움직임 정보 결정부(1050)는 움직임 응답도의 수평 성분 및 수직 성분 중 적어도 하나에 서브 윈도우 평균값 또는 일부 특징을 추출하는 등의 방법을 적용함으로써 사용자 눈의 움직임 정보를 결정할 수 있다. 예를 들어, 움직임 정보 결정부(1050)는 입력 영상에서 사용자 눈의 움직임 응답도, 입력 영상에 포함된 사용자 눈의 가장자리, 그레이스케일 값, 코너 등의 특징을 추출함으로써 사용자 눈의 움직임 정보를 결정할 수 있다.
움직임 정보 결정부(1050)는 사용자 눈의 움직임 정보에 기초하여 사용자의 시선을 예측할 수 있다. 움직임 정보 결정부(1050)는 사용자 눈의 움직임 정보를 이용하여 사용자의 시선이 어디를 향하고 있는지 여부, 사용자의 시선이 움직이는 방향 및 속도 등을 예측할 수 있다.
움직임 정보 결정부(1050)가 서로 직교하는 수평 성분 및 수직 성분을 포함하는 움직임 응답도를 이용하기 때문에, 움직임 정보 결정부(1050)는 사용자 눈의 움직임에 강인한 시선 예측을 수행할 수 있다.
도 11은 일실시예에 따른 영상 처리 방법을 나타낸 도면이다.
일실시예에 따른 영상 처리 방법은 영상 처리 장치에 구비된 프로세서에 의해 수행될 수 있다.
단계(1110)에서, 영상 처리 장치는 사용자 눈을 포함하는 입력 영상에서 사용자 눈의 경계에 대응하는 수직 기준선 및 수평 기준선을 결정할 수 있다.
영상 처리 장치는 입력 영상을 제1 축에 투영시킨 제1 투영 결과 및 입력 영상을 제2 축에 투영시킨 제2 투영 결과에 기초하여, 수직 기준선을 결정할 수 있다. 예를 들어, 영상 처리 장치는 제1 투영 결과를 이용하여 제2 투영 결과를 정규화하고, 제2 투영 결과의 정규화 값에 기초하여 수직 기준선을 결정할 수 있다. 이 때, 제1 축은, 입력 영상의 x축에 해당하고, 제2 축은, 입력 영상의 y축에 해당할 수 있다.
영상 처리 장치는 입력 영상을 제1 축에 투영시킨 제1 투영 결과 및 입력 영상을 제2 축에 투영시킨 제2 투영 결과에 기초하여, 사용자 눈의 위 경계 및 아래 경계에 대응하는 제1 직선들을 결정할 수 있다. 그리고, 영상 처리 장치는 제1 직선들 사이에 위치하는 부분 영상을 제1 축에 투영시킨 제3 투영 결과 및 부분 영상을 제2 축에 투영시킨 제4 투영 결과에 기초하여 사용자 눈의 아래 경계에 대응하는 제2 직선을 결정할 수 있다. 그리고, 영상 처리 장치는 제2 직선을 수직 기준선으로 결정할 수 있다.
영상 처리 장치는 입력 영상에 포함된 내안각 영역을 이용하여 피부 모델을 결정하고, 피부 모델에 기초하여 내안각 영역을 피부 영역과 눈 영역으로 분류하며, 눈 영역에 기초하여 수평 기준선을 결정할 수 있다.
단계(1120)에서, 영상 처리 장치는 수직 기준선 및 수평 기준선에 기초하여 입력 영상을 정렬할 수 있다.
도 11에 도시된 각 단계들에는 도 1 내지 도 10를 통하여 전술한 사항들이 그대로 적용되므로, 보다 상세한 설명은 생략한다.
도 12는 다른 일실시예에 따른 영상 처리 방법을 나타낸 도면이다.
다른 일실시예에 따른 영상 처리 방법은 영상 처리 장치에 구비된 프로세서에 의해 수행될 수 있다.
단계(1210)에서, 영상 처리 장치는 입력 영상에서 서로 다른 시선 상태의 사용자 눈을 추출할 수 있다.
단계(1220)에서, 영상 처리 장치는 영상 처리 장치는 사용자 눈을 포함하는 입력 영상에서 사용자 눈의 경계에 대응하는 수직 기준선 및 수평 기준선을 결정할 수 있다.
단계(1230)에서, 영상 처리 장치는 수직 기준선 및 수평 기준선에 기초하여 입력 영상을 정렬할 수 있다.
단계(1240)에서, 영상 처리 장치는 수직 기준선 및 수평 기준선에 따라 정렬된 입력 영상에 기초하여 사용자 눈의 움직임 응답도를 결정할 수 있다.
단계(1250)에서, 영상 처리 장치는 움직임 응답도에 기초하여 사용자 눈의 움직임 정보를 결정할 수 있다. 영상 처리 장치는 사용자 눈의 움직임 정보에 기초하여 사용자의 시선을 예측할 수 있다.
도 12에 도시된 각 단계들에는 도 1 내지 도 11를 통하여 전술한 사항들이 그대로 적용되므로, 보다 상세한 설명은 생략한다.
도 13 내지 도 16은 일실시예에 따라 정렬된 입력 영상들의 예시를 도시한다.
도 13 및 도 15는 일실시예에 따른 영상 처리 방법에 기초하여 정렬된 입력 영상들을 도시한다. 도 14 및 도 16은 일실시예에 따른 기존의 알고리즘(예컨대, Active Appearance Model(AAM) 알고리즘)에 기초하여 정렬된 입력 영상들을 도시한다.
도 13 및 도 15의 수직 기준선들 및 수평 기준선들은 도 14 및 도 16의 수직 기준선들 및 수평 기준선들보다 입력 영상들에 포함된 사용자 눈의 경계에 위치하는 것을 확인할 수 있다. 다시 말해, 도 13 및 도 15의 수직 기준선들은 도 14 및 도 16의 수직 기준선들보다 사용자 눈의 아래 눈꺼풀에 근접하도록 위치하는 것을 확인할 수 있다. 도 13 및 도 15의 수평 기준선들은 도 14 및 도 16의 수평 기준선들보다 사용자 눈의 내안각점에 근접하도록 위치하는 것을 확인할 수 있다.
실시예들은 수평 방향의 제1 투영 결과를 사전확률로 하여 수직 방향의 제2 투영 결과를 정규화시킴으로써, 눈의 흰자위, 동공 및 홍채 등을 포함하는 눈 영역에 높은 가중치를 부여하여 수직 기준선을 보다 정확하게 결정할 수 있다.
실시예들은 내안각 영역의 인근 피부 픽셀에 기초한 피부 모델에 기초하여 내안각점을 결정함으로써, 수평 기준선을 높은 정확도로 추출할 수 있다.
실시예들은 높은 정확도로 추출된 수직 기준선 및 수평 기준선에 기초하여 입력 영상을 정렬함으로써, 입력 영상에 포함된 사용자 눈에 관한 분석을 효과적으로 수행할 수 있다.
이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 비록 한정된 실시예와 도면을 통해 실시예들을 설명하였으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다. 그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.

Claims (20)

  1. 사용자 눈을 포함하는 입력 영상에서 상기 사용자 눈의 경계에 대응하는 수직 기준선(vertical baseline) 및 수평 기준선(horizontal baseline)을 결정하는 단계; 및
    상기 수직 기준선 및 수평 기준선에 기초하여 상기 입력 영상을 정렬하는 단계
    를 포함하는 영상 처리 방법.
  2. 제1항에 있어서,
    상기 수직 기준선 및 상기 수평 기준선을 결정하는 단계는,
    상기 입력 영상을 제1 축에 투영시킨 제1 투영 결과 및 상기 입력 영상을 제2 축에 투영시킨 제2 투영 결과에 기초하여, 상기 수직 기준선을 결정하는, 영상 처리 방법.
  3. 제2항에 있어서,
    상기 수직 기준선 및 상기 수평 기준선을 결정하는 단계는,
    상기 제1 투영 결과를 이용하여 상기 제2 투영 결과를 정규화하고, 상기 제2 투영 결과의 정규화 값에 기초하여 상기 수직 기준선을 결정하는, 영상 처리 방법.
  4. 제2항에 있어서,
    상기 제1 축은, 상기 입력 영상의 x축에 해당하고,
    상기 제2 축은, 상기 입력 영상의 y축에 해당하는, 영상 처리 방법.
  5. 제1항에 있어서,
    상기 수직 기준선 및 상기 수평 기준선을 결정하는 단계는,
    상기 입력 영상을 제1 축에 투영시킨 제1 투영 결과 및 상기 입력 영상을 제2 축에 투영시킨 제2 투영 결과에 기초하여, 상기 사용자 눈의 위 경계 및 아래 경계에 대응하는 제1 직선들을 결정하는 단계; 및
    상기 제1 직선들 사이에 위치하는 부분 영상을 상기 제1 축에 투영시킨 제3 투영 결과 및 상기 부분 영상을 상기 제2 축에 투영시킨 제4 투영 결과에 기초하여 상기 사용자 눈의 아래 경계에 대응하는 제2 직선을 결정하고, 상기 제2 직선을 상기 수직 기준선으로 결정하는 단계
    를 포함하는, 영상 처리 방법.
  6. 제1항에 있어서,
    상기 수직 기준선은, 상기 사용자 눈의 아래 눈꺼풀에 접하고 x축에 평행한 직선인, 영상 처리 방법.
  7. 제1항에 있어서,
    상기 수직 기준선 및 상기 수평 기준선을 결정하는 단계는,
    상기 입력 영상에 포함된 내안각 영역을 이용하여 피부 모델을 결정하는 단계 - 상기 내안각 영역은, 상기 사용자 눈의 내안각점을 포함함-;
    상기 피부 모델에 기초하여 상기 내안각 영역을 피부 영역과 눈 영역으로 분류하는 단계; 및
    상기 눈 영역에 기초하여 상기 수평 기준선을 결정하는 단계
    를 포함하는, 영상 처리 방법.
  8. 제7항에 있어서,
    상기 피부 모델을 결정하는 단계는,
    상기 내안각 영역의 인근 피부 픽셀에 기초하여 상기 피부 모델을 결정하는, 영상 처리 방법.
  9. 제7항에 있어서,
    상기 피부 모델은,
    상기 분류된 피부 영역과 눈 영역에 기초하여 재설정된 내안각 영역을 이용하여 업데이트되는, 영상 처리 방법.
  10. 제7항에 있어서,
    상기 눈 영역에 기초하여 상기 수평 기준선을 결정하는 단계는,
    상기 눈 영역에서 가장 안쪽에 위치하는 픽셀을 상기 내안각점으로 결정하고, 상기 결정된 내안각점을 지나고 y축에 평행한 직선을 상기 수평 기준선으로 결정하는, 영상 처리 방법.
  11. 제1항에 있어서,
    상기 수직 기준선 및 상기 수평 기준선에 따라 정렬된 입력 영상에 기초하여 상기 사용자 눈의 움직임 응답도를 결정하는 단계
    를 더 포함하는, 영상 처리 방법.
  12. 제11항에 있어서,
    상기 움직임 응답도의 수평 성분은,
    상기 사용자 눈의 시선 위치가 수직 방향으로는 같으나 수평 방향으로는 다른 입력 영상들 간의 차이에 기초하여 결정되는, 영상 처리 방법.
  13. 제11항에 있어서,
    상기 움직임 응답도의 수직 성분은,
    상기 사용자 눈의 시선 위치가 수평 방향으로는 같으나 수직 방향으로는 다른 입력 영상들 간의 픽셀값 차이에 기초하여 결정되는, 영상 처리 방법.
  14. 제11항에 있어서,
    상기 움직임 응답도의 수평 성분은,
    상기 사용자 눈의 시선 위치가 수직 방향으로는 같으나 수평 방향으로는 다른 입력 영상들에 주성분 분석을 적용함으로써 결정되는, 영상 처리 방법.
  15. 제11항에 있어서,
    상기 움직임 응답도의 수직 성분은,
    상기 사용자 눈의 시선 위치가 수평 방향으로는 같으나 수직 방향으로는 다른 입력 영상들에 주성분 분석을 적용함으로써 결정되는, 영상 처리 방법.
  16. 제11항에 있어서,
    상기 움직임 응답도에 기초하여 상기 사용자 눈의 움직임 정보를 결정하는 단계; 및
    상기 사용자 눈의 움직임 정보에 기초하여 사용자의 시선을 예측하는 단계
    를 더 포함하는, 영상 처리 방법.
  17. 제1항 내지 제16항 중에서 어느 하나의 항의 방법을 실행시키기 위한 프로그램이 기록된 컴퓨터 판독 가능한 기록 매체.
  18. 사용자 눈을 포함하는 입력 영상을 수신하는 수신부; 및
    상기 입력 영상을 처리하는 프로세서
    를 포함하고,
    상기 프로세서는,
    사용자 눈을 포함하는 입력 영상에서 상기 사용자 눈의 경계에 대응하는 수직 기준선 및 수평 기준선을 결정하는 단계,
    상기 수직 기준선 및 수평 기준선에 기초하여 상기 입력 영상을 정렬하는 단계
    를 수행하는 영상 처리 장치.
  19. 제18항에 있어서,
    상기 프로세서는,
    상기 입력 영상을 제1 축에 투영시킨 제1 투영 결과 및 상기 입력 영상을 제2 축에 투영시킨 제2 투영 결과에 기초하여, 상기 수직 기준선을 결정하는 영상 처리 장치.
  20. 제18항에 있어서,
    상기 프로세서는,
    상기 입력 영상에 포함된 내안각 영역을 이용하여 피부 모델을 결정하고, 상기 피부 모델에 기초하여 상기 내안각 영역을 피부 영역과 눈 영역으로 분류하며, 상기 눈 영역에 기초하여 상기 수평 기준선을 결정하고,
    상기 내안각 영역은, 상기 사용자 눈의 내안각점을 포함하는 영상 처리 장치.
KR1020167022297A 2014-05-27 2015-05-27 영상 처리 방법 및 영상 처리 장치 KR102415507B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN20141022899.2 2014-05-27
CN201410228899.2A CN105279764B (zh) 2014-05-27 2014-05-27 眼睛图像处理设备和方法
PCT/KR2015/005288 WO2015182979A1 (ko) 2014-05-27 2015-05-27 영상 처리 방법 및 영상 처리 장치

Publications (2)

Publication Number Publication Date
KR20170012191A true KR20170012191A (ko) 2017-02-02
KR102415507B1 KR102415507B1 (ko) 2022-07-01

Family

ID=54699246

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020167022297A KR102415507B1 (ko) 2014-05-27 2015-05-27 영상 처리 방법 및 영상 처리 장치

Country Status (4)

Country Link
US (1) US10176374B2 (ko)
KR (1) KR102415507B1 (ko)
CN (1) CN105279764B (ko)
WO (1) WO2015182979A1 (ko)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10824888B1 (en) * 2017-01-19 2020-11-03 State Farm Mutual Automobile Insurance Company Imaging analysis technology to assess movements of vehicle occupants
US10740633B2 (en) 2017-10-02 2020-08-11 Fotonation Limited Human monitoring system incorporating calibration methodology
WO2020106792A1 (en) * 2018-11-21 2020-05-28 University Of Washington System and method for retina template matching in teleophthalmology
CN113435535A (zh) * 2021-07-13 2021-09-24 北京达佳互联信息技术有限公司 图像识别模型的训练方法、图像识别方法及设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5912721A (en) * 1996-03-13 1999-06-15 Kabushiki Kaisha Toshiba Gaze detection apparatus and its method as well as information display apparatus
JP2010051446A (ja) * 2008-08-27 2010-03-11 Yaskawa Information Systems Co Ltd 瞼開度検出装置、瞼開度検出方法および瞼開度検出プログラム
US8594374B1 (en) * 2011-03-30 2013-11-26 Amazon Technologies, Inc. Secure device unlock with gaze calibration

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3272906B2 (ja) * 1995-05-29 2002-04-08 シャープ株式会社 視線方向検出方法及び装置及びそれを含むマンマシンインターフェース装置
JP2000067261A (ja) * 1998-08-19 2000-03-03 Nippon Telegr & Teleph Corp <Ntt> 顔動画像作成方法及び装置及びこの方法を記録した記録媒体
US6154559A (en) 1998-10-01 2000-11-28 Mitsubishi Electric Information Technology Center America, Inc. (Ita) System for classifying an individual's gaze direction
JP3768735B2 (ja) 1999-07-07 2006-04-19 三菱電機株式会社 顔画像処理装置
KR100552709B1 (ko) 2004-05-21 2006-02-20 삼성전자주식회사 눈검출 장치 및 방법
GB0508045D0 (en) * 2005-04-21 2005-05-25 Univ Newcastle Apparatus and method for monitoring the position of an object
KR100724932B1 (ko) 2005-08-02 2007-06-04 삼성전자주식회사 얼굴 검출 장치 및 방법
CN101489467B (zh) * 2006-07-14 2011-05-04 松下电器产业株式会社 视线方向检测装置和视线方向检测方法
JP4966816B2 (ja) * 2007-10-25 2012-07-04 株式会社日立製作所 視線方向計測方法および視線方向計測装置
JP4915413B2 (ja) * 2008-12-03 2012-04-11 オムロン株式会社 検出装置および方法、並びに、プログラム
JP5221436B2 (ja) 2009-04-02 2013-06-26 トヨタ自動車株式会社 顔特徴点検出装置及びプログラム
KR20120006819A (ko) 2010-07-13 2012-01-19 한국기초과학지원연구원 시선 추적 방법 및 이를 적용하는 장치
CN101908140A (zh) * 2010-07-29 2010-12-08 中山大学 一种在人脸识别中应用的活体检测方法
KR101245846B1 (ko) 2010-11-17 2013-03-20 전자부품연구원 졸음 인식 장치 및 방법
KR101977638B1 (ko) * 2012-02-29 2019-05-14 삼성전자주식회사 영상 내 사용자의 시선 보정 방법, 기계로 읽을 수 있는 저장 매체 및 통신 단말

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5912721A (en) * 1996-03-13 1999-06-15 Kabushiki Kaisha Toshiba Gaze detection apparatus and its method as well as information display apparatus
JP2010051446A (ja) * 2008-08-27 2010-03-11 Yaskawa Information Systems Co Ltd 瞼開度検出装置、瞼開度検出方法および瞼開度検出プログラム
US8594374B1 (en) * 2011-03-30 2013-11-26 Amazon Technologies, Inc. Secure device unlock with gaze calibration

Also Published As

Publication number Publication date
US20170076136A1 (en) 2017-03-16
US10176374B2 (en) 2019-01-08
CN105279764A (zh) 2016-01-27
WO2015182979A1 (ko) 2015-12-03
CN105279764B (zh) 2020-09-11
KR102415507B1 (ko) 2022-07-01

Similar Documents

Publication Publication Date Title
KR101950562B1 (ko) 시선 추적
CN107358149B (zh) 一种人体姿态检测方法和装置
US9953211B2 (en) Image recognition apparatus, image recognition method and computer-readable medium
KR102463169B1 (ko) 시점 추적 방법 및 장치
US10268875B2 (en) Method and apparatus for registering face, and method and apparatus for recognizing face
US10572072B2 (en) Depth-based touch detection
US20160140383A1 (en) Method and apparatus for extracting facial feature, and method and apparatus for facial recognition
KR101997479B1 (ko) 사용자 인증을 위한 생체 영역을 검출하는 방법 및 장치
KR20170056860A (ko) 이미지 생성 방법 및 장치
KR101551576B1 (ko) 로봇 청소기, 제스쳐 인식 장치 및 방법
US9082000B2 (en) Image processing device and image processing method
KR20160032466A (ko) 영상 특징 추출 방법 및 장치
US20230334235A1 (en) Detecting occlusion of digital ink
KR102476022B1 (ko) 얼굴검출 방법 및 그 장치
KR102415507B1 (ko) 영상 처리 방법 및 영상 처리 장치
KR20180037746A (ko) 객체 추적 방법 및 장치, 및 이를 이용한 3d 디스플레이 장치
KR20180090072A (ko) 홍채 인식 장치 및 방법
US9679219B2 (en) Image feature classification
US20170330026A1 (en) Determining device and determination method
KR101592110B1 (ko) 눈 모양 분류 장치 및 방법
KR20210157052A (ko) 객체 인식 방법 및 객체 인식 장치
JP7283735B2 (ja) 追跡装置、追跡方法、及びプログラム
JP7279893B2 (ja) 顔検出装置、顔検出方法、及びプログラム
KR101652022B1 (ko) 이미지에서 제1 객체에 중첩된 제2 객체를 분리하기 위한 방법, 장치 및 컴퓨터 판독 가능한 기록 매체
KR101141901B1 (ko) 윗 눈꺼풀 모양 검출장치 및 방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant