KR101914190B1 - 운전자 시선 추적 장치 및 방법 - Google Patents

운전자 시선 추적 장치 및 방법 Download PDF

Info

Publication number
KR101914190B1
KR101914190B1 KR1020170073354A KR20170073354A KR101914190B1 KR 101914190 B1 KR101914190 B1 KR 101914190B1 KR 1020170073354 A KR1020170073354 A KR 1020170073354A KR 20170073354 A KR20170073354 A KR 20170073354A KR 101914190 B1 KR101914190 B1 KR 101914190B1
Authority
KR
South Korea
Prior art keywords
gaze
driver
information
region
pupil center
Prior art date
Application number
KR1020170073354A
Other languages
English (en)
Inventor
박강령
윤효식
Original Assignee
동국대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 동국대학교 산학협력단 filed Critical 동국대학교 산학협력단
Priority to KR1020170073354A priority Critical patent/KR101914190B1/ko
Application granted granted Critical
Publication of KR101914190B1 publication Critical patent/KR101914190B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06K9/00268
    • G06K9/00597
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30141Printed circuit board [PCB]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Ophthalmology & Optometry (AREA)
  • Eye Examination Apparatus (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 운전자 시선 추적에 관한 것으로, 구체적으로는 차량 환경에서 운전자의 눈동자 움직임 기반 시선을 추적하는 장치 및 방법에 관한 것이다. 본 발명은 여러 명의 평균 시선 정보와 운전자의 초기 시선 정보를 결합하여 차량 환경에서 간편하고 빠르게 캘리브레이션을 수행할 수 있다. 또한, 본 발명은 각막 반사광(corneal specular reflection)이 소실되는 경우에 내안각(medial canthus) 위치를 기반하여 시선추적을 수행함으로써 운전자의 머리 회전 및 안경 착용에 강인하게 시선 추적을 수행할 수 있다.

Description

운전자 시선 추적 장치 및 방법{DEVICE AND METHOD FOR DRIVER'S GAZE DETECTION}
본 발명은 운전자 시선 추적 장치에 관한 것으로, 구체적으로는 차량 환경에서 운전자의 눈동자 움직임 기반 시선을 추적하는 장치 및 방법에 관한 것이다.
기술이 발전함에 따라 운전 보조 장치(driver assistant system)는 많은 발전을 거듭하였다. 예를 들면, 운전 보조 장치는 전방 충돌 경고(frontal collision warning)장치, 차선 이탈 경고(lane departure warning)기능, 사각 지대 감시(blind spot detection)장치 등이 있다. 이러한 운전 보조 장치는 외적 위험 요인들을 센서가 인지하여 운전자에게 경고를 주는 방식이 대부분이기 때문에, 운전자의 주의력 분산에 의한 사고를 예방하지 못하는 문제가 있다. 이러한 문제를 해결하기 위해, 시선 추적(gaze detection) 기술을 이용한 운전자의 인적 요인을 파악하려는 연구가 활발히 진행되었다.
기존에 차량 환경에서의 운전자의 시선을 추적하는 연구는 크게 듀얼 카메라 기반 방법과 단일 카메라 기반 방법으로 분류된다. 듀얼 카메라 기반 방법은 정확도가 높지만 초기 캘리브레이션 과정이 약5~15분 가량 요구되고, 시선 추적 장치가 고가인 단점이 있다. 단일 카메라 기반 방법은 머리 움직임 모델링 또는 눈 윤곽의 특징 요소에 기반을 둔 3차원 안구 모델링에 의해 시선을 추적하는 방법으로 캘리브레이션 과정이 불필요한 장점이 있다. 하지만, 단일 카메라 기반 방법은 연산량이 많고 운전자의 광범위한 머리 회전 또는 안경 착용 시 정확도가 저하되는 단점이 있다.
본 발명 기술에 대한 배경기술은 대한민국 공개특허공보 제 2015-0001457호에 게시된 바 있다.
본 발명은 차량 환경에서 캘리브레이션 시간을 단축하고 운전자의 머리 회전 및 안경 착용에 강인한 운전자 시선 추적 장치 및 방법을 제공하는 것이다.
본 발명의 일 측면에 따르면, 운전자 시선 추적 장치가 제공된다.
본 발명의 일 실시 예에 따른 운전자 시선 추적 장치는 적외선 조명이 비친 운전자의 얼굴을 촬영하여 운전자 얼굴 영상을 생성하는 얼굴 영상 입력부 및 상기 운전자 얼굴 영상에 대한 캘리브레이션을 수행하여 운전자의 초기 시선 정보를 획득하고, 상기 운전자 얼굴 영상 및 상기 초기 시선 정보를 이용하여 얼굴 특징점을 검출하고, 얼굴 특징점을 기반으로 운전자의 시선 위치를 산출하는 시선 위치 검출부를 포함할 수 있다.
본 발명의 다른 일 측면에 따르면, 운전자 시선 추적 방법 및 이를 실행하는 컴퓨터 프로그램이 제공된다.
본 발명의 일 실시 예에 따른 운전자 시선 추적 방법 및 이를 실행하는 컴퓨터 프로그램은 적외선 조명을 이용하여 운전자의 얼굴을 촬영하는 단계, 상기 운전자의 초기 시선 정보가 저장되어 있으면, 촬영된 얼굴 영상에서 얼굴 특징점을 검출하는 단계, 상기 얼굴 특징점을 기반으로 관심 영역을 지정하고, 지정된 관심 영역에서 동공 중심 위치를 추출하는 단계, 상기 영역에서 각막 반사광과 각막 반사광이 아닌 영역을 구분하기 위한 이진화를 수행하고, 각막 반사광 영역을 지정하여 각막 반사광 영역의 기하학적 중심(geometric center)을 산출함으로써 각막 반사광 중심 위치를 검출하는 단계, 상기 각막 반사광 중심 위치를 검출하지 못한 경우에 내안각 위치를 검출하는 단계 및 상기 동공 중심 위치, 상기 각막 반사광 중심 위치 및 상기 내안각 위치를 기반으로 시선 위치 정보를 산출하는 단계를 포함할 수 있다.
본 발명은 여러 명의 평균 시선 정보와 운전자의 초기 시선 정보를 결합하여 차량 환경에서 간편하고 빠르게 캘리브레이션을 수행할 수 있다.
또한, 본 발명은 각막 반사광(corneal specular reflection)이 소실되는 경우에 내안각(medial canthus) 위치를 기반하여 시선추적을 수행함으로써 운전자의 머리 회전 및 안경 착용에 강인하게 시선 추적을 수행할 수 있다.
도 1 ~ 도 3은 본 발명의 일 실시 예에 따른 운전자 시선 추적 장치를 설명하기 위한 도면들.
도 4 ~ 도 12는 본 발명의 일 실시 예에 따른 운전자 시선 추적 방법을 설명하기 위한 도면들.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시 예를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 이를 상세한 설명을 통해 상세히 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 본 발명을 설명함에 있어서, 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 본 명세서 및 청구항에서 사용되는 단수 표현은, 달리 언급하지 않는 한 일반적으로 "하나 이상"을 의미하는 것으로 해석되어야 한다.
이하, 본 발명의 바람직한 실시 예를 첨부도면을 참조하여 상세히 설명하기로 하며, 첨부 도면을 참조하여 설명함에 있어, 동일하거나 대응하는 구성 요소는 동일한 도면번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.
도 1 내지 도 3은 본 발명의 일 실시 예에 따른 운전자 시선 추적 장치를 설명하기 위한 도면들이다.
도 1을 참조하면, 운전자 시선 추적 장치(100)는 얼굴 영상 입력부(10) 및 적외선 조명(20)을 포함한다.
얼굴 영상 입력부(10)는 운전자의 얼굴을 촬영하여 운전자 얼굴 영상을 생성한다. 얼굴 영상 입력부는 예를 들면, 차량 계기판에 설치되어 운전자의 얼굴을 촬영하는 적외선 카메라 일 수 있다. 여기서, 적외선 카메라는 줌 렌즈 및 850 nm 밴드 패스 필터를 결합하여 운전자의 얼굴이 확대된 영상을 취득할 수 있고, 외부 태양광에 의한 간섭을 최소한으로 줄일 수 있다.
적외선 조명(20)은 얼굴 영상 입력부(10) 좌측에 위치하여 운전자의 얼굴을 비춘다. 예를 들어, 적외선 조명(20)은 850nm의 파장을 가지는 근적외선 조명일 수 있다.
도 2를 참조하면, 운전자 시선 추적 장치(100)는 전원부(30), 스피커(40), 제어부(110), 저장부(120) 및 시선 위치 검출부(130)를 더 포함한다.
전원부(30)는 차량으로부터 전원을 공급받아 운전자 시선 추적 장치(100)를 작동시킨다.
스피커(40)는 운전자 시선 추적 장치(100)의 사용에 따른 음성 안내를 출력한다.
제어부(110)는 얼굴 영상 입력부(10)로부터 촬영된 운전자의 얼굴 영상을 저장부(120)에 저장하고, 저장된 얼굴 영상을 시선 위치 검출부(130)에 입력한다. 또한, 제어부(110)는 시선 위치 검출부(130)에서 산출된 시선 위치 정보를 수신하여 인적 요인에 따른 사고가 예측될 경우 경고음을 발생시킨다.
저장부(120)는 실내 데스크탑 모니터 환경에서 취득한 여러 명의 평균 캘리브레이션 값인 평균 시선 정보 및 운전자의 초기 시선 정보를 저장한다.
시선 위치 검출부(130)는 한점 캘리브레이션을 수행하여 운전자의 초기 시선 정보를 획득한다. 예를 들면, 시선 위치 검출부(130)는 운전자가 최초로 운전자 시선 추적 장치(100)를 작동할 경우, 운전자가 적외선 조명(20)을 1회 응시할 때 캘리브레이션 값을 산출하여 초기 시전 정보를 획득하여 저장할 수 있다.
시선 위치 검출부(130)는 실시간으로 운전자의 얼굴 영상을 입력받아 얼굴 특징점을 검출하고, 얼굴 특징점을 기반으로 동공 중심 위치(pupil center), 각막 반사광(corneal specular reflection) 중심 위치 및 내안각(medial canthus) 위치를 검출하여 시선 위치 정보를 산출한다. 시선 위치 검출부(130)는 초기 시선 정보 및 평균 시선 정보를 이용하여 시선 위치 정보 보정한다.
도 3을 참조하면, 시선 위치 검출부(130)는 얼굴 특징점 검출부(131), 동공 중심 검출부(132), 각막 반사광 검출부(133), 내안각 위치 검출부(134) 및 시선 위치 산출부(135)를 포함한다.
얼굴 특징점 검출부(131)는 입력된 얼굴 영상에서 얼굴의 특징점을 검출한다. 예를 들면, 얼굴 특징점 검출부(131)는 1600 ×1200 픽셀의 얼굴 영상을 이단추출법(subsampling)에 의해 축소하고, 축소된 얼굴 영상에 Dlib C++ Library에서 제공하는 실시간 얼굴 포즈 추정(Real-time face pose estimation) 방법을 적용하여 47개의 얼굴 특징점을 검출할 수 있다.
동공 중심 검출부(132)는 얼굴 특징점을 기반으로 관심 영역을 지정하고, 지정된 관심 영역에서 동공 중심 위치를 추출한다. 예를 들면, 동공 중심 검출부(132)는 관심 영역의 평균 밝기값을 기준으로 해당 영역의 각 픽셀의 밝기값을 보정하고, 히스토그램 스트레칭(histogram stretching)을 수행하여 영상의 가시성을 확보한다. 그 후, 동공 중심 검출부(132)는 동공과 동공이 아닌 영역을 구분하기 위해 히스토그램 스트레칭이 적용된 영상에 이진화(binarization), 모폴로지(mophology) 및 라벨링(labeling) 연산을 통해 픽셀값이 0에 해당하는 윤곽점을 추적하여 가장 크게 라벨링 되는 영역을 탐색한다. 동공 중심 검출부(132)는 라벨링된 영역에 캐니 에지 검출기 및 볼록 껍질(convex hull) 알고리즘을 이용하여 동공 경계를 추출한다. 최종적으로 동공 중심 검출부(132)는 추출한 동공 경계의 좌표값을 기반으로 타원 정합(ellipse fitting)방법에 의해 동공 중심 위치를 검출할 수 있다.
각막 반사광 검출부(133)는 관심 영역에서 각막 반사광과 각막 반사광이 아닌 영역을 구분하기 위한 이진화를 수행하고, 각막 반사광 영역을 지정하여 해당 영역의 기하학적 중심(geometric center)을 산출함으로써 각막 반사광 중심 위치를 검출한다.
내안각 위치 검출부(134)는 얼굴 특징점 중 39번 및 42번에 해당하는 특징점을 내안각 위치로 지정한다.
시선 위치 산출부(135)는 동공 중심 위치, 각막 반사광 중심 위치 및 내안각 위치를 기반으로 시선 위치 정보를 산출하고, 초기 시선 정보 및 평균 시선 정보를 이용하여 시선 위치 정보 보정한다. 여기서, 시선 위치 정보는 동공 중심 위치를 각막 반사광 위치 또는 내안각 위치로 보정하고, 보정된 동공 중심 위치를 평균 시선 정보를 통해 구한 기하학 변환 행렬(geometric transform matrix)에 적용하여 산출할 수 있다. 여기서 기하학 변환 행렬은 사전에 여러 명이 실내 데스크탑 모니터의 9지점(M1 ~ M9)을 응시할 때의 얻어진 각각의 동공 중심 위치(P1 ~ P9)의 평균값을 이용하여 식(1) 내지 식(3)을 통해 구할 수 있다. 이를 통해, 시선 위치 산출부(135)는 보정된 동공 중심 위치(
Figure 112017055832645-pat00001
,
Figure 112017055832645-pat00002
)를 식 (3)에 적용하여 시선 위치 정보(G x , G y )를 산출할 수 있다.
Figure 112017055832645-pat00003
최종적으로 시선 위치 산출부(135)는 시선 위치 정보를 평균 시선 정보와 초기 시선 정보의 시선 위치 차이값으로 보정한다. 이를 통해 운전자 시선 추적 장치(100)는 시선 위치 정보의 정확도를 향상시킬 수 있다.
도 4 내지 도 12는 본 발명의 일 실시 예에 따른 운전자 시선 추적 방법을 설명하기 위한 도면들이다.
도 4를 참조하면 단계 S410에서 운전자 시선 추적 장치(100)는 적외선 카메라 및 적외선 조명을 이용하여 운전자의 얼굴을 촬영한다. 이때, 촬영된 얼굴 영상은 1600 × 1200 픽셀의 크기 일 수 있다.
단계 S420에서 운전자 시선 추적 장치(100)는 운전자의 캘리브레이션 정보가 등록되지 않은 경우, 운전자가 운전자 시선 추적 장치(100)의 적외선 조명(20)을 1회 응시하는 한점 캘리브레이션을 수행하여 초기 시선 정보를 획득한다. 본 발명의 일 실시예에 따른 운전자 시선 추적 장치(100)는 초기 시선 정보가 등록되지 않은 경우, 음성 안내를 출력하여 운전자의 한점 캘리브레이션을 수행할 있다.
단계 S430에서 운전자 시선 추적 장치(100)는 운전자의 초기 시선 정보가 저장되어 있으면, 단계 S410에서 촬영된 얼굴 영상에서 얼굴 특징점을 검출한다. 도 5를 참조하면, 운전자 시선 추적 장치(100)는 1600 × 1200 픽셀의 얼굴 영상을 이단추출법(subsampling)에 의해 축소하고, 축소된 얼굴 영상에 Dlib C++ Library에서 제공하는 실시간 얼굴 포즈 추정(Real-time face pose estimation) 방법을 적용하여 47개의 얼굴 특징점을 검출할 수 있다.
단계 S440에서 운전자 시선 추적 장치(100)는 얼굴 특징점을 기반으로 관심 영역을 지정하고, 지정된 관심 영역에서 동공 중심 위치를 추출한다.
다시 도 5를 참조하면, 운전자 시선 추적 장치(100)는 47개의 얼굴 특징점 중에서 36번 내지 41번을 포함하는 영역(510)과 42번 내지 47번을 포함하는 영역(520)을 관심 영역으로 지정하고, 해당 관심 영역에서 동공 중심 위치를 추출할 수 있다.
도 6을 참조하면, 운전자 시선 추적 장치(100)는 관심 영역을 지정하고(S610), 해당 영역의 평균 밝기값으로 각 픽셀의 밝기값을 보정하여 히스토그램 스트레칭을 수행하고(S620), 히스토그램 스트레칭이 적용된 영상에 이진화를 수행하여(S630) 동공과 동공이 아닌 영역을 구분한다. 그 후, 운전자 시선 추적 장치(100)는 모폴로지 및 라벨링(labeling) 연산을 통해 픽셀값이 0에 해당하는 윤곽점을 추적하여 가장 크게 라벨링 되는 영역을 탐색한다(S640). 운전자 시선 추적 장치(100)는 라벨링된 영역에 캐니 에지 검출기(Canny edge detection) (S650) 및 볼록 껍질(convex hull)알고리즘(S660)을 이용하여 동공 경계를 추출한다. 운전자 시선 추적 장치(100)는 히스토그램 스트레칭이 적용된 영상에 이진화를 수행하여(S670) 각막 반사광과 각막 반사광이 아닌 영역을 구분한다. 운전자 시선 추적 장치(100)는 S660에서 추출한 동공 경계와 S670에서 구분된 각막 반사광 영역이 겹치는 면적(overlapped area)을 감산하여 각막 반사광에 의해 왜곡되지 않은 동공 경계를 추출한다(S680). 최종적으로 동 운전자 시선 추적 장치(100)는 추출한 동공 경계의 좌표값을 기반으로 타원 정합(ellipse fitting)방법에 의해 동공 중심 위치를 검출할 수 있다(S690).
단계 S450에서 운전자 시선 추적 장치(100)는 관심 영역에서 각막 반사광과 각막 반사광이 아닌 영역을 구분하기 위한 이진화를 수행하고, 각막 반사광 영역을 지정하여 각막 반사광 영역의 기하학적 중심(geometric center)을 산출함으로써 각막 반사광 중심 위치를 검출한다.
도 7을 참조하면, 운전자 시선 추적 장치(100)는 얼굴 특징점을 기반으로 관심 영역(710)을 지정하여, 해당 영역에서 동공 중심 위치(720) 및 각막 반사광 중심 위치(730)를 검출할 수 있다.
단계 S460에서 운전자 시선 추적 장치(100)는 각막 반사광 중심 위치를 검출하지 못한 경우는 내안각 위치를 검출한다.
도 8을 참조하면, 운전자 시선 추적 장치(100)는 얼굴의 과도한 회전으로 입력 영상에서 각막 반사광이 존재하지 않는 경우가 발생하면, 810 및 820과 같이 얼굴 특징점 중 내안각의 위치를 검출할 수 있다.
단계 S470에서 운전자 시선 추적 장치(100)는 동공 중심 위치, 각막 반사광 중심 위치 및 내안각 위치를 기반으로 시선 위치 정보를 산출한다. 여기서, 시선 위치 정보는 동공 중심 위치를 각막 반사광 위치 또는 내안각 위치로 보정하고, 보정된 동공 중심 위치를 평균 시선 정보를 통해 구한 기하학 변환 행렬(geometric transform matrix)에 적용하여 산출할 수 있다.

도 9를 참조하면, 눈 이미지 면(Plane)상의 9개 지점의 위치 평균값을 모니터 이미지 면 상에서 4개로 분할된 기하학적 변환행렬(matrix1 내지 matrix4)을 통하여 변환 처리되는 것을 알 수 있다.
도 9를 참조하면, 운전자 시선 추적 장치(100)는 사전에 여러 명이 실내 데스크탑 모니터(a)에서 9개의 지점(M1~M9)을 응시할 때의 얻어진 각각의 동공 중심 위치(P1~P9)의 평균값을 이용하여 4개의 기하학 변환 행렬(910~940)을 이용하여 시선 위치 정보를 산출할 수 있다. 여기서 기하학 변환 행렬은 식(1) 내지 식(3)을 통해 구할 수 있다. 이를 통해, 운전자 시선 추적 장치(100)는 보정된 동공 중심 위치(
Figure 112018054092418-pat00004
,
Figure 112018054092418-pat00005
)를 식 (3)에 적용하여 시선 위치 정보(Gx , Gy )를 산출할 수 있다.
Figure 112017055832645-pat00006
단계 S480에서 운전자 시선 추적 장치(100)는 시선 위치 정보를 평균 시선 정보와 초기 시선 정보의 시선 위치 차이값으로 보정한다. 예를 들면, 시선 위치 차이값은 사전에 여러 명이 실내 데스크탑 모니터 환경에서 운전자 시선 추적 장치(100)를 이용하여 적외선 조명(20)을 `1회 응시할 때 계산된 평균 시선 정보와 운전자가 차량 환경에서 운전자 시선 추적 장치(100)를 이용하여 적외선 조명(20)을 1회 응시할 때 계산된 초기 시선 정보의 차이값으로 산출할 수 있다.
본 발명의 일 실시예에 따른 운전자 시선 추적 장치(100)는 동공 중심 위치(
Figure 112017055832645-pat00007
,
Figure 112017055832645-pat00008
)가 각막 반사광 위치로 보정된 경우의 기하학 변환 행렬과 내안각 위치로 보정된 경우의 기하학 변환 행렬을 포함한 평균 시선 정보를 이용하여 실시간으로 운전자의 시선 위치 정보를 산출하고, 초기 시선 정보를 이용하여 시선 위치 정보를 보정함으로써 시선 추적 정확도를 향상시킬 수 있다.
본 발명은 운전자 시선 추적 장치(100)의 성능 평가를 위해, Intel® Core™ i5-4200 CPU @ 2.80 GHz, 8 GB의 메모리를 가진 랩톱 컴퓨팅 장치를 이용하였다.
도 10 및 도 11을 참조하면, 운전자 시선 추적 장치(100)는 안경 착용자를 포함한 20명이 차량 내부의 15개 지점을 응시하였을 때의 얼굴 영상을 촬영하여 성능 평가에 사용하였다. 이때, 얼굴 영상은 최대한 차량 주행 중과 유사한 환경을 조성하기 위해 실제 차량에서 시동을 켠 정지상태로 다양한 장소 및 시간대에 취득하였다.
운전자 시선 추적 장치(100)는 20명을 10명씩 나누어 두 개의 그룹으로 구분하고, 해당 그룹의 얼굴 영상을 학습 데이터와 검증 데이터로 나누어 교차 검증 진행하였다.
표 1을 참조하면, 운전자 시선 추적 장치(100)는 학습 데이터로부터 추출한 시선 위치를 참조 위치로 설정하고, 참조 위치와 검증 데이터에서 추출한 시선 위치와의 유클리디안 거리(Euclidean Distanc)를 산출하여, 최소 거리를 나타내는 시선 위치를 현재 운전자가 응시하는 지점으로 정하였을 때, 3.5 픽셀 이하의 오차로 거의 정확하게 시선 추적이 가능하였다.
동공 중심( pixel ) 동공 중심( pixel ) 내안각 ( pixel
평균 유클리디안 거리 3.2 3.5 3.1
표 2를 참조하면, 운전자 시선 추적 장치(100)는 학습 데이터와 검증 데이터를 이용하여 15개 지점에 대한 정확도(SCER; strictly correct estimation rate) 및 주변 인접한 지점까지 포함한 정확도(LCER; loosely correct estimation rate)를 측정하였을 때, SCER는 74%, LCER는 90% 정확도를 보였다.
TARGET ZONE NEIGHBORS SCER ( % ) LCER ( % )
1 2, 12, 15 89.96 99.36
2 1, 3, 12, 13, 15 98 100
3 2, 4, 12, 13, 14, 15 95.21 99.79
4 3, 5, 13, 1114 65.35 77.39
5 4, 14 74.08 79.13
6 7, 9, 10 87.25 99.89
7 6, 8, 9, 10, 11 77.71 85.46
8 7, 10, 11 52.14 85.13
9 6, 7, 10, 12, 13 86.8 93
10 6, 7, 8, 9, 11, 12, 13, 14 62.7 93.89
11 7, 8, 10, 13, 14 39.74 84.62
12 1, 2, 3, 9, 10, 13 87.01 88.01
13 2, 3, 4, 9, 10 11, 12, 14 83.22 99.31
14 3, 4, 5, 10, 11, 13 57.13 94.66
15 1, 2, 3 53.28 70.12
AVERAGE 74 90
표 3을 참조하면, 운전자 시선 추적 장치(100)는 8개의 지점들에 대한 SCER 정확도를 기존에 차량 환경에서 진행된 연구와 비교하였을 때, 본 발명의 SCER은 87%, 기존 연구는 85.8%의 정확성을 보여, 기존 연구 대비 성능이 우수함을 확인할 수 있다.
Proposed method Previous method Tobii system
Average SCER 87% 85.8% 73%
본 발명의 실시 예에 따른 운전자 시선 추적 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 컴퓨터 판독 가능 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 분야 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media) 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상술한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이제까지 본 발명에 대하여 그 실시 예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시 예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.
100: 운전자 시선 추적 장치
110: 제어부
120: 저장부
130: 시선 위치 검출부

Claims (13)

  1. 운전자 시선 추적 장치에 있어서,
    적외선 조명이 비친 운전자의 얼굴을 촬영하여 운전자 얼굴 영상을 생성하는 얼굴 영상 입력부; 및
    상기 운전자 얼굴 영상에 대한 캘리브레이션을 수행하여 운전자의 초기 시선 정보를 획득하고, 상기 운전자 얼굴 영상 및 상기 초기 시선 정보를 이용하여 얼굴 특징점을 검출하고, 얼굴 특징점을 기반으로 운전자의 시선 위치를 산출하는 시선 위치 검출부를 포함하며,
    상기 시선 위치 검출부는
    입력된 얼굴 영상에서 얼굴의 특징점을 검출하는 얼굴 특징점 검출부;
    상기 얼굴 특징점을 기반으로 관심 영역을 지정하고, 지정된 관심 영역에서 동공 중심 위치를 검출하는 동공 중심 검출부;
    상기 관심 영역에서 각막 반사광 영역을 지정하여 해당 영역의 기하학적 중심(geometric center)을 산출함으로써 각막 반사광 중심 위치를 검출하는 각막 반사광 검출부;
    상기 얼굴 특징점 중 내안각 위치를 검출하는 내안각 위치 검출부; 및
    상기 동공 중심 위치를 상기 각막 반사광 중심 위치 및 상기 내안각 위치를 기반으로 보정을 하고 시선 위치 정보를 산출하는 시선 위치 산출부를 포함하되,
    상기 시선 위치 산출부는,
    사전에 여러 명이 모니터에서 분할된 9개의 지점을 응시할 때의 눈 이미지 면(Plane)상의 상기 9개 지점의 동공중심위치 평균값을 모니터 이미지 면(Plane) 상에서 4개로 분할된 기하학적 변환행렬을 통하여 변환 처리된 평균시선정보 데이터에 상기 보정된 동공 중심 위치를 적용하여 상기 시선 위치 정보를 산출하는 것을 특징으로 하는 운전자 시선 추적 장치.

  2. 삭제
  3. 제1항에 있어서,
    상기 동공 중심 검출부는
    관심 영역의 평균 밝기값을 기준으로 해당 영역의 각 픽셀의 밝기값을 보정하고, 히스토그램 스트레칭(histogram stretching), 이진화(binarization), 모폴로지(mophology), 라벨링(labeling) 연산, 캐니 에지 검출기(Canny edge detector), 볼록 껍질(convex hull) 및 타원 정합(ellipse fitting)방법 중 적어도 하나를 이용하여 동공 중심 위치를 검출하는
    운전자 시선 추적 장치.
  4. 삭제
  5. 삭제
  6. 제1항에 있어서,
    상기 시선 위치 산출부는
    상기 산출된 시선 위치 정보를 기 저장된 평균 시선 정보와 상기 초기 시선 정보의 시선 위치 차이 값으로 보정하는
    운전자 시선 추적 장치.
  7. 운전자 시선 추적 장치에서 수행되는 운전자 시선 추적 방법에 있어서,
    적외선 조명을 이용하여 운전자의 얼굴을 촬영하는 단계;
    운전자가 적외선 조명을 1회 응시하는 한점 캘리브레이션을 수행하여 초기 시선 정보를 획득하여 저장하는 단계;
    상기 촬영된 얼굴 영상에서 얼굴 특징점을 검출하는 단계;
    상기 얼굴 특징점을 기반으로 관심 영역을 지정하고, 지정된 관심 영역에서 동공 중심 위치를 추출하는 단계;
    상기 영역에서 각막 반사광과 각막 반사광이 아닌 영역을 구분하기 위한 이진화를 수행하고, 각막 반사광 영역을 지정하여 각막 반사광 영역의 기하학적 중심(geometric center)을 산출함으로써 각막 반사광 중심 위치를 검출하는 단계;
    상기 각막 반사광 중심 위치를 검출하지 못한 경우에 내안각 위치를 검출하는 단계; 및
    상기 동공 중심 위치를, 상기 각막 반사광 중심 위치 또는 상기 내안각 위치를 기반으로 보정을 하여 시선 위치 정보를 산출하는 단계를 포함하되,
    상기 시선 위치 정보를 산출하는 단계는
    사전에 여러 명이 모니터에서 분할된 9개의 지점을 응시할 때의 눈 이미지 면(Plane)상의 9개 지점의 동공 중심 위치 평균값을 모니터 이미지 면(Plane) 상에서 4개로 분할된 기하학적 변환행렬을 통하여 변환 처리된 평균시선정보 데이터에 상기 보정된 동공 중심 위치를 적용하여 상기 시선 위치 정보를 산출하는 것을 특징으로 하는 운전자 시선 추적 방법.
  8. 삭제
  9. 제7항에 있어서,
    상기 시선 위치 정보를 기 저장된 평균 시선 정보와 상기 초기 시선 정보의 시선 위치 차이 값으로 보정하는 단계를 포함하는
    운전자 시선 추적 방법.
  10. 제7항에 있어서,
    상기 특징점을 기반으로 관심 영역을 지정하고, 지정된 관심 영역에서 동공 중심 위치를 추출하는 단계는
    상기 관심 영역의 평균 밝기값을 기준으로 해당 영역의 각 픽셀의 밝기값을 보정하고, 히스토그램 스트레칭(histogram stretching), 이진화(binarization), 모폴로지(mophology), 라벨링(labeling) 연산, 캐니 에지 검출기(Canny edge detector), 볼록 껍질(convex hull) 및 타원 정합(ellipse fitting)방법 중 적어도 하나를 이용하여 동공 중심 위치를 검출하는
    운전자 시선 추적 방법.
  11. 삭제
  12. 삭제
  13. 제7항, 제9항 또는 제10항 중 어느 하나의 운전자 시선 추적 방법을 실행하고 컴퓨터가 판독 가능한 기록매체에 기록된 컴퓨터 프로그램.
KR1020170073354A 2017-06-12 2017-06-12 운전자 시선 추적 장치 및 방법 KR101914190B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170073354A KR101914190B1 (ko) 2017-06-12 2017-06-12 운전자 시선 추적 장치 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170073354A KR101914190B1 (ko) 2017-06-12 2017-06-12 운전자 시선 추적 장치 및 방법

Publications (1)

Publication Number Publication Date
KR101914190B1 true KR101914190B1 (ko) 2018-11-01

Family

ID=64398241

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170073354A KR101914190B1 (ko) 2017-06-12 2017-06-12 운전자 시선 추적 장치 및 방법

Country Status (1)

Country Link
KR (1) KR101914190B1 (ko)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110909718A (zh) * 2019-12-11 2020-03-24 深圳市锐明技术股份有限公司 驾驶状态识别方法、装置及车辆
KR20200108196A (ko) * 2019-03-08 2020-09-17 동국대학교 산학협력단 운전자 부주의 측정 장치와 방법
KR20210082723A (ko) 2019-12-26 2021-07-06 경북대학교 산학협력단 관심영역을 이용한 운전자 모니터링 시스템
KR20210136623A (ko) * 2020-05-08 2021-11-17 한국전자통신연구원 시선 추적 장치 및 방법
US11568560B2 (en) 2020-04-28 2023-01-31 Tobii Ab Calibration of an eye tracking system

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101601508B1 (ko) * 2014-10-20 2016-03-09 현대자동차주식회사 시선 추적 방법

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101601508B1 (ko) * 2014-10-20 2016-03-09 현대자동차주식회사 시선 추적 방법

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200108196A (ko) * 2019-03-08 2020-09-17 동국대학교 산학협력단 운전자 부주의 측정 장치와 방법
KR102236469B1 (ko) * 2019-03-08 2021-04-07 동국대학교 산학협력단 운전자 부주의 측정 장치와 방법
CN110909718A (zh) * 2019-12-11 2020-03-24 深圳市锐明技术股份有限公司 驾驶状态识别方法、装置及车辆
CN110909718B (zh) * 2019-12-11 2024-04-19 深圳市锐明技术股份有限公司 驾驶状态识别方法、装置及车辆
KR20210082723A (ko) 2019-12-26 2021-07-06 경북대학교 산학협력단 관심영역을 이용한 운전자 모니터링 시스템
KR102338067B1 (ko) 2019-12-26 2021-12-10 경북대학교 산학협력단 관심영역을 이용한 운전자 모니터링 시스템
US11568560B2 (en) 2020-04-28 2023-01-31 Tobii Ab Calibration of an eye tracking system
US12100176B2 (en) 2020-04-28 2024-09-24 Tobii Ab Calibration of an eye tracking system
KR20210136623A (ko) * 2020-05-08 2021-11-17 한국전자통신연구원 시선 추적 장치 및 방법
US11796802B2 (en) 2020-05-08 2023-10-24 Electronics And Telecommunications Research Institute Device tracking gaze and method therefor
KR102710604B1 (ko) 2020-05-08 2024-09-26 한국전자통신연구원 시선 추적 장치 및 방법

Similar Documents

Publication Publication Date Title
KR101914190B1 (ko) 운전자 시선 추적 장치 및 방법
US11699293B2 (en) Neural network image processing apparatus
Xiong et al. Eye gaze tracking using an RGBD camera: a comparison with a RGB solution
JP6695503B2 (ja) 車両の運転者の状態を監視するための方法及びシステム
US10878237B2 (en) Systems and methods for performing eye gaze tracking
Rezaei et al. Look at the driver, look at the road: No distraction! no accident!
KR101706992B1 (ko) 시선 추적 장치 및 방법, 이를 수행하기 위한 기록매체
US7771049B2 (en) Method and apparatus for detecting sight line vector
JP7528261B2 (ja) コックピットシステム調節装置及びコックピットシステム調節方法
CN108985210A (zh) 一种基于人眼几何特征的视线追踪方法及系统
JP5578603B2 (ja) 視線制御装置、視線制御方法、及びそのプログラム
JP2016173313A (ja) 視線方向推定システム、視線方向推定方法及び視線方向推定プログラム
Yang et al. Robust eyelid tracking for fatigue detection
WO2007062478A1 (en) Visual tracking of eye glasses in visual head and eye tracking systems
KR20150067608A (ko) 시력 보조 기구 착용 여부 및 사용자 움직임에 무관한 시선 정보 획득 방법
Borghi et al. Hands on the wheel: a dataset for driver hand detection and tracking
JP2013156680A (ja) フェーストラッキング方法、フェーストラッカおよび車両
Jafari et al. Eye-gaze estimation under various head positions and iris states
Yu et al. An easy iris center detection method for eye gaze tracking system
Bergasa et al. Analysing driver's attention level using computer vision
Yang et al. Eye tracking using monocular camera for gaze estimation applications
Takemura et al. A hybrid eye-tracking method using a multispectral camera
KR101734809B1 (ko) 웹 카메라를 이용한 시선 추적 장치, 방법 및 이를 이용한 조명 제어 장치
Batista Locating facial features using an anthropometric face model for determining the gaze of faces in image sequences
Chaudhary et al. Enhancing the precision of remote eye-tracking using iris velocity estimation

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant