KR101501165B1 - 눈동자 추적을 이용한 안구 마우스 - Google Patents

눈동자 추적을 이용한 안구 마우스 Download PDF

Info

Publication number
KR101501165B1
KR101501165B1 KR20130148712A KR20130148712A KR101501165B1 KR 101501165 B1 KR101501165 B1 KR 101501165B1 KR 20130148712 A KR20130148712 A KR 20130148712A KR 20130148712 A KR20130148712 A KR 20130148712A KR 101501165 B1 KR101501165 B1 KR 101501165B1
Authority
KR
South Korea
Prior art keywords
eye
outline
unit
mouse
eyeball
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
KR20130148712A
Other languages
English (en)
Inventor
이응혁
엄수홍
장문석
이원영
강신윤
Original Assignee
한국산업기술대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국산업기술대학교산학협력단 filed Critical 한국산업기술대학교산학협력단
Priority to KR20130148712A priority Critical patent/KR101501165B1/ko
Application granted granted Critical
Publication of KR101501165B1 publication Critical patent/KR101501165B1/ko
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Eye Examination Apparatus (AREA)
  • Position Input By Displaying (AREA)

Abstract

안구의 움직임을 인식하여 주행 보조장치를 제어할 수 있도록 한 눈동자 추적을 이용한 안구 마우스에 관한 것으로서, 눈동자 영상을 촬영하는 적외선 카메라; 상기 적외선 카메라에서 획득한 컬러 영상 데이터를 계조 변환하고, 외곽선 검출을 통해 안구를 인식하는 안구 인식부; 상기 안구 인식부에서 인식한 결과를 기초로 마우스 제어신호를 발생하는 마우스 제어부; 및 상기 마우스 제어부에서 발생하는 마우스 제어신호에 따라 화면상에 마우스 포인터를 이동시키는 표시부를 포함하고, 안구의 움직임을 인식하여 주행 보조장치를 제어하거나 안구 인식을 통해 PC환경 제어가 가능하다.

Description

눈동자 추적을 이용한 안구 마우스{Eye-mouse for general paralyzed patient with eye-tracking}
본 발명은 눈동자 추적을 이용한 안구 마우스에 관한 것으로, 더욱 상세하게는 안구의 움직임을 인식하여 주행 보조장치를 제어할 수 있도록 한 눈동자 추적을 이용한 안구 마우스에 관한 것이다.
사람은 기본적으로 움직이려는 욕구가 있다. 기초적인 보행에서부터 손으로 악기를 연주하거나 다리를 통해 스포츠를 즐기는 것 같은 개인의 취미생활까지 사람이 움직이지 않고서는 할 수 없는 것들이다. 그러나 이러한 신체활동이 전혀 불가능한 사람들이 있다. 그것은 바로 전신마비 환자들이다. 대표적으로 ALS(근위축성 측색경화증) 루게릭병이라 불리는 근위축증 환자들은 매년 인구 10만명당 1-2명의 환자가 발생하고 4-6명의 유병률을 보인다. 전신마비로 인하여 고통받는 환자들에 대해서 이제는 더 많은 보조기구들이 필요하다.
일반적으로 동공을 추적하는 안구인식 기술은 많은 곳에서 개발을 하고 있다.
안구 인식 기술을 이용한 종래의 기술들이 하기의 [비특허문헌1] 내지 [비특허문헌3]에 개시되었다.
개시된 종래기술들은 동공을 인식하기 위한 기술로 외곽선에 대한 검출에서부터 색 차이에 의한 색 검출 등 다양한 사례들이 있다.
[비특허문헌1] Ibrahim Furkan Ince, Jin Woo Kim, "A 2D EYE GAZE ESTIMATION SYSTEM WITH LOW-RESOLUTION WEBCAM IMAGES", School of Engineering, The University of Tokyo, Japan, Department of Multimedia and Communication Engineering, Kyungsung University, South Korea [비특허문헌2] Tall, M., Alapetite, A., San Agustin, J., Skovsgaard, H. H., Hansen, J. P., Hansen, D. W., and Mollenbach, E. 2009. ?aze-controlled driving." In Proceedings of the 27th international Conference Extended Abstracts on Human Factors in Computing Systems (Boston, MA, USA, April 04 - 09, 2009). CHI EA '09. ACM, New York, NY, ISBN: 978-1-60558-247-4 [비특허문헌3] Hwan Heo, Ji Woo Lee, Won Oh Lee, Eui Chul Lee, Kang Ryoung Park "A New Ergonomic Interface System for the Disabled Person Division of Electronics and Electrical Engineering, Dongguk University, Seoul, 100-715 Journal of the Ergonomics Society of Korea Vol. 30, No. 1 pp.229-235, February 2011
그러나 상기와 같은 종래기술들은 안구인식과 안면인식이 융합된 기술로서 이는 목을 움직일 수 없고 안구만 움직일 수 있는 전신마비 환자의 경우 얼굴이 움직이지 않으므로, 안구만 움직일 수 있는 전신마비 환자에게는 적용할 수 없는 단점이 있었다.
또한, 상기와 같은 종래기술들은 안면인식으로 인해 프로그램 연산량이 증가하고, 안면 위치를 인식해야하는 환경적 요인도 있어, 인식의 정확성이 떨어지는 문제점도 있었다.
본 발명의 목적은 상기와 같은 종래기술에서 발생하는 제반 문제점을 해결하기 위해서 제안된 것으로서, 안구의 움직임을 인식하여 주행 보조장치를 제어할 수 있도록 한 눈동자 추적을 이용한 안구 마우스를 제공하는 것이다.
본 발명의 다른 목적은 PC환경 제어와 특수기능을 가진 휠체어 제어가 가능한 눈동자 추적을 이용한 안구 마우스를 제공하는 것이다.
상기한 바와 같은 목적을 달성하기 위하여, 본 발명에 따른 눈동자 추적을 이용한 안구 마우스는 눈동자 영상을 촬영하는 적외선 카메라; 상기 적외선 카메라에서 획득한 컬러 영상 데이터를 계조 변환하고, 외곽선 검출을 통해 안구를 인식하는 안구 인식부; 상기 안구 인식부에서 인식한 결과를 기초로 마우스 제어신호를 발생하는 마우스 제어부; 상기 마우스 제어부에서 발생하는 마우스 제어신호에 따라 화면상에 마우스 포인터를 이동시키는 표시부를 포함하는 것을 특징으로 한다.
상기에서 안구 인식부는 상기 적외선 카메라에서 획득한 컬러 영상을 그레이 스케일로 변환하는 계조 변환부; 상기 계조 변환부에서 변환된 그레이 스케일 데이터의 명도 레벨에 따라 이진화를 수행하는 이원화부; 상기 이원화부에서 출력되는 이진화 영상의 외곽선을 처리하는 외곽선 처리부; 상기 외곽선 처리부에서 처리된 결과 정보를 기초로 안구 움직임을 판단하고, 그 판단 결과에 대응하는 제어신호를 발생하는 안구 움직임 판단부를 포함하는 것을 특징으로 한다.
상기에서 이원화부는 동공부분의 명도가 가장 낮다는 것을 이용하여 설정한 0 ~ 255 레벨에 따라 설정한 명도 임계치에 따라 이진화를 수행하는 것을 특징으로 한다.
상기에서 외곽선 처리부는 입력된 이진화 영상의 모든 외각선을 검출하는 외곽선 검출부; 상기 검출한 외곽선에서 동공의 범위에 존재하는 외곽선을 제외한 나머지 외곽선을 제거하는 외곽선 추출부를 포함하는 것을 특징으로 한다.
상기에서 외곽선 처리부는 상기 외곽선 추출부에서 추출한 외곽선 영상에서 동공의 외곽선 타원을 추출하고, 외곽선 구분을 위한 보강작업을 하는 외곽선 보강부; 상기 보강작업이 이루어진 외곽선 타원의 중심 값을 추출하여 안구 인식 정보를 획득하는 안구 인식 정보 획득부를 포함하는 것을 특징으로 한다.
상기에서 안구 움직임 판단부는 상기 안구 인식 정보 획득부에서 획득한 안구 인식 정보 중 평상시 눈을 깜박일 때 발생하는 안구 정보는 제거하고, 나머지 안구 인식 정보만을 이용하여 안구 움직임을 판단하는 것을 특징으로 한다.
상기에서 나머지 안구 인식 정보는 상기 평상시 눈을 깜박일 때 발생하는 안구 정보보다 인위적으로 더 길게 깜박이는 안구 정보인 것을 특징으로 한다.
상기에서 마우스 제어부는 입력되는 인식 결과의 벡터와 각을 보정하여 안구의 비선형적임 움직임과 비평면적 움직임 왜곡을 보상하는 것을 특징으로 한다.
본 발명에 따르면 안구의 움직임을 인식하여 주행 보조장치를 제어할 수 있는 장점이 있다.
또한, 본 발명에 따르면 안구 인식을 통해 PC환경 제어와 특수기능을 가진 휠체어 제어가 가능한 장점이 있다.
또한, 본 발명에 따르면 안면인식은 불필요하므로, 안면인식 영상 처리에 대한 프로그램 연산량을 줄일 수 있으며, 안면 위치를 인식해야하는 환경적 요인도 제거할 수 있는 장점이 있다.
도 1은 본 발명의 바람직한 실시 예에 따른 눈동자 추적을 이용한 안구 마우스의 구성도,
도 2는 도 1의 안구 인식부의 실시 예 구성도,
도 3은 도 2의 외곽선 처리부의 실시 예 구성도,
도 4는 본 발명에서 모니터상의 9개 시선 포인트의 화면 예시도,
도 5는 동공 좌표데이터에 의한 벡터의 각도 예시도,
도 6은 동공 시선과 모니터의 좌표벡터 그래프.
이하 본 발명의 바람직한 실시 예에 따른 눈동자 추적을 이용한 안구 마우스를 첨부된 도면을 참조하여 상세하게 설명한다.
도 1은 본 발명의 바람직한 실시 예에 따른 눈동자 추적을 이용한 안구 마우스의 구성도이다.
본 발명의 바람직한 실시 에에 따른 눈동자 추적을 이용한 안구 마우스는 적외선 카메라(10), 안구 인식부(20), 마우스 제어부(30) 및 표시부(140)를 포함한다.
상기 적외선 카메라(10)는 눈동자 영상을 촬영하는 역할을 한다. 본 발명에서는 동공인식을 위한 안구 영상 확보를 위해 안면 전체를 촬영하는 일반적인 카메라의 형태가 아닌 안경 형태로 장착을 하여 안구만 촬영하는 카메라의 형태를 이용한다. 또한, 홍채영역과 동공영역을 정확하게 분리할 수 있도록 일반 가시광선 영상이 아닌 적외선 영상으로 촬영하기 위해 일반 웹캠에서 렌즈 내에 적외선제거필터를 제거하고 적외선 투과 필터를 부착하여 사용한다.
상기 안구 인식부(20)는 상기 적외선 카메라(10)에서 획득한 컬러 영상(RGB영상) 데이터를 계조(Gray Scale) 변환하고, 외곽선 검출을 통해 안구를 인식하는 역할을 한다.
상기 안구 인식부(20)는 도 2에 도시한 바와 같이, 상기 적외선 카메라(10)에서 획득한 컬러 영상을 그레이 스케일로 변환하는 계조 변환부(21); 상기 계조 변환부(21)에서 변환된 그레이 스케일 데이터의 명도 레벨에 따라 이진화를 수행하는 이원화부(22); 상기 이원화부(22)에서 출력되는 이진화 영상의 외곽선을 처리하는 외곽선 처리부(23); 상기 외곽선 처리부(23)에서 처리된 결과 정보를 기초로 안구 움직임을 판단하고, 그 판단 결과에 대응하는 마우스 제어신호를 발생하는 안구 움직임 판단부(24)를 포함한다. 여기서 상기 이원화부(22)는 동공부분의 명도가 가장 낮다는 것을 이용하여 설정한 0 ~ 255 레벨에 따라 명도를 설정한 임계치에 따라 그레이 스케일의 이진화를 수행하는 것이 바람직하다.
상기 외곽선 처리부(23)는 도 3에 도시한 바와 같이, 입력된 이진화 영상의 모든 외각선을 검출하는 외곽선 검출부(23a); 상기 검출한 외곽선에서 동공의 범위에 존재하는 외곽선을 제외한 나머지 외곽선을 제거하는 외곽선 추출부(23b); 상기 외곽선 추출부(23b)에서 추출한 외곽선 영상에서 동공의 외곽선 타원을 추출하고, 외곽선 구분을 위한 보강작업을 하는 외곽선 보강부(23c); 상기 보강작업이 이루어진 외곽선 타원의 중심 값을 추출하여 안구 인식 정보를 획득하는 안구 인식 정보 획득부(23d)를 포함한다.
여기서 상기 안구 움직임 판단부(24)는 상기 안구 인식 정보 획득부(23d)에서 획득한 안구 인식 정보 중 평상시 눈을 깜박일 때 발생하는 안구 정보는 제거하고, 나머지 안구 인식 정보만을 이용하여 안구 움직임을 판단하는 것이 바람직하다.
상기 마우스 제어부(30)는 상기 안구 인식부(20)에서 인식한 결과를 기초로 마우스 제어신호를 발생하는 역할을 한다. 이러한 마우스 제어부(30)는 입력되는 인식 결과의 벡터와 각을 보정하여 안구의 비선형적임 움직임과 비평면적 움직임 왜곡을 보상하는 것이 바람직하다.
상기 표시부(40)는 상기 마우스 제어부(30)에서 발생하는 마우스 제어신호에 따라 화면상에 마우스 포인터를 이동시키는 역할을 한다.
이와 같이 구성된 본 발명에 따른 눈동자 추적을 이용한 안구 마우스의 동작을 첨부한 도면 도 1 내지 도 6을 참조하여 구체적으로 설명하면 다음과 같다.
먼저, 사용자는 적외선 카메라(10)가 부착된 안경을 착용하고, 마우스 조작을 위해 안구를 움직인다. 이때, 안경에 부착된 적외선 카메라(10)는 사용자의 안구를 촬영하여, 안구 촬영 영상(RGB영상)을 안구 인식부(20)로 출력한다.
안구 인식부(20)의 계조 변환부(21)는 입력된 영상데이터의 처리량을 감소시키기 위해 RGB영상을 그레이 스케일(GrayScale)로 변환을 하게 되고, 이원화부(22)는 상기 변환된 그레이 스케일 영상을 이진화 과정을 통해 이원화한다. 여기서 이원화 과정은 동공부분이 가장 명도가 낮은 것을 이용하여 명도를 0 ~ 255로 레벨을 분할하였을 때 임계값을 정하여 구분한다.
다음으로, 외곽선 처리부(23)는 상기 이진화된 영상으로부터 외곽선을 검출하고, 안구 움직임 판단을 위해 동공의 중심 값을 추출한다.
즉, 상기 외곽선 처리부(23)는 도 3에 도시한 바와 같이, 외곽선 검출부(23a)에서 입력된 이진화 영상의 모든 외각선을 검출한다. 그리고 외곽선 추출부(23b)에서 상기 검출한 모든 외곽선에서 동공의 범위에 존재하는 외곽선을 제외한 나머지 외곽선을 제거한다. 즉, 동공의 범위에 존재하는 외곽선과 동공의 범위를 벗어난 외곽선 간에는 명도 레벨의 확연한 차이가 있으므로, 이를 기초로 외곽선을 구분하고, 외곽선을 제거한다. 이후, 외곽선 보강부(23c)에서는 외곽선 영상에서 동공의 외곽선 타원을 추출하고, 외곽선 구분을 위한 보강작업을 한다. 다음으로, 안구 인식 정보 획득부(23d)에서 상기 보강작업이 이루어진 외곽선 타원의 중심 값을 추출하고, 그 추출한 중심 값을 안구 인식 정보로 획득하여 안구 움직임 판단부(24)에 전달한다.
여기서 상기 안구 움직임 판단부(24)는 상기 안구 인식 정보 획득부(23d)에서 획득한 안구 인식 정보 중 평상시 눈을 깜박일 때 발생하는 안구 정보는 제거하고, 나머지 안구 인식 정보만을 이용하여 안구 움직임을 판단한다.
즉, 안구 인식 정보 중 평상시 눈을 깜박일 때 발생하는 안구 정보는 제고하고, 인위적으로 동공을 조금 더 길게 깜박이는 것에 대한 안구 인식 정보를 이용하여 안구 움직임(좌우 시선)을 판단하게 된다.
그리고 상기와 같이 동공 중심 값의 좌표를 통해 좌우 시선을 구분한 안구 움직임 판단 결과는 마우스 제어부(30)에 전달된다.
마우스 제어부(30)는 입력되는 안구 움직임 판단 정보를 보정하고, 그 보정 결과치를 기초로 마치 일반 사용자가 마우스를 사용하는 것과 동일한 마우스 제어신호를 생성하여 표시부(40)에 전달한다.
먼저, 마우스 제어부(30)는 보정 알고리즘을 통해 안구 움직임 판단 정보를 보정한다. 예컨대, 안구의 움직임을 적외선 카메라를 통하여 바라보게 되면 적외선 카메라의 촬영 각도, 위치, 안구의 떨림 현상, 광량의 미세한 변화, 그리고 동공의 확대/축소에 의한 감지대상의 사이즈 변화에 의하여 동공좌표의 변화 및 왜곡이 발생할 수 있다. 이런 변수들 가운데 안구 마우스 사용에 있어서 우선적으로 해결해야될 부분으로는 적외선 카메라의 촬영 각도와 위치에 의한 안구 움직임의 왜곡이다. 안구의 움직임은 비선형적인 움직임과 비평면적 움직임이 있다. 이러한 움직임에 대한 보정을 위해 본 발명에서는 벡터와 각을 이용한 보정 알고리즘을 이용한다.
도 4는 보정 알고리즘 적용을 위한 모니터의 점들을 나타낸다. 도 4는 모니터상의 9개의 시선 포인트를 나타낸 것이다. 상기 9개의 점들을 바라볼 때의 동공좌표를 통해 모니터를 바라보는 안구 시선을 2차원 벡터로 바꿀 수 있다. 재정의된 시선의 벡터를 토대로 보정 알고리즘을 세울 수 있다.
도 5는 보정 알고리즘을 위한 동공 좌표데이터에 대한 벡터와 각도를 나타낸다.
안구 인식부(20)에서 획득한 동공의 중심 값을 기준으로 각 점의 좌표값을 이용하여 화면상에 8개의 벡터를 구한다. 8개의 벡터를 통하여 벡터와 벡터 사이의 공간은 8개로 구분된다. 사용자가 모니터상의 임의의 지점을 보았을 때 그 지점이 포함되는 공간이 어느 곳인지를 판별하기 위해서는 임의의 지점이 가지는 벡터의 각을 구해야 한다. 각을 구하는 기준은 벡터의 x, y값을 이용하여 하기와 같은 [수학식1]을 이용하여 각도(A)를 계산한다.
Figure 112013110271943-pat00001
이때 계산 가능한 값은 90°이하이므로 계산 결과가 90°이하가 되도록 해야 한다. 이를 위해 중심 값의 x, y와 비교하여 90°간격으로 벡터를 구분하여 90°마다 새로 계산하여 최종 값에 90°, 180°, 270°의 각도를 더하는 방법으로 벡터의 절대 각을 산출한다. 이와 같은 방법으로 계산하여 구해지는 벡터에 대해서 각을 알면 어느 공간에 위치한 벡터인지 판별할 수 있다. 시선을 두고 있는 공간에 대해서 동공좌표에 의한 두 벡터와 목표로 하는 두 벡터를 통해 공간 내의 벡터변환을 위한 기준 매트릭스(Standard Matrix)를 하기의 [수학식2]와 같이 구할 수 있다.
Figure 112013110271943-pat00002
다음으로, 임의의 공간을 구분하는 두 벡터와 목적으로 하는 두 벡터를 행렬로 정리하면 아래의 [수학식3] 및 [수학식4]와 같이 정리할 수 있다.
Figure 112013110271943-pat00003
Figure 112013110271943-pat00004
그리고 임의로 정의된 기준 매트릭스를 G라고 하였을 때, 매트릭스 형태는 아래의 [수학식5]와 같이 표현된다.
Figure 112013110271943-pat00005
아울러 벡터들의 관계를 행렬식으로 표현하면 아래의 [수학식6]과 같이 표현된다.
Figure 112013110271943-pat00006
상기 표현된 행렬식으로 기준 매트릭스를 구성하는 변수의 방정식을 아래의 [수학식7]로 구현하고, 이를 기초로 변수 값을 산출하게 된다.
Figure 112013110271943-pat00007
이러한 과정을 통해 보정 알고리즘을 수행한 후, 최종 결과를 기초로 동공 중심 값을 보정하고, 이를 좌우 시선을 구분하는 제어 명령으로 구현한다.
하기의 [표1]은 중심 값의 이동에 따른 제어 대상 기기의 인터페이스 제어 명령을 나타낸 것이다.
Status\Eye Gaze Left Center Right
Stop Left Stop Right
Go, Back Left Go, Back Right
Left - Go, Stop Right
Right Left Go, Stop -
한편, 필터링에 의해 외곽선 검출이 실패할 경우, 눈을 감은 것으로 감지한다. 눈을 감았다 뜨는 시간에 따라 짧은 주기의 Short, Click, 중간 주기의 Click, 긴 주기의 Long Click으로 눈 깜박임을 구분하였으며, 시간 간격에 따라 명령을 다르게 줄 수 있다.
하기의 [표2]는 눈 깜박임에 의한 제어 명령 구현 예시이다.
Status\Blink Time Short Normal Long
Stop Go Back Control Exit
Go, Back Stop Stop Control Exit
Left, Right Stop Stop Control Exit
그리고 표시부(40)의 화면에는 상기 마우스 제어부(30)에서 출력되는 제어 명령에 따라 화면에 표시되는 마우스 포인터가 이동하게 된다.
이러한 제어 명령은 실제 제어 대상 기기의 인터페이스를 위한 제어 신호가 되어, 안구 인식으로 제어 대상 기기를 제어하게 되는 것이다.
본 발명자는 실험을 통하여 본 발명의 눈동자 추적을 통해 안구 마우스를 실험하였다.
안구의 움직임에 따라 도 4와 같은 9개의 시선 포인트에 대한 동공좌표 데이터를 실험을 통해 산출하였다.
실험을 통해 획득한 안구 시선의 좌표를 정리하면 아래의 [표3]과 같다.
세로\가로 왼쪽 가운데 오른쪽
249:204 340:200 422:217
가운데 231:231 327:233 417:240
아래 229:263 320:264 411:276
상기 [표3]과 같은 데이터에서 실험을 위해 임의의 좌표를 이용하였다. 아래의 도 6은 3개의 좌표와 변환 대상인 모니터의 좌표를 벡터화한 것이다.
중심점을 기준으로 정리된 동공 좌표 벡터 M1, M2는 이상적인 벡터 변환을 거치게 되면, W1, W2와 같이 변환되어야 한다. 이를 확인하기 위해서 벡터 변환을 위한 기준 매트릭스를 구하게 되면 아래와 같다.
Figure 112013110271943-pat00008
Figure 112013110271943-pat00009
Figure 112013110271943-pat00010
Figure 112013110271943-pat00011
Figure 112013110271943-pat00012
상기와 같은 계산 결과 이상적인 벡터 변환 값과 소수점 둘째 자리 이하 생략에 의한 계산 오차율은 약 1% 미만이다. 15.6인치 모니터 내에서 1%의 오차는 가로 14 픽셀, 세로 8 픽셀 이내이다. 14 픽셀을 cm로 환산할 경우 1cm 이내의 값을 가지게 된다. 이를 통해 오차범위가 사람의 ±2°시야각 안에 들어가므로 사람이 사용하기에 적절한 안구 마우스의 정확도를 확보하였음을 확인할 수 있다.
이상 본 발명자에 의해서 이루어진 발명을 상기 실시 예에 따라 구체적으로 설명하였지만, 본 발명은 상기 실시 예에 한정되는 것은 아니고 그 요지를 이탈하지 않는 범위에서 여러 가지로 변경 가능한 것은 물론이다.
본 발명은 안구 추적을 이용하는 기술에 적용된다. 특히, 전신마비 환자와 같이 신체를 전혀 사용할 수 없는 환자의 안구 인식을 통해 휠체어를 이동시키거나 컴퓨터를 이용할 경우, 인터페이스를 위한 기술에 적용된다.
10: 적외선 카메라
20: 안구 인식부
21: 계조 변환부
22: 이원화부
23: 외곽선 처리부
24: 안구 움직임 판단부
30: 마우스 제어부
40: 표시부

Claims (8)

  1. 눈동자 영상을 촬영하는 적외선 카메라;
    상기 적외선 카메라에서 획득한 컬러 영상 데이터를 계조 변환하고, 외곽선 검출을 통해 안구를 인식하는 안구 인식부;
    상기 안구 인식부에서 인식한 결과를 기초로 마우스 제어신호를 발생하는 마우스 제어부; 및
    상기 마우스 제어부에서 발생하는 마우스 제어신호에 따라 화면상에 마우스 포인터를 이동시키는 표시부를 포함하고,
    상기 마우스 제어부는 입력되는 인식 결과의 벡터와 각을 보정하여 안구의 비선형적임 움직임과 비평면적 움직임 왜곡을 보상하는 것을 특징으로 하는 눈동자 추적을 이용한 안구 마우스.
  2. 청구항 1에 있어서, 상기 안구 인식부는 상기 적외선 카메라에서 획득한 컬러 영상을 그레이 스케일로 변환하는 계조 변환부; 상기 계조 변환부에서 변환된 그레이 스케일 데이터의 명도 레벨에 따라 이진화를 수행하는 이원화부; 상기 이원화부에서 출력되는 이진화 영상의 외곽선을 처리하는 외곽선 처리부; 상기 외곽선 처리부에서 처리된 결과 정보를 기초로 안구 움직임을 판단하고, 그 판단 결과에 대응하는 제어신호를 발생하는 안구 움직임 판단부를 포함하는 것을 특징으로 하는 눈동자 추적을 이용한 안구 마우스.
  3. 청구항 2에 있어서, 상기 이원화부는 동공부분의 명도가 가장 낮다는 것을 이용하여 설정한 0 ~ 255 레벨에 따라 설정한 명도 임계치에 따라 이진화를 수행하는 것을 특징으로 하는 눈동자 추적을 이용한 안구 마우스.
  4. 청구항 2에 있어서, 상기 외곽선 처리부는 입력된 이진화 영상의 모든 외각선을 검출하는 외곽선 검출부; 상기 검출한 외곽선에서 동공의 범위에 존재하는 외곽선을 제외한 나머지 외곽선을 제거하는 외곽선 추출부를 포함하는 것을 특징으로 하는 눈동자 추적을 이용한 안구 마우스.
  5. 청구항 4에 있어서, 상기 외곽선 처리부는 상기 외곽선 추출부에서 추출한 외곽선 영상에서 동공의 외곽선 타원을 추출하고, 외곽선 구분을 위한 보강작업을 하는 외곽선 보강부; 상기 보강작업이 이루어진 외곽선 타원의 중심 값을 추출하여 안구 인식 정보를 획득하는 안구 인식 정보 획득부를 포함하는 것을 특징으로 하는 눈동자 추적을 이용한 안구 마우스.
  6. 청구항 2에 있어서, 상기 안구 움직임 판단부는 안구 인식 정보 중 평상시 눈을 깜박일 때 발생하는 안구 정보는 제거하고, 나머지 안구 인식 정보만을 이용하여 안구 움직임을 판단하는 것을 특징으로 하는 눈동자 추적을 이용한 안구 마우스.
  7. 청구항 6에 있어서, 상기 나머지 안구 인식 정보는 상기 평상시 눈을 깜박일 때 발생하는 안구 정보보다 인위적으로 더 길게 깜박이는 안구 정보인 것을 특징으로 하는 눈동자 추적을 이용한 안구 마우스.


  8. 삭제
KR20130148712A 2013-12-02 2013-12-02 눈동자 추적을 이용한 안구 마우스 Active KR101501165B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR20130148712A KR101501165B1 (ko) 2013-12-02 2013-12-02 눈동자 추적을 이용한 안구 마우스

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR20130148712A KR101501165B1 (ko) 2013-12-02 2013-12-02 눈동자 추적을 이용한 안구 마우스

Publications (1)

Publication Number Publication Date
KR101501165B1 true KR101501165B1 (ko) 2015-03-11

Family

ID=53027108

Family Applications (1)

Application Number Title Priority Date Filing Date
KR20130148712A Active KR101501165B1 (ko) 2013-12-02 2013-12-02 눈동자 추적을 이용한 안구 마우스

Country Status (1)

Country Link
KR (1) KR101501165B1 (ko)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101755981B1 (ko) 2016-02-03 2017-07-10 충북대학교 산학협력단 얼굴 인식형 마우스 구현 장치 및 방법
WO2018164361A1 (ko) * 2017-03-06 2018-09-13 순천향대학교 산학협력단 적외선 카메라를 이용한 비디오 안진 검사 장치 및 방법
US11216974B2 (en) 2017-12-14 2022-01-04 Samsung Electronics Co., Ltd. Staring distance determination method and device
RU232277U1 (ru) * 2024-09-17 2025-03-05 Тимур Юсупович Закиров Очки для восстановления зрительной функции

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070043469A (ko) * 2005-10-21 2007-04-25 엘지전자 주식회사 장애인을 위한 마우스 동작 인식 시스템
KR20110118965A (ko) * 2010-04-26 2011-11-02 대구대학교 산학협력단 시선 인식을 이용한 자율주행 휠체어 시스템

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070043469A (ko) * 2005-10-21 2007-04-25 엘지전자 주식회사 장애인을 위한 마우스 동작 인식 시스템
KR20110118965A (ko) * 2010-04-26 2011-11-02 대구대학교 산학협력단 시선 인식을 이용한 자율주행 휠체어 시스템

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101755981B1 (ko) 2016-02-03 2017-07-10 충북대학교 산학협력단 얼굴 인식형 마우스 구현 장치 및 방법
WO2018164361A1 (ko) * 2017-03-06 2018-09-13 순천향대학교 산학협력단 적외선 카메라를 이용한 비디오 안진 검사 장치 및 방법
KR101905716B1 (ko) * 2017-03-06 2018-10-11 순천향대학교 산학협력단 적외선 카메라를 이용한 비디오 안진 검사 장치 및 방법
CN110325104A (zh) * 2017-03-06 2019-10-11 顺天乡大学校产学协力团 利用红外摄像机的影像眼震颤检查装置及方法
CN110325104B (zh) * 2017-03-06 2022-06-03 顺天乡大学校产学协力团 利用红外摄像机的影像眼震颤检查装置及方法
US11216974B2 (en) 2017-12-14 2022-01-04 Samsung Electronics Co., Ltd. Staring distance determination method and device
RU232277U1 (ru) * 2024-09-17 2025-03-05 Тимур Юсупович Закиров Очки для восстановления зрительной функции

Similar Documents

Publication Publication Date Title
EP3608755B1 (en) Electronic apparatus operated by head movement and operation method thereof
JP3673834B2 (ja) 眼球運動を用いた視線入力コミュニケーション方法
CN107193383A (zh) 一种基于人脸朝向约束的二级视线追踪方法
KR101255219B1 (ko) 시선 추적 방법 및 이를 적용한 장치
US11055829B2 (en) Picture processing method and apparatus
US20190102905A1 (en) Head pose estimation from local eye region
CN106371566A (zh) 用于眼部追踪的校正模块、方法及计算机可读取记录媒体
KR20130107981A (ko) 시선 추적 장치 및 방법
US20160371812A1 (en) Image processing apparatus, image processing method, and program
JP6855872B2 (ja) 顔認識装置
CN112232128B (zh) 基于视线追踪的老年残障人士照护需求识别方法
KR102657095B1 (ko) 탈모 상태 정보 제공 방법 및 장치
CN106618479B (zh) 瞳孔追踪系统及其方法
JP2009064395A (ja) ポインティングデバイス、操作者の注視位置とカーソルの位置との誤差の補正をコンピュータに実行させるためのプログラムおよびそのプログラムを記録したコンピュータ読み取り可能な記録媒体
KR101501165B1 (ko) 눈동자 추적을 이용한 안구 마우스
CN115359093A (zh) 一种基于单目的注视点估计视线追踪方法
Perra et al. Adaptive eye-camera calibration for head-worn devices
US10819894B2 (en) Human machine interface system and method of providing guidance and instruction for iris recognition on mobile terminal
CN109961473A (zh) 双眼定位方法及装置、电子设备和计算机可读存储介质
WO2020263277A1 (en) Landmark temporal smoothing
JP6858007B2 (ja) 画像処理システム、画像処理方法
CN110858095A (zh) 可由头部操控的电子装置与其操作方法
KR101817952B1 (ko) 투과형 헤드 마운티드 디스플레이 장치 및 상기 장치에서의 화면 심도 제어 방법
CN104536568B (zh) 侦测用户头部动态的操控系统及其操控方法
Madhusanka et al. Concentrated gaze base interaction for decision making using human-machine interface

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20131202

PA0201 Request for examination
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20140806

Patent event code: PE09021S01D

PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20141212

GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20150304

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20150305

End annual number: 3

Start annual number: 1

PG1601 Publication of registration
FPAY Annual fee payment

Payment date: 20180227

Year of fee payment: 4

PR1001 Payment of annual fee

Payment date: 20180227

Start annual number: 4

End annual number: 4

FPAY Annual fee payment

Payment date: 20190226

Year of fee payment: 5

PR1001 Payment of annual fee

Payment date: 20190226

Start annual number: 5

End annual number: 5

FPAY Annual fee payment

Payment date: 20200304

Year of fee payment: 6

PR1001 Payment of annual fee

Payment date: 20200304

Start annual number: 6

End annual number: 6

PR1001 Payment of annual fee

Payment date: 20210728

Start annual number: 7

End annual number: 7

PR1001 Payment of annual fee

Payment date: 20220103

Start annual number: 8

End annual number: 8