KR20140132906A - Device and method for mobile tooltip using eye detecting - Google Patents

Device and method for mobile tooltip using eye detecting Download PDF

Info

Publication number
KR20140132906A
KR20140132906A KR1020130052223A KR20130052223A KR20140132906A KR 20140132906 A KR20140132906 A KR 20140132906A KR 1020130052223 A KR1020130052223 A KR 1020130052223A KR 20130052223 A KR20130052223 A KR 20130052223A KR 20140132906 A KR20140132906 A KR 20140132906A
Authority
KR
South Korea
Prior art keywords
user
pupil
eye position
pupil image
display screen
Prior art date
Application number
KR1020130052223A
Other languages
Korean (ko)
Other versions
KR102181897B1 (en
Inventor
염동환
Original Assignee
에스케이플래닛 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에스케이플래닛 주식회사 filed Critical 에스케이플래닛 주식회사
Priority to KR1020130052223A priority Critical patent/KR102181897B1/en
Publication of KR20140132906A publication Critical patent/KR20140132906A/en
Application granted granted Critical
Publication of KR102181897B1 publication Critical patent/KR102181897B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Eye Examination Apparatus (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

The present invention relates to a mobile tooltip method by tracking pupils and a device thereof. The mobile tooltip method takes images of a user through the camera of a mobile device, identifies the pupils of the user, recognizes the viewing direction of the user, and executes a mouse-over function and a tooltip function at a position on a screen where the viewing direction of the user points. According to the present invention, the mobile device including a mobile tooltip function by tracking pupils includes: a display unit which displays information related to data and content on a screen; a pupil image acquisition unit which acquires the image of pupils by taking images of a user who are looking at the screen; a user distance calculation unit which calculates the distance to the pupils of the user; an eye position calculation unit which sets a reference point by comparing the center of the acquired pupil image and the center of the display screen, sets the ratio between the pupil image and the display image according to the distance to the pupils of the user, and calculates the eye position on the display screen as top, bottom, left, or right according to the movement of the pupil image from the set position based on the set screen ratio; and a control unit which, if the eye position on the display screen does not change for a certain period of time, controls execution of the mouse over function or tooltip function on the eye position on the display screen.

Description

눈동자 추적을 이용한 모바일 툴팁 방법 및 장치{Device and method for mobile tooltip using eye detecting}[0001] The present invention relates to a mobile tool tip method and apparatus using eye tracking,

본 발명은 터치 입력 방식의 모바일 장치에서 툴팁(Tool Tip) 기능을 실행하는 기술에 관한 것으로서, 더욱 자세하게는 모바일 장치의 카메라를 통해 사용자의 얼굴을 촬영해 사용자의 눈동자를 구분하고 사용자의 시선을 인식하여, 사용자의 시선이 머무는 화면의 위치에 마우스 오버(mouse over) 기능과 툴팁 기능을 실행할 수 있도록 하는 눈동자 추적을 이용한 모바일 툴팁 방법 및 장치에 관한 것이다.The present invention relates to a technology for executing a tool tip function in a touch input type mobile device. More specifically, the present invention relates to a technique of capturing a user's face through a camera of a mobile device to classify a user's eyes, The present invention relates to a mobile tool tip method and apparatus using a pupil tracking that enables a mouse over function and a tool tip function to be performed on a position of a screen where a user's gaze stays.

기술의 발달로 데스크 탑, 노트북, PDA, 스마트 디스플레이 등 디스플레이 장치는 개인이 사용하기에 부족함이 없다. Due to the development of technology, display devices such as desktops, laptops, PDAs, and smart displays are not in need of personal use.

그러나, 입력장치 면에서는 아직도 마우스라든가 키보드 또는 터치스크린 등 사람이 과거에 오랫동안 사용되어 오던 기술이 쓰여지고 있다. 아직 음성인식을 이용한 기술은 기술적인 한계점으로 인해 일부 특별한 부분에서만 사용되고 있으며 일반적으로 쓰이는 기술은 아니다.However, in terms of the input device, technologies such as a mouse, a keyboard, or a touch screen have been used for a long time in the past. Technology using speech recognition is still used only in some special areas due to technical limitations and is not a commonly used technology.

최근의 모바일 단말기는 사이즈의 소형화와 사용상의 편의를 위해 사용자의 명령어 입력 수단으로서 터치패널을 구비하고 있다. 이러한 터치패널은 터치, 드래그 등 사용자의 터치 동작을 인식하여 사용자 입력을 처리한다. 2. Description of the Related Art [0002] In recent mobile terminals, a touch panel is provided as a command input means of a user for size reduction and ease of use. Such a touch panel recognizes the user's touch operation such as touching and dragging, and processes the user input.

그런데, 모바일 단말기의 경우 터치패널의 동작 인식 특성으로 인해 마우스 오버(mouse over) 기능의 구현이 불가능하며, 툴팁(Tool Tip) 기능 또한 구현이 불가능하다.However, in the case of a mobile terminal, it is impossible to implement a mouse over function due to the motion recognition characteristics of the touch panel, and a tool tip function can not be implemented.

한편, 모바일 단말기는 화면의 크기에 맞추어 영상, 텍스트 등과 같은 정보를 표시한 후, 사용자가 필요한 부분을 선택하여 자세히 볼 수 있다.On the other hand, the mobile terminal displays information such as images, texts and the like in accordance with the size of the screen,

이를 위해서, 사용자는 키패드, 키보드, 마우스, 조이스틱과 같이 휴대 단말에 구비된 입력 수단을 손으로 조작하여, 휴대 단말의 화면에서 필요한 부분을 선택하여야 한다.For this purpose, the user must manually select the necessary part of the screen of the mobile terminal by manually operating the input means such as a keypad, a keyboard, a mouse, and a joystick.

이와 같이 종래의 단말기는 사용자가 표시된 정보 중에서 원하는 부분을 선택하기 위해서 입력 수단을 손으로 여러번 조작해야 하기 때문에 사용이 불편하다. 특히, 모바일 단말기의 경우, 사용자가 단말기를 손으로 지지하고 있는 상태에서 입력 수단을 조작하여야 하기 때문에, 손으로 입력 수단을 조작하기가 어렵고, 그에 따라서 사용자의 불편이 가중된다.Thus, the conventional terminal is inconvenient to use because the user has to manually operate the input means several times in order to select a desired portion from the displayed information. Particularly, in the case of a mobile terminal, it is difficult to manipulate the input means by hand because the user must operate the input means while holding the terminal by hand, thereby increasing the inconvenience of the user.

또한, 모바일 단말기는 이동 중에 사용하는 경우가 많기 때문에, 사용자의 양손 사용이 어려운 경우 입력에 어려움이 있다.In addition, since the mobile terminal is often used while moving, it is difficult to input when the user is unable to use both hands.

대한민국 등록특허공보 제847,142호(등록일 : 2008년07월11일, 발명의 명칭 : 얼굴 인식을 위한 전처리 방법, 이를 이용한 얼굴 인식방법 및 장치)Korean Patent Registration No. 847,142 (filed on Jul. 11, 2008, entitled "Pretreatment Method for Face Recognition, Method and Apparatus for Face Recognition Using It)

전술한 문제점을 해결하기 위한 본 발명의 목적은, 모바일 장치의 카메라를 통해 사용자의 얼굴을 촬영해 사용자의 눈동자를 구분하고 사용자의 시선을 인식하여, 사용자의 시선이 머무는 화면의 위치에 마우스 오버(mouse over) 기능과 툴팁 기능을 실행할 수 있도록 하는 눈동자 추적을 이용한 모바일 툴팁 방법 및 장치를 제공함에 있다.An object of the present invention to solve the above-mentioned problems is to provide a mobile device that captures a face of a user through a camera of a mobile device, identifies the user's eyes, recognizes the user's gaze, mouse over function and a tool tip function using a pupil tracking method.

전술한 목적을 달성하기 위한 본 발명의 일 측면에 따르면, 데이터나 정보, 컨텐츠에 관한 내용을 화면 상에 디스플레이하는 디스플레이부; 상기 디스플레이 화면을 주시하는 사용자의 얼굴을 촬영해 눈동자 영상을 획득하는 눈동자 영상 획득부; 상기 사용자의 눈동자까지의 거리를 산출하는 사용자거리 산출부; 상기 획득된 눈동자 영상의 중앙과 상기 디스플레이 화면의 중앙을 대응시켜 기준으로 설정하고, 상기 사용자의 눈동자까지의 이격 거리에 따라 눈동자 영상과 디스플레이 영상의 화면 비율을 설정하며, 상기 설정된 화면 비율에 근거해 상기 설정된 기준을 중심으로 눈동자 영상의 움직임 변화에 따라 상, 하, 좌, 우로 주시된 디스플레이 화면의 눈 위치를 산출하는 눈위치 산출부; 및 상기 디스플레이 화면의 눈 위치가 일정 시간이 지나도 변동이 없는 경우에 상기 디스플레이 화면의 눈 위치에 마우스 오버 기능 또는 툴팁 기능이 실행되도록 제어하는 제어부를 포함하는 눈동자 추적을 이용한 모바일 툴팁 기능의 모바일 장치가 제공된다.According to an aspect of the present invention, there is provided a display apparatus including: a display unit for displaying data, information, and contents on a screen; A pupil image acquiring unit for acquiring a pupil image by photographing a face of a user watching the display screen; A user distance calculating unit for calculating a distance to the pupil of the user; Setting a center of the acquired pupil image and a center of the display screen as a reference, setting an aspect ratio of the pupil image and the display image according to a distance to the pupil of the user, An eye position calculating unit for calculating an eye position of a display screen that is viewed upward, downward, leftward, and rightward according to a change in motion of the pupil image around the set reference; And a controller for controlling a mouse over function or a tool tip function to be performed on an eye position of the display screen when the eye position of the display screen does not change even after a predetermined time passes, / RTI >

또한, 상기 눈동자 영상 획득부는, 상기 사용자의 얼굴을 촬영하기 위한 카메라를 포함하고, 상기 카메라를 통해 촬영된 얼굴 영상에서 눈동자 부분을 구분해 눈동자 영상을 획득할 수 있다.In addition, the pupil image obtaining unit may include a camera for photographing the user's face, and the pupil image may be obtained by dividing the pupil portion of the face image captured through the camera.

그리고, 상기 눈위치 산출부는, 상기 눈동자 영상이 상기 기준에 대해 상, 하, 좌, 우 방향 중 하나의 방향으로 일정 픽셀 이동하면, 상기 디스플레이 화면의 중앙에 대해 상, 하, 좌, 우 방향 중 눈동자 영상이 이동한 방향과 대응되는 하나의 방향으로 정수배 픽셀 이동한 비율로 하여 상기 디스플레이 화면의 눈 위치를 픽셀 단위로 산출할 수 있다.When the pupil image is moved in a predetermined direction in one of the up, down, left, and right directions with respect to the reference, the eye position calculating unit calculates the eye position The eye position of the display screen can be calculated in units of pixels by using a ratio of pixels shifted by an integral multiple in one direction corresponding to the moving direction of the pupil image.

한편, 전술한 목적을 달성하기 위한 본 발명의 다른 측면에 따르면, 디스플레이부, 눈동자 영상 획득부, 눈위치 산출부 및 제어부를 포함하는 모바일 장치의 눈동자 추적을 이용한 모바일 툴팁 방법으로서, (a) 상기 디스플레이부가 데이터나 정보, 컨텐츠에 관한 내용을 화면 상에 디스플레이하는 단계; (b) 상기 눈동자 영상 획득부가 상기 디스플레이 화면을 주시하는 사용자의 얼굴을 촬영해 눈동자 영상을 획득하는 단계; (c) 상기 사용자거리 산출부가 사용자의 눈동자까지의 이격 거리를 산출하는 단계; (d) 상기 눈위치 산출부가 상기 획득된 눈동자 영상의 중앙과 상기 디스플레이부의 화면 중앙을 대응시켜 기준으로 설정하고, 상기 사용자의 눈동자까지의 이격 거리에 따라 눈동자 영상과 디스플레이 영상의 화면 비율을 설정하는 단계; (e) 상기 눈위치 산출부가 상기 설정된 화면 비율에 근거해 상기 설정된 기준을 중심으로 눈동자 영상의 움직임 변화에 따라 상, 하, 좌, 우로 주시된 디스플레이 화면의 눈 위치를 산출하는 단계; 및 (f) 상기 제어부가 상기 디스플레이 화면의 눈 위치가 일정 시간이 지나도 변동이 없는 경우에 상기 디스플레이 화면의 눈 위치에 마우스 오버 기능 또는 툴팁 기능을 실행하는 단계를 포함하는 모바일 장치의 눈동자 추적을 이용한 모바일 툴팁 방법이 제공된다.According to another aspect of the present invention, there is provided a mobile tool tip method using a pupil tracking of a mobile device including a display unit, a pupil image obtaining unit, an eye position calculating unit, and a control unit, Displaying on the screen contents related to the display unit data, information, and contents; (b) the pupil image acquiring unit photographs a face of a user watching the display screen to acquire a pupil image; (c) calculating the distance of the user's distance to the user's pupil; (d) The eye position calculation unit sets the center of the acquired pupil image and the center of the screen of the display unit as a reference, sets the aspect ratio of the pupil image and the display image according to the distance to the pupil of the user step; (e) calculating an eye position of a display screen that is viewed in upward, downward, leftward, and rightward directions according to a change in movement of the pupil image based on the set reference based on the set image ratio; And (f) performing a mouse over function or a tool tip function on the eye position of the display screen when the eye position of the display screen does not change even after a predetermined period of time has elapsed. A mobile tooltip method is provided.

또한, 상기 (b) 단계는, 상기 눈동자 영상 획득부가 카메라를 통해 사용자의 얼굴을 촬영하고, 상기 카메라를 통해 촬영된 얼굴 영상에서 눈동자 부분을 구분해 눈동자 영상을 획득할 수 있다.In the step (b), the pupil image acquiring unit may photograph a user's face through a camera, and may divide a pupil portion of the face image photographed through the camera to acquire a pupil image.

그리고, 상기 (e) 단계는, 상기 눈위치 산출부가 상기 눈동자 영상이 상기 기준에 대해 상, 하, 좌, 우 방향 중 하나의 방향으로 일정 픽셀 이동하면, 상기 디스플레이 화면의 중앙에 대해 상, 하, 좌, 우 방향 중 눈동자 영상이 이동한 방향과 대응되는 하나의 방향으로 정수배 픽셀 이동한 비율로 하여 상기 디스플레이 화면의 눈 위치를 픽셀 단위로 산출할 수 있다.In the step (e), when the eye-position calculating unit moves the pupil image by a certain pixel in one of the upward, downward, left, and right directions with respect to the reference, , And the eye position of the display screen may be calculated in units of pixels by using a ratio of pixels shifted by an integral multiple in one direction corresponding to the direction in which the pupil image has moved in the left and right directions.

본 발명에 의하면, 터치입력 방식의 모바일 장치에 마우스 오버 기능 및 툴팁 기능을 구현할 수 있다.According to the present invention, a mouse over function and a tool tip function can be implemented in a touch input type mobile device.

또한, 사용자가 단말기를 손으로 지지하고 있는 상태에서 입력 수단을 조작하지 않아도 주시하는 화면의 내용을 파악하면서 특정 부분에 시선을 고정함으로써 부가적인 기능을 손쉽게 수행할 수 있어 사용자의 편의성이 증대된다.Further, the user can easily perform the additional function by fixing the gaze to a specific part while grasping the contents of the screen to be watched even if the user does not operate the input means while the user is holding the terminal by hand, thereby enhancing convenience for the user.

그리고, 모바일 단말기는 이동 중에 사용하는 경우가 많기 때문에, 사용자의 양손 사용이 어려운 경우에도 사용자가 화면에 집중하기만 하면 마우스 오버 또는 툴팁 기능을 통해 양손을 사용하지 않아도 입력을 손쉽게 할 수 있다.In addition, since the mobile terminal is often used on the move, even if the user's hands are difficult to use, the user can easily input the input without using both hands through mouse-over or tooltip function as long as the user concentrates on the screen.

도 1은 본 발명의 실시예에 따른 모바일 장치의 기능 블럭을 나타낸 구성도이다.
도 2는 본 발명의 실시예에 따른 모바일 장치의 눈동자 추적을 이용한 모바일 툴팁 방법을 설명하기 위한 동작 흐름도를 나타낸 도면이다.
도 3은 본 발명의 실시예에 따른 눈동자 영상의 중앙과 디스플레이 화면의 중앙을 대응시켜 기준으로 설정하는 예를 나타낸 도면이다.
도 4는 본 발명의 실시예에 따라 사용자의 눈동자 영상의 변화에 따른 디스플레이 화면의 눈 위치를 나타낸 도면이다.
도 5는 본 발명의 실시예에 따라 사용자가 주시하는 디스플레이 화면에서 눈 위치가 일정 시간이 지나도 변동이 없는 경우에 그 눈 위치에서 툴팁 기능이 실행되는 예를 나타낸 도면이다.
1 is a block diagram illustrating a functional block of a mobile device according to an embodiment of the present invention.
2 is a flowchart illustrating a mobile tool tip method using eye tracking of a mobile device according to an exemplary embodiment of the present invention.
FIG. 3 is a diagram illustrating an example in which the center of a pupil image according to an embodiment of the present invention is associated with a center of a display screen and is set as a reference.
4 is a diagram illustrating eye positions of a display screen according to a change of a user's pupil image according to an embodiment of the present invention.
FIG. 5 is a diagram illustrating an example in which a tool tip function is executed at an eye position in a display screen viewed by a user according to an embodiment of the present invention when the eye position does not change after a predetermined time.

본 발명의 목적과 기술적 구성 및 그에 따른 작용 효과에 관한 자세한 사항은 본 발명의 명세서에 첨부된 도면에 의거한 이하 상세한 설명에 의해 보다 명확하게 이해될 것이다. 이하, 첨부된 도면을 참조하여 본 발명에 따른 실시예를 상세하게 설명한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Reference will now be made in detail to the preferred embodiments of the present invention, examples of which are illustrated in the accompanying drawings, wherein like reference numerals refer to the like elements throughout. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 실시예에 따른 모바일 장치의 기능 블럭을 나타낸 구성도이다.1 is a block diagram illustrating a functional block of a mobile device according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 실시예에 따른 눈동자 추적을 이용한 모바일 툴팁 기능의 모바일 장치(100)는, 디스플레이부(110), 눈동자 영상 획득부(120), 눈위치 산출부(130), 제어부(140), 저장부(150), 입력부(160) 및 사용자거리 산출부(170) 등을 포함한다.Referring to FIG. 1, a mobile tool 100 having a mobile tool tip function using a pupil tracking according to an exemplary embodiment of the present invention includes a display unit 110, a pupil image acquisition unit 120, an eye position calculation unit 130, A control unit 140, a storage unit 150, an input unit 160, and a user distance calculation unit 170.

디스플레이부(110)는 데이터나 정보, 컨텐츠에 관한 내용을 화면 상에 디스플레이한다. The display unit 110 displays contents related to data, information, and contents on the screen.

즉, 디스플레이부(110)는 제어부(140)의 제어에 따라서, 시각적으로 표현되는 정보를 표시한다. 정보는 동영상, 텍스트, 사진 및 웹 페이지 등뿐만 아니라, 단말 장치에서 실행할 수 있는 기능을 알려주는 메뉴까지 포함할 수 있다. 또한, 디스플레이부(110)는, 제어부(140)의 제어에 따라서, 표시하고 있는 정보의 특정 부분을 확대하여 표시할 수 있다. 이러한 디스플레이부(110)로는, LCD(Liquid Crystal Display)나 터치스크린 등 다양한 형태의 디스플레이 수단이 사용될 수 있다.That is, the display unit 110 displays information expressed visually in accordance with the control of the control unit 140. [ The information may include not only moving images, text, photographs, and web pages, but also menus informing the functions that the terminal apparatus can perform. In addition, the display unit 110 can enlarge and display a specific portion of the displayed information under the control of the control unit 140. [ As the display unit 110, various types of display means such as a liquid crystal display (LCD) and a touch screen may be used.

눈동자 영상 획득부(120)는 디스플레이 화면을 주시하는 사용자의 얼굴을 촬영해 눈동자 영상을 획득한다. 이를 위해, 눈동자 영상 획득부(120)는 사용자의 얼굴을 촬영하기 위한 카메라를 포함하고, 카메라를 통해 촬영된 얼굴 영상에서 눈동자 부분을 구분해 눈동자 영상을 획득할 수 있다.The pupil image acquisition unit 120 acquires a pupil image by photographing a face of the user watching the display screen. For this purpose, the pupil image acquisition unit 120 may include a camera for photographing a face of a user, and a pupil image may be obtained by dividing the pupil portion of the face image captured through the camera.

눈위치 산출부(130)는 획득된 눈동자 영상에 근거해 눈동자가 주시하는 디스플레이 화면의 눈 위치를 산출한다.The eye position calculation unit 130 calculates the eye position of the display screen that the pupils watch based on the acquired pupil images.

즉, 눈위치 산출부(130)는 카메라에서 촬영된 사용자 영상을 이용하여 사용자의 시선 궤적을 추적하고, 시선 궤적의 추적을 통해 단말 조작을 위한 시선 집중이 인식되면 시선이 집중되는 디스플레이부의 화면 상의 위치를 산출하는 것이다.That is, the eye position calculation unit 130 tracks the gaze trajectory of the user using the user image photographed by the camera, and when the gaze concentration for the terminal operation is recognized through tracking of the gaze trajectory, Position.

이를 위해, 눈위치 산출부(130)는 눈동자 영상의 중앙과 디스플레이 화면의 중앙을 대응시켜 기준점으로 설정하며, 설정된 기준점을 중심으로 눈동자 영상의 움직임 변화에 따라 상, 하, 좌, 우로 주시된 디스플레이 화면의 눈 위치를 산출할 수 있다.For this purpose, the eye position calculation unit 130 sets the center of the pupil image to correspond to the center of the display screen and set the reference point as a reference point. The eye position of the screen can be calculated.

이때, 눈위치 산출부(130)는 눈동자 영상이 기준점에 대해 상, 하, 좌, 우 방향 중 하나의 방향으로 일정 픽셀 이동하면, 사용자거리 산출부(170)를 통해 산출된 사용자의 눈동자로부터 모바일 장치(100)까지의 이격 거리에 따라 눈동자 영상과 디스플레이 영상의 화면 비율을 설정하고, 설정된 화면 비율에 근거해 디스플레이 화면의 중앙에 대해 상, 하, 좌, 우 방향 중 눈동자 영상이 이동한 방향과 대응되는 방향으로 2배, 3배 등과 같이 정수배 픽셀 이동한 비율로 하여 디스플레이 화면의 눈 위치를 픽셀 단위로 산출할 수 있다.In this case, when the eye position calculating unit 130 moves the eye pixel to a certain pixel in one of the up, down, left, and right directions with respect to the reference point, the eye position calculating unit 130 calculates, And sets the aspect ratios of the pupil image and the display image according to the distance to the device 100 and determines the direction in which the pupil image moves in the up, The eye position of the display screen can be calculated in units of pixels by using a ratio of pixels shifted by an integer multiple such as 2 times, 3 times, or the like in the corresponding direction.

따라서, 눈위치 산출부(130)는 시선 추적 모듈과 위치 산출 모듈을 포함하는 구성으로 구현할 수 있다. Accordingly, the eye position calculation unit 130 may be implemented with a configuration including a gaze tracking module and a position calculation module.

시선 추적 모듈은, 시선 궤적의 추적을 통해서, 단말 조작을 위한 시선 집중을 검출한다. 단말 조작을 위한 시선 집중은, 사용자의 시선이 기준 시간 이상 일정 위치에 고정되어 있는 상태를 의미하며, 기준 시간은 일상적인 사용자의 시선 움직임을 구별할 수 있도록 설정한다. 다만, 기준 시간에 비례하여, 사용자가 단말 조작을 위해 화면에 시선을 고정해야 하는 시간이 길어지므로, 사용자의 불편을 최소화할 수 있는 시간 범위 내에서 기준 시간을 설정한다.The line-of-sight tracking module detects line-of-sight convergence for terminal operation through tracking of the line-of-sight trajectory. The gaze concentration for the terminal operation means a state in which the user's gaze is fixed at a predetermined position over a reference time, and the reference time is set so as to distinguish the gaze movement of the ordinary user. However, since the time required for the user to fix the line of sight on the screen for operation of the terminal becomes longer in proportion to the reference time, the reference time is set within a time range in which the user's inconvenience can be minimized.

단말 조작을 위한 시선 집중이 검출되면, 위치 산출 모듈이 디스플레이부(110)에 의해 정보가 표시되는 화면 상에서 시선 집중 위치를 산출한다. 시선 집중 위치는, 눈동자 영상의 좌표계와 디스플레이부에 표시되는 화면 상의 좌표계를 매핑함에 의해 이루어진다.When the sight line concentration for terminal operation is detected, the position calculation module calculates the line-of-sight concentration position on the screen on which the information is displayed by the display unit 110. [ The line-of-sight concentrated position is achieved by mapping the coordinate system of the pupil image and the coordinate system on the screen displayed on the display unit.

제어부(140)는 디스플레이 화면의 눈 위치가 일정 시간이 지나도 변동이 없는 경우에 디스플레이 화면의 눈 위치에 마우스 오버 기능 또는 툴팁 기능이 실행되도록 제어한다.The controller 140 controls the mouse over function or the tool tip function to be performed on the eye position of the display screen when the eye position of the display screen does not change after a predetermined time.

본 발명의 실시예에서 마우스 오버는 마우스 커서를 올리는 것으로서 클릭은 하지 않고 올려 놓기만 하는 것이고, 툴팁은 마우스 커서와 함께 동작하여 사용자가 커서에 항목을 클릭하지 않고 가리키면 조그마한 상자가 항목 위에 나타나서 보충 설명을 보여 주는 것을 뜻한다.In the embodiment of the present invention, the mouse over is to raise the mouse cursor, to put it without clicking, and the tool tip works with the mouse cursor so that when the user hits the cursor without clicking the item, a small box appears on the item, .

저장부(150)는 디스플레이 화면 상에 출력할 데이터나 정보, 컨텐츠 등을 저장하거나, 획득된 눈동자 영상, 입력부를 통해 입력된 데이터 등을 저장한다.The storage unit 150 stores data or information to be output on the display screen, contents or the like, or stores the acquired pupil image, data input through the input unit, and the like.

입력부(160)는 사용자에 의해 선택되거나 조작된 데이터나 정보를 입력한다. The input unit 160 inputs data or information selected or manipulated by the user.

본 발명의 실시예에서는 디스플레이부(110)와 입력부(160)를 터치 스크린 형태로 하여 입력 기능과 출력 기능을 동시에 실행할 수 있는 하나의 장치로 구현할 수 있으며, 각 기능이 별개로 동작하는 별도의 장치로도 구현할 수 있다.In an embodiment of the present invention, the display unit 110 and the input unit 160 may be implemented as a single device capable of simultaneously performing an input function and an output function in the form of a touch screen, and a separate device .

그리고, 사용자거리 산출부(170)는 사용자의 눈동자로부터 모바일 장치(100)까지의 거리를 산출하는 장치로서, 예를 들면, 일반적으로 알려진 바와 같이 사람에게 해롭지 않은 전파나 무선 신호를 이용하여 산출할 수 있다.The user distance calculating unit 170 calculates the distance from the user's eyes to the mobile device 100. For example, the user distance calculating unit 170 may calculate the distance using a radio wave or a wireless signal that is not harmful to a person .

한편, 본 발명의 실시예에서는 눈동자 인식을 위해서 제어부(140)가 컬러 필터를 이용할 수 있다. 눈동자 영상 획득부(120)에서 카메라를 통해 사용자의 얼굴을 촬영할 때, 각기 파장대가 다른 두 개의 조명을 가진 조명장치에서 동시에 조명을 점등하여 사용자의 눈동자에 비춘다. 파장이 서로 다른 조명은 700㎚ 대의 파장을 갖는 조명과 800㎚ 대의 파장을 갖는 조명으로 할 수 있다. 따라서, 파장이 서로 다른 조명을 동시에 점등하여 획득된 눈동자 영상은 700㎚ 대의 파장과 800㎚ 대의 파장에 대한 눈동자 합 영상이 취득된다.Meanwhile, in the embodiment of the present invention, the controller 140 can use a color filter for pupil recognition. When a user's face is photographed through a camera in the pupil image acquisition unit 120, the illumination is simultaneously turned on in a lighting device having two lights having different wavelengths, and is illuminated on the pupil of the user. Illuminations having different wavelengths can be illuminated with a wavelength of 700 nm band and illuminated with a wavelength of 800 nm band. Therefore, a pupil image obtained by simultaneously lighting lights having different wavelengths acquires a pupil sum image for a wavelength of 700 nm band and a wavelength of 800 nm band.

이어, 제어부(140)는 취득된 눈동자 영상을 컬러필터를 이용하여 파장대별로 영상을 분리한다. 이때, 컬러필터는 R, G, B 로 이루어진 셀이 교대로 번갈아 각각 형성되어 있다. R, G, B 는 각각의 다른 반응도를 갖게 된다. 여기서, R, G, B 의 반응도는 빛에 대한 감도를 의미하는 것으로, 각 파장대별로 상기 R, G, B 의 감도는 다르게 되는 것이다. 즉, R은 600㎚ 에서 반응도가 가장 좋게 나타나고, G는 550㎚에서 반응도가 가장 좋게 나타나고, B는 450㎚ 에서 반응도가 가장 좋게 나타나는 특성을 갖는다.Next, the control unit 140 separates the acquired pupil image by wavelength band using a color filter. At this time, the color filter is formed by alternately alternately forming cells of R, G, and B, respectively. R, G, and B have different reactivities. Here, the reactivity of R, G and B means sensitivity to light, and the sensitivities of R, G and B are different for each wavelength band. That is, R exhibits the best reactivity at 600 nm, G exhibits the highest reactivity at 550 nm, and B exhibits the highest reactivity at 450 nm.

이어, 제어부(140)는 파장대별로 분리된 눈동자 영상들의 반응도를 다음 수학식1을 통해 산출한다. 700㎚ 대의 파장을 갖는 조명과 800㎚ 대의 파장을 갖는 조명에 의해 취득된 눈동자 영상의 반응 정도가 다르게 검출된다.Next, the controller 140 calculates the reactivity of the separated pupil images for each wavelength band through the following equation (1). The degree of the reaction between the illumination having the wavelength of 700 nm band and the pupil image acquired by the illumination having the wavelength of 800 nm band is detected differently.

Figure pat00001
Figure pat00001

여기서, V(R), V(G), V(B)은 각 셀(CELL)에서 구해진 R, G, B 필터값을 나타내고, Rf(700)은 물체의 700㎚ 조명대의 반사도를 나타내며, Rf(800)은 물체의 800㎚ 조명대의 반사도를 나타내며, I700(R), I700(G), I700(B)은 700㎚ 조명대의 각 R, G, B 필터의 감도를 나타내며, I800(R), I800(G), I800(B)은 800㎚ 조명대의 각 R, G, B 필터의 감도를 나타낸다.Here, V (R), V (G), and V (B) represent the R, G, and B filter values obtained in each cell CELL, Rf 700 represents the reflectivity of the 700- 800 denotes a band 800㎚ one trillion people reflectivity of the object, I 700 (R), I 700 (G), I 700 (B) shows the sensitivity of one trillion people 700㎚ units each R, G, B filters, I 800 (R), I 800 (G), and I 800 (B) represent the sensitivities of the respective R, G, and B filters in the 800 nm illumination band.

수학식1을 이용하여 물체에 대한 반사도인 Rf(700), Rf(800)를 구하게 된다. 즉, 이는 눈동자 영상에서 동공, 홍채, 흰자위에 대한 각각의 반응도를 구하는 것이다.Rf (700) and Rf (800), which are the reflectivities of the object, are obtained using Equation (1). In other words, it is to obtain the degree of reactivity for pupil, iris and whiteness in the pupil image.

700㎚ 대의 파장대의 조명에 의해서 취득된 눈동자 영상에서는 눈동자 영상의 흰자 부위와 눈동자 부위에서의 조명에 대한 반응 정도가 달라지게 되어 경계가 명확해진다. 이때, 홍채 부위와 동공 부위에 대해서는 반응 정도가 비슷하게 되어 경계가 흐려진다.In the pupil image acquired by the illumination of the wavelength range of 700 nm, the degree of the response to the illumination in the whiteness region and the pupil region of the pupil image becomes different, and the boundary becomes clear. At this time, the iris region and the pupil region have similar degree of reaction, and the boundary is blurred.

따라서, 700㎚ 대의 파장대의 조명에 의해서 취득된 눈동자 영상에서는 홍채 인식을 수행할 때 홍채 영역을 찾는데 이용된다.Therefore, in a pupil image obtained by illumination with a wavelength band of 700 nm, it is used to search for an iris region when performing iris recognition.

그리고, 800㎚ 대의 파장대의 조명에 의해서 취득된 눈동자 영상에서는 흰자 부위와 홍채 부위의 조명에 대한 반응 정도가 비슷하게 되어 경계가 흐려지게 된다. 이때, 홍채 부위와 동공 부위에 대해서는 반응 정도가 달라지게 되어 경계가 명확해진다.In the pupil image obtained by illumination at the wavelength band of 800 nm, the degree of response to illumination of the whiteness region and iris region becomes similar, and the boundary is blurred. At this time, the iris region and the pupil region have different degrees of reaction, so that the boundary becomes clear.

따라서, 800㎚ 대의 파장대의 조명에 의해서 취득된 눈동자 영상은 홍채 인식을 수행할 때 동공을 찾는데 이용된다.Therefore, the pupil image obtained by illumination at the wavelength band of 800 nm is used to search for a pupil when performing iris recognition.

도 2는 본 발명의 실시예에 따른 모바일 장치의 눈동자 추적을 이용한 모바일 툴팁 방법을 설명하기 위한 동작 흐름도를 나타낸 도면이다.2 is a flowchart illustrating a mobile tool tip method using eye tracking of a mobile device according to an exemplary embodiment of the present invention.

도 2를 참조하면, 본 발명의 실시예에 따른 모바일 장치(100)는, 디스플레이부(110)가 데이터나 정보, 컨텐츠에 관한 내용을 화면 상에 디스플레이한다(S210).Referring to FIG. 2, in the mobile device 100 according to the embodiment of the present invention, the display unit 110 displays contents related to data, information, and content on the screen (S210).

즉, 사용자의 선택 또는 조작에 따라 데이터나 정보, 컨텐츠 중 하나가 실행되고, 그 실행에 따른 결과가 화면 상에 디스플레이 되는 것이다. 예를 들면, 모바일 장치(100)가 인터넷 접속을 통해 특정 사이트를 방문하여 해당 사이트에서 제공하는 웹 화면이나 컨텐츠 화면을 제공하는 것도 예가 될 수 있다.That is, one of data, information, and contents is executed according to the selection or manipulation of the user, and the result of the execution is displayed on the screen. For example, the mobile device 100 may visit a specific site through an Internet connection and provide a web screen or a content screen provided by the site.

이때, 사용자는 데이터나 정보, 컨텐츠 중 하나가 디스플레이되는 화면에 대해 그 내용을 파악하기 위해 화면을 주시하게 된다.At this time, the user views the screen on which one of data, information, and contents is displayed to grasp the contents thereof.

이어, 눈동자 영상 획득부(120)는 카메라를 작동시켜 디스플레이 화면을 주시하는 사용자의 얼굴을 촬영해 눈동자 영상을 획득한다(S220).Then, the pupil image acquisition unit 120 acquires a pupil image by photographing a user's face looking at the display screen by operating the camera (S220).

즉, 눈동자 영상 획득부(120)는 카메라를 통해 사용자의 얼굴을 촬영하고, 촬영된 얼굴 영상에서 눈동자 부분을 구분해 눈동자 영상을 획득할 수 있다.That is, the pupil image acquisition unit 120 may capture a face of a user through a camera and classify a pupil portion of the captured face image to obtain a pupil image.

여기서, 얼굴 인식 기술은 멀티미디어 데이터 베이스 검색 핵심 기술 중의 하나로 얼굴 정보를 이용한 동영상의 요약, 신분 증명, HCI(Human Computer Interface) 이미지 검색, 보안, 감시 시스템 등 다양한 응용 분야에서 널리 이용되고 있다.Here, face recognition technology is one of the key technologies of multimedia database search, and is widely used in various applications such as summary of video, identification of face, image search of human computer interface (HCI), security, surveillance system using face information.

얼굴 인식은 동일성(identity), 나이, 인종, 표정, 장신구 등의 내적 환경 변화나, 포즈(pose), 외부 조명, 이미지 프로세스(image process) 등의 외적 환경 변화에 따라서 그 인식 결과가 민감하게 달라지는 특성이 있다. 특히, 외부 조명 변화는 얼굴 인식에 있어서, 매우 빈번하게 발생하는 장애 요소이므로, 이러한 외부 조명 변화에 강인한 알고리즘을 이용하는 것이 매우 중요하다.Face recognition is a process in which recognition results vary sensitively according to changes in the internal environment such as identity, age, race, facial expression, ornaments, and external environmental changes such as pose, external illumination, and image process There are characteristics. In particular, it is very important to use an algorithm that is robust against this external illumination change, since external illumination change is a very frequent obstacle factor in face recognition.

이와 관련하여, 얼굴 인식과 관련된 주요 알고리즘으로는 PCA(Principal Component Analysis : 주성분 분석), K-PCA(Kernel-PCA : 커널 주성분 분석), ICA(Independent Component Analysis), SVM(Support Vector Machine), NN(Nural-Network : 신경망), HMM(Hidden Markov Model : 은닉 마르코프 모델) 등을 이용한 방식을 주로 사용할 수 있다.In this regard, principal algorithms related to face recognition include PCA (Principal Component Analysis), K-PCA (Kernel-PCA), ICA (Independent Component Analysis), SVM (Support Vector Machine) (Nural-Network: Neural Network), HMM (Hidden Markov Model: Hidden Markov Model).

또한, 촬영된 얼굴 영상에서 눈동자 부분을 구분하는 방법은, 사용자의 눈동자나 홍채의 특징점 정보를 저장해 두었다가, 기 저장된 눈동자의 특징점 정보에 근거해 사용자의 얼굴 영상에서 눈동자 부분을 구분해 낼 수 있다.In addition, the method of distinguishing the pupil portion from the photographed face image can store the minutiae information of the user's pupil or iris, and can distinguish the pupil portion from the user's facial image based on the minutia information of the previously stored pupil.

이어, 사용자거리 산출부(170)는 모바일 장치로부터 사용자의 눈동자까지의 이격 거리를 산출한다(S230). 즉, 눈동자 영상과 디스플레이부의 화면 영상의 크기가 각각 다르므로 눈동자 영상의 크기에 따른 디스플레이 영상의 화면 비율을 설정해 주어야 하기 때문이다.Next, the user distance calculating unit 170 calculates a distance from the mobile device to the user's eyes (S230). That is, since the sizes of the pupil image and the screen image of the display unit are different from each other, the aspect ratio of the display image according to the size of the pupil image must be set.

이어, 눈위치 산출부(130)는 획득된 눈동자 영상의 중앙과 디스플레이부의 화면 중앙을 대응시켜 기준으로 설정하고, 사용자의 눈동자까지의 이격 거리에 따라 눈동자 영상과 디스플레이 영상의 화면 비율을 설정한다(S240).Next, the eye position calculation unit 130 sets the center of the acquired pupil image and the center of the display unit as a reference in association with each other, and sets the aspect ratio of the pupil image and the display image according to the distance to the pupil of the user S240).

이어, 눈위치 산출부(130)는 설정된 화면 비율에 근거해 상기 설정된 기준을 중심으로 눈동자 영상의 움직임 변화에 따라 상, 하, 좌, 우로 주시된 디스플레이 화면의 눈 위치를 산출한다(S250).Then, the eye position calculating unit 130 calculates the eye position of the display screen that is viewed upward, downward, leftward, and rightward according to the movement of the pupil image based on the set reference based on the set aspect ratio (S250).

일반적으로, 사람이 화면의 특정 점을 주시할 때, 특정 점의 영상이 망막의 중심에 위치하도록 안구가 조절된다. 즉, 안구의 중심, 더 구체적으로 눈동자(동공)의 중심과 특정 점이 일직선 상에 위치하게 된다. 따라서, 시선 추적을 위해서는, 사용자 눈, 특히 눈동자(동공) 영역을 검출하고, 이어서 눈동자(동공) 영역의 중심점을 검출하며, 눈동자 영상의 좌표계와 화면의 좌표계 사이의 관계에 근거하여, 검출된 눈동자 영상의 중심점의 위치를 화면 상에 대응하는 주시점의 좌표로 변환한다.Generally, when a person looks at a specific point on the screen, the eye is adjusted so that the image of the specific point is located at the center of the retina. That is, the center of the eyeball, more specifically, the center of the pupil (pupil) and a specific point are located on a straight line. Therefore, in order to track the eye, it is necessary to detect the user's eyes, especially the pupil (pupil) region, then to detect the center point of the pupil (pupil) region, and to detect, based on the relationship between the coordinate system of the pupil image and the coordinate system of the screen, The position of the center point of the image is converted into the coordinates of the main point on the screen.

즉, 눈위치 산출부(130)는 도 3에 도시된 바와 같이 눈동자 영상의 중앙과 디스플레이 화면의 중앙을 대응시켜 기준으로 설정하고, 설정된 기준을 중심으로 눈동자 영상의 움직임 변화에 따라 상, 하, 좌, 우로 주시된 디스플레이 화면의 눈 위치를 산출할 수 있다. 도 3은 본 발명의 실시예에 따른 눈동자 영상의 중앙과 디스플레이 화면의 중앙을 대응시켜 기준으로 설정하는 예를 나타낸 도면이다. 즉, 눈동자 영상과 디스플레이 화면의 크기는 다르지만 눈동자 영상의 중앙과 디스플레이 화면의 중앙이 일치되게 대응시키고 동기화하여 기준점을 설정하게 됨에 따라 눈동자 영상이 기준점을 중심으로 어느 방향으로 얼마만큼 움직이고 있는지를 파악하면 그에 대응되게 디스플레이 화면 상에서 사용자가 주시하는 눈의 위치도 동일한 방향으로 움직이는 것으로 판단하여 사용자의 눈 위치를 파악할 수 있는 것이다. That is, as shown in FIG. 3, the eye position calculating unit 130 sets the center of the pupil image and the center of the display screen in correspondence with each other as a reference, sets the upper, lower, It is possible to calculate the eye position of the display screen viewed in the left and right directions. FIG. 3 is a diagram illustrating an example in which the center of a pupil image according to an embodiment of the present invention is associated with a center of a display screen and is set as a reference. That is, although the sizes of the pupil image and the display screen are different from each other, since the center of the pupil image is matched with the center of the display screen and the reference point is set in synchronization with the center of the display screen, It is determined that the position of the eye viewed by the user on the display screen corresponds to the same direction, so that the position of the user's eyes can be grasped.

예를 들면, 눈위치 산출부(130)는 카메라를 통해 촬영된 눈동자 영상이 도 4에 도시된 바와 같이 기준에 대해 좌측으로 이동한 경우에 디스플레이 화면을 주시하는 사용자의 눈 위치도 디스플레이 화면의 중앙에서 좌측으로 일정 거리 내로 이동한 위치로 산출할 수 있다. 도 4는 본 발명의 실시예에 따라 사용자의 눈동자 영상의 변화에 따른 디스플레이 화면의 눈 위치를 나타낸 도면이다. For example, the eye position calculating unit 130 may calculate the eye position of the user who watches the display screen when the pupil image photographed through the camera moves to the left with respect to the reference as shown in FIG. 4, To a position that has been moved within a certain distance to the left. 4 is a diagram illustrating eye positions of a display screen according to a change of a user's pupil image according to an embodiment of the present invention.

또한, 도 4에 도시된 바와 같이 눈동자 영상이 기준에 대해 우측으로 이동한 경우에 사용자의 눈 위치도 디스플레이 화면의 중앙에서 우측으로 일정 간격으로 이동한 위치로 파악할 수 있다. In addition, as shown in FIG. 4, when the pupil image moves to the right with respect to the reference, the user's eye position can be grasped as a position moved from the center of the display screen to the right side at regular intervals.

또한, 도 4에 도시된 바와 같이, 눈동자 영상이 기준에 대해 상측으로 이동한 경우에 사용자의 눈 위치도 디스플레이 화면의 중앙에서 상측으로 일정 간격만큼 이동한 위치로 파악하거나, 눈동자 영상이 기준에 대해 하측으로 이동한 경우에 사용자의 눈 위치도 디스플레이 화면의 중앙에서 하측으로 일정 간격만큼 이동한 위치로 파악할 수 있다.In addition, as shown in FIG. 4, when the pupil image moves upward relative to the reference, the user's eye position may be grasped as a position shifted by a predetermined distance from the center of the display screen upward, The user's eye position can be grasped as a position shifted by a predetermined distance from the center of the display screen to the lower side.

이때, 눈위치 산출부(130)는 눈동자 영상이 기준에 대해 상, 하, 좌, 우 방향 중 하나의 방향으로 일정 픽셀 이동하면, 디스플레이 화면의 중앙에 대해 상, 하, 좌, 우 방향 중 눈동자 영상이 이동한 방향과 대응되는 방향으로 2배, 3배 등과 같이 정수배 픽셀 이동한 비율로 하여 디스플레이 화면의 눈 위치를 픽셀 단위로 산출할 수 있다.In this case, if the eye position calculation unit 130 moves a certain pixel in one of the up, down, left, and right directions with respect to the reference, the eye position calculation unit 130 calculates the eye position The eye position of the display screen can be calculated in units of pixels by using a ratio of pixels shifted by an integral multiple such as 2 times or 3 times in the direction corresponding to the moving direction of the image.

즉, 눈동자 영상과 디스플레이 화면의 크기가 다르므로, 눈동자 영상의 움직임에 따른 디스플레이 화면의 눈 위치를 픽셀 단위로 하여 일정 비율로써 산출하는 것이다. 예를 들면, 눈동자 영상이 기준에 대해 상측 방향으로 5 픽셀 이동한 것으로 판단되면, 디스플레이 화면의 눈 위치는 중앙의 기준에 대해 상측 방향으로 3 배나 5 배, 즉, 15 픽셀이나 25 픽셀 이동한 것으로 산출할 수 있다.That is, since the size of the pupil image differs from that of the display screen, the eye position of the display screen according to the motion of the pupil image is calculated at a predetermined ratio in units of pixels. For example, if it is determined that the pupil image has shifted 5 pixels in the upward direction with respect to the reference, the eye position of the display screen is shifted upward by 3 times or 5 times, that is, 15 pixels or 25 pixels with respect to the center reference Can be calculated.

제어부(140)는 사용자가 디스플레이 화면에서 내용을 보고 있다가 눈의 위치가 어느 특정 지점에 머무르게 됨에 따라, 디스플레이 화면의 눈 위치가 일정 시간이 지나도 변동이 없는 경우에(S260-예), 도 5에 도시된 바와 같이 변동이 없는 디스플레이 화면의 눈 위치에서 마우스 오버 기능 또는 툴팁 기능을 실행한다(S270). 도 5는 본 발명의 실시예에 따라 사용자가 주시하는 디스플레이 화면에서 눈 위치가 일정 시간이 지나도 변동이 없는 경우에 그 눈 위치에서 툴팁 기능이 실행되는 예를 나타낸 도면이다. In the case where the eye position of the display screen does not change after a certain period of time (S260-Yes) as the eye position remains at a specific position while the user is watching the contents on the display screen, The mouse over function or the tool tip function is executed at the eye position of the display screen having no fluctuation as shown in FIG. FIG. 5 is a diagram illustrating an example in which a tool tip function is executed at an eye position in a display screen viewed by a user according to an embodiment of the present invention when the eye position does not change after a predetermined time.

즉, 제어부(140)는 단말 조작을 위한 시선 집중이 발생하면, 사용자가 기준 시간 이상 일정 방향으로 시선을 고정하는 경우, 정보가 표시되는 디스플레이부(110)의 화면 상에서 사용자의 시선이 고정된 시선 집중 위치를 산출한다.That is, when the user concentrates the gaze in a fixed direction more than the reference time when the gaze concentrates for the operation of the terminal, the control unit 140 displays the gaze on the screen of the display unit 110, And calculates the concentrated position.

시선 집중 위치는, 도 4에 도시된 바와 같이 카메라에 의해 촬영된 눈동자 영상의 좌표계와, 디스플레이부(110)의 화면의 좌표계의 기하학적 관계로부터 눈동자(동공)의 위치를 화면의 좌표로 매핑함에 의해 산출하는 것이다. 따라서, 제어부(140)는 산출된 시선 집중 위치를 기준으로 마우스 오버 기능 또는 툴팁 기능을 실행하는 것이다.4, by mapping the position of the pupil (pupil) to the coordinates of the screen from the coordinate system of the pupil image captured by the camera and the geometric relationship of the coordinate system of the screen of the display unit 110 . Accordingly, the controller 140 executes a mouse over function or a tool tip function based on the calculated line-of-sight concentration position.

전술한 바와 같이 본 발명에 의하면, 모바일 장치의 카메라를 통해 사용자의 얼굴을 촬영해 사용자의 눈동자를 구분하고 사용자의 시선을 인식하여, 사용자의 시선이 머무는 화면의 위치에 마우스 오버(mouse over) 기능과 툴팁 기능을 실행할 수 있도록 하는 눈동자 추적을 이용한 모바일 툴팁 방법 및 장치를 실현할 수 있다.As described above, according to the present invention, the user's face is photographed through the camera of the mobile device to distinguish the user's eyes and recognize the user's gaze, and a mouse over function And a mobile tool tip method and apparatus using pupil tracking that enables tool tip functions to be performed.

본 발명이 속하는 기술분야의 당업자는 본 발명이 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있으므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로서 이해해야만 한다. 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 등가개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the present invention as defined by the following claims and their equivalents. Only. The scope of the present invention is defined by the appended claims rather than the detailed description and all changes or modifications derived from the meaning and scope of the claims and their equivalents are to be construed as being included within the scope of the present invention do.

본 발명은 모바일 장치의 화면을 주시하는 사용자의 시선을 인식하여, 사용자의 시선이 머무는 화면의 위치에 마우스 오버(mouse over) 기능과 툴팁 기능을 실행할 수 있도록 하는 눈동자 추적을 이용한 모바일 툴팁 방법 및 장치에 적용할 수 있다.The present invention relates to a mobile tool tip method and apparatus using pupil tracking that enables a mouse over function and a tool tip function to be performed on a position of a screen where a user's gaze is perceived by recognizing the user's gaze on the screen of the mobile device .

100 : 모바일 장치 110 : 디스플레이부
120 : 눈동자 영상 획득부 130 : 눈위치 산출부
140 : 제어부 150 : 저장부
160 : 입력부
100: mobile device 110: display unit
120: pupil image obtaining unit 130: eye position calculating unit
140: control unit 150:
160:

Claims (6)

데이터나 정보, 컨텐츠에 관한 내용을 화면 상에 디스플레이하는 디스플레이부;
상기 디스플레이 화면을 주시하는 사용자의 얼굴을 촬영해 눈동자 영상을 획득하는 눈동자 영상 획득부;
상기 사용자의 눈동자까지의 거리를 산출하는 사용자거리 산출부;
상기 획득된 눈동자 영상의 중앙과 상기 디스플레이 화면의 중앙을 대응시켜 기준으로 설정하고, 상기 사용자의 눈동자까지의 이격 거리에 따라 눈동자 영상과 디스플레이 영상의 화면 비율을 설정하며, 상기 설정된 화면 비율에 근거해 상기 설정된 기준을 중심으로 눈동자 영상의 움직임 변화에 따라 상, 하, 좌, 우로 주시된 디스플레이 화면의 눈 위치를 산출하는 눈위치 산출부; 및
상기 디스플레이 화면의 눈 위치가 일정 시간이 지나도 변동이 없는 경우에 상기 디스플레이 화면의 눈 위치에 마우스 오버 기능 또는 툴팁 기능이 실행되도록 제어하는 제어부;
를 포함하는 눈동자 추적을 이용한 모바일 툴팁 기능의 모바일 장치.
A display unit for displaying contents related to data, information, and contents on a screen;
A pupil image acquiring unit for acquiring a pupil image by photographing a face of a user watching the display screen;
A user distance calculating unit for calculating a distance to the pupil of the user;
Setting a center of the acquired pupil image and a center of the display screen as a reference, setting an aspect ratio of the pupil image and the display image according to a distance to the pupil of the user, An eye position calculating unit for calculating an eye position of a display screen that is viewed upward, downward, leftward, and rightward according to a change in motion of the pupil image around the set reference; And
A controller for controlling a mouse over function or a tool tip function to be performed on an eye position of the display screen when the eye position of the display screen does not change after a predetermined time;
A mobile tooltip with mobile tooltip tracking using pupil tracking.
청구항 1에 있어서,
상기 눈동자 영상 획득부는, 상기 사용자의 얼굴을 촬영하기 위한 카메라를 포함하고, 상기 카메라를 통해 촬영된 얼굴 영상에서 눈동자 부분을 구분해 눈동자 영상을 획득하는 것을 특징으로 하는 눈동자 추적을 이용한 모바일 툴팁 기능의 모바일 장치.
The method according to claim 1,
Wherein the pupil image obtaining unit includes a camera for photographing the face of the user, and a pupil image is obtained by dividing the pupil portion of the face image photographed through the camera, Mobile device.
청구항 1에 있어서,
상기 눈위치 산출부는, 상기 눈동자 영상이 상기 기준에 대해 상, 하, 좌, 우 방향 중 하나의 방향으로 일정 픽셀 이동하면, 상기 디스플레이 화면의 중앙에 대해 상, 하, 좌, 우 방향 중 눈동자 영상이 이동한 방향과 대응되는 하나의 방향으로 정수배 픽셀 이동한 비율로 하여 상기 디스플레이 화면의 눈 위치를 픽셀 단위로 산출하는 것을 특징으로 하는 눈동자 추적을 이용한 모바일 툴팁 기능의 모바일 장치.
The method according to claim 1,
The eye position calculating unit may calculate the eye position of the pupil image in the upper, lower, left, and right directions with respect to the center of the display screen, when the pupil image is moved by a certain pixel in one of the upward, Wherein the eye position of the display screen is calculated in units of pixels by using a ratio of pixels shifted by an integral multiple in one direction corresponding to the moving direction of the mobile unit.
디스플레이부, 눈동자 영상 획득부, 눈위치 산출부, 사용자거리 산출부 및 제어부를 포함하는 모바일 장치의 눈동자 추적을 이용한 모바일 툴팁 방법으로서,
(a) 상기 디스플레이부가 데이터나 정보, 컨텐츠에 관한 내용을 화면 상에 디스플레이하는 단계;
(b) 상기 눈동자 영상 획득부가 상기 디스플레이 화면을 주시하는 사용자의 얼굴을 촬영해 눈동자 영상을 획득하는 단계;
(c) 상기 사용자거리 산출부가 사용자의 눈동자까지의 이격 거리를 산출하는 단계;
(d) 상기 눈위치 산출부가 상기 획득된 눈동자 영상의 중앙과 상기 디스플레이부의 화면 중앙을 대응시켜 기준으로 설정하고, 상기 사용자의 눈동자까지의 이격 거리에 따라 눈동자 영상과 디스플레이 영상의 화면 비율을 설정하는 단계;
(e) 상기 눈위치 산출부가 상기 설정된 화면 비율에 근거해 상기 설정된 기준을 중심으로 눈동자 영상의 움직임 변화에 따라 상, 하, 좌, 우로 주시된 디스플레이 화면의 눈 위치를 산출하는 단계; 및
(f) 상기 제어부가 상기 디스플레이 화면의 눈 위치가 일정 시간이 지나도 변동이 없는 경우에 상기 디스플레이 화면의 눈 위치에 마우스 오버 기능 또는 툴팁 기능을 실행하는 단계;
를 포함하는 모바일 장치의 눈동자 추적을 이용한 모바일 툴팁 방법.
A mobile tool tip method using a pupil tracking of a mobile device including a display unit, a pupil image acquisition unit, an eye position calculation unit, a user distance calculation unit, and a control unit,
(a) displaying, on the screen, contents related to data, information and contents of the display unit;
(b) the pupil image acquiring unit photographs a face of a user watching the display screen to acquire a pupil image;
(c) calculating the distance of the user's distance to the user's pupil;
(d) The eye position calculation unit sets the center of the acquired pupil image and the center of the screen of the display unit as a reference, sets the aspect ratio of the pupil image and the display image according to the distance to the pupil of the user step;
(e) calculating an eye position of a display screen that is viewed in upward, downward, leftward, and rightward directions according to a change in movement of the pupil image based on the set reference based on the set image ratio; And
(f) executing a mouse over function or a tool tip function at an eye position of the display screen when the eye position of the display screen does not change after a predetermined time;
A mobile tool tip method using a pupil tracking of a mobile device.
청구항 4에 있어서,
상기 (b) 단계는, 상기 눈동자 영상 획득부가 카메라를 통해 사용자의 얼굴을 촬영하고, 상기 카메라를 통해 촬영된 얼굴 영상에서 눈동자 부분을 구분해 눈동자 영상을 획득하는 것을 특징으로 하는 모바일 장치의 눈동자 추적을 이용한 모바일 툴팁 방법.
The method of claim 4,
Wherein the pupil image acquiring unit photographs a face of a user through a camera and classifies a pupil portion of the face image photographed through the camera to obtain a pupil image of the mobile device Mobile tooltip method using.
청구항 4에 있어서,
상기 (e) 단계는, 상기 눈위치 산출부가 상기 눈동자 영상이 상기 기준에 대해 상, 하, 좌, 우 방향 중 하나의 방향으로 일정 픽셀 이동하면, 상기 디스플레이 화면의 중앙에 대해 상, 하, 좌, 우 방향 중 눈동자 영상이 이동한 방향과 대응되는 하나의 방향으로 정수배 픽셀 이동한 비율로 하여 상기 디스플레이 화면의 눈 위치를 픽셀 단위로 산출하는 것을 특징으로 하는 모바일 장치의 눈동자 추적을 이용한 모바일 툴팁 방법.
The method of claim 4,
In the step (e), when the eye position calculation unit moves the pupil image by a certain pixel in one of the up, down, left, and right directions with respect to the reference, , And the eye position of the display screen is calculated in units of pixels by using a ratio of pixels shifted by an integer multiple in one direction corresponding to the moving direction of the pupil image in the right direction. .
KR1020130052223A 2013-05-09 2013-05-09 Device and method for mobile tooltip using eye detecting KR102181897B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130052223A KR102181897B1 (en) 2013-05-09 2013-05-09 Device and method for mobile tooltip using eye detecting

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130052223A KR102181897B1 (en) 2013-05-09 2013-05-09 Device and method for mobile tooltip using eye detecting

Publications (2)

Publication Number Publication Date
KR20140132906A true KR20140132906A (en) 2014-11-19
KR102181897B1 KR102181897B1 (en) 2020-11-23

Family

ID=52453693

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130052223A KR102181897B1 (en) 2013-05-09 2013-05-09 Device and method for mobile tooltip using eye detecting

Country Status (1)

Country Link
KR (1) KR102181897B1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160086671A (en) * 2015-01-12 2016-07-20 삼성전자주식회사 Electronic device and method for determining central of an eye in electronic device
JP2018519601A (en) * 2015-03-10 2018-07-19 アイフリー アシスティング コミュニケ−ション リミテッドEyeFree Assisting Communication Ltd. System and method enabling communication by eye feedback
KR20190056588A (en) * 2017-11-17 2019-05-27 주식회사 에이유이 Iris recognition method capable of biometric classification and system using the same
CN114910052A (en) * 2022-05-27 2022-08-16 深圳市立体通技术有限公司 Camera-based distance measurement method, control method and device and electronic equipment
US11612342B2 (en) 2017-12-07 2023-03-28 Eyefree Assisting Communication Ltd. Eye-tracking communication methods and systems

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100847142B1 (en) 2006-11-30 2008-07-18 한국전자통신연구원 Preprocessing method for face recognition, face recognition method and apparatus using the same
KR20090036578A (en) * 2006-08-07 2009-04-14 야후! 인크. Calendar event, notification and alert bar embedded within mail
KR20110038568A (en) * 2009-10-08 2011-04-14 한국전자통신연구원 Apparatus and mehtod for tracking eye
JP4951751B2 (en) * 2005-04-26 2012-06-13 国立大学法人静岡大学 Pointing apparatus and method based on pupil detection

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4951751B2 (en) * 2005-04-26 2012-06-13 国立大学法人静岡大学 Pointing apparatus and method based on pupil detection
KR20090036578A (en) * 2006-08-07 2009-04-14 야후! 인크. Calendar event, notification and alert bar embedded within mail
KR100847142B1 (en) 2006-11-30 2008-07-18 한국전자통신연구원 Preprocessing method for face recognition, face recognition method and apparatus using the same
KR20110038568A (en) * 2009-10-08 2011-04-14 한국전자통신연구원 Apparatus and mehtod for tracking eye

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160086671A (en) * 2015-01-12 2016-07-20 삼성전자주식회사 Electronic device and method for determining central of an eye in electronic device
JP2018519601A (en) * 2015-03-10 2018-07-19 アイフリー アシスティング コミュニケ−ション リミテッドEyeFree Assisting Communication Ltd. System and method enabling communication by eye feedback
US11883101B2 (en) 2015-03-10 2024-01-30 Eyefree Assisting Communication Ltd. System and method for enabling communication through eye feedback
KR20190056588A (en) * 2017-11-17 2019-05-27 주식회사 에이유이 Iris recognition method capable of biometric classification and system using the same
US11612342B2 (en) 2017-12-07 2023-03-28 Eyefree Assisting Communication Ltd. Eye-tracking communication methods and systems
CN114910052A (en) * 2022-05-27 2022-08-16 深圳市立体通技术有限公司 Camera-based distance measurement method, control method and device and electronic equipment

Also Published As

Publication number Publication date
KR102181897B1 (en) 2020-11-23

Similar Documents

Publication Publication Date Title
US8947351B1 (en) Point of view determinations for finger tracking
US10001838B2 (en) Feature tracking for device input
CN106462242B (en) Use the user interface control of eye tracking
KR20230170086A (en) Hand gestures for animating and controlling virtual and graphical elements
US8942434B1 (en) Conflict resolution for pupil detection
US9207852B1 (en) Input mechanisms for electronic devices
US11715231B2 (en) Head pose estimation from local eye region
US10019107B2 (en) Correcting for parallax in electronic displays
EP2879020B1 (en) Display control method, apparatus, and terminal
US9269009B1 (en) Using a front-facing camera to improve OCR with a rear-facing camera
CN109375765B (en) Eyeball tracking interaction method and device
US10366281B2 (en) Gesture identification with natural images
US10937243B2 (en) Real-world object interface for virtual, augmented, and mixed reality (xR) applications
JP2010067104A (en) Digital photo-frame, information processing system, control method, program, and information storage medium
CN105068646B (en) The control method and system of terminal
KR102181897B1 (en) Device and method for mobile tooltip using eye detecting
US9652083B2 (en) Integrated near field sensor for display devices
US20220405946A1 (en) Inferring user pose using optical data
Utaminingrum et al. Eye movement and blink detection for selecting menu on-screen display using probability analysis based on facial landmark
CN109947243A (en) Based on the capture of intelligent electronic device gesture and identification technology for touching hand detection
US10082936B1 (en) Handedness determinations for electronic devices
CN109960406A (en) Based on the intelligent electronic device gesture capture acted between both hands finger and identification technology
US9911237B1 (en) Image processing techniques for self-captured images
Xiahou et al. Integrated approach of dynamic human eye movement recognition and tracking in real time
Mangaiyarkarasi et al. Cursor control system using facial expressions for human-computer interaction

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant