KR20140132906A - Device and method for mobile tooltip using eye detecting - Google Patents
Device and method for mobile tooltip using eye detecting Download PDFInfo
- Publication number
- KR20140132906A KR20140132906A KR1020130052223A KR20130052223A KR20140132906A KR 20140132906 A KR20140132906 A KR 20140132906A KR 1020130052223 A KR1020130052223 A KR 1020130052223A KR 20130052223 A KR20130052223 A KR 20130052223A KR 20140132906 A KR20140132906 A KR 20140132906A
- Authority
- KR
- South Korea
- Prior art keywords
- user
- pupil
- eye position
- pupil image
- display screen
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/0304—Detection arrangements using opto-electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0354—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/038—Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Eye Examination Apparatus (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Abstract
Description
본 발명은 터치 입력 방식의 모바일 장치에서 툴팁(Tool Tip) 기능을 실행하는 기술에 관한 것으로서, 더욱 자세하게는 모바일 장치의 카메라를 통해 사용자의 얼굴을 촬영해 사용자의 눈동자를 구분하고 사용자의 시선을 인식하여, 사용자의 시선이 머무는 화면의 위치에 마우스 오버(mouse over) 기능과 툴팁 기능을 실행할 수 있도록 하는 눈동자 추적을 이용한 모바일 툴팁 방법 및 장치에 관한 것이다.The present invention relates to a technology for executing a tool tip function in a touch input type mobile device. More specifically, the present invention relates to a technique of capturing a user's face through a camera of a mobile device to classify a user's eyes, The present invention relates to a mobile tool tip method and apparatus using a pupil tracking that enables a mouse over function and a tool tip function to be performed on a position of a screen where a user's gaze stays.
기술의 발달로 데스크 탑, 노트북, PDA, 스마트 디스플레이 등 디스플레이 장치는 개인이 사용하기에 부족함이 없다. Due to the development of technology, display devices such as desktops, laptops, PDAs, and smart displays are not in need of personal use.
그러나, 입력장치 면에서는 아직도 마우스라든가 키보드 또는 터치스크린 등 사람이 과거에 오랫동안 사용되어 오던 기술이 쓰여지고 있다. 아직 음성인식을 이용한 기술은 기술적인 한계점으로 인해 일부 특별한 부분에서만 사용되고 있으며 일반적으로 쓰이는 기술은 아니다.However, in terms of the input device, technologies such as a mouse, a keyboard, or a touch screen have been used for a long time in the past. Technology using speech recognition is still used only in some special areas due to technical limitations and is not a commonly used technology.
최근의 모바일 단말기는 사이즈의 소형화와 사용상의 편의를 위해 사용자의 명령어 입력 수단으로서 터치패널을 구비하고 있다. 이러한 터치패널은 터치, 드래그 등 사용자의 터치 동작을 인식하여 사용자 입력을 처리한다. 2. Description of the Related Art [0002] In recent mobile terminals, a touch panel is provided as a command input means of a user for size reduction and ease of use. Such a touch panel recognizes the user's touch operation such as touching and dragging, and processes the user input.
그런데, 모바일 단말기의 경우 터치패널의 동작 인식 특성으로 인해 마우스 오버(mouse over) 기능의 구현이 불가능하며, 툴팁(Tool Tip) 기능 또한 구현이 불가능하다.However, in the case of a mobile terminal, it is impossible to implement a mouse over function due to the motion recognition characteristics of the touch panel, and a tool tip function can not be implemented.
한편, 모바일 단말기는 화면의 크기에 맞추어 영상, 텍스트 등과 같은 정보를 표시한 후, 사용자가 필요한 부분을 선택하여 자세히 볼 수 있다.On the other hand, the mobile terminal displays information such as images, texts and the like in accordance with the size of the screen,
이를 위해서, 사용자는 키패드, 키보드, 마우스, 조이스틱과 같이 휴대 단말에 구비된 입력 수단을 손으로 조작하여, 휴대 단말의 화면에서 필요한 부분을 선택하여야 한다.For this purpose, the user must manually select the necessary part of the screen of the mobile terminal by manually operating the input means such as a keypad, a keyboard, a mouse, and a joystick.
이와 같이 종래의 단말기는 사용자가 표시된 정보 중에서 원하는 부분을 선택하기 위해서 입력 수단을 손으로 여러번 조작해야 하기 때문에 사용이 불편하다. 특히, 모바일 단말기의 경우, 사용자가 단말기를 손으로 지지하고 있는 상태에서 입력 수단을 조작하여야 하기 때문에, 손으로 입력 수단을 조작하기가 어렵고, 그에 따라서 사용자의 불편이 가중된다.Thus, the conventional terminal is inconvenient to use because the user has to manually operate the input means several times in order to select a desired portion from the displayed information. Particularly, in the case of a mobile terminal, it is difficult to manipulate the input means by hand because the user must operate the input means while holding the terminal by hand, thereby increasing the inconvenience of the user.
또한, 모바일 단말기는 이동 중에 사용하는 경우가 많기 때문에, 사용자의 양손 사용이 어려운 경우 입력에 어려움이 있다.In addition, since the mobile terminal is often used while moving, it is difficult to input when the user is unable to use both hands.
전술한 문제점을 해결하기 위한 본 발명의 목적은, 모바일 장치의 카메라를 통해 사용자의 얼굴을 촬영해 사용자의 눈동자를 구분하고 사용자의 시선을 인식하여, 사용자의 시선이 머무는 화면의 위치에 마우스 오버(mouse over) 기능과 툴팁 기능을 실행할 수 있도록 하는 눈동자 추적을 이용한 모바일 툴팁 방법 및 장치를 제공함에 있다.An object of the present invention to solve the above-mentioned problems is to provide a mobile device that captures a face of a user through a camera of a mobile device, identifies the user's eyes, recognizes the user's gaze, mouse over function and a tool tip function using a pupil tracking method.
전술한 목적을 달성하기 위한 본 발명의 일 측면에 따르면, 데이터나 정보, 컨텐츠에 관한 내용을 화면 상에 디스플레이하는 디스플레이부; 상기 디스플레이 화면을 주시하는 사용자의 얼굴을 촬영해 눈동자 영상을 획득하는 눈동자 영상 획득부; 상기 사용자의 눈동자까지의 거리를 산출하는 사용자거리 산출부; 상기 획득된 눈동자 영상의 중앙과 상기 디스플레이 화면의 중앙을 대응시켜 기준으로 설정하고, 상기 사용자의 눈동자까지의 이격 거리에 따라 눈동자 영상과 디스플레이 영상의 화면 비율을 설정하며, 상기 설정된 화면 비율에 근거해 상기 설정된 기준을 중심으로 눈동자 영상의 움직임 변화에 따라 상, 하, 좌, 우로 주시된 디스플레이 화면의 눈 위치를 산출하는 눈위치 산출부; 및 상기 디스플레이 화면의 눈 위치가 일정 시간이 지나도 변동이 없는 경우에 상기 디스플레이 화면의 눈 위치에 마우스 오버 기능 또는 툴팁 기능이 실행되도록 제어하는 제어부를 포함하는 눈동자 추적을 이용한 모바일 툴팁 기능의 모바일 장치가 제공된다.According to an aspect of the present invention, there is provided a display apparatus including: a display unit for displaying data, information, and contents on a screen; A pupil image acquiring unit for acquiring a pupil image by photographing a face of a user watching the display screen; A user distance calculating unit for calculating a distance to the pupil of the user; Setting a center of the acquired pupil image and a center of the display screen as a reference, setting an aspect ratio of the pupil image and the display image according to a distance to the pupil of the user, An eye position calculating unit for calculating an eye position of a display screen that is viewed upward, downward, leftward, and rightward according to a change in motion of the pupil image around the set reference; And a controller for controlling a mouse over function or a tool tip function to be performed on an eye position of the display screen when the eye position of the display screen does not change even after a predetermined time passes, / RTI >
또한, 상기 눈동자 영상 획득부는, 상기 사용자의 얼굴을 촬영하기 위한 카메라를 포함하고, 상기 카메라를 통해 촬영된 얼굴 영상에서 눈동자 부분을 구분해 눈동자 영상을 획득할 수 있다.In addition, the pupil image obtaining unit may include a camera for photographing the user's face, and the pupil image may be obtained by dividing the pupil portion of the face image captured through the camera.
그리고, 상기 눈위치 산출부는, 상기 눈동자 영상이 상기 기준에 대해 상, 하, 좌, 우 방향 중 하나의 방향으로 일정 픽셀 이동하면, 상기 디스플레이 화면의 중앙에 대해 상, 하, 좌, 우 방향 중 눈동자 영상이 이동한 방향과 대응되는 하나의 방향으로 정수배 픽셀 이동한 비율로 하여 상기 디스플레이 화면의 눈 위치를 픽셀 단위로 산출할 수 있다.When the pupil image is moved in a predetermined direction in one of the up, down, left, and right directions with respect to the reference, the eye position calculating unit calculates the eye position The eye position of the display screen can be calculated in units of pixels by using a ratio of pixels shifted by an integral multiple in one direction corresponding to the moving direction of the pupil image.
한편, 전술한 목적을 달성하기 위한 본 발명의 다른 측면에 따르면, 디스플레이부, 눈동자 영상 획득부, 눈위치 산출부 및 제어부를 포함하는 모바일 장치의 눈동자 추적을 이용한 모바일 툴팁 방법으로서, (a) 상기 디스플레이부가 데이터나 정보, 컨텐츠에 관한 내용을 화면 상에 디스플레이하는 단계; (b) 상기 눈동자 영상 획득부가 상기 디스플레이 화면을 주시하는 사용자의 얼굴을 촬영해 눈동자 영상을 획득하는 단계; (c) 상기 사용자거리 산출부가 사용자의 눈동자까지의 이격 거리를 산출하는 단계; (d) 상기 눈위치 산출부가 상기 획득된 눈동자 영상의 중앙과 상기 디스플레이부의 화면 중앙을 대응시켜 기준으로 설정하고, 상기 사용자의 눈동자까지의 이격 거리에 따라 눈동자 영상과 디스플레이 영상의 화면 비율을 설정하는 단계; (e) 상기 눈위치 산출부가 상기 설정된 화면 비율에 근거해 상기 설정된 기준을 중심으로 눈동자 영상의 움직임 변화에 따라 상, 하, 좌, 우로 주시된 디스플레이 화면의 눈 위치를 산출하는 단계; 및 (f) 상기 제어부가 상기 디스플레이 화면의 눈 위치가 일정 시간이 지나도 변동이 없는 경우에 상기 디스플레이 화면의 눈 위치에 마우스 오버 기능 또는 툴팁 기능을 실행하는 단계를 포함하는 모바일 장치의 눈동자 추적을 이용한 모바일 툴팁 방법이 제공된다.According to another aspect of the present invention, there is provided a mobile tool tip method using a pupil tracking of a mobile device including a display unit, a pupil image obtaining unit, an eye position calculating unit, and a control unit, Displaying on the screen contents related to the display unit data, information, and contents; (b) the pupil image acquiring unit photographs a face of a user watching the display screen to acquire a pupil image; (c) calculating the distance of the user's distance to the user's pupil; (d) The eye position calculation unit sets the center of the acquired pupil image and the center of the screen of the display unit as a reference, sets the aspect ratio of the pupil image and the display image according to the distance to the pupil of the user step; (e) calculating an eye position of a display screen that is viewed in upward, downward, leftward, and rightward directions according to a change in movement of the pupil image based on the set reference based on the set image ratio; And (f) performing a mouse over function or a tool tip function on the eye position of the display screen when the eye position of the display screen does not change even after a predetermined period of time has elapsed. A mobile tooltip method is provided.
또한, 상기 (b) 단계는, 상기 눈동자 영상 획득부가 카메라를 통해 사용자의 얼굴을 촬영하고, 상기 카메라를 통해 촬영된 얼굴 영상에서 눈동자 부분을 구분해 눈동자 영상을 획득할 수 있다.In the step (b), the pupil image acquiring unit may photograph a user's face through a camera, and may divide a pupil portion of the face image photographed through the camera to acquire a pupil image.
그리고, 상기 (e) 단계는, 상기 눈위치 산출부가 상기 눈동자 영상이 상기 기준에 대해 상, 하, 좌, 우 방향 중 하나의 방향으로 일정 픽셀 이동하면, 상기 디스플레이 화면의 중앙에 대해 상, 하, 좌, 우 방향 중 눈동자 영상이 이동한 방향과 대응되는 하나의 방향으로 정수배 픽셀 이동한 비율로 하여 상기 디스플레이 화면의 눈 위치를 픽셀 단위로 산출할 수 있다.In the step (e), when the eye-position calculating unit moves the pupil image by a certain pixel in one of the upward, downward, left, and right directions with respect to the reference, , And the eye position of the display screen may be calculated in units of pixels by using a ratio of pixels shifted by an integral multiple in one direction corresponding to the direction in which the pupil image has moved in the left and right directions.
본 발명에 의하면, 터치입력 방식의 모바일 장치에 마우스 오버 기능 및 툴팁 기능을 구현할 수 있다.According to the present invention, a mouse over function and a tool tip function can be implemented in a touch input type mobile device.
또한, 사용자가 단말기를 손으로 지지하고 있는 상태에서 입력 수단을 조작하지 않아도 주시하는 화면의 내용을 파악하면서 특정 부분에 시선을 고정함으로써 부가적인 기능을 손쉽게 수행할 수 있어 사용자의 편의성이 증대된다.Further, the user can easily perform the additional function by fixing the gaze to a specific part while grasping the contents of the screen to be watched even if the user does not operate the input means while the user is holding the terminal by hand, thereby enhancing convenience for the user.
그리고, 모바일 단말기는 이동 중에 사용하는 경우가 많기 때문에, 사용자의 양손 사용이 어려운 경우에도 사용자가 화면에 집중하기만 하면 마우스 오버 또는 툴팁 기능을 통해 양손을 사용하지 않아도 입력을 손쉽게 할 수 있다.In addition, since the mobile terminal is often used on the move, even if the user's hands are difficult to use, the user can easily input the input without using both hands through mouse-over or tooltip function as long as the user concentrates on the screen.
도 1은 본 발명의 실시예에 따른 모바일 장치의 기능 블럭을 나타낸 구성도이다.
도 2는 본 발명의 실시예에 따른 모바일 장치의 눈동자 추적을 이용한 모바일 툴팁 방법을 설명하기 위한 동작 흐름도를 나타낸 도면이다.
도 3은 본 발명의 실시예에 따른 눈동자 영상의 중앙과 디스플레이 화면의 중앙을 대응시켜 기준으로 설정하는 예를 나타낸 도면이다.
도 4는 본 발명의 실시예에 따라 사용자의 눈동자 영상의 변화에 따른 디스플레이 화면의 눈 위치를 나타낸 도면이다.
도 5는 본 발명의 실시예에 따라 사용자가 주시하는 디스플레이 화면에서 눈 위치가 일정 시간이 지나도 변동이 없는 경우에 그 눈 위치에서 툴팁 기능이 실행되는 예를 나타낸 도면이다. 1 is a block diagram illustrating a functional block of a mobile device according to an embodiment of the present invention.
2 is a flowchart illustrating a mobile tool tip method using eye tracking of a mobile device according to an exemplary embodiment of the present invention.
FIG. 3 is a diagram illustrating an example in which the center of a pupil image according to an embodiment of the present invention is associated with a center of a display screen and is set as a reference.
4 is a diagram illustrating eye positions of a display screen according to a change of a user's pupil image according to an embodiment of the present invention.
FIG. 5 is a diagram illustrating an example in which a tool tip function is executed at an eye position in a display screen viewed by a user according to an embodiment of the present invention when the eye position does not change after a predetermined time.
본 발명의 목적과 기술적 구성 및 그에 따른 작용 효과에 관한 자세한 사항은 본 발명의 명세서에 첨부된 도면에 의거한 이하 상세한 설명에 의해 보다 명확하게 이해될 것이다. 이하, 첨부된 도면을 참조하여 본 발명에 따른 실시예를 상세하게 설명한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Reference will now be made in detail to the preferred embodiments of the present invention, examples of which are illustrated in the accompanying drawings, wherein like reference numerals refer to the like elements throughout. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.
도 1은 본 발명의 실시예에 따른 모바일 장치의 기능 블럭을 나타낸 구성도이다.1 is a block diagram illustrating a functional block of a mobile device according to an embodiment of the present invention.
도 1을 참조하면, 본 발명의 실시예에 따른 눈동자 추적을 이용한 모바일 툴팁 기능의 모바일 장치(100)는, 디스플레이부(110), 눈동자 영상 획득부(120), 눈위치 산출부(130), 제어부(140), 저장부(150), 입력부(160) 및 사용자거리 산출부(170) 등을 포함한다.Referring to FIG. 1, a
디스플레이부(110)는 데이터나 정보, 컨텐츠에 관한 내용을 화면 상에 디스플레이한다. The
즉, 디스플레이부(110)는 제어부(140)의 제어에 따라서, 시각적으로 표현되는 정보를 표시한다. 정보는 동영상, 텍스트, 사진 및 웹 페이지 등뿐만 아니라, 단말 장치에서 실행할 수 있는 기능을 알려주는 메뉴까지 포함할 수 있다. 또한, 디스플레이부(110)는, 제어부(140)의 제어에 따라서, 표시하고 있는 정보의 특정 부분을 확대하여 표시할 수 있다. 이러한 디스플레이부(110)로는, LCD(Liquid Crystal Display)나 터치스크린 등 다양한 형태의 디스플레이 수단이 사용될 수 있다.That is, the
눈동자 영상 획득부(120)는 디스플레이 화면을 주시하는 사용자의 얼굴을 촬영해 눈동자 영상을 획득한다. 이를 위해, 눈동자 영상 획득부(120)는 사용자의 얼굴을 촬영하기 위한 카메라를 포함하고, 카메라를 통해 촬영된 얼굴 영상에서 눈동자 부분을 구분해 눈동자 영상을 획득할 수 있다.The pupil
눈위치 산출부(130)는 획득된 눈동자 영상에 근거해 눈동자가 주시하는 디스플레이 화면의 눈 위치를 산출한다.The eye
즉, 눈위치 산출부(130)는 카메라에서 촬영된 사용자 영상을 이용하여 사용자의 시선 궤적을 추적하고, 시선 궤적의 추적을 통해 단말 조작을 위한 시선 집중이 인식되면 시선이 집중되는 디스플레이부의 화면 상의 위치를 산출하는 것이다.That is, the eye
이를 위해, 눈위치 산출부(130)는 눈동자 영상의 중앙과 디스플레이 화면의 중앙을 대응시켜 기준점으로 설정하며, 설정된 기준점을 중심으로 눈동자 영상의 움직임 변화에 따라 상, 하, 좌, 우로 주시된 디스플레이 화면의 눈 위치를 산출할 수 있다.For this purpose, the eye
이때, 눈위치 산출부(130)는 눈동자 영상이 기준점에 대해 상, 하, 좌, 우 방향 중 하나의 방향으로 일정 픽셀 이동하면, 사용자거리 산출부(170)를 통해 산출된 사용자의 눈동자로부터 모바일 장치(100)까지의 이격 거리에 따라 눈동자 영상과 디스플레이 영상의 화면 비율을 설정하고, 설정된 화면 비율에 근거해 디스플레이 화면의 중앙에 대해 상, 하, 좌, 우 방향 중 눈동자 영상이 이동한 방향과 대응되는 방향으로 2배, 3배 등과 같이 정수배 픽셀 이동한 비율로 하여 디스플레이 화면의 눈 위치를 픽셀 단위로 산출할 수 있다.In this case, when the eye
따라서, 눈위치 산출부(130)는 시선 추적 모듈과 위치 산출 모듈을 포함하는 구성으로 구현할 수 있다. Accordingly, the eye
시선 추적 모듈은, 시선 궤적의 추적을 통해서, 단말 조작을 위한 시선 집중을 검출한다. 단말 조작을 위한 시선 집중은, 사용자의 시선이 기준 시간 이상 일정 위치에 고정되어 있는 상태를 의미하며, 기준 시간은 일상적인 사용자의 시선 움직임을 구별할 수 있도록 설정한다. 다만, 기준 시간에 비례하여, 사용자가 단말 조작을 위해 화면에 시선을 고정해야 하는 시간이 길어지므로, 사용자의 불편을 최소화할 수 있는 시간 범위 내에서 기준 시간을 설정한다.The line-of-sight tracking module detects line-of-sight convergence for terminal operation through tracking of the line-of-sight trajectory. The gaze concentration for the terminal operation means a state in which the user's gaze is fixed at a predetermined position over a reference time, and the reference time is set so as to distinguish the gaze movement of the ordinary user. However, since the time required for the user to fix the line of sight on the screen for operation of the terminal becomes longer in proportion to the reference time, the reference time is set within a time range in which the user's inconvenience can be minimized.
단말 조작을 위한 시선 집중이 검출되면, 위치 산출 모듈이 디스플레이부(110)에 의해 정보가 표시되는 화면 상에서 시선 집중 위치를 산출한다. 시선 집중 위치는, 눈동자 영상의 좌표계와 디스플레이부에 표시되는 화면 상의 좌표계를 매핑함에 의해 이루어진다.When the sight line concentration for terminal operation is detected, the position calculation module calculates the line-of-sight concentration position on the screen on which the information is displayed by the
제어부(140)는 디스플레이 화면의 눈 위치가 일정 시간이 지나도 변동이 없는 경우에 디스플레이 화면의 눈 위치에 마우스 오버 기능 또는 툴팁 기능이 실행되도록 제어한다.The controller 140 controls the mouse over function or the tool tip function to be performed on the eye position of the display screen when the eye position of the display screen does not change after a predetermined time.
본 발명의 실시예에서 마우스 오버는 마우스 커서를 올리는 것으로서 클릭은 하지 않고 올려 놓기만 하는 것이고, 툴팁은 마우스 커서와 함께 동작하여 사용자가 커서에 항목을 클릭하지 않고 가리키면 조그마한 상자가 항목 위에 나타나서 보충 설명을 보여 주는 것을 뜻한다.In the embodiment of the present invention, the mouse over is to raise the mouse cursor, to put it without clicking, and the tool tip works with the mouse cursor so that when the user hits the cursor without clicking the item, a small box appears on the item, .
저장부(150)는 디스플레이 화면 상에 출력할 데이터나 정보, 컨텐츠 등을 저장하거나, 획득된 눈동자 영상, 입력부를 통해 입력된 데이터 등을 저장한다.The
입력부(160)는 사용자에 의해 선택되거나 조작된 데이터나 정보를 입력한다. The
본 발명의 실시예에서는 디스플레이부(110)와 입력부(160)를 터치 스크린 형태로 하여 입력 기능과 출력 기능을 동시에 실행할 수 있는 하나의 장치로 구현할 수 있으며, 각 기능이 별개로 동작하는 별도의 장치로도 구현할 수 있다.In an embodiment of the present invention, the
그리고, 사용자거리 산출부(170)는 사용자의 눈동자로부터 모바일 장치(100)까지의 거리를 산출하는 장치로서, 예를 들면, 일반적으로 알려진 바와 같이 사람에게 해롭지 않은 전파나 무선 신호를 이용하여 산출할 수 있다.The user
한편, 본 발명의 실시예에서는 눈동자 인식을 위해서 제어부(140)가 컬러 필터를 이용할 수 있다. 눈동자 영상 획득부(120)에서 카메라를 통해 사용자의 얼굴을 촬영할 때, 각기 파장대가 다른 두 개의 조명을 가진 조명장치에서 동시에 조명을 점등하여 사용자의 눈동자에 비춘다. 파장이 서로 다른 조명은 700㎚ 대의 파장을 갖는 조명과 800㎚ 대의 파장을 갖는 조명으로 할 수 있다. 따라서, 파장이 서로 다른 조명을 동시에 점등하여 획득된 눈동자 영상은 700㎚ 대의 파장과 800㎚ 대의 파장에 대한 눈동자 합 영상이 취득된다.Meanwhile, in the embodiment of the present invention, the controller 140 can use a color filter for pupil recognition. When a user's face is photographed through a camera in the pupil
이어, 제어부(140)는 취득된 눈동자 영상을 컬러필터를 이용하여 파장대별로 영상을 분리한다. 이때, 컬러필터는 R, G, B 로 이루어진 셀이 교대로 번갈아 각각 형성되어 있다. R, G, B 는 각각의 다른 반응도를 갖게 된다. 여기서, R, G, B 의 반응도는 빛에 대한 감도를 의미하는 것으로, 각 파장대별로 상기 R, G, B 의 감도는 다르게 되는 것이다. 즉, R은 600㎚ 에서 반응도가 가장 좋게 나타나고, G는 550㎚에서 반응도가 가장 좋게 나타나고, B는 450㎚ 에서 반응도가 가장 좋게 나타나는 특성을 갖는다.Next, the control unit 140 separates the acquired pupil image by wavelength band using a color filter. At this time, the color filter is formed by alternately alternately forming cells of R, G, and B, respectively. R, G, and B have different reactivities. Here, the reactivity of R, G and B means sensitivity to light, and the sensitivities of R, G and B are different for each wavelength band. That is, R exhibits the best reactivity at 600 nm, G exhibits the highest reactivity at 550 nm, and B exhibits the highest reactivity at 450 nm.
이어, 제어부(140)는 파장대별로 분리된 눈동자 영상들의 반응도를 다음 수학식1을 통해 산출한다. 700㎚ 대의 파장을 갖는 조명과 800㎚ 대의 파장을 갖는 조명에 의해 취득된 눈동자 영상의 반응 정도가 다르게 검출된다.Next, the controller 140 calculates the reactivity of the separated pupil images for each wavelength band through the following equation (1). The degree of the reaction between the illumination having the wavelength of 700 nm band and the pupil image acquired by the illumination having the wavelength of 800 nm band is detected differently.
여기서, V(R), V(G), V(B)은 각 셀(CELL)에서 구해진 R, G, B 필터값을 나타내고, Rf(700)은 물체의 700㎚ 조명대의 반사도를 나타내며, Rf(800)은 물체의 800㎚ 조명대의 반사도를 나타내며, I700(R), I700(G), I700(B)은 700㎚ 조명대의 각 R, G, B 필터의 감도를 나타내며, I800(R), I800(G), I800(B)은 800㎚ 조명대의 각 R, G, B 필터의 감도를 나타낸다.Here, V (R), V (G), and V (B) represent the R, G, and B filter values obtained in each cell CELL, Rf 700 represents the reflectivity of the 700- 800 denotes a band 800㎚ one trillion people reflectivity of the object, I 700 (R), I 700 (G), I 700 (B) shows the sensitivity of one trillion people 700㎚ units each R, G, B filters, I 800 (R), I 800 (G), and I 800 (B) represent the sensitivities of the respective R, G, and B filters in the 800 nm illumination band.
수학식1을 이용하여 물체에 대한 반사도인 Rf(700), Rf(800)를 구하게 된다. 즉, 이는 눈동자 영상에서 동공, 홍채, 흰자위에 대한 각각의 반응도를 구하는 것이다.Rf (700) and Rf (800), which are the reflectivities of the object, are obtained using Equation (1). In other words, it is to obtain the degree of reactivity for pupil, iris and whiteness in the pupil image.
700㎚ 대의 파장대의 조명에 의해서 취득된 눈동자 영상에서는 눈동자 영상의 흰자 부위와 눈동자 부위에서의 조명에 대한 반응 정도가 달라지게 되어 경계가 명확해진다. 이때, 홍채 부위와 동공 부위에 대해서는 반응 정도가 비슷하게 되어 경계가 흐려진다.In the pupil image acquired by the illumination of the wavelength range of 700 nm, the degree of the response to the illumination in the whiteness region and the pupil region of the pupil image becomes different, and the boundary becomes clear. At this time, the iris region and the pupil region have similar degree of reaction, and the boundary is blurred.
따라서, 700㎚ 대의 파장대의 조명에 의해서 취득된 눈동자 영상에서는 홍채 인식을 수행할 때 홍채 영역을 찾는데 이용된다.Therefore, in a pupil image obtained by illumination with a wavelength band of 700 nm, it is used to search for an iris region when performing iris recognition.
그리고, 800㎚ 대의 파장대의 조명에 의해서 취득된 눈동자 영상에서는 흰자 부위와 홍채 부위의 조명에 대한 반응 정도가 비슷하게 되어 경계가 흐려지게 된다. 이때, 홍채 부위와 동공 부위에 대해서는 반응 정도가 달라지게 되어 경계가 명확해진다.In the pupil image obtained by illumination at the wavelength band of 800 nm, the degree of response to illumination of the whiteness region and iris region becomes similar, and the boundary is blurred. At this time, the iris region and the pupil region have different degrees of reaction, so that the boundary becomes clear.
따라서, 800㎚ 대의 파장대의 조명에 의해서 취득된 눈동자 영상은 홍채 인식을 수행할 때 동공을 찾는데 이용된다.Therefore, the pupil image obtained by illumination at the wavelength band of 800 nm is used to search for a pupil when performing iris recognition.
도 2는 본 발명의 실시예에 따른 모바일 장치의 눈동자 추적을 이용한 모바일 툴팁 방법을 설명하기 위한 동작 흐름도를 나타낸 도면이다.2 is a flowchart illustrating a mobile tool tip method using eye tracking of a mobile device according to an exemplary embodiment of the present invention.
도 2를 참조하면, 본 발명의 실시예에 따른 모바일 장치(100)는, 디스플레이부(110)가 데이터나 정보, 컨텐츠에 관한 내용을 화면 상에 디스플레이한다(S210).Referring to FIG. 2, in the
즉, 사용자의 선택 또는 조작에 따라 데이터나 정보, 컨텐츠 중 하나가 실행되고, 그 실행에 따른 결과가 화면 상에 디스플레이 되는 것이다. 예를 들면, 모바일 장치(100)가 인터넷 접속을 통해 특정 사이트를 방문하여 해당 사이트에서 제공하는 웹 화면이나 컨텐츠 화면을 제공하는 것도 예가 될 수 있다.That is, one of data, information, and contents is executed according to the selection or manipulation of the user, and the result of the execution is displayed on the screen. For example, the
이때, 사용자는 데이터나 정보, 컨텐츠 중 하나가 디스플레이되는 화면에 대해 그 내용을 파악하기 위해 화면을 주시하게 된다.At this time, the user views the screen on which one of data, information, and contents is displayed to grasp the contents thereof.
이어, 눈동자 영상 획득부(120)는 카메라를 작동시켜 디스플레이 화면을 주시하는 사용자의 얼굴을 촬영해 눈동자 영상을 획득한다(S220).Then, the pupil
즉, 눈동자 영상 획득부(120)는 카메라를 통해 사용자의 얼굴을 촬영하고, 촬영된 얼굴 영상에서 눈동자 부분을 구분해 눈동자 영상을 획득할 수 있다.That is, the pupil
여기서, 얼굴 인식 기술은 멀티미디어 데이터 베이스 검색 핵심 기술 중의 하나로 얼굴 정보를 이용한 동영상의 요약, 신분 증명, HCI(Human Computer Interface) 이미지 검색, 보안, 감시 시스템 등 다양한 응용 분야에서 널리 이용되고 있다.Here, face recognition technology is one of the key technologies of multimedia database search, and is widely used in various applications such as summary of video, identification of face, image search of human computer interface (HCI), security, surveillance system using face information.
얼굴 인식은 동일성(identity), 나이, 인종, 표정, 장신구 등의 내적 환경 변화나, 포즈(pose), 외부 조명, 이미지 프로세스(image process) 등의 외적 환경 변화에 따라서 그 인식 결과가 민감하게 달라지는 특성이 있다. 특히, 외부 조명 변화는 얼굴 인식에 있어서, 매우 빈번하게 발생하는 장애 요소이므로, 이러한 외부 조명 변화에 강인한 알고리즘을 이용하는 것이 매우 중요하다.Face recognition is a process in which recognition results vary sensitively according to changes in the internal environment such as identity, age, race, facial expression, ornaments, and external environmental changes such as pose, external illumination, and image process There are characteristics. In particular, it is very important to use an algorithm that is robust against this external illumination change, since external illumination change is a very frequent obstacle factor in face recognition.
이와 관련하여, 얼굴 인식과 관련된 주요 알고리즘으로는 PCA(Principal Component Analysis : 주성분 분석), K-PCA(Kernel-PCA : 커널 주성분 분석), ICA(Independent Component Analysis), SVM(Support Vector Machine), NN(Nural-Network : 신경망), HMM(Hidden Markov Model : 은닉 마르코프 모델) 등을 이용한 방식을 주로 사용할 수 있다.In this regard, principal algorithms related to face recognition include PCA (Principal Component Analysis), K-PCA (Kernel-PCA), ICA (Independent Component Analysis), SVM (Support Vector Machine) (Nural-Network: Neural Network), HMM (Hidden Markov Model: Hidden Markov Model).
또한, 촬영된 얼굴 영상에서 눈동자 부분을 구분하는 방법은, 사용자의 눈동자나 홍채의 특징점 정보를 저장해 두었다가, 기 저장된 눈동자의 특징점 정보에 근거해 사용자의 얼굴 영상에서 눈동자 부분을 구분해 낼 수 있다.In addition, the method of distinguishing the pupil portion from the photographed face image can store the minutiae information of the user's pupil or iris, and can distinguish the pupil portion from the user's facial image based on the minutia information of the previously stored pupil.
이어, 사용자거리 산출부(170)는 모바일 장치로부터 사용자의 눈동자까지의 이격 거리를 산출한다(S230). 즉, 눈동자 영상과 디스플레이부의 화면 영상의 크기가 각각 다르므로 눈동자 영상의 크기에 따른 디스플레이 영상의 화면 비율을 설정해 주어야 하기 때문이다.Next, the user
이어, 눈위치 산출부(130)는 획득된 눈동자 영상의 중앙과 디스플레이부의 화면 중앙을 대응시켜 기준으로 설정하고, 사용자의 눈동자까지의 이격 거리에 따라 눈동자 영상과 디스플레이 영상의 화면 비율을 설정한다(S240).Next, the eye
이어, 눈위치 산출부(130)는 설정된 화면 비율에 근거해 상기 설정된 기준을 중심으로 눈동자 영상의 움직임 변화에 따라 상, 하, 좌, 우로 주시된 디스플레이 화면의 눈 위치를 산출한다(S250).Then, the eye
일반적으로, 사람이 화면의 특정 점을 주시할 때, 특정 점의 영상이 망막의 중심에 위치하도록 안구가 조절된다. 즉, 안구의 중심, 더 구체적으로 눈동자(동공)의 중심과 특정 점이 일직선 상에 위치하게 된다. 따라서, 시선 추적을 위해서는, 사용자 눈, 특히 눈동자(동공) 영역을 검출하고, 이어서 눈동자(동공) 영역의 중심점을 검출하며, 눈동자 영상의 좌표계와 화면의 좌표계 사이의 관계에 근거하여, 검출된 눈동자 영상의 중심점의 위치를 화면 상에 대응하는 주시점의 좌표로 변환한다.Generally, when a person looks at a specific point on the screen, the eye is adjusted so that the image of the specific point is located at the center of the retina. That is, the center of the eyeball, more specifically, the center of the pupil (pupil) and a specific point are located on a straight line. Therefore, in order to track the eye, it is necessary to detect the user's eyes, especially the pupil (pupil) region, then to detect the center point of the pupil (pupil) region, and to detect, based on the relationship between the coordinate system of the pupil image and the coordinate system of the screen, The position of the center point of the image is converted into the coordinates of the main point on the screen.
즉, 눈위치 산출부(130)는 도 3에 도시된 바와 같이 눈동자 영상의 중앙과 디스플레이 화면의 중앙을 대응시켜 기준으로 설정하고, 설정된 기준을 중심으로 눈동자 영상의 움직임 변화에 따라 상, 하, 좌, 우로 주시된 디스플레이 화면의 눈 위치를 산출할 수 있다. 도 3은 본 발명의 실시예에 따른 눈동자 영상의 중앙과 디스플레이 화면의 중앙을 대응시켜 기준으로 설정하는 예를 나타낸 도면이다. 즉, 눈동자 영상과 디스플레이 화면의 크기는 다르지만 눈동자 영상의 중앙과 디스플레이 화면의 중앙이 일치되게 대응시키고 동기화하여 기준점을 설정하게 됨에 따라 눈동자 영상이 기준점을 중심으로 어느 방향으로 얼마만큼 움직이고 있는지를 파악하면 그에 대응되게 디스플레이 화면 상에서 사용자가 주시하는 눈의 위치도 동일한 방향으로 움직이는 것으로 판단하여 사용자의 눈 위치를 파악할 수 있는 것이다. That is, as shown in FIG. 3, the eye
예를 들면, 눈위치 산출부(130)는 카메라를 통해 촬영된 눈동자 영상이 도 4에 도시된 바와 같이 기준에 대해 좌측으로 이동한 경우에 디스플레이 화면을 주시하는 사용자의 눈 위치도 디스플레이 화면의 중앙에서 좌측으로 일정 거리 내로 이동한 위치로 산출할 수 있다. 도 4는 본 발명의 실시예에 따라 사용자의 눈동자 영상의 변화에 따른 디스플레이 화면의 눈 위치를 나타낸 도면이다. For example, the eye
또한, 도 4에 도시된 바와 같이 눈동자 영상이 기준에 대해 우측으로 이동한 경우에 사용자의 눈 위치도 디스플레이 화면의 중앙에서 우측으로 일정 간격으로 이동한 위치로 파악할 수 있다. In addition, as shown in FIG. 4, when the pupil image moves to the right with respect to the reference, the user's eye position can be grasped as a position moved from the center of the display screen to the right side at regular intervals.
또한, 도 4에 도시된 바와 같이, 눈동자 영상이 기준에 대해 상측으로 이동한 경우에 사용자의 눈 위치도 디스플레이 화면의 중앙에서 상측으로 일정 간격만큼 이동한 위치로 파악하거나, 눈동자 영상이 기준에 대해 하측으로 이동한 경우에 사용자의 눈 위치도 디스플레이 화면의 중앙에서 하측으로 일정 간격만큼 이동한 위치로 파악할 수 있다.In addition, as shown in FIG. 4, when the pupil image moves upward relative to the reference, the user's eye position may be grasped as a position shifted by a predetermined distance from the center of the display screen upward, The user's eye position can be grasped as a position shifted by a predetermined distance from the center of the display screen to the lower side.
이때, 눈위치 산출부(130)는 눈동자 영상이 기준에 대해 상, 하, 좌, 우 방향 중 하나의 방향으로 일정 픽셀 이동하면, 디스플레이 화면의 중앙에 대해 상, 하, 좌, 우 방향 중 눈동자 영상이 이동한 방향과 대응되는 방향으로 2배, 3배 등과 같이 정수배 픽셀 이동한 비율로 하여 디스플레이 화면의 눈 위치를 픽셀 단위로 산출할 수 있다.In this case, if the eye
즉, 눈동자 영상과 디스플레이 화면의 크기가 다르므로, 눈동자 영상의 움직임에 따른 디스플레이 화면의 눈 위치를 픽셀 단위로 하여 일정 비율로써 산출하는 것이다. 예를 들면, 눈동자 영상이 기준에 대해 상측 방향으로 5 픽셀 이동한 것으로 판단되면, 디스플레이 화면의 눈 위치는 중앙의 기준에 대해 상측 방향으로 3 배나 5 배, 즉, 15 픽셀이나 25 픽셀 이동한 것으로 산출할 수 있다.That is, since the size of the pupil image differs from that of the display screen, the eye position of the display screen according to the motion of the pupil image is calculated at a predetermined ratio in units of pixels. For example, if it is determined that the pupil image has shifted 5 pixels in the upward direction with respect to the reference, the eye position of the display screen is shifted upward by 3 times or 5 times, that is, 15 pixels or 25 pixels with respect to the center reference Can be calculated.
제어부(140)는 사용자가 디스플레이 화면에서 내용을 보고 있다가 눈의 위치가 어느 특정 지점에 머무르게 됨에 따라, 디스플레이 화면의 눈 위치가 일정 시간이 지나도 변동이 없는 경우에(S260-예), 도 5에 도시된 바와 같이 변동이 없는 디스플레이 화면의 눈 위치에서 마우스 오버 기능 또는 툴팁 기능을 실행한다(S270). 도 5는 본 발명의 실시예에 따라 사용자가 주시하는 디스플레이 화면에서 눈 위치가 일정 시간이 지나도 변동이 없는 경우에 그 눈 위치에서 툴팁 기능이 실행되는 예를 나타낸 도면이다. In the case where the eye position of the display screen does not change after a certain period of time (S260-Yes) as the eye position remains at a specific position while the user is watching the contents on the display screen, The mouse over function or the tool tip function is executed at the eye position of the display screen having no fluctuation as shown in FIG. FIG. 5 is a diagram illustrating an example in which a tool tip function is executed at an eye position in a display screen viewed by a user according to an embodiment of the present invention when the eye position does not change after a predetermined time.
즉, 제어부(140)는 단말 조작을 위한 시선 집중이 발생하면, 사용자가 기준 시간 이상 일정 방향으로 시선을 고정하는 경우, 정보가 표시되는 디스플레이부(110)의 화면 상에서 사용자의 시선이 고정된 시선 집중 위치를 산출한다.That is, when the user concentrates the gaze in a fixed direction more than the reference time when the gaze concentrates for the operation of the terminal, the control unit 140 displays the gaze on the screen of the
시선 집중 위치는, 도 4에 도시된 바와 같이 카메라에 의해 촬영된 눈동자 영상의 좌표계와, 디스플레이부(110)의 화면의 좌표계의 기하학적 관계로부터 눈동자(동공)의 위치를 화면의 좌표로 매핑함에 의해 산출하는 것이다. 따라서, 제어부(140)는 산출된 시선 집중 위치를 기준으로 마우스 오버 기능 또는 툴팁 기능을 실행하는 것이다.4, by mapping the position of the pupil (pupil) to the coordinates of the screen from the coordinate system of the pupil image captured by the camera and the geometric relationship of the coordinate system of the screen of the
전술한 바와 같이 본 발명에 의하면, 모바일 장치의 카메라를 통해 사용자의 얼굴을 촬영해 사용자의 눈동자를 구분하고 사용자의 시선을 인식하여, 사용자의 시선이 머무는 화면의 위치에 마우스 오버(mouse over) 기능과 툴팁 기능을 실행할 수 있도록 하는 눈동자 추적을 이용한 모바일 툴팁 방법 및 장치를 실현할 수 있다.As described above, according to the present invention, the user's face is photographed through the camera of the mobile device to distinguish the user's eyes and recognize the user's gaze, and a mouse over function And a mobile tool tip method and apparatus using pupil tracking that enables tool tip functions to be performed.
본 발명이 속하는 기술분야의 당업자는 본 발명이 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있으므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로서 이해해야만 한다. 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 등가개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the present invention as defined by the following claims and their equivalents. Only. The scope of the present invention is defined by the appended claims rather than the detailed description and all changes or modifications derived from the meaning and scope of the claims and their equivalents are to be construed as being included within the scope of the present invention do.
본 발명은 모바일 장치의 화면을 주시하는 사용자의 시선을 인식하여, 사용자의 시선이 머무는 화면의 위치에 마우스 오버(mouse over) 기능과 툴팁 기능을 실행할 수 있도록 하는 눈동자 추적을 이용한 모바일 툴팁 방법 및 장치에 적용할 수 있다.The present invention relates to a mobile tool tip method and apparatus using pupil tracking that enables a mouse over function and a tool tip function to be performed on a position of a screen where a user's gaze is perceived by recognizing the user's gaze on the screen of the mobile device .
100 : 모바일 장치 110 : 디스플레이부
120 : 눈동자 영상 획득부 130 : 눈위치 산출부
140 : 제어부 150 : 저장부
160 : 입력부100: mobile device 110: display unit
120: pupil image obtaining unit 130: eye position calculating unit
140: control unit 150:
160:
Claims (6)
상기 디스플레이 화면을 주시하는 사용자의 얼굴을 촬영해 눈동자 영상을 획득하는 눈동자 영상 획득부;
상기 사용자의 눈동자까지의 거리를 산출하는 사용자거리 산출부;
상기 획득된 눈동자 영상의 중앙과 상기 디스플레이 화면의 중앙을 대응시켜 기준으로 설정하고, 상기 사용자의 눈동자까지의 이격 거리에 따라 눈동자 영상과 디스플레이 영상의 화면 비율을 설정하며, 상기 설정된 화면 비율에 근거해 상기 설정된 기준을 중심으로 눈동자 영상의 움직임 변화에 따라 상, 하, 좌, 우로 주시된 디스플레이 화면의 눈 위치를 산출하는 눈위치 산출부; 및
상기 디스플레이 화면의 눈 위치가 일정 시간이 지나도 변동이 없는 경우에 상기 디스플레이 화면의 눈 위치에 마우스 오버 기능 또는 툴팁 기능이 실행되도록 제어하는 제어부;
를 포함하는 눈동자 추적을 이용한 모바일 툴팁 기능의 모바일 장치.A display unit for displaying contents related to data, information, and contents on a screen;
A pupil image acquiring unit for acquiring a pupil image by photographing a face of a user watching the display screen;
A user distance calculating unit for calculating a distance to the pupil of the user;
Setting a center of the acquired pupil image and a center of the display screen as a reference, setting an aspect ratio of the pupil image and the display image according to a distance to the pupil of the user, An eye position calculating unit for calculating an eye position of a display screen that is viewed upward, downward, leftward, and rightward according to a change in motion of the pupil image around the set reference; And
A controller for controlling a mouse over function or a tool tip function to be performed on an eye position of the display screen when the eye position of the display screen does not change after a predetermined time;
A mobile tooltip with mobile tooltip tracking using pupil tracking.
상기 눈동자 영상 획득부는, 상기 사용자의 얼굴을 촬영하기 위한 카메라를 포함하고, 상기 카메라를 통해 촬영된 얼굴 영상에서 눈동자 부분을 구분해 눈동자 영상을 획득하는 것을 특징으로 하는 눈동자 추적을 이용한 모바일 툴팁 기능의 모바일 장치.The method according to claim 1,
Wherein the pupil image obtaining unit includes a camera for photographing the face of the user, and a pupil image is obtained by dividing the pupil portion of the face image photographed through the camera, Mobile device.
상기 눈위치 산출부는, 상기 눈동자 영상이 상기 기준에 대해 상, 하, 좌, 우 방향 중 하나의 방향으로 일정 픽셀 이동하면, 상기 디스플레이 화면의 중앙에 대해 상, 하, 좌, 우 방향 중 눈동자 영상이 이동한 방향과 대응되는 하나의 방향으로 정수배 픽셀 이동한 비율로 하여 상기 디스플레이 화면의 눈 위치를 픽셀 단위로 산출하는 것을 특징으로 하는 눈동자 추적을 이용한 모바일 툴팁 기능의 모바일 장치.The method according to claim 1,
The eye position calculating unit may calculate the eye position of the pupil image in the upper, lower, left, and right directions with respect to the center of the display screen, when the pupil image is moved by a certain pixel in one of the upward, Wherein the eye position of the display screen is calculated in units of pixels by using a ratio of pixels shifted by an integral multiple in one direction corresponding to the moving direction of the mobile unit.
(a) 상기 디스플레이부가 데이터나 정보, 컨텐츠에 관한 내용을 화면 상에 디스플레이하는 단계;
(b) 상기 눈동자 영상 획득부가 상기 디스플레이 화면을 주시하는 사용자의 얼굴을 촬영해 눈동자 영상을 획득하는 단계;
(c) 상기 사용자거리 산출부가 사용자의 눈동자까지의 이격 거리를 산출하는 단계;
(d) 상기 눈위치 산출부가 상기 획득된 눈동자 영상의 중앙과 상기 디스플레이부의 화면 중앙을 대응시켜 기준으로 설정하고, 상기 사용자의 눈동자까지의 이격 거리에 따라 눈동자 영상과 디스플레이 영상의 화면 비율을 설정하는 단계;
(e) 상기 눈위치 산출부가 상기 설정된 화면 비율에 근거해 상기 설정된 기준을 중심으로 눈동자 영상의 움직임 변화에 따라 상, 하, 좌, 우로 주시된 디스플레이 화면의 눈 위치를 산출하는 단계; 및
(f) 상기 제어부가 상기 디스플레이 화면의 눈 위치가 일정 시간이 지나도 변동이 없는 경우에 상기 디스플레이 화면의 눈 위치에 마우스 오버 기능 또는 툴팁 기능을 실행하는 단계;
를 포함하는 모바일 장치의 눈동자 추적을 이용한 모바일 툴팁 방법.A mobile tool tip method using a pupil tracking of a mobile device including a display unit, a pupil image acquisition unit, an eye position calculation unit, a user distance calculation unit, and a control unit,
(a) displaying, on the screen, contents related to data, information and contents of the display unit;
(b) the pupil image acquiring unit photographs a face of a user watching the display screen to acquire a pupil image;
(c) calculating the distance of the user's distance to the user's pupil;
(d) The eye position calculation unit sets the center of the acquired pupil image and the center of the screen of the display unit as a reference, sets the aspect ratio of the pupil image and the display image according to the distance to the pupil of the user step;
(e) calculating an eye position of a display screen that is viewed in upward, downward, leftward, and rightward directions according to a change in movement of the pupil image based on the set reference based on the set image ratio; And
(f) executing a mouse over function or a tool tip function at an eye position of the display screen when the eye position of the display screen does not change after a predetermined time;
A mobile tool tip method using a pupil tracking of a mobile device.
상기 (b) 단계는, 상기 눈동자 영상 획득부가 카메라를 통해 사용자의 얼굴을 촬영하고, 상기 카메라를 통해 촬영된 얼굴 영상에서 눈동자 부분을 구분해 눈동자 영상을 획득하는 것을 특징으로 하는 모바일 장치의 눈동자 추적을 이용한 모바일 툴팁 방법.The method of claim 4,
Wherein the pupil image acquiring unit photographs a face of a user through a camera and classifies a pupil portion of the face image photographed through the camera to obtain a pupil image of the mobile device Mobile tooltip method using.
상기 (e) 단계는, 상기 눈위치 산출부가 상기 눈동자 영상이 상기 기준에 대해 상, 하, 좌, 우 방향 중 하나의 방향으로 일정 픽셀 이동하면, 상기 디스플레이 화면의 중앙에 대해 상, 하, 좌, 우 방향 중 눈동자 영상이 이동한 방향과 대응되는 하나의 방향으로 정수배 픽셀 이동한 비율로 하여 상기 디스플레이 화면의 눈 위치를 픽셀 단위로 산출하는 것을 특징으로 하는 모바일 장치의 눈동자 추적을 이용한 모바일 툴팁 방법.The method of claim 4,
In the step (e), when the eye position calculation unit moves the pupil image by a certain pixel in one of the up, down, left, and right directions with respect to the reference, , And the eye position of the display screen is calculated in units of pixels by using a ratio of pixels shifted by an integer multiple in one direction corresponding to the moving direction of the pupil image in the right direction. .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020130052223A KR102181897B1 (en) | 2013-05-09 | 2013-05-09 | Device and method for mobile tooltip using eye detecting |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020130052223A KR102181897B1 (en) | 2013-05-09 | 2013-05-09 | Device and method for mobile tooltip using eye detecting |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20140132906A true KR20140132906A (en) | 2014-11-19 |
KR102181897B1 KR102181897B1 (en) | 2020-11-23 |
Family
ID=52453693
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020130052223A KR102181897B1 (en) | 2013-05-09 | 2013-05-09 | Device and method for mobile tooltip using eye detecting |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102181897B1 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20160086671A (en) * | 2015-01-12 | 2016-07-20 | 삼성전자주식회사 | Electronic device and method for determining central of an eye in electronic device |
JP2018519601A (en) * | 2015-03-10 | 2018-07-19 | アイフリー アシスティング コミュニケ−ション リミテッドEyeFree Assisting Communication Ltd. | System and method enabling communication by eye feedback |
KR20190056588A (en) * | 2017-11-17 | 2019-05-27 | 주식회사 에이유이 | Iris recognition method capable of biometric classification and system using the same |
CN114910052A (en) * | 2022-05-27 | 2022-08-16 | 深圳市立体通技术有限公司 | Camera-based distance measurement method, control method and device and electronic equipment |
US11612342B2 (en) | 2017-12-07 | 2023-03-28 | Eyefree Assisting Communication Ltd. | Eye-tracking communication methods and systems |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100847142B1 (en) | 2006-11-30 | 2008-07-18 | 한국전자통신연구원 | Preprocessing method for face recognition, face recognition method and apparatus using the same |
KR20090036578A (en) * | 2006-08-07 | 2009-04-14 | 야후! 인크. | Calendar event, notification and alert bar embedded within mail |
KR20110038568A (en) * | 2009-10-08 | 2011-04-14 | 한국전자통신연구원 | Apparatus and mehtod for tracking eye |
JP4951751B2 (en) * | 2005-04-26 | 2012-06-13 | 国立大学法人静岡大学 | Pointing apparatus and method based on pupil detection |
-
2013
- 2013-05-09 KR KR1020130052223A patent/KR102181897B1/en active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4951751B2 (en) * | 2005-04-26 | 2012-06-13 | 国立大学法人静岡大学 | Pointing apparatus and method based on pupil detection |
KR20090036578A (en) * | 2006-08-07 | 2009-04-14 | 야후! 인크. | Calendar event, notification and alert bar embedded within mail |
KR100847142B1 (en) | 2006-11-30 | 2008-07-18 | 한국전자통신연구원 | Preprocessing method for face recognition, face recognition method and apparatus using the same |
KR20110038568A (en) * | 2009-10-08 | 2011-04-14 | 한국전자통신연구원 | Apparatus and mehtod for tracking eye |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20160086671A (en) * | 2015-01-12 | 2016-07-20 | 삼성전자주식회사 | Electronic device and method for determining central of an eye in electronic device |
JP2018519601A (en) * | 2015-03-10 | 2018-07-19 | アイフリー アシスティング コミュニケ−ション リミテッドEyeFree Assisting Communication Ltd. | System and method enabling communication by eye feedback |
US11883101B2 (en) | 2015-03-10 | 2024-01-30 | Eyefree Assisting Communication Ltd. | System and method for enabling communication through eye feedback |
KR20190056588A (en) * | 2017-11-17 | 2019-05-27 | 주식회사 에이유이 | Iris recognition method capable of biometric classification and system using the same |
US11612342B2 (en) | 2017-12-07 | 2023-03-28 | Eyefree Assisting Communication Ltd. | Eye-tracking communication methods and systems |
CN114910052A (en) * | 2022-05-27 | 2022-08-16 | 深圳市立体通技术有限公司 | Camera-based distance measurement method, control method and device and electronic equipment |
Also Published As
Publication number | Publication date |
---|---|
KR102181897B1 (en) | 2020-11-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8947351B1 (en) | Point of view determinations for finger tracking | |
US10001838B2 (en) | Feature tracking for device input | |
CN106462242B (en) | Use the user interface control of eye tracking | |
KR20230170086A (en) | Hand gestures for animating and controlling virtual and graphical elements | |
US8942434B1 (en) | Conflict resolution for pupil detection | |
US9207852B1 (en) | Input mechanisms for electronic devices | |
US11715231B2 (en) | Head pose estimation from local eye region | |
US10019107B2 (en) | Correcting for parallax in electronic displays | |
EP2879020B1 (en) | Display control method, apparatus, and terminal | |
US9269009B1 (en) | Using a front-facing camera to improve OCR with a rear-facing camera | |
CN109375765B (en) | Eyeball tracking interaction method and device | |
US10366281B2 (en) | Gesture identification with natural images | |
US10937243B2 (en) | Real-world object interface for virtual, augmented, and mixed reality (xR) applications | |
JP2010067104A (en) | Digital photo-frame, information processing system, control method, program, and information storage medium | |
CN105068646B (en) | The control method and system of terminal | |
KR102181897B1 (en) | Device and method for mobile tooltip using eye detecting | |
US9652083B2 (en) | Integrated near field sensor for display devices | |
US20220405946A1 (en) | Inferring user pose using optical data | |
Utaminingrum et al. | Eye movement and blink detection for selecting menu on-screen display using probability analysis based on facial landmark | |
CN109947243A (en) | Based on the capture of intelligent electronic device gesture and identification technology for touching hand detection | |
US10082936B1 (en) | Handedness determinations for electronic devices | |
CN109960406A (en) | Based on the intelligent electronic device gesture capture acted between both hands finger and identification technology | |
US9911237B1 (en) | Image processing techniques for self-captured images | |
Xiahou et al. | Integrated approach of dynamic human eye movement recognition and tracking in real time | |
Mangaiyarkarasi et al. | Cursor control system using facial expressions for human-computer interaction |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E90F | Notification of reason for final refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |