KR101685430B1 - Smart glass interface system and method using gaze gesture - Google Patents
Smart glass interface system and method using gaze gesture Download PDFInfo
- Publication number
- KR101685430B1 KR101685430B1 KR1020130118894A KR20130118894A KR101685430B1 KR 101685430 B1 KR101685430 B1 KR 101685430B1 KR 1020130118894 A KR1020130118894 A KR 1020130118894A KR 20130118894 A KR20130118894 A KR 20130118894A KR 101685430 B1 KR101685430 B1 KR 101685430B1
- Authority
- KR
- South Korea
- Prior art keywords
- information
- execution
- eye
- gaze
- menu
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Optics & Photonics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
시선과 스마트 안경간 다양한 동작을 실행시킬 수 있는 스마트 안경 인터페이스 시스템 및 방법이 개시된다. 이를 위해 본 발명은 다수의 시선 방향 중 적어도 2개 이상의 조합된 시선 방향을 감지하여 시선 조합 정보를 생성하고, 눈의 깜박임 정도를 감지하여 눈 깜박임 정보를 생성하는 시선 감지 센서부; 다수의 프로그램화된 실행 메뉴를 안경 화면에 표시하는 안경 화면부; 및 상기 시선조합 정보 및 눈 깜박임 정보를 통해 소정의 명령 신호를 생성하여 임의의 전자기기를 동작시키거나 상기 실행 메뉴의 이동, 선택과 취소를 실행시키는 프로세서부를 포함한다.
이에, 본 발명은 정확성이 뛰어나 리모콘 조작이 없이도 다양한 형태의 전자기기와 실행 메뉴를 동작시킬 수 있고, 시선의 인식 오차를 줄일 수 있다.A smart glasses interface system and method capable of performing various operations between a line of sight and smart glasses is disclosed. To this end, the present invention provides a visual display device, comprising: a visual-line sensing unit for generating eye-blending information by detecting at least two combined visual-line directions among a plurality of visual-line directions, generating eye blinking information by sensing blinking degree of eyes; A glasses screen portion for displaying a plurality of programmed execution menus on a glasses screen; And a processor unit for generating a predetermined command signal through the gaze combination information and the blinking information to operate an arbitrary electronic device or to execute movement, selection and cancellation of the execution menu.
Therefore, the present invention is excellent in accuracy, so that various types of electronic apparatuses and execution menus can be operated without a remote control operation, and the recognition error of the line of sight can be reduced.
Description
본 발명은 스마트 안경 인터페이스 시스템 및 방법에 관한 것으로서, 더욱 상세하게는 시선과 스마트 안경간 다양한 동작을 실행시킬 수 있는 스마트 안경 인터페이스 시스템 및 방법에 관한 것이다.The present invention relates to a smart glasses interface system and method, and more particularly, to a smart glasses interface system and method capable of performing various operations between a sight line and smart glasses.
최근에는, 정보화 및 무선 인터페이스 기술이 발전함에 따라 사용자 편의적인 다양한 형태의 전자기기가 등장하고 있다. 대표적인 전자기기로서 스마트 안경을 들 수 있다.2. Description of the Related Art [0002] In recent years, as information and wireless interface technologies have evolved, various types of user-friendly electronic devices have emerged. As a typical electronic device, smart glasses can be mentioned.
상기 스마트 안경은 사용자가 원하는 정보를 실시간으로 보여는 안경. 인터넷 연결이 가능하고, 마이크나 카메라가 탑재되어 사용자가 원하는 정보를 제공해 준다. 예를 들어 하늘을 보면 일기 예보가, 벽을 바라보면 친구와의 약속정보를 보여다. 또 사용자는 안경을 통해 음악도 들을 수 있으며, 전화가 오면 이를 중단하고 영상 통화도 할 수 있다. The smart glasses are glasses that display information desired by a user in real time. Internet connection is available, and a microphone or camera is installed to provide the user with the desired information. For example, when you look at the sky, weather forecasts show you the promise information with your friends when you look at the wall. The user can also listen to music through the glasses, stop the phone when he or she is calling, and make video calls.
그러나, 위와 같은 스마트 안경의 기능들은 아직까지 현실화되지 못하고 있으며, 그나마 시선 추적이란 기술을 이용하여 위와 같은 스마트 안경의 일부 기능을 수행하기에 이르렀다. However, the functions of the above-mentioned smart glasses have not been realized yet, and they have accomplished some functions of the above-mentioned smart glasses by using the technique of eye tracking.
예를 들면, '구글 글래스'라 불리우는 스마트 안경은 음성 인식을 접목하거나 시선이 머무는 정도를 파악하여 영상과 같은 정보를 선택하고 스마트 안경에 표시할 수 있었다. For example, smart glasses called 'Google Glass' were able to combine speech recognition and determine the extent of eye gaze, so that information such as images could be selected and displayed in smart glasses.
이와 같이, 종래의 스마트 안경은 시선이 머무는 정도만을 인식 대상으로 삼고 있기 때문에 다양한 동작(기능)을 행할 수 없을 뿐만 아니라 오차가 자주 발생하는 문제점이 있었다.In this way, since the conventional smart glasses use only the degree of staying of the eyes as objects to be recognized, various operations (functions) can not be performed and errors are frequently generated.
본 발명은 상술한 문제점을 해결하기 위하여 안출된 것으로서, 적어도 2개 이상의 조합된 시선과 눈 깜박임 정도를 이용하여 안경 화면에 표시된 다양한 형태의 실행 메뉴와 내외부의 전자기기를 매우 편리하게 동작시킬 수 있는 스마트 안경 인터페이스 시스템을 제공하는데 그 목적이 있다.The present invention has been made in order to solve the above-mentioned problems, and it is an object of the present invention to provide an image processing apparatus and a method thereof, which can operate various types of execution menus and internal and external electronic apparatuses displayed on a glasses screen very conveniently using at least two combined lines of sight and eye blinking degree And to provide a smart glasses interface system.
상기한 바와 같은 본 발명의 목적을 달성하고, 후술하는 본 발명의 특징적인 기능을 수행하기 위한, 본 발명의 특징은 다음과 같다.The features of the present invention for achieving the objects of the present invention as described above and performing the characteristic functions of the present invention described below are as follows.
본 발명의 일 관점에 따르면, 게이즈 제스처(gaze gesture)를 이용한 스마트 안경 인터페이스 시스템으로서, 다수의 시선 방향 중 적어도 2개 이상의 조합된 시선 방향을 감지하여 시선 조합 정보를 생성하고, 눈의 깜박임 정도를 감지하여 눈 깜박임 정보를 생성하는 시선 감지 센서부; 다수의 프로그램화된 실행 메뉴를 안경 화면에 표시하는 안경 화면부; 및 상기 시선조합 정보 및 눈 깜박임 정보를 통해 소정의 명령 신호를 생성하여 임의의 전자기기를 동작시키거나 상기 실행 메뉴의 이동, 선택과 취소를 실행시키는 프로세서부;를 포함하는 스마트 안경 인터페이스 시스템이 제공된다.According to one aspect of the present invention, there is provided a smart eyeglass interface system using a gaze gesture, comprising: at least two combined directions of sight lines of a plurality of eye directions to generate eye pair information; A visual-line detecting sensor unit for detecting eye blinking information and generating eye flicker information; A glasses screen portion for displaying a plurality of programmed execution menus on a glasses screen; And a processor unit for generating a predetermined command signal through the gaze combination information and the blinking information to operate any electronic device or to execute movement, selection and cancellation of the execution menu do.
여기서, 본 발명의 일 관점에 따른 상기 프로세서부는 상기 시선조합 정보를 상기 실행 메뉴간 이동 기능에 활용할 경우, 상기 눈 깜박임 정보를 이동된 실행 메뉴의 선택과 취소 기능에 활용할 수 있다.Here, the processor unit according to one aspect of the present invention may utilize the blinking information for selecting and canceling the moved execution menu when the gaze combination information is utilized for the movement function between the execution menus.
또한, 본 발명의 일 관점에 따른 상기 프로세서부는 상기 시선조합 정보를 상기 실행 메뉴간 이동, 선택 및 취소 기능에 활용할 경우 상기 눈 깜박임 정보를 상기 실행 메뉴에 포함된 서브 실행 메뉴의 선택과 취소 기능에 활용할 수 있다.In addition, when the processor unit according to one aspect of the present invention utilizes the eye-sight combination information for the movement, selection, and cancellation of the execution menu, the processor blinks the blinking information to the selection and cancellation function of the sub- Can be utilized.
또한, 본 발명의 일 관점에 따른 상기 프로세서부는 상기 실행 메뉴 및 서브 실행 메뉴의 선택에 따른 실행에 의해 해당 영상을 상기 안경 화면과 유무선 통신 인터페이스로 연결된 상기 전자기기의 표시 화면에 표시할 수 있다.In addition, the processor unit according to one aspect of the present invention can display the corresponding image on the display screen of the electronic device connected to the eyeglass screen via a wired / wireless communication interface by execution according to the selection of the execution menu and sub execution menu.
또한, 본 발명의 다른 일 관점에 따르면, 게이즈 제스처(gaze gesture)를 이용한 스마트 안경 인터페이스 방법으로서, (a) 다수의 프로그램화된 실행 메뉴를 안경 화면에 표시하는 단계; (b) 눈의 시선과 깜박임 정도를 시선 감지 센서부에서 감지하는 단계; (c) 상기 감지를 통해 시선 조합 정보와 눈 깜박임 정보를 시선 감지 센서부에서 생성하는 단계; 및 (d) 생성된 시선조합 정보 및 눈 깜박임 정보를 통해 소정의 명령 신호를 생성하여 임의의 전자기기를 동작시키거나 상기 실행 메뉴의 이동, 선택과 취소를 프로세서부에서 실행시키는 단계를 포함하는 스마트 안경 인터페이스 방법이 제공된다.According to another aspect of the present invention, there is provided a smart glasses interface method using a gaze gesture, comprising: (a) displaying a plurality of programmed execution menus on a glasses screen; (b) detecting a line of sight of the eye and a degree of flickering in the line of sight sensor; (c) generating gaze combination information and eye blinking information through the sight sensing sensor unit through the sensing; And (d) generating a predetermined command signal through the generated gaze combination information and eye blinking information to operate an arbitrary electronic device, or to execute, move, select and cancel the execution menu in the processor unit. A glasses interface method is provided.
여기서, 본 발명의 다른 일 관점에 따른 상기 (d) 단계는 상기 시선조합 정보가 상기 실행 메뉴간 이동 기능에 활용될 경우, 상기 눈 깜박임 정보는 이동된 실행 메뉴의 선택과 취소 기능에 활용될 수 있다.Here, in the step (d) according to another aspect of the present invention, when the eye-sight combination information is utilized in the action menu moving function, the eye blinking information can be utilized for selecting and canceling the moved action menu have.
또한, 본 발명의 다른 일 관점에 따른 상기 (d) 단계는 상기 시선조합 정보가 상기 실행 메뉴간 이동, 선택 및 취소 기능에 활용될 경우 상기 눈 깜박임 정보는 상기 실행 메뉴에 포함된 서브 실행 메뉴의 선택과 취소 기능에 활용될 수 있다.According to another aspect of the present invention, in the step (d), when the gaze combination information is utilized for the movement, selection and cancellation of the execution menu, the blinking information may be displayed on the submenu of the submenu It can be used for selection and cancellation functions.
또한, 본 발명의 다른 일 관점에 따른 상기 (d) 단계는 상기 실행 메뉴 및 서브 실행 메뉴의 선택에 따른 실행에 의해 해당 영상을 상기 안경 화면과 전자기기의 표시 화면에 표시할 수 있다.According to another aspect of the present invention, in the step (d), the corresponding image can be displayed on the glasses screen and the display screen of the electronic device by execution according to the selection of the execution menu and the sub-execution menu.
이상과 같이 본 발명에 따르면, 메뉴얼에 따라 두뇌에 정리된 시선 방향과 눈의 깜박임 정도만을 숙지하게 되면 리모콘 조작이 없이도 다양한 형태의 전자기기와 실행 메뉴를 동작시킬 수 있는 효과가 있다. As described above, according to the present invention, it is possible to operate various types of electronic devices and execution menus without having to operate the remote controller by only knowing the direction of the eyes and the degree of blinking of eyes arranged in the brain according to the manual.
예를 들면, 시선과 눈의 깜박임 정도만을 숙지하게 되면, 스마트폰의 특정 기능을 실행시켜 디스플레이 시키거나 TV를 온오프 시키고, 채널을 선택하는 등, 유무선 네트워크와 연결된 모든 전자기기를 매우 편리하게 동작시킬 수 있는 효과가 있다.For example, it is very convenient to operate all electronic devices connected to a wired / wireless network, such as executing a specific function of a smart phone to display and turning on / off a TV, selecting a channel, There is an effect that can be made.
또한, 본 발명에 따르면, 기존의 스마트 안경(예: 시선이 머무는 정도만을 인식)에 비하여 시선 처리가 명확한 시선 방향의 이동성과 눈의 크기로 정량화된 눈의 깜박임 정도를 통해 메뉴의 이동과 선택성이 뛰어나 인식 오차를 줄일 수 있는 효과가 있다. Further, according to the present invention, compared to conventional smart glasses (for example, only recognizing the degree of staying in the eyes), the mobility of the gaze direction and the flicker of the eyes quantified as the size of the eyes enable movement and selectivity of the menu It is possible to reduce the recognition error.
도 1은 본 발명의 제1 실시예에 따른 스마트 안경 인터페이스 시스템(100)을 예시적으로 나타낸 도면이다.
도 2 내지 도 5는 본 발명의 제1 실시예에 따른 시선조합 정보 및/또는 눈 깜박임 정보를 이용한 실행메뉴(122)의 동작 상태를 나타낸 도면이다.
도 6(a) 내지 도 도 6(c)는 본 발명의 제1 실시예에 따른 시선조합 정보의 방향성 조합을 예시적으로 나타낸 도면이다.
도 7은 본 발명의 제2 실시예에 따른 스마트 안경 인터페이스 방법(S100)을 예시적으로 나타낸 순서도이다.FIG. 1 is an exemplary diagram illustrating a smart
FIGS. 2 to 5 are diagrams showing an operation state of the
Figs. 6A to 6C are views showing a directional combination of gaze combination information according to the first embodiment of the present invention. Fig.
FIG. 7 is a flowchart illustrating a smart glasses interface method (S100) according to a second embodiment of the present invention.
이하, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있도록 하기 위하여, 본 발명의 바람직한 실시예들에 관하여 첨부된 도면을 참조하여 상세히 설명하기로 한다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings, so that those skilled in the art can easily carry out the present invention. In the drawings, like reference numerals refer to the same or similar functions throughout the several views.
제1 실시예First Embodiment
도 1은 본 발명의 제1 실시예에 따른 스마트 안경 인터페이스 시스템(100)을 예시적으로 나타낸 도면이다.FIG. 1 is an exemplary diagram illustrating a smart
도 1에 도시된 바와 같이, 본 발명의 제1 실시예에 따른 스마트 안경 인터페이스 시스템(100)은 게이즈 제스처(gaze gesture)를 이용하여 다양한 전자기기(140)와 스마트 안경의 특정 기능을 동작시킬 수 있는 인터페이스 시스템으로서, 이를 위하여 시선 감지 센서부(110), 안경 화면부(120), 프로세서부(130), 전자기기(140) 및 유무선 인터페이스(150)를 포함하여 이루어진다. 상기 게이즈 제스처란 시선의 다양한 방향성과 눈 상태를 활용하는 제스처를 의미한다.As shown in FIG. 1, the smart
먼저, 본 발명에 따른 시선 감지 센서부(110)는 이후에 설명될 안경 화면부(120)의 대략 테두리 중앙을 따라 구비되어 사람의 시선의 방향성을 추적하고 눈의 깜박임 정도(크기)를 인식하기 위한 센서를 지칭한다. First, the eye-
이때, 안경 화면부(120)의 테두리를 따라 구비되 않고, 사람의 시선과 눈의 깜박임 정도을 쉽게 추적가능한 안경 화면부(120)내의 임의의 위치라면, 안경 화면부(120)의 어떤 부위에도 장착될 수 있음은 물론이다.At any point in the
상기와 같이 시선(101)의 방향성을 추적하고자, 본 발명에 따른 시선 감지 센서부(120)는 다수의 시선 방향(101) 중 적어도 2개 이상의 조합된 시선 방향(101)을 감지하여 시선 조합 정보를 생성한다. In order to track the directionality of the line of
상기 시선 방향(101)은 예컨대 총 8개의 시선 방향성을 가질 수 있는데, 즉, 상/하/좌/우 방향과 상/하/좌/우/ 방향 사이에 존재하는 4개의 대각선 방향성을 포함한다. 이에 따라, 8개의 시선 방향(101) 중 적어도 2개상의 방향성을 조합하여 시선 조합 정보를 생성할 수 있게 되는 것이다.The
아울러, 본 발명에 따른 시선 감지 센서부(110)는 눈의 깜박임 정도를 감지하여 눈 깜박임 정보를 생성한다. 이때, 눈의 깜박임 정도란 눈을 제한된 시간 안에 계속하여 뜨고 있는 상태, 감고 있는 상태 및 둘을 소정의 횟수만큼 반복하는 상태 등을 의미한다. 이는 눈의 크기를 제한된(설정된) 시간에 따라 감지하는 것과 일맥상통할 수도 있다.In addition, the eye-
다음으로, 본 발명에 따른 안경 화면부(120)는 스마트 안경의 테두리뿐만 아니라 스마트 안경 렌즈와 같은 위치인 안경 화면(121) 등을 구비한다. 상기 안경 화면(121)에는 실행 메뉴(122)들이 표시되고 실행 메뉴(122)의 동작에 의한 영상을 표시하는 역할을 한다.Next, the
상기 실행 메뉴(122)는 다수의 프로그램화된 아이콘 메뉴로서, 예컨대 스마트폰의 디스플레이 화면에 표시되는 앱 아이콘과 유사한 형태를 가질 수 있다.The
마지막으로, 본 발명에 따른 프로세서부(130)는 앞서 설명한 시선 감지 센서부(110)에 의해 생성된 시선조합 정보 및/또는 눈 깜박임 정보를 통해 소정의 명령 신호를 생성한다. 예를 들면, 시선조합 정보를 통해 다수의 실행 메뉴(122) 중 임의의 특정 위치에 있는 아이콘으로부터 다른 위치에 있는 아이콘으로 이동시키는 아이콘 이동 명령 신호가 생성되고 눈 깜박임 정보를 통해 이동된 아이콘을 선택할 경우에 아이콘 선택 명령 신호가 생성될 수 있다.Finally, the
이와 같이 명령 신호가 생성되면, 본 발명에 따른 프로세서부(130)는 상기 명령 신호를 이용하여 유무선 인터페이스(150, 통신망)로 연결된 임의의 전자기기(140), 예컨대 TV, 스마트폰, 휠체어와 같은 전자기기(140)를 동작시키거나 안경 화면(121)에 표시된 실행 메뉴(122)에 대하여 실행 메뉴(122)간 이동과, 이동된 실행 메뉴(122)의 선택 및 취소를 실행시키는데 사용할 수 있게 된다.When the command signal is generated as described above, the
이때, 임의의 명령 신호에 따라 실행메뉴(122)의 이동, 선택 및 취소 기능은 통상적으로 널리 알려진 스마트폰에서 사람의 손에 의한 터치에 의해 메뉴의 이동, 선택 및 취소와 같은 원리가 적용될 수 있다.At this time, the movement, selection and cancellation functions of the
예를 들면, 상기 명령 신호가 시선조합 정보를 실행 메뉴(122)간 이동 기능에 활용(연동될)될 경우에 눈 깜박임 정보를 이동된 실행 메뉴(122)의 선택과 취소 기능에 활용(연동될) 수 있다.For example, when the command signal is used (interlocked) with the movement function between the
또한, 상기 명령 신호가 시선조합 정보를 실행 메뉴(122)간 이동, 선택 및 취소 기능에 활용(연동될) 경우에 눈 깜박임 정보를 실행 메뉴(122)에 포함된 서브 실행 메뉴(미도시)의 선택과 취소 기능에 활용(연동될)될 수도 있다.In addition, when the command signal is used (combined) in the movement, selection and cancellation function of the
이로써, 본 발명에 따른 프로세서부(130)는 실행 메뉴(122) 및 서브 실행 메뉴의 선택에 따른 실행에 의해 해당 영상 및 데이터를 안경 화면(121)과 유무선 통신 인터페이스(150)로 연결된 전자기기(140)의 표시 화면에 표시할 수 있게 된다. The
이상에서는 시선조합 정보와 눈 깜박임 정보를 동시에 이용하여 해당 기능이 수행되는 것으로 설명하였지만 둘 중 어느 하나를 통해 위와 같은 모든 기능을 수행할 수도 있음은 물론이다.Although it has been described above that the corresponding function is performed by using the eye combination information and the eye flicker information at the same time, it goes without saying that all of the above functions can be performed through either one of them.
한편, 이상에서 밝힌 전자기기(140)의 동작은 다양한 예가 있을 수 있다. 즉, 휴대폰, TV 등과 같은 전자기기(140)를 온오프시키는 기본적인 동작 뿐만 아니라, 각 전자기기(140)에서 구현된 특정 기능, 예컨대 녹음을 실행시키거나 스마트폰에 구비된 카메라를 동작시키는 등 다양한 기능을 담고 있음을 의미할 수 있다.Meanwhile, the operation of the
이하에서는, 앞서 설명한 시선조합 정보 및/또는 눈 깜박임 정보를 이용한 실행메뉴(122)의 이동, 선택 및 취소를 실질적으로 어떻게 이루어지는지를 설명하고자 한다.Hereinafter, how the
실행메뉴의 실행 예Example of execution menu
도 2 내지 도 5는 본 발명의 제1 실시예에 따른 시선조합 정보 및/또는 눈 깜박임 정보를 이용한 실행메뉴(122)의 동작 상태를 나타낸 도면이다.FIGS. 2 to 5 are diagrams showing an operation state of the
먼저, 도 2에 도시된 안경화면(121)에는 복수개의 실행메뉴(122)들이 나열된 상태를 보여준다. 상기 도 2에 도시된 1행 1열의 실행메뉴(122)가 선택된 상태(122a)로 가정하면, 도 3에서는 오른쪽으로 향하는 시선방향(101a)의 시선 조합 정보를 통해 1행 3열의 실행메뉴(122)로 이동된 상태(122b)를 보여준다.First, a plurality of
다음으로, 도 4에서는 눈 깍박임 정보, 예컨대 눈을 두번 깜박려 획득된 눈 깍박임 정보를 통해 1행 3열의 실행메뉴(122)가 선택된 상태(122c)임을 보여준다. 다음으로, 도 5에서는 선택된 1행 2열의 실행메뉴(122)가 취소된 상태(122d)임을 보여준다.
참고로, 상기 실행메뉴(122) 취소는 보통상태 보다 눈을 크게 뜨거나, 적절한 시선조합 또는 복수의 눈깜빡임을 통해 수행되며, 이에 한정되는 것이 아니라 사용자의 편의에 따라 얼마든지 상이하게 설정가능하다. Next, FIG. 4 shows that the
For reference, cancellation of the
이와 같이, 시선조합 정보 및 눈 깜박임 정보를 이용하여 실행메뉴(122)가 이동, 선택 및 취소되는 단적인 상황을 보여주고 있지만, 위와 같은 상태에서 다른 실행메뉴(122)로 이동, 선택 및 취소시에 다른 방향성의 시선조합 정보 및 눈 깜박임 정보가 함께 더 활용될 수 있음은 물론이다.In this way, although the
시선조합 정보의 예Example of gaze combination information
도 6(a) 내지 도 6(c)는 본 발명의 제1 실시예에 따른 시선조합 정보의 방향성 조합을 예시적으로 나타낸 도면이다. 도 6(a)에서는 우방향의 시선조합 정보(101b) 및 그로부터 상방향의 시선조합 정보(101c)가 결합(조합)되고 있음을 보여주고, 도 6(b)에서는 우방향의 시선조합 정보(101d) 및 그로부터 하방향의 시선조합 정보(101e)가 결합(조합)되고 있음을 보여준다.6 (a) to 6 (c) are views showing a directional combination of eye combination information according to the first embodiment of the present invention. 6A shows that the line of
반면, 도 6(c)에서는 우방향의 시선조합 정보(101f), 그로부터 상방향의 시선조합 정보(101g) 및 그로부터 하방향 대각선의 시선조합 정보(101h)가 결합(조합)되고 있음을 보여준다.On the other hand, FIG. 6C shows that the right-eye
이와 같은 예를 통해 알 수 있듯이, 본 실시예에서는 적어도 하나 이상의 시선 방향의 조합을 통해 앞서 설명한 전자기기(140)를 동작시키거나 실행메뉴의 이동, 선택 및 취소 기능을 실행시킬 수 있음을 알 수 있을 것이다.
예를 들어, 메뉴 이동은 우방향과 상방향 시선조합을 통해, 메뉴선택은 우방향과 하방향 시선조합을 통해, 취소는 좌방향과 하방향 시선조합을 통해, 실행은 우방향, 상방향 및 좌방향 시선조합을 통해 수행될 수 있으며, 상술한 이동, 선택, 취소 및 실행에 대한 시선조합은 이에 한정되는 것이 아니라 사용자의 편의에 따라 얼마든지 상이하게 설정가능하다.
또한, 상술한 우방향으로부터 상방향 그리고 상기 상방향으로부터 하방향 대각선의 시선조합을 통해 바로가기 기능 등을 설정할 수 있다.As can be seen from this example, in the present embodiment, it can be seen that the above-described
For example, menu movement can be done through a combination of right and upward gaze, menu selection through right and down gaze combination, cancellation through left and down gaze combination, Eye direction, and the gaze combination for movement, selection, cancellation, and execution described above is not limited to this, but can be set differently according to the convenience of the user.
In addition, a shortcut function or the like can be set through the above-described line-up from the upward direction and from the upward direction to the downward diagonal line.
제2 실시예Second Embodiment
도 7은 본 발명의 제2 실시예에 따른 스마트 안경 인터페이스 방법(S100)을 예시적으로 나타낸 순서도이다.FIG. 7 is a flowchart illustrating a smart glasses interface method (S100) according to a second embodiment of the present invention.
도 7에 도시된 바와 같이, 본 발명의 제2 실시예에 따른 스마트 안경 인터페이스 방법(S100)은 게이즈 제스처(gaze gesture)를 이용한 인터페이스 방법으로서, 이를 위하여 S110 단계 내지 S140 단계를 포함하여 이루어진다. 본 실시예에서 적용되는 각 구성은 예로서 설명한 도 1 내지 도 6을 통해 가능하게 되면 이 설명은 앞서 설명되었기 때문에 생략하기로 한다.As shown in FIG. 7, the smart glasses interface method S100 according to the second embodiment of the present invention is an interface method using a gaze gesture, and includes steps S110 to S140. 1 to 6 described in the above-described embodiments, the description will be omitted because it has been described above.
먼저, 본 발명에 따른 S110 단계에서는 다수의 프로그램화된 실행 메뉴(122)를 안경 화면(121)에 표시한다. First, in step S110 according to the present invention, a plurality of programmed
이후, 본 발명에 따른 S120 단계에서는 눈의 방향과 눈의 깜박임 정도를 시선 감지 센서부(110)에서 감지한다. Thereafter, in step S120 according to the present invention, the direction of the eyes and the degree of flickering of the eyes are sensed by the sight
이후, 본 발명에 따른 S130 단계에서는 S120 단계의 감지를 통해 시선 조합 정보와 눈 깜박임 정보를 시선 감지 센서부(110)에서 생성한다. 상기 시선 조합 정보는 상/하/좌/우 방향과 상/하/좌/우/ 방향 사이에 존재하는 4개의 대각선 방향성을 포함한 정보를 의미하고, 눈 깜박임 정보는 눈을 제한된 시간안에 계속하여 뜨고 있는 상태, 감고 있는 상태 및 둘을 소정의 횟수만큼 반복하는 상태 등을 의미한다. Thereafter, in step S130 according to the present invention,
마지막으로, 본 발명에 따른 S140 단계에서는 S130 단계에 의해 생성된 시선조합 정보 및 눈 깜박임 정보를 통해 소정의 명령 신호를 생성하여 임의의 전자기기(140)를 동작시키거나 안경 화면(121)에 표시된 실행 메뉴(122)의 이동, 선택과 취소를 실행시킬 수 있다. Finally, in step S140 according to the present invention, a predetermined command signal is generated through the eye combination information and the eye flicker information generated in step S130 to operate an arbitrary
상기 실행 메뉴(122)의 이동, 선택 및 취소 기능에 대한 예는 앞서 도 2 내지 5에서 충분히 설명되었기 때문에 그 설명은 생략하기로 한다. 여기서, 임의의 명령 신호에 따라 실행메뉴(122)의 이동, 선택 및 취소 기능은 통상적으로 널리 알려진 스마트폰에서 사람의 손에 의한 터치에 의해 메뉴의 이동 선택 및 취소와 같은 원리가 적용될 수 있다.The examples of the move, select and cancel functions of the
예를 들면, 상기 명령 신호가 시선조합 정보를 실행 메뉴(122)간 이동 기능에 활용(연동될)될 경우에 눈 깜박임 정보를 이동된 실행 메뉴(122)의 선택과 취소 기능에 활용(연동될) 수 있다.For example, when the command signal is used (interlocked) with the movement function between the
또한, 상기 명령 신호가 시선조합 정보를 실행 메뉴(122)간 이동, 선택 및 취소 기능에 활용(연동될) 경우에 눈 깜박임 정보를 실행 메뉴(122)에 포함된 서브 실행 메뉴(미도시)의 선택과 취소 기능에 활용(연동될)될 수도 있다.In addition, when the command signal is used (combined) in the move, select, and cancel functions between the
이로써, 본 발명에 따른 S140 단계에서는 실행 메뉴(122) 및 서브 실행 메뉴의 선택에 따른 실행에 의해 해당 영상 및 데이터를 안경 화면(121)과 유무선 통신 인터페이스(150)로 연결된 전자기기(140)의 표시 화면에 표시할 수 있게 된다. In step S140 according to the present invention, the execution of the
이상에서와 같이, 첨부된 도면을 참조하여 본 발명의 실시예를 설명하였으나, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고 다른 구체적인 형태로 실시할 수 있다는 것을 이해할 수 있을 것이다. 따라서 이상에서 기술한 실시예는 모든 면에서 예시적인 것이며 한정적이 아닌 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the exemplary embodiments or constructions. You can understand that you can do it. The embodiments described above are therefore to be considered in all respects as illustrative and not restrictive.
100 : 스마트 안경 인터페이스 시스템 110 : 시선 감지 센서부
120 : 안경 화면부 121 : 안경 화면
122 : 실행 메뉴 130 : 프로세서부
140 : 전자기기 150 : 유무선 인터페이스100: smart glasses interface system 110: visual line sensor unit
120: Glasses screen part 121: Glasses screen
122: Execution menu 130:
140: Electronic device 150: wired / wireless interface
Claims (8)
다수의 시선 방향 중 적어도 2개 이상의 조합된 시선 방향을 감지하여 시선 조합 정보를 생성하고, 눈의 깜박임 정도를 감지하여 눈 깜박임 정보를 생성하는 시선 감지 센서부;
다수의 프로그램화된 실행 메뉴를 안경 화면에 표시하는 안경 화면부; 및
상기 시선조합 정보 및 눈 깜박임 정보를 통해 소정의 명령 신호를 생성하여 유무선 통신 인터페이스로 연결된 전자기기 및 장치를 동작시키거나 상기 실행 메뉴의 이동, 선택과 취소를 실행시키는 프로세서부;를 포함하되,
상기 프로세서부는 시선조합을 통해 바로가기 기능을 설정할 수 있는 것을 특징으로 하는 스마트 안경 인터페이스 시스템.A smart glasses interface system for generating a command signal through a gaze gesture and eye flicker information to operate an electronic device and a device,
A line of sight detection unit for generating line-of-sight information by sensing at least two combined line-of-sight directions among a plurality of line-of-sight directions, generating eye blinking information by sensing a blinking degree of eyes;
A glasses screen portion for displaying a plurality of programmed execution menus on a glasses screen; And
And a processor unit for generating a predetermined command signal through the gaze combination information and the blinking information to operate an electronic device and a device connected through a wired / wireless communication interface, or to execute movement, selection and cancellation of the execution menu,
Wherein the processor unit is configured to set a shortcut function through a line combination.
상기 프로세서부는,
상기 시선조합 정보를 상기 실행 메뉴간 이동 기능에 활용할 경우, 상기 눈 깜박임 정보를 이동된 실행 메뉴의 선택과 취소 기능에 활용하는 것을 특징으로 하는 스마트 안경 인터페이스 시스템.The method according to claim 1,
The processor unit,
Wherein the eye blinking information is utilized for selecting and canceling the moved execution menu when the gaze combination information is utilized for the movement function between the execution menus.
상기 프로세서부는,
상기 시선조합 정보를 상기 실행 메뉴간 이동, 선택 및 취소 기능에 활용할 경우 상기 눈 깜박임 정보를 상기 실행 메뉴에 포함된 서브 실행 메뉴의 선택과 취소 기능에 활용하는 것을 특징으로 하는 스마트 안경 인터페이스 시스템.The method according to claim 1,
The processor unit,
Wherein the eye blinking information is utilized for selecting and canceling a sub-execution menu included in the execution menu when the gaze combination information is utilized for the movement, selection, and cancellation of the execution menu.
상기 프로세서부는,
상기 실행 메뉴 및 서브 실행 메뉴의 선택에 따른 실행에 의해 해당 영상을 상기 안경 화면과 유무선 통신 인터페이스로 연결된 상기 전자기기 및 장치의 표시 화면에 표시하는 것을 특징으로 하는 스마트 안경 인터페이스 시스템.The method of claim 3,
The processor unit,
And displays the corresponding image on the display screen of the electronic apparatus and the apparatus connected to the eyeglass screen via a wired / wireless communication interface by execution according to the selection of the execution menu and the sub execution menu.
(a) 다수의 프로그램화된 실행 메뉴를 안경 화면에 표시하는 단계;
(b) 눈의 방향과 깜박임 정도를 시선 감지 센서부에서 감지하는 단계;
(c) 상기 감지를 통한 다수의 시선 방향 중 적어도 2개 이상의 조합된 시선 방향을 감지하여 시선 조합 정보을 생성하고, 눈의 깜박임 정도를 감지하여 눈 깜박임 정보를 시선 감지 센서부에서 생성하는 단계; 및
(d) 생성된 상기 시선조합 정보 및 눈 깜박임 정보를 통해 소정의 명령 신호를 생성하여 유무선 통신 인터페이스로 연결된 전자기기 및 장치를 동작시키거나 상기 실행 메뉴의 이동, 선택과 취소를 프로세서부에서 실행시키는 단계;를 포함하되, 상기 프로세서부는 시선조합을 통해 바로가기 기능을 설정할 수 있는 것을 특징으로 하는 스마트 안경 인터페이스 방법.1. A smart glasses interface method for operating an electronic device and a device by generating a command signal through a gaze gesture and eye flicker information,
(a) displaying a plurality of programmed execution menus on a glasses screen;
(b) detecting the direction of the eye and the degree of flicker in the visual line sensor;
(c) generating gaze combination information by sensing at least two combined gaze directions among a plurality of gaze directions through the sensing, generating eye blinking information by sensing the degree of flickering of the eyes; And
(d) generating a predetermined command signal through the generated gaze combination information and eye blinking information to operate an electronic device and a device connected through a wired / wireless communication interface, or executing, selecting, and canceling the execution menu by the processor unit Wherein the processor unit is capable of setting a shortcut function through a line of sight combination.
상기 (d) 단계는,
상기 시선조합 정보가 상기 실행 메뉴간 이동 기능에 활용될 경우, 상기 눈 깜박임 정보는 이동된 실행 메뉴의 선택과 취소 기능에 활용되는 것을 특징으로 하는 스마트 안경 인터페이스 방법.6. The method of claim 5,
The step (d)
Wherein the eye blinking information is used for selecting and canceling the moved execution menu when the eye-sight combination information is utilized for the menu-to-menu movement function.
상기 (d) 단계는,
상기 시선조합 정보가 상기 실행 메뉴간 이동, 선택 및 취소 기능에 활용될 경우 상기 눈 깜박임 정보는 상기 실행 메뉴에 포함된 서브 실행 메뉴의 선택과 취소 기능에 활용되는 것을 특징으로 하는 스마트 안경 인터페이스 방법.6. The method of claim 5,
The step (d)
Wherein the blinking information is used for selecting and canceling a sub-execution menu included in the execution menu when the gaze combination information is utilized for the movement, selection, and cancellation of the execution menu.
상기 (d) 단계는,
상기 실행 메뉴 및 서브 실행 메뉴의 선택에 따른 실행에 의해 해당 영상을 상기 안경 화면과 전자기기 및 장치의 표시 화면에 표시하는 것을 특징으로 하는 스마트 안경 인터페이스 방법.8. The method of claim 7,
The step (d)
And displaying the corresponding image on the spectacle screen and the display screen of the electronic apparatus and the apparatus by execution according to the selection of the execution menu and the sub-execution menu.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020130118894A KR101685430B1 (en) | 2013-10-07 | 2013-10-07 | Smart glass interface system and method using gaze gesture |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020130118894A KR101685430B1 (en) | 2013-10-07 | 2013-10-07 | Smart glass interface system and method using gaze gesture |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20150041233A KR20150041233A (en) | 2015-04-16 |
KR101685430B1 true KR101685430B1 (en) | 2016-12-14 |
Family
ID=53034768
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020130118894A KR101685430B1 (en) | 2013-10-07 | 2013-10-07 | Smart glass interface system and method using gaze gesture |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101685430B1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9905244B2 (en) * | 2016-02-02 | 2018-02-27 | Ebay Inc. | Personalized, real-time audio processing |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080157946A1 (en) | 2001-01-30 | 2008-07-03 | David Parker Dickerson | Interactive data view and command system |
US20130118894A1 (en) | 2003-11-14 | 2013-05-16 | Micron Technology, Inc. | Silver selenide sputtered films and method and apparatus for controlling defect formation in silver selenide sputtered films |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20110101374A (en) | 2010-03-08 | 2011-09-16 | 이강수 | Ubiquitous remote controller using eye-tracking glasses |
-
2013
- 2013-10-07 KR KR1020130118894A patent/KR101685430B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080157946A1 (en) | 2001-01-30 | 2008-07-03 | David Parker Dickerson | Interactive data view and command system |
US20130118894A1 (en) | 2003-11-14 | 2013-05-16 | Micron Technology, Inc. | Silver selenide sputtered films and method and apparatus for controlling defect formation in silver selenide sputtered films |
Also Published As
Publication number | Publication date |
---|---|
KR20150041233A (en) | 2015-04-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10345959B2 (en) | Watch terminal and method of controlling the same | |
US11160688B2 (en) | Visual aid display device and method of operating the same | |
US10291833B2 (en) | Mobile terminal for image capturing and method for controlling the same | |
EP3155725B1 (en) | Mobile terminal and method of controlling the same | |
US9602954B2 (en) | Mobile terminal and method for controlling the same | |
EP3297264B1 (en) | Mobile terminal and control method therefor | |
US9886086B2 (en) | Gesture-based reorientation and navigation of a virtual reality (VR) interface | |
EP2999128B1 (en) | Mobile terminal and control method therefor | |
EP2899954B1 (en) | Mobile terminal | |
US10567567B2 (en) | Electronic device and method for controlling of the same | |
EP2899622B1 (en) | Mobile terminal and control method for the same | |
JP6398987B2 (en) | Information processing apparatus, information processing method, and program | |
EP2987244B1 (en) | Mobile terminal and control method for the mobile terminal | |
US20170013179A1 (en) | Mobile terminal and method for controlling the same | |
US20160286118A1 (en) | Mobile terminal and method for controlling the same | |
EP2947538B1 (en) | Mobile terminal and method of controlling the same | |
US9939642B2 (en) | Glass type terminal and control method thereof | |
US20190020823A1 (en) | Mobile terminal | |
KR20160026323A (en) | method and apparatus for controlling the notification information based on movement | |
US20180253717A1 (en) | Terminal apparatus and control method for terminal apparatus | |
US9294605B1 (en) | Mobile terminal and method for controlling the same | |
US11430414B2 (en) | Eye gaze control of magnification user interface | |
EP3173848B1 (en) | Head mounted display and control method thereof | |
KR101685430B1 (en) | Smart glass interface system and method using gaze gesture | |
KR101695695B1 (en) | Mobile terminal and method for controlling the same |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
AMND | Amendment | ||
AMND | Amendment | ||
E601 | Decision to refuse application | ||
X091 | Application refused [patent] | ||
AMND | Amendment | ||
E902 | Notification of reason for refusal | ||
AMND | Amendment | ||
X701 | Decision to grant (after re-examination) | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20191203 Year of fee payment: 4 |