KR102636996B1 - Method for providing a virtual menu based on hand recognition for ar glasses apparatus and ar glasses system for providing a virtual menu based on hand recognition - Google Patents
Method for providing a virtual menu based on hand recognition for ar glasses apparatus and ar glasses system for providing a virtual menu based on hand recognition Download PDFInfo
- Publication number
- KR102636996B1 KR102636996B1 KR1020210167494A KR20210167494A KR102636996B1 KR 102636996 B1 KR102636996 B1 KR 102636996B1 KR 1020210167494 A KR1020210167494 A KR 1020210167494A KR 20210167494 A KR20210167494 A KR 20210167494A KR 102636996 B1 KR102636996 B1 KR 102636996B1
- Authority
- KR
- South Korea
- Prior art keywords
- palm
- virtual menu
- wearer
- menu
- augmented reality
- Prior art date
Links
- 239000011521 glass Substances 0.000 title claims abstract description 89
- 238000000034 method Methods 0.000 title claims abstract description 44
- 230000003190 augmentative effect Effects 0.000 claims abstract description 93
- 230000003287 optical effect Effects 0.000 claims abstract description 20
- 241001133760 Acoelorraphe Species 0.000 claims description 151
- 230000008859 change Effects 0.000 claims description 4
- 238000010586 diagram Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 11
- 238000004891 communication Methods 0.000 description 8
- 241000233788 Arecaceae Species 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 230000007257 malfunction Effects 0.000 description 2
- 210000001747 pupil Anatomy 0.000 description 2
- 230000001179 pupillary effect Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 238000002050 diffraction method Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000004886 head movement Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Optics & Photonics (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
본 발명은 증강현실 글래스 장치를 위한 손 인식 기반의 가상메뉴 제공 방법에 관한 것으로서, 보다 구체적으로는 증강현실 글래스 시스템에서 각 단계가 수행되는 가상메뉴 제공 방법으로서, (1) 착용자의 시야 내에 위치하는 착용자의 손바닥을 인식하는 단계; (2) 상기 단계 (1)에서 인식한 손바닥의 방향을 식별하는 단계; 및 (3) 상기 식별한 손바닥의 방향에 기초하여 결정되는 가상메뉴를 상기 인식한 손바닥 위에 표시해 제공하는 단계를 포함하는 것을 그 구성상의 특징으로 한다.
또한, 본 발명은 손 인식 기반의 가상메뉴를 제공하는 증강현실 글래스 시스템에 관한 것으로서, 보다 구체적으로는 증강현실 글래스 장치로서, 착용자의 양안의 전방에 배치되어 착용자에게 증강현실을 제공하는 광학 디스플레이부; 착용자의 시야 내에 위치하는 착용자의 손바닥을 인식하는 인식부; 상기 인식부에서 인식한 손바닥의 방향을 식별하는 식별부; 및 상기 식별한 손바닥의 방향에 기초하여 결정되는 가상메뉴를 상기 인식한 손바닥 위에 표시해 제공하는 메뉴 제공부를 포함하는 것을 그 구성상의 특징으로 한다.
본 발명에서 제안하고 있는 증강현실 글래스 장치를 위한 손 인식 기반의 가상메뉴 제공 방법 및 손 인식 기반의 가상메뉴를 제공하는 증강현실 글래스 시스템에 따르면, 착용자의 손바닥을 인식하고 손바닥 방향에 기초하여 결정되는 가상메뉴를 손바닥 위에 표시해 제공함으로써, 손바닥 방향에 따라 빠른 메뉴와 전체 메뉴가 선택적으로 표시되므로 손바닥 방향만으로 원하는 메뉴를 착용자에게 쉽게 제공할 수 있고, 반대쪽 손가락으로 가상메뉴에 대한 입력 신호를 입력함으로써, 착용자가 직관적이고 편리하게 가상메뉴를 제어할 수 있다.The present invention relates to a method of providing a virtual menu based on hand recognition for an augmented reality glasses device, and more specifically, to a method of providing a virtual menu in which each step is performed in an augmented reality glasses system, including: (1) a virtual menu located within the wearer's field of view; recognizing the wearer's palm; (2) identifying the direction of the palm recognized in step (1); and (3) displaying and providing a virtual menu determined based on the direction of the identified palm on the recognized palm.
In addition, the present invention relates to an augmented reality glasses system that provides a virtual menu based on hand recognition, and more specifically, to an augmented reality glasses device, an optical display unit disposed in front of both eyes of the wearer and providing augmented reality to the wearer. ; A recognition unit that recognizes the wearer's palm located within the wearer's field of view; An identification unit that identifies the direction of the palm recognized by the recognition unit; and a menu providing unit that displays and provides a virtual menu determined based on the direction of the identified palm on the recognized palm.
According to the method of providing a virtual menu based on hand recognition for an augmented reality glasses device proposed by the present invention and the augmented reality glasses system that provides a virtual menu based on hand recognition, the wearer's palm is recognized and the information determined based on the palm direction is provided. By displaying a virtual menu on the palm, quick menus and full menus are selectively displayed depending on the direction of the palm, making it possible to easily provide the wearer with the desired menu using only the direction of the palm. By entering the input signal for the virtual menu with the opposite finger, The wearer can control the virtual menu intuitively and conveniently.
Description
본 발명은 증강현실 글래스 장치를 위한 가상메뉴 제공 방법 및 가상메뉴를 제공하는 증강현실 글래스 시스템에 관한 것으로서, 보다 구체적으로는 증강현실 글래스 장치를 위한 손 인식 기반의 가상메뉴 제공 방법 및 손 인식 기반의 가상메뉴를 제공하는 증강현실 글래스 시스템에 관한 것이다.The present invention relates to a method of providing a virtual menu for an augmented reality glasses device and an augmented reality glasses system that provides a virtual menu. More specifically, a method of providing a virtual menu based on hand recognition for an augmented reality glasses device and a method of providing a virtual menu based on hand recognition for an augmented reality glasses device. This is about an augmented reality glass system that provides a virtual menu.
디지털 디바이스의 경량화 및 소형화 추세에 따라 다양한 웨어러블 디바이스(wearable device)들이 개발되고 있다. 이러한 웨어러블 디바이스의 일종인 헤드 마운티드 디스플레이(Head Mounted Display)는 사용자가 머리에 착용하여 멀티미디어 컨텐츠 등을 제공받을 수 있는 각종 디바이스를 의미한다. 여기서 헤드 마운티드 디스플레이(HMD)는 사용자의 신체에 착용 되어 사용자가 이동함에 따라서 다양한 환경에서 사용자에게 영상을 제공하게 된다. 이러한 헤드 마운티드 디스플레이(HMD)는 투과(see-through)형과 밀폐(see-closed)형으로 구분되고 있으며, 투과형은 주로 증강현실(Augmented Reality, AR)용으로 사용되고, 밀폐형은 주로 가상현실(Virtual Reality, VR)용으로 사용되고 있다.In accordance with the trend toward lighter and smaller digital devices, various wearable devices are being developed. A head mounted display, a type of wearable device, refers to a variety of devices that a user can wear on their head to receive multimedia content. Here, the head mounted display (HMD) is worn on the user's body and provides images to the user in various environments as the user moves. These head-mounted displays (HMDs) are divided into see-through and see-closed types. The see-through type is mainly used for Augmented Reality (AR), and the closed type is mainly used for virtual reality (Virtual Reality). It is used for Reality (VR).
헤드 마운티드 디스플레이는 기존의 터치스크린과 같은 입력 방식을 사용하기 어려우므로, 사용자 상호작용을 위한 최적화된 입력 방식이 필요하다. 헤드 마운티드 디스플레이의 증강현실에서 사용할 수 있는 입력 방식으로, HMD에 구비된 버튼이나 HMD와 연결된 별도의 입력 장치, 제스처 인식, 음성인식 등이 있을 수 있다.Because it is difficult to use input methods like existing touch screens for head-mounted displays, an optimized input method for user interaction is needed. Input methods that can be used in the augmented reality of a head-mounted display may include buttons provided on the HMD, separate input devices connected to the HMD, gesture recognition, and voice recognition.
증강현실용 헤드 마운티드 디스플레이(이하, ‘AR 글래스’또는 ‘증강현실 글래스’라 한다.)는 스마트폰(Smartphone), 스마트 워치(Smart Watch)와 비슷하게 메뉴를 표시하고, 메뉴 상의 아이콘을 선택하여 여러 가지 기능을 실행할 수 있다. 그런데 AR 글래스는 VR과 달리 제어 보조장치가 없고 주로 제스처 인식을 기반으로 제어되므로, 손 제스처를 사용한 메뉴의 제어 및 조작은 AR 글래스의 활용에서 가장 중요한 과제 중 하나이다.Head-mounted displays for augmented reality (hereinafter referred to as ‘AR glasses’ or ‘augmented reality glasses’) display menus similar to smartphones and smart watches, and select icons on the menu to access various options. You can run several functions. However, unlike VR, AR glasses do not have control aids and are mainly controlled based on gesture recognition, so controlling and manipulating menus using hand gestures is one of the most important tasks in the use of AR glasses.
따라서 제스처 위주의 입력 방식을 사용하는 AR 글래스에서, 조작 오작동 우려를 최소화하고 직관적으로 사용할 수 있는 가상메뉴 제공 및 조작 방법의 개발이 요구된다.Therefore, in AR glasses that use a gesture-oriented input method, there is a need to develop a virtual menu and operation method that can be used intuitively and minimize concerns about operation malfunction.
한편, 본 발명과 관련된 선행기술로서, 등록특허 제10-1700569호(발명의 명칭: 제스처 기반의 사용자 인증이 가능한 HMD 장치 및 상기 HMD 장치의 제스처 기반의 사용자 인증 방법, 등록일자: 2017년 01월 23일) 등이 개시된 바 있다.Meanwhile, as prior art related to the present invention, Registered Patent No. 10-1700569 (title of the invention: HMD device capable of gesture-based user authentication and gesture-based user authentication method of the HMD device, registration date: January 2017 23), etc. have been launched.
본 발명은 기존에 제안된 방법들의 상기와 같은 문제점들을 해결하기 위해 제안된 것으로서, 착용자의 손바닥을 인식하고 손바닥 방향에 기초하여 결정되는 가상메뉴를 손바닥 위에 표시해 제공함으로써, 손바닥 방향에 따라 빠른 메뉴와 전체 메뉴가 선택적으로 표시되므로 손바닥 방향만으로 원하는 메뉴를 착용자에게 쉽게 제공할 수 있고, 반대쪽 손가락으로 가상메뉴에 대한 입력 신호를 입력함으로써, 착용자가 직관적이고 편리하게 가상메뉴를 제어할 수 있는, 증강현실 글래스 장치를 위한 손 인식 기반의 가상메뉴 제공 방법 및 손 인식 기반의 가상메뉴를 제공하는 증강현실 글래스 시스템을 제공하는 것을 그 목적으로 한다.The present invention was proposed to solve the above-mentioned problems of previously proposed methods. It recognizes the wearer's palm and displays a virtual menu determined based on the palm direction on the palm, thereby providing a quick menu and menu according to the palm direction. Since the entire menu is displayed selectively, the desired menu can be easily provided to the wearer just by pointing the palm, and by inputting input signals for the virtual menu with the opposite finger, the wearer can intuitively and conveniently control the virtual menu. The purpose is to provide a method of providing a hand recognition-based virtual menu for a glass device and an augmented reality glasses system that provides a hand recognition-based virtual menu.
상기한 목적을 달성하기 위한 본 발명의 특징에 따른 증강현실 글래스 장치를 위한 손 인식 기반의 가상메뉴 제공 방법은,A method of providing a virtual menu based on hand recognition for an augmented reality glass device according to the characteristics of the present invention to achieve the above object is,
증강현실 글래스 시스템에서 각 단계가 수행되는 가상메뉴 제공 방법으로서,A method of providing a virtual menu in which each step is performed in an augmented reality glass system,
(1) 착용자의 시야 내에 위치하는 착용자의 손바닥을 인식하는 단계;(1) recognizing the wearer's palm located within the wearer's field of view;
(2) 상기 단계 (1)에서 인식한 손바닥의 방향을 식별하는 단계; 및(2) identifying the direction of the palm recognized in step (1); and
(3) 상기 식별한 손바닥의 방향에 기초하여 결정되는 가상메뉴를 상기 인식한 손바닥 위에 표시해 제공하는 단계를 포함하는 것을 그 구성상의 특징으로 한다.(3) It is characterized in that it includes the step of displaying and providing a virtual menu determined based on the direction of the identified palm on the recognized palm.
바람직하게는, 상기 단계 (2)에서는,Preferably, in step (2),
상기 인식한 손바닥의 방향이 가로인지 세로인지를 식별할 수 있다.It is possible to identify whether the direction of the recognized palm is horizontal or vertical.
더욱 바람직하게는, 상기 단계 (3)에서는,More preferably, in step (3),
상기 단계 (2)에서 식별한 손바닥의 방향이 가로이면 빠른 가상메뉴를 표시하며, 상기 손바닥의 위치를 추적해 손바닥의 이동에 따라 상기 빠른 가상메뉴를 이동시켜, 상기 빠른 가상메뉴가 손바닥에 표시되도록 할 수 있다.If the direction of the palm identified in step (2) is horizontal, the quick virtual menu is displayed, and the position of the palm is tracked and the quick virtual menu is moved according to the movement of the palm, so that the quick virtual menu is displayed on the palm. can do.
더더욱 바람직하게는, 상기 단계 (3) 이후에는,Even more preferably, after step (3),
상기 손바닥이 상기 착용자의 시야에서 이탈하면, 상기 빠른 가상메뉴를 표시하지 않을 수 있다.If the palm is out of the wearer's field of view, the quick virtual menu may not be displayed.
더욱 바람직하게는, 상기 단계 (3)에서는,More preferably, in step (3),
상기 단계 (2)에서 식별한 손바닥의 방향이 세로이면 상기 손바닥을 기준으로 전체 가상메뉴를 표시하며, 상기 전체 가상메뉴의 표시 후에는 상기 손바닥의 위치 변화와 관계없이 상기 착용자의 시야 내에서 상기 전체 가상메뉴의 위치를 고정해 표시할 수 있다.If the direction of the palm identified in step (2) is vertical, the entire virtual menu is displayed based on the palm, and after displaying the entire virtual menu, the entire virtual menu is displayed within the wearer's field of view regardless of the change in the position of the palm. The position of the virtual menu can be fixed and displayed.
바람직하게는, 상기 단계 (3) 이후에는,Preferably, after step (3),
(4) 상기 표시한 가상메뉴에 대한 입력 신호를 이용해 상기 가상메뉴를 제어하는 단계를 더 포함하며,(4) further comprising controlling the virtual menu using an input signal for the displayed virtual menu,
상기 입력 신호는, 상기 단계 (1)에서 인식한 손바닥과 반대쪽 손의 손가락을 사용한 신호일 수 있다.The input signal may be a signal using the fingers of the hand opposite to the palm recognized in step (1).
상기한 목적을 달성하기 위한 손 인식 기반의 가상메뉴를 제공하는 증강현실 글래스 시스템은,The augmented reality glasses system that provides a virtual menu based on hand recognition to achieve the above purpose is,
증강현실 글래스 시스템으로서,As an augmented reality glass system,
착용자의 양안의 전방에 배치되어 착용자에게 증강현실을 제공하는 광학 디스플레이부;An optical display unit disposed in front of both eyes of the wearer to provide augmented reality to the wearer;
착용자의 시야 내에 위치하는 착용자의 손바닥을 인식하는 인식부;A recognition unit that recognizes the wearer's palm located within the wearer's field of view;
상기 인식부에서 인식한 손바닥의 방향을 식별하는 식별부; 및An identification unit that identifies the direction of the palm recognized by the recognition unit; and
상기 식별한 손바닥의 방향에 기초하여 결정되는 가상메뉴를 상기 인식한 손바닥 위에 표시해 제공하는 메뉴 제공부를 포함하는 것을 그 구성상의 특징으로 한다.Its structural feature includes a menu providing unit that displays and provides a virtual menu determined based on the direction of the identified palm on the recognized palm.
바람직하게는, 상기 식별부는,Preferably, the identification unit,
상기 인식한 손바닥의 방향이 가로인지 세로인지를 식별하며,Identify whether the recognized palm orientation is horizontal or vertical,
상기 메뉴 제공부는,The menu provision section,
상기 식별부에서 식별한 손바닥의 방향이 가로이면 빠른 가상메뉴를 표시하며, 상기 손바닥의 위치를 추적해 손바닥의 이동에 따라 상기 빠른 가상메뉴를 이동시켜, 상기 빠른 가상메뉴가 손바닥에 표시되도록 하고, 상기 식별부에서 식별한 손바닥의 방향이 세로이면 상기 손바닥을 기준으로 전체 가상메뉴를 표시하며, 상기 전체 가상메뉴의 표시 후에는 상기 손바닥의 위치 변화와 관계없이 상기 착용자의 시야 내에서 상기 전체 가상메뉴의 위치를 고정해 표시할 수 있다.If the direction of the palm identified by the identification unit is horizontal, a quick virtual menu is displayed, and the position of the palm is tracked and the quick virtual menu is moved according to the movement of the palm, so that the quick virtual menu is displayed on the palm, If the direction of the palm identified by the identification unit is vertical, the entire virtual menu is displayed based on the palm, and after displaying the entire virtual menu, the entire virtual menu is displayed within the wearer's field of view regardless of the change in the position of the palm. The position of can be fixed and displayed.
본 발명에서 제안하고 있는 증강현실 글래스 장치를 위한 손 인식 기반의 가상메뉴 제공 방법 및 손 인식 기반의 가상메뉴를 제공하는 증강현실 글래스 시스템에 따르면, 착용자의 손바닥을 인식하고 손바닥 방향에 기초하여 결정되는 가상메뉴를 손바닥 위에 표시해 제공함으로써, 손바닥 방향에 따라 빠른 메뉴와 전체 메뉴가 선택적으로 표시되므로 손바닥 방향만으로 원하는 메뉴를 착용자에게 쉽게 제공할 수 있고, 반대쪽 손가락으로 가상메뉴에 대한 입력 신호를 입력함으로써, 착용자가 직관적이고 편리하게 가상메뉴를 제어할 수 있다.According to the method of providing a hand recognition-based virtual menu for an augmented reality glasses device proposed by the present invention and the augmented reality glasses system that provides a hand recognition-based virtual menu, the wearer's palm is recognized and determined based on the palm direction. By displaying a virtual menu on the palm, quick menus and full menus are selectively displayed depending on the direction of the palm, making it possible to easily provide the wearer with the desired menu using only the direction of the palm. By entering the input signal for the virtual menu with the opposite finger, The wearer can control the virtual menu intuitively and conveniently.
도 1은 본 발명의 일실시예에 따른 손 인식 기반의 가상메뉴를 제공하는 증강현실 글래스 시스템의 구성을 도시한 도면.
도 2는 본 발명의 일실시예에 따른 손 인식 기반의 가상메뉴를 제공하는 증강현실 글래스 장치의 모습을 예를 들어 도시한 도면.
도 3은 본 발명의 일실시예에 따른 증강현실 글래스 장치를 위한 손 인식 기반의 가상메뉴 제공 방법의 흐름을 도시한 도면.
도 4는 본 발명의 일실시예에 따른 증강현실 글래스 장치를 위한 손 인식 기반의 가상메뉴 제공 방법에서, 손바닥의 방향이 세로일 때 빠른 가상메뉴가 제공되는 모습을 도시한 도면.
도 5는 본 발명의 일실시예에 따른 증강현실 글래스 장치를 위한 손 인식 기반의 가상메뉴 제공 방법에서, 손바닥 이동에 따라 빠른 가상메뉴가 이동해 표시되는 모습을 도시한 도면.
도 6은 본 발명의 일실시예에 따른 증강현실 글래스 장치를 위한 손 인식 기반의 가상메뉴 제공 방법에서, 손바닥의 방향이 가로일 때 전체 가상메뉴가 제공되는 모습을 도시한 도면.
도 7은 본 발명의 일실시예에 따른 증강현실 글래스 장치를 위한 손 인식 기반의 가상메뉴 제공 방법에서, 손바닥 이동과 관계없이 전체 가상메뉴가 제공되는 모습을 도시한 도면.
도 8은 본 발명의 일실시예에 따른 증강현실 글래스 장치를 위한 손 인식 기반의 가상메뉴 제공 방법에서, 가상메뉴에 대한 입력 신호를 입력하는 모습을 도시한 도면.Figure 1 is a diagram illustrating the configuration of an augmented reality glasses system that provides a virtual menu based on hand recognition according to an embodiment of the present invention.
Figure 2 is a diagram showing an example of an augmented reality glass device that provides a virtual menu based on hand recognition according to an embodiment of the present invention.
Figure 3 is a diagram illustrating the flow of a method for providing a virtual menu based on hand recognition for an augmented reality glasses device according to an embodiment of the present invention.
FIG. 4 is a diagram illustrating a method of providing a virtual menu based on hand recognition for an augmented reality glass device according to an embodiment of the present invention, where a quick virtual menu is provided when the palm is in a vertical direction.
Figure 5 is a diagram illustrating how a virtual menu is quickly moved and displayed according to the movement of the palm in a method of providing a virtual menu based on hand recognition for an augmented reality glasses device according to an embodiment of the present invention.
Figure 6 is a diagram illustrating an entire virtual menu being provided when the palm is in a horizontal direction in a method of providing a virtual menu based on hand recognition for an augmented reality glasses device according to an embodiment of the present invention.
FIG. 7 is a diagram illustrating an entire virtual menu being provided regardless of palm movement in a method of providing a virtual menu based on hand recognition for an augmented reality glass device according to an embodiment of the present invention.
Figure 8 is a diagram illustrating inputting an input signal for a virtual menu in a method of providing a virtual menu based on hand recognition for an augmented reality glasses device according to an embodiment of the present invention.
이하, 첨부된 도면을 참조하여 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있도록 바람직한 실시예를 상세히 설명한다. 다만, 본 발명의 바람직한 실시예를 상세하게 설명함에 있어, 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략한다. 또한, 유사한 기능 및 작용을 하는 부분에 대해서는 도면 전체에 걸쳐 동일한 부호를 사용한다.Hereinafter, with reference to the attached drawings, preferred embodiments will be described in detail so that those skilled in the art can easily practice the present invention. However, when describing preferred embodiments of the present invention in detail, if it is determined that a detailed description of a related known function or configuration may unnecessarily obscure the gist of the present invention, the detailed description will be omitted. In addition, the same symbols are used throughout the drawings for parts that perform similar functions and actions.
덧붙여, 명세서 전체에서, 어떤 부분이 다른 부분과 ‘연결’ 되어 있다고 할 때, 이는 ‘직접적으로 연결’ 되어 있는 경우뿐만 아니라, 그 중간에 다른 소자를 사이에 두고 ‘간접적으로 연결’ 되어 있는 경우도 포함한다. 또한, 어떤 구성요소를 ‘포함’ 한다는 것은, 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있다는 것을 의미한다.In addition, throughout the specification, when a part is said to be 'connected' to another part, this is not only the case when it is 'directly connected', but also when it is 'indirectly connected' with another element in between. Includes. Additionally, ‘including’ a certain component does not mean excluding other components, but rather including other components, unless specifically stated to the contrary.
도 1은 본 발명의 일실시예에 따른 손 인식 기반의 가상메뉴를 제공하는 증강현실 글래스 시스템의 구성을 도시한 도면이다. 도 1에 도시된 바와 같이, 본 발명의 일실시예에 따른 손 인식 기반의 가상메뉴를 제공하는 증강현실 글래스 시스템은, 착용자의 양안의 전방에 배치되어 착용자에게 증강현실을 제공하는 광학 디스플레이부(100); 착용자의 시야 내에 위치하는 착용자의 손바닥을 인식하는 인식부(200); 인식부(200)에서 인식한 손바닥의 방향을 식별하는 식별부(300); 및 식별한 손바닥의 방향에 기초하여 결정되는 가상메뉴를 인식한 손바닥 위에 표시해 제공하는 메뉴 제공부(400)를 포함하여 구성될 수 있으며, 제어부(500), 카메라부(600), 센서부(700) 및 통신부(800)를 더 포함하여 구성될 수 있다.Figure 1 is a diagram showing the configuration of an augmented reality glasses system that provides a virtual menu based on hand recognition according to an embodiment of the present invention. As shown in FIG. 1, the augmented reality glass system that provides a virtual menu based on hand recognition according to an embodiment of the present invention includes an optical display unit (optical display unit) disposed in front of both eyes of the wearer and providing augmented reality to the wearer. 100); A
보다 구체적으로, 식별부(300)는, 인식한 손바닥의 방향이 가로인지 세로인지를 식별하며, 메뉴 제공부(400)는 식별부(300)에서 식별한 손바닥의 방향이 가로이면 빠른 가상메뉴를, 손바닥의 방향이 세로이면 손바닥을 기준으로 전체 가상메뉴를 각각 표시할 수 있다. 즉, 착용자의 손바닥 방향에 따라 빠른 메뉴와 전체 메뉴를 선택적으로 손바닥 위에 영상으로 표시해 제공하여, 손바닥 방향만으로 원하는 메뉴를 착용자에게 쉽게 제공할 수 있다.More specifically, the
도 2는 본 발명의 일실시예에 따른 손 인식 기반의 가상메뉴를 제공하는 증강현실 글래스 장치(10)의 모습을 예를 들어 도시한 도면이다. 도 2에 도시된 바와 같이, 본 발명의 일실시예에 따른 손 인식 기반의 가상메뉴를 제공하는 증강현실 글래스 장치(10)는, 눈 주변이 밀폐된 형태의 고글 또는 측면이 개방된 형태의 안경 등으로 구현될 수 있다.Figure 2 is a diagram showing an example of an augmented
본 발명의 일실시예에 따른 손 인식 기반의 가상메뉴를 제공하는 증강현실 글래스 시스템은 증강현실 글래스 장치(10)와 서버로 구성될 수 있으나, 증강현실 글래스 장치(10) 단독으로 구현될 수도 있다. 예를 들어, 광학 디스플레이부(100)와 카메라부(600) 등은 증강현실 글래스 장치(10)의 구성요소로, 인식부(200), 식별부(300) 등은 서버의 구성요소로 각각 구현할 수 있다. 즉, 증강현실 글래스 장치(10)의 카메라부(600)에서 촬영된 영상이 서버에 전달되고, 서버의 인식부(200) 및 식별부(300)가 인공지능 모델 기반으로 손바닥을 인식, 연산 및 분석하고 제어 이벤트를 생성하면, 증강현실 글래스 장치(10)의 광학 디스플레이부(100)를 통해 제어 이벤트에 따른 가상메뉴가 증강현실로 착용자에게 제공될 수 있다. 이와 같이, 본 발명의 일실시예에 따른 손 인식 기반의 가상메뉴를 제공하는 증강현실 글래스 시스템에서, 증강현실 글래스 장치(10)와 서버가 담당하는 각각의 기능은 다양하게 구현될 수 있다.The augmented reality glasses system that provides a virtual menu based on hand recognition according to an embodiment of the present invention may be composed of the augmented
이하에서는, 본 발명의 일실시예에 따른 손 인식 기반의 가상메뉴를 제공하는 증강현실 글래스 시스템의 각 구성에 대해 상세히 설명하도록 한다.Below, each configuration of the augmented reality glasses system that provides a virtual menu based on hand recognition according to an embodiment of the present invention will be described in detail.
여기서, 광학 디스플레이부(100)는, 착용자의 양안의 전방에 배치되어 착용자에게 증강현실을 제공할 수 있다. 즉, 광학 디스플레이부(100)는 증강현실 글래스 장치(10)의 AR 글래스에 해당하는 구성으로서, 도 1에 도시된 바와 같이 디스플레이(110) 및 광학계(120)를 포함하여 구성될 수 있다.Here, the
디스플레이(110)는, 영상 정보가 착용자에게 제공될 수 있도록 영상 광을 출력할 수 있다. 보다 구체적으로, 디스플레이(110)는, 영상 정보가 착용자에게 제공될 수 있도록, 이하에서 상세히 설명할 광학계(120)에 결합해, 광학계(120)에 의해 착용자의 눈 방향으로 전달되는 영상 광을 출력하며, 양안 디스플레이를 위해 한 쌍의 디스플레이(110)로 구성될 수 있다. 디스플레이(110)는 OLED 등으로 다양하게 구성될 수 있다.The
광학계(120)는, 증강현실 글래스 장치(10)를 착용한 착용자의 양안의 전방에 배치되어 실제 세계의 광과 영상 광의 결합에 의한 증강현실을 제공할 수 있다. 보다 구체적으로, 광학계(120)는, 착용자의 시야를 통한 실제 세계(real world)의 광의 적어도 일부를 투과시키고, 디스플레이(110)에서 출력되는 영상 광을 착용자의 눈 방향으로 전달하여 증강현실을 제공할 수 있다. 즉, 광학계(120)는 증강현실 글래스 장치(10)를 착용한 착용자가 증강현실을 경험할 수 있도록 구성될 수 있다.The
또한, 광학계(120)는 복수의 렌즈와 미러 등으로 구성되며 다양한 방식으로 구현될 수 있는데, 예를 들어 광학 회절 방식, 빔 스플리터 방식, 핀 미러 방식 등으로 구현될 수 있다.In addition, the
인식부(200), 식별부(300), 메뉴 제공부(400) 및 제어부(500)에 대해서는, 이하에서 본 발명의 일실시예에 따른 증강현실 글래스 장치(10)를 위한 손 인식 기반의 가상메뉴 제공 방법과 관련해 상세히 설명하도록 한다.The
도 3은 본 발명의 일실시예에 따른 증강현실 글래스 장치(10)를 위한 손 인식 기반의 가상메뉴 제공 방법의 흐름을 도시한 도면이다. 도 3에 도시된 바와 같이, 본 발명의 일실시예에 따른 증강현실 글래스 장치(10)를 위한 손 인식 기반의 가상메뉴 제공 방법은, 증강현실 글래스 시스템에서 각 단계가 수행되는 가상메뉴 제공 방법으로서, 착용자의 손바닥을 인식하는 단계(S110), 손바닥의 방향을 식별하는 단계(S120) 및 손바닥의 방향에 기초하여 결정되는 가상메뉴를 인식한 손바닥에 표시해 제공하는 단계(S130)를 포함하여 구현될 수 있으며, 가상메뉴에 대한 입력 신호를 이용해 가상메뉴를 제어하는 단계(S140)를 더 포함하여 구현될 수 있다.FIG. 3 is a diagram illustrating the flow of a method for providing a virtual menu based on hand recognition for the augmented
단계 S110에서는, 인식부(200)가 착용자의 시야 내에 위치하는 착용자의 손바닥을 인식할 수 있다. 보다 구체적으로, 인식부(200)는 카메라부(600)로부터 획득한 착용자의 시선 방향 영상으로부터 손바닥을 인식할 수 있다. 예를 들어, 착용자가 손을 바라보면 인식부(200)는 카메라 영상에서 손 형태를 인식해 손바닥을 특정할 수 있다. 이때, 단계 S110에서 인식하는 대상은 착용자의 왼손 손바닥일 수 있으며, 왼손을 펼쳐 손바닥이 보이게 한 형태를 인식할 수 있다.In step S110, the
여기서, 인식부(200)는, 영상 처리, 인공지능 등을 기반으로 하는 비전 인식 기술을 사용해 손 형상이나 특징점 등을 추정할 수 있으며, 추정된 손 형상이나 특징점을 사용해 손바닥이나 제스처 등을 인식할 수 있다. 실시예에 따라서, 인식부(200)는, 증강현실 글래스 장치(10)의 RGB 카메라, 적외선 이미지 카메라, 깊이 센서 등에서 획득한 손 영상을 사용할 수 있다.Here, the
보다 구체적으로, 인식부(200)는, 증강현실 글래스 장치(10)의 적외선 이미지 카메라로부터 획득한 적외선 손 영상을 사용할 수 있다. 적외선 영상은 단일채널 이미지로, 적외선 손 영상을 사용해 제스처 인식을 하면 이미지 처리에 사용되는 계산 비용을 줄일 수 있으므로, 증강현실 글래스 장치(10)의 임베디드 환경에서도 제스처 인식을 효과적으로 수행할 수 있다. 특히, 증강현실 글래스 장치(10)는 무게가 무거우면 목과 어깨에 부담이 되고 머리 움직임이 제한되어 장시간 착용이 어려우므로, 경량화 및 소형화가 중요하다. 따라서 증강현실 글래스 장치(10)에 많은 계산 자원을 탑재할 수 없으므로, 단일채널 이미지인 적외선 영상을 사용해 임베디드 환경에서 사용할 수 있도록 계산 비용을 줄이면, 단계 S110의 연산을 서버가 아닌 증강현실 글래스 장치(10)에서 처리할 수도 있다.More specifically, the
단계 S120에서는, 식별부(300)가 단계 S110에서 인식한 손바닥의 방향을 식별할 수 있다. 보다 구체적으로, 단계 S120에서는, 인식한 손바닥의 방향이 가로인지 세로인지를 식별할 수 있다. 여기서, 식별부(300)는 인식부(200)가 추정한 손 형상이나 특징점 등을 기초로 손바닥의 각도를 계산하고, 손바닥의 각도가 미리 정해진 가로 방향 각도 범위 또는 세로 방향 각도 범위에 속하는지를 판단해, 손바닥의 방향을 가로 또는 세로로 식별할 수 있다.In step S120, the
단계 S130에서는, 메뉴 제공부(400)가, 식별부(300)가 식별한 손바닥의 방향에 기초하여 결정되는 가상메뉴를 인식한 손바닥 위에 표시해 제공할 수 있다. 즉, 단계 S120에서 식별한 손바닥 방향이 가로일 때와 세로일 때, 서로 다른 가상메뉴를 제공할 수 있다.In step S130, the
도 4는 본 발명의 일실시예에 따른 증강현실 글래스 장치(10)를 위한 손 인식 기반의 가상메뉴(20) 제공 방법에서, 손바닥의 방향이 세로일 때 빠른 가상메뉴(20)가 제공되는 모습을 도시한 도면이다. 도 4에 도시된 바와 같이, 본 발명의 일실시예에 따른 증강현실 글래스 장치(10)를 위한 손 인식 기반의 가상메뉴(20) 제공 방법의 단계 S130에서는, 단계 S120에서 식별한 손바닥의 방향이 가로이면 빠른 가상메뉴(20)를 표시할 수 있다. 즉, 도 4의 좌측에 도시된 바와 같이 착용자가 증강현실 글래스 장치(10)를 착용한 상태에서 왼손을 세로 방향으로 펼쳐서 손바닥을 바라보면, 손바닥이 인식되고 손바닥의 방향이 식별되며, 손바닥 방향(세로)에 따라 결정된 빠른 가상메뉴(20)가 도 4의 우측에 도시된 바와 같이 왼손바닥 위에 팝업(pop-up) 디스플레이 될 수 있다.Figure 4 shows that in the method of providing a
여기서, 빠른 가상메뉴(20)는 기본 기능 메뉴 또는 즐겨찾기 메뉴 등일 수 있는데, 예를 들어 전화, 웹 브라우저, 앨범, 카메라 등 자주 쓰는 기능 및/또는 애플리케이션들로 구성된 메뉴일 수 있다. 이와 같은 빠른 가상메뉴(20)를 구성하는 기능 및/또는 애플리케이션의 종류와 순서, 배치 등은 착용자가 직접 편집할 수 있다. 따라서 각 착용자가 빠른 가상메뉴(20)를 커스터마이징하여 사용할 수 있다.Here, the quick
도 5는 본 발명의 일실시예에 따른 증강현실 글래스 장치(10)를 위한 손 인식 기반의 가상메뉴(20) 제공 방법에서, 손바닥 이동에 따라 빠른 가상메뉴(20)가 이동해 표시되는 모습을 도시한 도면이다. 도 5에 도시된 바와 같이, 본 발명의 일실시예에 따른 증강현실 글래스 장치(10)를 위한 손 인식 기반의 가상메뉴(20) 제공 방법의 단계 S130에서는, 손바닥의 위치를 추적해 손바닥의 이동에 따라 메뉴 제공부(400)가 빠른 가상메뉴(20)를 이동시켜서, 빠른 가상메뉴(20)가 손바닥에 표시되도록 할 수 있다. 즉, 증강현실 글래스 장치(10)는 빠른 가상메뉴(20)가 팝업 표시된 손바닥의 위치를 추적하며, 손바닥이 움직이면 손바닥 위에 빠른 가상메뉴(20)가 고정된 것처럼 함께 이동할 수 있다.FIG. 5 illustrates a method of providing a
또한, 단계 S130에서 빠른 가상메뉴(20)를 표시한 이후에, 손바닥이 착용자의 시야에서 이탈하면 빠른 가상메뉴(20)를 표시하지 않을 수 있다. 즉, 왼손바닥이 시야에서 이탈하면 빠른 가상메뉴(20)도 함께 사라지게 된다.Additionally, after displaying the quick
도 6은 본 발명의 일실시예에 따른 증강현실 글래스 장치(10)를 위한 손 인식 기반의 가상메뉴(20) 제공 방법에서, 손바닥의 방향이 가로일 때 전체 가상메뉴(20)가 제공되는 모습을 도시한 도면이다. 도 6에 도시된 바와 같이, 본 발명의 일실시예에 따른 증강현실 글래스 장치(10)를 위한 손 인식 기반의 가상메뉴(20) 제공 방법의 단계 S130에서는, 단계 S120에서 식별한 손바닥의 방향이 세로이면 손바닥을 기준으로 전체 가상메뉴(20)를 표시할 수 있다. 즉, 도 6의 좌측에 도시된 바와 같이 착용자가 증강현실 글래스 장치(10)를 착용한 상태에서 왼손을 가로 방향으로 펼쳐서 손바닥을 바라보면, 손바닥이 인식되고 손바닥의 방향이 식별되며, 손바닥 방향(가로)에 따라 결정된 전체 가상메뉴(20)가 도 6의 우측에 도시된 바와 같이 왼손바닥 위에 팝업 디스플레이 될 수 있다.Figure 6 shows that in the method of providing a
여기서, 전체 가상메뉴(20)는 증강현실 글래스 장치(10)가 제공하거나 증강현실 글래스 장치(10)에 설치된 모든 기능과 애플리케이션의 목록 메뉴일 수 있다. 이와 같은 전체 가상메뉴(20)를 구성하는 기능 및/또는 애플리케이션의 종류와 순서, 배치 등은 착용자가 직접 편집할 수 있다. 따라서 각 착용자가 원하는 순서와 배치로 전체 가상메뉴(20)를 커스터마이징하여 사용할 수 있다.Here, the entire
이와 같은 전체 가상메뉴(20)는 빠른 가상메뉴(20)에 비해 포함된 아이콘 개수가 많으므로, 도 6의 우측에 도시된 바와 같이 뷰 필드(view field)의 전체 화면으로 출력할 수 있다. 이때, 식별한 왼손바닥의 위치를 기준으로 하여 전체 가상메뉴(20)를 표시할 수 있으며, 예를 들어 왼손바닥이 전체 가상메뉴(20)의 중심에 위치하도록 하거나, 도 6의 우측에 도시된 바와 같이 전체 가상메뉴(20)의 좌측 모서리를 왼손바닥의 시작 부분에 맞추어 표시할 수 있다.Since this full
도 7은 본 발명의 일실시예에 따른 증강현실 글래스 장치(10)를 위한 손 인식 기반의 가상메뉴(20) 제공 방법에서, 손바닥 이동과 관계없이 전체 가상메뉴(20)가 제공되는 모습을 도시한 도면이다. 도 7에 도시된 바와 같이, 본 발명의 일실시예에 따른 증강현실 글래스 장치(10)를 위한 손 인식 기반의 가상메뉴(20) 제공 방법의 단계 S130에서는, 전체 가상메뉴(20)의 표시 후에는 손바닥의 위치 변화와 관계없이 착용자의 시야 내에서 전체 가상메뉴(20)의 위치를 고정해 표시할 수 있다. 즉, 빠른 가상메뉴(20)와 달리, 전체 가상메뉴(20)는 착용자가 왼손이나 고개를 움직이는 것과 관계없이 뷰 필드 내에 고정되어 제공될 수 있다.FIG. 7 shows how the entire
또한, 단계 S130에서는, 손바닥이 착용자의 시야에서 이탈해도, 착용자의 시야 내에 전체 가상메뉴(20)를 유지할 수 있다. 즉, 빠른 가상메뉴(20)와는 달리, 왼손바닥이 시야에서 이탈하더라도 전체 가상메뉴(20)는 그대로 출력될 수 있다. 전체 가상메뉴(20)를 시야에서 제거하기 위해서는 종료를 위한 별도의 입력 신호가 필요할 수 있다.Additionally, in step S130, even if the palm leaves the wearer's field of view, the entire
단계 S140에서는, 메뉴 제공부(400) 및 제어부(500)가, 가상메뉴(20)에 대한 입력 신호를 이용해 가상메뉴(20)를 제어할 수 있다. 제어부(500)는 입력 신호에 대응해 선택된 기능 또는 애플리케이션을 실행할 수 있으며, 메뉴 제공부(400)와 연동해 가상메뉴(20)를 편집하거나 가상메뉴(20)의 출력을 종료할 수도 있다.In step S140, the
도 8은 본 발명의 일실시예에 따른 증강현실 글래스 장치(10)를 위한 손 인식 기반의 가상메뉴(20) 제공 방법에서, 가상메뉴(20)에 대한 입력 신호를 입력하는 모습을 도시한 도면이다. 도 8에 도시된 바와 같이, 본 발명의 일실시예에 따른 증강현실 글래스 장치(10)를 위한 손 인식 기반의 가상메뉴(20) 제공 방법의 단계 S140에서는, 단계 S110에서 인식한 손바닥과 반대쪽 손의 손가락을 사용한 신호를 입력 신호로 하여, 가상메뉴(20)를 제어할 수 있다. 즉, 착용자는 왼손 위에 표시된 가상메뉴(20)(빠른 가상메뉴(20) 또는 전체 가상메뉴(20))에서, 오른손 집게손가락으로 아이콘을 선택해 해당 기능을 실행할 수 있고, 아이콘 배치를 변경하는 등의 메뉴 편집을 수행할 수도 있다.FIG. 8 is a diagram illustrating inputting an input signal for the
한편, 인식부(200)는 착용자가 메뉴 제어를 위해 사용하는 다양한 제스처를 인식하고 입력 신호를 추출해 제어부(500)에 전달함으로써, 가상메뉴(20)가 제어되도록 할 수 있다. 여기서, 각각의 제스처는 손의 모습(자세)과 동작 중 적어도 하나로 구성될 수 있다.Meanwhile, the
예를 들어, 인식부(200)는 카메라에서 촬영된 영상에서 오른손의 모습(도 8에 도시된 바와 같이 집게손가락만 편 형상)을 검출하고, 손의 키포인트를 추정해 검지 끝점의 좌표값을 추출하여, 가상메뉴(20)를 구성하는 아이콘 중에서 착용자가 가리키는 아이콘을 특정할 수 있다. 또한, 검지 끝점의 뎁스를 추정해 해당 아이콘에 대한 터치 여부를 판별할 수 있다.For example, the
한편, 본 발명의 일실시예에 따른 손 인식 기반의 가상메뉴(20)를 제공하는 증강현실 글래스 장치(10)는, 카메라부(600), 센서부(700) 및 통신부(800)를 더 포함하여 구성될 수 있다.Meanwhile, the augmented
즉, 제어부(500)는, 카메라부(600) 및 센서부(700)에서 수집한 정보에 기초하여, 착용자에게 제공할 영상 정보를 생성해 디스플레이(110)로 전송되도록 제어함으로써, 착용자가 증강현실을 통해 가상메뉴(20)와 외부 환경에 대한 추가 정보 등을 최적화된 화면으로 전달받도록 할 수 있다.That is, the
카메라부(600)는, 착용자의 시야 방향의 영상을 촬영해 인식부(200)에 전달하여 비전 인식 기반으로 손바닥과 제스처 등을 인식할 수 있다. 보다 구체적으로, 카메라부(600)는, 인식부(200)의 손바닥 및 제스처 인식 알고리즘에 따라 RGB 카메라, 적외선 이미지 카메라, 깊이 센서 등을 포함하여, 손바닥 및 제스처 인식에 필요한 손 영상을 제공할 수 있다.The
센서부(700)는, 적어도 하나 이상의 센서를 포함할 수 있으며, 보다 구체적으로 동공 추적 센서, 홍채 인식 센서 등을 포함할 수 있다. 실시예에 따라서, 동공 추적 센서를 사용해 착용자의 시선을 추적하여, 착용자가 손바닥을 바라볼 때 인식부(200)에서 착용자의 손바닥을 인식하도록 구성함으로써, 착용자가 의도하지 않은 상황에서 가상메뉴(20)가 표시되지 않도록 할 수 있다. 이때, 미리 정해진 시간 이상 손바닥을 바라볼 때 단계 S110이 수행되도록 하여 오작동을 최소화할 수 있다.The
한편, 착용자가 증강현실 글래스 장치(10)를 착용하고 사용자 인증을 하면, 제어부(500)는 각 착용자가 커스터마이징 한 가상메뉴(20), 개별 착용자의 동작 제스처 사용 패턴, 선호 조도, IPD(Inter-Pupillary Distance), 인터페이스 등 여러 가지 사용자별 설정 내용을 자동으로 적용할 수도 있다. 이때, 사용자 인증은 센서부(700)에 포함된 홍채 인식 센서 등을 사용할 수 있다.Meanwhile, when the wearer wears the augmented
통신부(800)는, 증강현실 글래스 장치(10)의 일측에 설치되며, 다른 증강현실 글래스 장치(10)나 서버 등과 각종 신호 및 데이터를 송수신할 수 있다. 여기서, 통신부(800)가 사용하는 네트워크는, 근거리 통신망(Local Area Network; LAN), 광역 통신망(Wide Area Network; WAN) 또는 부가가치 통신망(Value Added Network; VAN) 등과 같은 유선 네트워크나 이동 통신망(mobile radio communication network), 위성 통신망, 블루투스(Bluetooth), Wibro(Wireless Broadband Internet), HSDPA(High Speed Downlink Packet Access), LTE(Long Term Evolution), 3/4/5/6G(3/4/5/6th Generation Mobile Telecommunication) 등과 같은 모든 종류의 무선 네트워크로 구현될 수 있다.The
전술한 바와 같이, 본 발명에서 제안하고 있는 증강현실 글래스 장치(10)를 위한 손 인식 기반의 가상메뉴(20) 제공 방법 및 손 인식 기반의 가상메뉴(20)를 제공하는 증강현실 글래스 시스템에 따르면, 착용자의 손바닥을 인식하고 손바닥 방향에 기초하여 결정되는 가상메뉴(20)를 손바닥 위에 표시해 제공함으로써, 손바닥 방향에 따라 빠른 메뉴와 전체 메뉴가 선택적으로 표시되므로 손바닥 방향만으로 원하는 메뉴를 착용자에게 쉽게 제공할 수 있고, 반대쪽 손가락으로 가상메뉴(20)에 대한 입력 신호를 입력함으로써, 착용자가 직관적이고 편리하게 가상메뉴(20)를 제어할 수 있다.As described above, according to the method of providing a hand recognition-based
한편, 본 발명은 다양한 통신 단말기로 구현되는 동작을 수행하기 위한 프로그램 명령을 포함하는 컴퓨터에서 판독 가능한 매체를 포함할 수 있다. 예를 들어, 컴퓨터에서 판독 가능한 매체는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD_ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media) 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치를 포함할 수 있다.Meanwhile, the present invention may include a computer-readable medium containing program instructions for performing operations implemented in various communication terminals. For example, computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD_ROM and DVD, and floptical disks. It may include magneto-optical media and hardware devices specifically configured to store and perform program instructions, such as ROM, RAM, flash memory, etc.
이와 같은 컴퓨터에서 판독 가능한 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 이때, 컴퓨터에서 판독 가능한 매체에 기록되는 프로그램 명령은 본 발명을 구현하기 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 예를 들어, 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해 실행될 수 있는 고급 언어 코드를 포함할 수 있다.Such computer-readable media may include program instructions, data files, data structures, etc., singly or in combination. At this time, program instructions recorded on a computer-readable medium may be specially designed and configured to implement the present invention, or may be known and available to those skilled in the computer software art. For example, it may include not only machine language code such as that produced by a compiler, but also high-level language code that can be executed by a computer using an interpreter, etc.
이상 설명한 본 발명은 본 발명이 속한 기술분야에서 통상의 지식을 가진 자에 의하여 다양한 변형이나 응용이 가능하며, 본 발명에 따른 기술적 사상의 범위는 아래의 특허청구범위에 의하여 정해져야 할 것이다.The present invention described above can be modified or applied in various ways by those skilled in the art, and the scope of the technical idea according to the present invention should be determined by the claims below.
10: 증강현실 글래스 장치
20: 가상메뉴
100: 광학 디스플레이부
110: 디스플레이
120: 광학계
200: 인식부
300: 식별부
400: 메뉴 제공부
500: 제어부
600: 카메라부
700: 센서부
800: 통신부
S110: 착용자의 손바닥을 인식하는 단계
S120: 손바닥의 방향을 식별하는 단계
S130: 손바닥의 방향에 기초하여 결정되는 가상메뉴를 인식한 손바닥에 표시해 제공하는 단계
S140: 가상메뉴에 대한 입력 신호를 이용해 가상메뉴를 제어하는 단계10: Augmented reality glass device
20: Virtual menu
100: Optical display unit
110: display
120: Optical system
200: Recognition unit
300: identification unit
400: Menu provision unit
500: Control unit
600: Camera unit
700: Sensor unit
800: Department of Communications
S110: Step of recognizing the wearer's palm
S120: Identifying the direction of the palm
S130: Step of displaying and providing a virtual menu determined based on the direction of the palm on the recognized palm.
S140: Step of controlling the virtual menu using an input signal to the virtual menu
Claims (8)
(1) 카메라부(600)에서 획득한 착용자의 시선 방향 영상으로부터 착용자의 시야 내에 위치하는 착용자의 손바닥을 인식하는 단계;
(2) 상기 단계 (1)에서 인식한 손바닥의 방향이 가로인지 세로인지를 식별하는 단계; 및
(3) 상기 식별한 손바닥의 방향에 기초하여 결정되는 가상메뉴(20)를 상기 인식한 손바닥 위에 표시해 제공하되, 손바닥의 방향이 가로이면 빠른 가상메뉴(20)를, 손바닥의 방향이 세로이면 손바닥을 기준으로 전체 가상메뉴(20)를 각각 손바닥 위에 영상으로 표시해 제공하는 단계를 포함하며,
상기 단계 (3)에서는,
상기 단계 (2)에서 식별한 손바닥의 방향이 가로이면 빠른 가상메뉴(20)를 표시하며, 상기 손바닥의 위치를 추적해 손바닥의 이동에 따라 상기 빠른 가상메뉴(20)를 이동시켜, 상기 빠른 가상메뉴(20)가 손바닥에 표시되도록 하고,
상기 단계 (3) 이후에는,
상기 손바닥이 상기 착용자의 시야에서 이탈하면, 상기 빠른 가상메뉴(20)를 표시하지 않으며,
상기 단계 (3)에서는,
상기 단계 (2)에서 식별한 손바닥의 방향이 세로이면 상기 손바닥을 기준으로 전체 가상메뉴(20)를 표시하며, 상기 전체 가상메뉴(20)의 표시 후에는 상기 손바닥의 위치 변화와 관계없이 상기 착용자의 시야 내에서 상기 전체 가상메뉴(20)의 위치를 고정해 표시하고, 상기 손바닥이 상기 착용자의 시야에서 이탈하더라도 상기 전체 가상메뉴(20)는 그대로 표시하는 것을 특징으로 하는, 증강현실 글래스 장치(10)를 위한 손 인식 기반의 가상메뉴(20) 제공 방법.
A method of providing a virtual menu (20) in which each step is performed in an augmented reality glass system,
(1) recognizing the wearer's palm located within the wearer's field of view from the wearer's gaze direction image obtained by the camera unit 600;
(2) identifying whether the orientation of the palm recognized in step (1) is horizontal or vertical; and
(3) A virtual menu 20 determined based on the direction of the identified palm is displayed and provided on the recognized palm. If the palm is horizontal, a quick virtual menu 20 is provided, and if the palm is vertical, the virtual menu 20 is provided. It includes the step of providing the entire virtual menu (20) by displaying it as an image on the palm of each hand,
In step (3),
If the direction of the palm identified in step (2) is horizontal, the quick virtual menu 20 is displayed, and the position of the palm is tracked and the quick virtual menu 20 is moved according to the movement of the palm. Make the menu (20) appear in the palm of your hand,
After step (3) above,
If the palm leaves the wearer's field of view, the quick virtual menu 20 is not displayed,
In step (3),
If the direction of the palm identified in step (2) is vertical, the entire virtual menu 20 is displayed based on the palm, and after displaying the entire virtual menu 20, the wearer is An augmented reality glass device, characterized in that the position of the entire virtual menu 20 is fixed and displayed within the field of view of the wearer, and the entire virtual menu 20 is displayed as is even if the palm leaves the wearer's field of view. Method for providing a virtual menu (20) based on hand recognition for 10).
(4) 상기 표시한 가상메뉴(20)에 대한 입력 신호를 이용해 상기 가상메뉴(20)를 제어하는 단계를 더 포함하며,
상기 입력 신호는, 상기 단계 (1)에서 인식한 손바닥과 반대쪽 손의 손가락을 사용한 신호인 것을 특징으로 하는, 증강현실 글래스 장치(10)를 위한 손 인식 기반의 가상메뉴(20) 제공 방법.
The method of claim 1, wherein after step (3),
(4) further comprising controlling the virtual menu (20) using an input signal for the displayed virtual menu (20),
A method of providing a virtual menu (20) based on hand recognition for an augmented reality glass device (10), wherein the input signal is a signal using a finger of the hand opposite to the palm recognized in step (1).
착용자의 양안의 전방에 배치되어 착용자에게 증강현실을 제공하는 광학 디스플레이부(100);
카메라부(600)에서 획득한 착용자의 시선 방향 영상으로부터 착용자의 시야 내에 위치하는 착용자의 손바닥을 인식하는 인식부(200);
상기 인식부(200)에서 인식한 손바닥의 방향이 가로인지 세로인지를 식별하는 식별부(300); 및
상기 식별한 손바닥의 방향에 기초하여 결정되는 가상메뉴(20)를 상기 인식한 손바닥 위에 표시해 제공하되, 손바닥의 방향이 가로이면 빠른 가상메뉴(20)를, 손바닥의 방향이 세로이면 손바닥을 기준으로 전체 가상메뉴(20)를 각각 손바닥 위에 영상으로 표시해 제공하는 메뉴 제공부(400)를 포함하며,
상기 메뉴 제공부(400)는,
상기 식별부(300)에서 식별한 손바닥의 방향이 가로이면 빠른 가상메뉴(20)를 표시하며, 상기 손바닥의 위치를 추적해 손바닥의 이동에 따라 상기 빠른 가상메뉴(20)를 이동시켜, 상기 빠른 가상메뉴(20)가 손바닥에 표시되도록 하고, 상기 손바닥이 상기 착용자의 시야에서 이탈하면, 상기 빠른 가상메뉴(20)를 표시하지 않으며,
상기 식별부(300)에서 식별한 손바닥의 방향이 세로이면 상기 손바닥을 기준으로 전체 가상메뉴(20)를 표시하며, 상기 전체 가상메뉴(20)의 표시 후에는 상기 손바닥의 위치 변화와 관계없이 상기 착용자의 시야 내에서 상기 전체 가상메뉴(20)의 위치를 고정해 표시하고, 상기 손바닥이 상기 착용자의 시야에서 이탈하더라도 상기 전체 가상메뉴(20)는 그대로 표시하는 것을 특징으로 하는, 손 인식 기반의 가상메뉴(20)를 제공하는 증강현실 글래스 시스템.As an augmented reality glass system,
An optical display unit 100 disposed in front of both eyes of the wearer to provide augmented reality to the wearer;
A recognition unit 200 that recognizes the wearer's palm located within the wearer's field of view from the wearer's gaze direction image obtained by the camera unit 600;
An identification unit 300 that identifies whether the direction of the palm recognized by the recognition unit 200 is horizontal or vertical; and
A virtual menu 20 determined based on the direction of the identified palm is displayed and provided on the recognized palm. If the palm is horizontal, a quick virtual menu 20 is displayed, and if the palm is vertical, the virtual menu 20 is displayed based on the palm. It includes a menu providing unit 400 that displays the entire virtual menu 20 as an image on each palm,
The menu providing unit 400,
If the direction of the palm identified by the identification unit 300 is horizontal, the quick virtual menu 20 is displayed, and the position of the palm is tracked and the quick virtual menu 20 is moved according to the movement of the palm. The virtual menu 20 is displayed on the palm, and when the palm leaves the wearer's field of view, the quick virtual menu 20 is not displayed,
If the direction of the palm identified by the identification unit 300 is vertical, the entire virtual menu 20 is displayed based on the palm, and after the entire virtual menu 20 is displayed, the entire virtual menu 20 is displayed regardless of the change in the position of the palm. A hand recognition-based device, characterized in that the position of the entire virtual menu (20) is fixed and displayed within the wearer's field of view, and the entire virtual menu (20) is displayed as is even if the palm deviates from the wearer's field of view. Augmented reality glass system that provides a virtual menu (20).
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210167494A KR102636996B1 (en) | 2021-11-29 | 2021-11-29 | Method for providing a virtual menu based on hand recognition for ar glasses apparatus and ar glasses system for providing a virtual menu based on hand recognition |
PCT/KR2022/005833 WO2023096038A1 (en) | 2021-11-29 | 2022-04-24 | Method for providing hand recognition-based virtual menu for augmented reality glasses device, and augmented reality glasses system providing hand recognition-based virtual menu |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210167494A KR102636996B1 (en) | 2021-11-29 | 2021-11-29 | Method for providing a virtual menu based on hand recognition for ar glasses apparatus and ar glasses system for providing a virtual menu based on hand recognition |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20230080081A KR20230080081A (en) | 2023-06-07 |
KR102636996B1 true KR102636996B1 (en) | 2024-02-16 |
Family
ID=86539968
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210167494A KR102636996B1 (en) | 2021-11-29 | 2021-11-29 | Method for providing a virtual menu based on hand recognition for ar glasses apparatus and ar glasses system for providing a virtual menu based on hand recognition |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR102636996B1 (en) |
WO (1) | WO2023096038A1 (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101708455B1 (en) * | 2015-09-08 | 2017-02-21 | 엠더블유엔테크 주식회사 | Hand Float Menu System |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101984177B1 (en) * | 2012-10-15 | 2019-05-30 | 엘지전자 주식회사 | Mobile terminal and method for controlling of the same |
KR101602167B1 (en) * | 2014-06-16 | 2016-03-10 | 한국과학기술정보연구원 | System and method for controlling virtual reality menu based in wrist action |
KR20160067573A (en) * | 2014-12-04 | 2016-06-14 | 엘지전자 주식회사 | Multimedia device and method for controlling the same |
KR20200051937A (en) * | 2018-11-06 | 2020-05-14 | 한길씨앤씨 주식회사 | Method for automatic display of GUI objects according to user's behavior in virtual reality environment and VR system using it |
-
2021
- 2021-11-29 KR KR1020210167494A patent/KR102636996B1/en active IP Right Grant
-
2022
- 2022-04-24 WO PCT/KR2022/005833 patent/WO2023096038A1/en unknown
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101708455B1 (en) * | 2015-09-08 | 2017-02-21 | 엠더블유엔테크 주식회사 | Hand Float Menu System |
Also Published As
Publication number | Publication date |
---|---|
WO2023096038A1 (en) | 2023-06-01 |
KR20230080081A (en) | 2023-06-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11024263B2 (en) | Method and apparatus for adjusting augmented reality content | |
EP2929424B1 (en) | Multi-touch interactions on eyewear | |
US9143693B1 (en) | Systems and methods for push-button slow motion | |
US8217856B1 (en) | Head-mounted display that displays a visual representation of physical interaction with an input interface located outside of the field of view | |
JP7092028B2 (en) | Information processing equipment, information processing methods, and programs | |
US20160224123A1 (en) | Method and system to control electronic devices through gestures | |
US20220229524A1 (en) | Methods for interacting with objects in an environment | |
CN112585566B (en) | Hand-covering face input sensing for interacting with device having built-in camera | |
KR101812227B1 (en) | Smart glass based on gesture recognition | |
US20170115736A1 (en) | Photo-Based Unlock Patterns | |
KR102110208B1 (en) | Glasses type terminal and control method therefor | |
US20170139567A1 (en) | Entering Unlock Sequences Using Head Movements | |
KR20160137253A (en) | Augmented Reality Device, User Interaction Apparatus and Method for the Augmented Reality Device | |
JP6516464B2 (en) | Wearable search system | |
KR101370027B1 (en) | Mouse apparatus for eye-glass type display device and operating method for the same | |
KR102636996B1 (en) | Method for providing a virtual menu based on hand recognition for ar glasses apparatus and ar glasses system for providing a virtual menu based on hand recognition | |
KR102633495B1 (en) | Method of operating an app library through recognition of wrist and trigger gesture and head-mounted display apparatus in which the app library operates | |
KR102539045B1 (en) | Dashboard control apparatus and method for wearable augmented reality device | |
KR102585343B1 (en) | Wearable augmented reality device that provides an interface using hand koint recognition and method of providing an interface of a wearable augmented reality device using hand joint recognition | |
KR102522142B1 (en) | Wearable augmented reality device that inputs operation signal using a two-handed gesture and method of operating a wearable augmented reality device using a two-handed gesture | |
KR102633493B1 (en) | Confirmation event handling method and apparatus for head-mounted display apparatus | |
KR102613391B1 (en) | Ar glasses apparatus having an automatic ipd adjustment using gesture and automatic ipd adjustment method using gesture for ar glasses apparatus | |
JP7406817B2 (en) | Method, system, and non-transitory computer-readable recording medium for supporting object control | |
US11474690B2 (en) | Method, system and non-transitory computer-readable recording medium for non-contact control | |
KR101685430B1 (en) | Smart glass interface system and method using gaze gesture |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right |