KR102224930B1 - Method of displaying menu based on depth information and space gesture of user - Google Patents

Method of displaying menu based on depth information and space gesture of user Download PDF

Info

Publication number
KR102224930B1
KR102224930B1 KR1020130147534A KR20130147534A KR102224930B1 KR 102224930 B1 KR102224930 B1 KR 102224930B1 KR 1020130147534 A KR1020130147534 A KR 1020130147534A KR 20130147534 A KR20130147534 A KR 20130147534A KR 102224930 B1 KR102224930 B1 KR 102224930B1
Authority
KR
South Korea
Prior art keywords
menu
user
depth information
layer
screen
Prior art date
Application number
KR1020130147534A
Other languages
Korean (ko)
Other versions
KR20140101276A (en
Inventor
박근주
류현석
최창규
박준아
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to US14/168,049 priority Critical patent/US9983779B2/en
Publication of KR20140101276A publication Critical patent/KR20140101276A/en
Priority to US15/966,286 priority patent/US10795568B2/en
Application granted granted Critical
Publication of KR102224930B1 publication Critical patent/KR102224930B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

사용자 단말의 화면으로부터 사용자의 손까지의 측정된 거리에 대응하는 깊이 정보에 기초하여, 복수의 레이어들 중 적어도 하나의 레이어를 식별하고, 식별된 적어도 하나의 레이어에 대응하는 메뉴 페이지가 나타나도록 복수의 레이어들 중 적어도 하나에 그래픽 효과를 적용하는 깊이 정보에 기초하여 메뉴를 표시하는 방법을 제공할 수 있다.Based on depth information corresponding to the measured distance from the screen of the user terminal to the user's hand, at least one of the plurality of layers is identified, and a menu page corresponding to the identified at least one layer is displayed. A method of displaying a menu may be provided based on depth information for applying a graphic effect to at least one of the layers of.

Description

깊이 정보 및 사용자의 공간 제스처에 기초하여 메뉴를 표시하는 방법{METHOD OF DISPLAYING MENU BASED ON DEPTH INFORMATION AND SPACE GESTURE OF USER}METHOD OF DISPLAYING MENU BASED ON DEPTH INFORMATION AND SPACE GESTURE OF USER

아래의 실시예들은 깊이 정보 및 사용자의 공간 제스처에 기초하여 메뉴를 표시하는 방법에 관한 것이다.The following embodiments relate to a method of displaying a menu based on depth information and a user's spatial gesture.

터치 인터페이스(Touch Interface) 기반의 2D 디스플레이(display)에서는 사용자가 2D 디스플레이 안에 위치한 메뉴 아이콘을 직접 터치(touch)하여 원하는 어플리케이션(application)을 실행한다. 이는 사용자가 화면에 손을 접촉함으로써 사용자의 의도를 기기에 전달하는 방식으로서 신뢰성이 높은 사용자 인터페이스(User Interface; UI)를 구현할 수 있다. In a 2D display based on a touch interface, a user directly touches a menu icon located in the 2D display to execute a desired application. This is a method of conveying the user's intention to the device by touching the user's hand on the screen, thereby implementing a highly reliable user interface (UI).

하지만, 사용자가 직접 기기의 디스플레이를 터치해야 하므로 손에 액체가 묻거나 장갑을 낀 경우, 혹은 디스플레이와 사용자 간의 거리가 먼 경우에는 사용자의 의도를 기기에 전달할 수 없다. 뿐만 아니라, 터치 인터페이스 기반의 2D 디스플레이에서는 원하는 페이지(page)를 터치하여 메뉴 아이콘을 선택하거나, 드래그(drag) 함으로써 페이지를 변경하여 메뉴 아이콘이 위치한 페이지로 이동해야 한다.However, since the user must directly touch the display of the device, the user's intention cannot be communicated to the device when the hand is covered with liquid or gloves, or when the distance between the display and the user is long. In addition, in a 2D display based on a touch interface, a desired page must be touched to select a menu icon, or a page must be changed by dragging to move to the page where the menu icon is located.

일 실시예에 따르면, 깊이 정보에 기초하여 메뉴를 표시하는 방법은 사용자 단말의 화면으로부터 사용자의 손까지 거리에 대응하는 깊이 정보를 측정하는 단계; 상기 깊이 정보에 기초하여, 복수의 레이어들 중 적어도 하나의 레이어를 식별하는 단계; 및 상기 식별된 적어도 하나의 레이어에 대응하는 메뉴 페이지가 나타나도록 상기 복수의 레이어들 중 적어도 하나에 그래픽 효과를 적용하는 단계를 포함할 수 있다. According to an embodiment, a method of displaying a menu based on depth information includes: measuring depth information corresponding to a distance from a screen of a user terminal to a user's hand; Identifying at least one of a plurality of layers based on the depth information; And applying a graphic effect to at least one of the plurality of layers so that a menu page corresponding to the identified at least one layer is displayed.

상기 깊이 정보에 기초하여 제1 레이어로부터 제2 레이어로의 이동을 감지하는 단계를 더 포함하고, 상기 그래픽 효과를 적용하는 단계는 상기 깊이 정보에 응답하여, 상기 제1 레이어에 대응하는 메뉴 페이지가 점진적으로 사라지고, 상기 제2 레이어에 대응하는 메뉴 페이지가 점진적으로 나타나도록 상기 복수의 레이어들 적어도 하나에 그래픽 효과를 적용하는 단계를 포함할 수 있다. The method further comprises detecting a movement from the first layer to the second layer based on the depth information, and in the step of applying the graphic effect, in response to the depth information, a menu page corresponding to the first layer is The method may include applying a graphic effect to at least one of the plurality of layers such that the menu page gradually disappears and the menu page corresponding to the second layer appears gradually.

상기 식별된 적어도 하나의 레이어에 대응하는 메뉴 페이지가 나타나도록 상기 복수의 레이어들 중 적어도 하나에 그래픽 효과를 적용하는 단계는 상기 식별된 적어도 하나의 레이어에 대응하는 메뉴 페이지의 시인성(visibility)을 향상시키고, 나머지 적어도 하나의 레이어에 대응하는 메뉴 페이지의 시인성을 감소시키는 단계를 포함할 수 있다. The step of applying a graphic effect to at least one of the plurality of layers so that a menu page corresponding to the identified at least one layer appears, improves visibility of a menu page corresponding to the at least one identified layer. And reducing the visibility of the menu page corresponding to the other at least one layer.

상기 깊이 정보에 기초하여 제1 레이어로부터 제2 레이어로의 이동을 감지하는 단계를 더 포함하고, 상기 그래픽 효과를 적용하는 단계는 상기 화면으로부터 사용자의 손까지 거리와 미리 설정된 거리를 비교하는 단계; 및 상기 비교 결과를 이용하여 상기 제2 레이어에 대응하는 메뉴 페이지가 상기 제1 레이어에 대응하는 메뉴 페이지로부터 불연속적으로 나타나도록 상기 복수의 레이어들 적어도 하나에서 그래픽 효과를 적용하는 단계를 포함할 수 있다. The method further includes detecting a movement from the first layer to the second layer based on the depth information, and the applying of the graphic effect includes comparing a distance from the screen to a user's hand with a preset distance; And applying a graphic effect to at least one of the plurality of layers so that the menu page corresponding to the second layer appears discontinuously from the menu page corresponding to the first layer using the comparison result. have.

상기 사용자 단말의 화면으로부터 사용자의 손까지의 깊이 정보를 측정하는 단계는 적어도 하나의 DVS(Dynamic Vision Sensor)를 이용하여 상기 사용자 단말의 화면으로부터 사용자의 손까지의 깊이 정보를 측정하는 단계를 포함할 수 있다. Measuring depth information from the screen of the user terminal to the user's hand includes measuring depth information from the screen of the user terminal to the user's hand using at least one Dynamic Vision Sensor (DVS). I can.

상기 사용자 단말의 화면으로부터 사용자의 손까지의 깊이 정보를 측정하는 단계는 제1 DVS에서 출력되는 이미지에서의 손의 위치와 제2 DVS에서 출력되는 이미지에서의 손의 위치 간의 차이를 이용하여 상기 사용자 단말의 화면으로부터 사용자의 손까지의 깊이 정보를 측정하는 단계를 포함할 수 있다. The step of measuring the depth information from the screen of the user terminal to the user's hand is performed by using the difference between the position of the hand in the image output from the first DVS and the position of the hand in the image output from the second DVS. It may include measuring depth information from the screen of the terminal to the user's hand.

상기 사용자 단말의 화면으로부터 사용자의 손까지의 깊이 정보를 측정하는 단계는 두 개 이상의 이미지 센서들에서 측정된 손의 위치의 차이 또는 TOF 센서를 이용하여 상기 사용자의 손의 깊이 정보를 측정하는 단계를 포함할 수 있다. The measuring of the depth information from the screen of the user terminal to the user's hand includes measuring the difference between the position of the hand measured by two or more image sensors or the depth information of the user's hand using a TOF sensor. Can include.

상기 복수의 레이어들에 대응하는 메뉴 페이지는 2차원 화면을 포함할 수 있다. A menu page corresponding to the plurality of layers may include a 2D screen.

상기 복수의 레이어들에 대응하는 메뉴 페이지를 계층적으로 디스플레이하는 단계를 더 포함할 수 있다. The method may further include hierarchically displaying a menu page corresponding to the plurality of layers.

상기 복수의 레이어들에 대응하는 메뉴 페이지들 중 어느 하나는 복수의 어플리케이션들에 대응하는 아이콘들을 포함하거나, 상기 메뉴 페이지들 중 다른 하나는 복수의 이모티콘들을 포함하거나, 상기 메뉴 페이지들 중 또 다른 하나는 가상 키보드를 포함할 수 있다. One of the menu pages corresponding to the plurality of layers includes icons corresponding to a plurality of applications, the other of the menu pages includes a plurality of emoticons, or another one of the menu pages May include a virtual keyboard.

일 실시예에 따르면, 사용자의 공간 제스처에 기초하여 메뉴를 표시하는 방법은 복수의 면들을 포함하는 적어도 하나의 다면체를 디스플레이하는 단계; 상기 적어도 하나의 다면체를 조작하기 위한 사용자의 공간 제스처를 인식하는 단계; 상기 적어도 하나의 다면체에 포함된 상기 복수의 면들 중 상기 공간 제스처에 대응하는 면을 식별하는 단계; 및 상기 식별된 면에 대응하는 메뉴를 디스플레이하는 단계를 포함할 수 있다. According to an embodiment, a method of displaying a menu based on a user's spatial gesture includes: displaying at least one polyhedron including a plurality of faces; Recognizing a user's spatial gesture for manipulating the at least one polyhedron; Identifying a surface corresponding to the spatial gesture among the plurality of surfaces included in the at least one polyhedron; And displaying a menu corresponding to the identified surface.

상기 적어도 하나의 다면체에 포함된 상기 복수의 면들 중 상기 공간 제스처에 대응하는 면을 식별하는 단계는 상기 공간 제스처가 변화함에 따라, 상기 변화된 공간 제스처에 대응하는 면을 식별하는 단계를 포함하고, 상기 식별된 면에 대응하는 메뉴를 디스플레이 하는 단계는 상기 변화된 공간 제스처에 대응하는 제2 면에 대응하는 메뉴가 상기 변화 이전의 공간 제스처에 대응하는 제1 면에 대응하는 메뉴로부터 연속적으로 나타나도록 디스플레이 하는 단계를 포함할 수 있다. The step of identifying a surface corresponding to the spatial gesture among the plurality of surfaces included in the at least one polyhedron includes identifying a surface corresponding to the changed spatial gesture as the spatial gesture changes, and the Displaying the menu corresponding to the identified surface includes displaying the menu corresponding to the second surface corresponding to the changed spatial gesture continuously from the menu corresponding to the first surface corresponding to the spatial gesture before the change. It may include steps.

상기 적어도 하나의 다면체에 포함된 복수의 면들은 서로 다른 메뉴들을 포함할 수 있다. A plurality of faces included in the at least one polyhedron may include different menus.

상기 적어도 하나의 다면체를 조작하기 위한 사용자의 공간 제스처를 인식하는 단계는 상기 사용자의 공간 제스처가 미리 정의된 형태의 모션인 경우, 상기 모션을 상기 적어도 하나의 다면체의 내부 혹은 외부에 있는 다른 다면체를 조작하기 위한 사용자의 공간 제스처로 인식하는 단계를 포함할 수 있다. Recognizing the user's spatial gesture for manipulating the at least one polyhedron may include, when the user's spatial gesture is a motion of a predefined form, the motion is performed by selecting another polyhedron inside or outside the at least one polyhedron. It may include the step of recognizing a user's spatial gesture for manipulation.

상기 적어도 하나의 다면체에 포함된 상기 복수의 면들 중 상기 공간 제스처에 대응하는 면을 식별하는 단계는 상기 공간 제스처가 핀치 줌(pinch zoom) 형태의 모션인 경우, 상기 다른 다면체에 포함된 복수의 면들 중 상기 핀치 줌의 위치에 대응하는 면을 식별하는 단계를 포함할 수 있다. The step of identifying a plane corresponding to the spatial gesture among the plurality of planes included in the at least one polyhedron may include a plurality of planes included in the other polyhedron when the spatial gesture is a pinch zoom-type motion. It may include the step of identifying a surface corresponding to the position of the pinch zoom.

상기 적어도 하나의 다면체를 조작하기 위한 사용자의 공간 제스처를 인식하는 단계는 상기 화면으로부터 사용자의 손까지 거리와 미리 설정된 거리를 비교하는 단계; 및 상기 비교 결과에 기초하여, 상기 사용자의 공간 제스처를 적어도 하나의 다면체의 내부 혹은 외부에 있는 다른 다면체를 조작하기 위한 사용자의 공간 제스처로 인식하는 단계를 포함할 수 있다. Recognizing a user's spatial gesture for manipulating the at least one polyhedron may include comparing a distance from the screen to the user's hand with a preset distance; And recognizing the user's spatial gesture as a user's spatial gesture for manipulating another polyhedron inside or outside the at least one polyhedron based on the comparison result.

복수의 면들을 포함하는 상기 적어도 하나의 메뉴 다면체를 계층적으로 디스플레이하는 단계를 더 포함할 수 있다. It may further include hierarchically displaying the at least one menu polyhedron including a plurality of faces.

상기 복수의 면들에 대응하는 메뉴들 중 어느 하나는 복수의 어플리케이션들에 대응하는 아이콘들을 포함하거나, 상기 메뉴들 중 다른 하나는 복수의 이모티콘들을 포함하거나, 상기 메뉴들 중 또 다른 하나는 가상 키보드를 포함할 수 있다. One of the menus corresponding to the plurality of sides includes icons corresponding to a plurality of applications, the other of the menus includes a plurality of emoticons, or another one of the menus uses a virtual keyboard. Can include.

상기 적어도 하나의 다면체를 조작하기 위한 사용자의 공간 제스처를 인식하는 단계는 적어도 하나의 DVS(Dynamic Vision Sensor)를 이용하여 상기 적어도 하나의 다면체를 조작하기 위한 사용자의 공간 제스처를 인식하는 단계를 포함할 수 있다. Recognizing a user's spatial gesture for manipulating the at least one polyhedron includes recognizing a user's spatial gesture for manipulating the at least one polyhedron using at least one Dynamic Vision Sensor (DVS). I can.

상기 적어도 하나의 다면체를 조작하기 위한 사용자의 공간 제스처를 인식하는 단계는 일정 공간에서 수행되는 사용자의 제스처에 대하여, 제1 DVS에서 출력되는 이미지와 제2 DVS에서 출력되는 이미지 간의 좌표 차이를 이용하여 상기 적어도 하나의 다면체를 조작하기 위한 사용자의 공간 제스처를 인식하는 단계를 포함할 수 있다. Recognizing the user's spatial gesture for manipulating the at least one polyhedron may be performed using a coordinate difference between an image output from the first DVS and an image output from the second DVS with respect to the user's gesture performed in a predetermined space. And recognizing a user's spatial gesture for manipulating the at least one polyhedron.

상기 적어도 하나의 다면체를 조작하기 위한 사용자의 공간 제스처를 인식하는 단계는 상기 사용자 단말의 화면 상에서 상기 사용자의 손의 위치, 이동 속도, 및 각속도를 측정하는 단계; 및 상기 측정 결과를 이용하여 상기 사용자의 공간 제스처를 인식하는 단계를 포함할 수 있다. Recognizing a user's spatial gesture for manipulating the at least one polyhedron may include measuring the position, movement speed, and angular velocity of the user's hand on the screen of the user terminal; And recognizing the user's spatial gesture using the measurement result.

상기 적어도 하나의 다면체의 복수의 면들에 대응하는 메뉴들은 서로 유사한 속성을 가질 수 있다. Menus corresponding to a plurality of faces of the at least one polyhedron may have similar properties.

상기 적어도 하나의 다면체의 복수의 면들에 대응하는 메뉴들은 2차원 화면을 포함할 수 있다.Menus corresponding to a plurality of faces of the at least one polyhedron may include a 2D screen.

도 1은 일 실시예에 따른 깊이 정보에 기초하여 메뉴를 표시하는 방법을 나타낸 플로우 차트이다.
도 2는 도 1의 방법에 따라 깊이 정보를 측정하는 사용자 단말의 구성 및 깊이 정보를 측정하는 방법을 설명하기 위한 도면이다.
도 3은 도 1의 방법에 의해 식별된 적어도 하나의 레이어에 대응하는 메뉴 페이지가 나타난 사용자 단말의 화면을 보여주는 도면이다.
도 4는 일 실시예에 따른 사용자의 공간 제스처에 기초하여 메뉴를 표시하는 방법을 나타낸 플로우 차트이다.
도 5는 도 4의 방법에서 화면으로부터 사용자의 손까지 거리에 따라 사용자의 공간 제스처를 다르게 인식하여 처리하는 방법을 나타낸 플로우 차트이다.
도 6은 도 4의 방법에 따라 사용자의 공간 제스처를 인식하는 사용자 단말의 구성 및 사용자 단말이 공간 제스처를 인식하는 방법을 설명하기 위한 도면이다.
도 7은 도 4의 방법에 따라 적어도 하나의 다면체에 포함된 복수의 면들 중 식별된 면에 대응하는 메뉴가 사용자 단말의 화면에 나타난 것을 보여주는 도면이다.
1 is a flowchart illustrating a method of displaying a menu based on depth information according to an exemplary embodiment.
FIG. 2 is a diagram illustrating a configuration of a user terminal for measuring depth information and a method for measuring depth information according to the method of FIG. 1.
3 is a diagram illustrating a screen of a user terminal in which a menu page corresponding to at least one layer identified by the method of FIG. 1 is displayed.
4 is a flowchart illustrating a method of displaying a menu based on a user's spatial gesture according to an exemplary embodiment.
5 is a flowchart illustrating a method of differently recognizing and processing a user's spatial gesture according to a distance from a screen to a user's hand in the method of FIG. 4.
6 is a diagram illustrating a configuration of a user terminal for recognizing a user's spatial gesture and a method for the user terminal to recognize a spatial gesture according to the method of FIG. 4.
FIG. 7 is a diagram illustrating that a menu corresponding to an identified surface among a plurality of surfaces included in at least one polyhedron according to the method of FIG. 4 is displayed on a screen of a user terminal.

이하, 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다. 그러나, 본 발명이 일실시예들에 의해 제한되거나 한정되는 것은 아니다. 또한, 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.
Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. However, the present invention is not limited or limited by the exemplary embodiments. In addition, the same reference numerals shown in each drawing indicate the same member.

도 1은 일 실시예에 따른 깊이 정보에 기초하여 메뉴를 표시하는 방법을 나타낸 플로우 차트이다. 1 is a flowchart illustrating a method of displaying a menu based on depth information according to an exemplary embodiment.

도 1을 참조하면, 일 실시예에 따른 사용자 단말은 사용자 단말의 화면으로부터 사용자의 손까지 거리에 대응하는 깊이 정보를 측정할 수 있다(110).Referring to FIG. 1, a user terminal according to an embodiment may measure depth information corresponding to a distance from a screen of the user terminal to a user's hand (110).

110에서 사용자 단말은 복수의 이미지 센서들을 사용하여 사용자 단말의 화면 상, 다시 말해 사용자 단말의 화면으로부터 일정 거리 내에서 파악된 사용자의 손의 위치의 차이 또는 TOF(Time Of Flight) 센서를 이용하여 사용자의 손의 깊이 정보를 측정할 수 있다. 여기서, TOF(Time of Flight) 센서는 즉각적으로 실시간 거리를 측정함으로써 타켓(target)의 깊이 정보를 파악해내는 센서이다. At 110, the user terminal uses a plurality of image sensors on the screen of the user terminal, that is, the difference in the position of the user's hand detected within a certain distance from the screen of the user terminal or by using a time of flight (TOF) sensor. You can measure the depth information of your hand. Here, the TOF (Time of Flight) sensor is a sensor that detects depth information of a target by immediately measuring a real-time distance.

사용자 단말은 110에서 측정된 깊이 정보에 기초하여, 복수의 레이어들 중 적어도 하나의 레이어(layer)를 식별할 수 있다(130). 이때, 복수의 레이어들은 가상의 레이어들로서 깊이 정보에 따라 각각 대응하는 서로 다른 레이어가 존재할 수 있다. The user terminal may identify at least one layer among the plurality of layers based on the depth information measured at 110 (130). In this case, the plurality of layers are virtual layers, and different layers corresponding to each of the plurality of layers may exist according to depth information.

사용자 단말은 130에서 식별된 적어도 하나의 레이어에 대응하는 메뉴 페이지가 나타나도록 복수의 레이어들 중 적어도 하나에 그래픽 효과를 적용할 수 있다(150). The user terminal may apply a graphic effect to at least one of the plurality of layers such that a menu page corresponding to the at least one layer identified in 130 is displayed (150).

복수의 레이어들에 대응하는 메뉴 페이지들 중 어느 하나는 복수의 어플리케이션들에 대응하는 아이콘들을 포함하고, 메뉴 페이지들 중 다른 하나는 복수의 이모티콘들을 포함하며, 메뉴 페이지들 중 또 다른 하나는 가상 키보드를 포함할 수 있다. 여기서, 가상 키보드(virtual keyboard)는 예를 들어, 한글, 영문, 숫자, 특수 문자를 포함하는 입력 자판의 형태로 이해할 수 있다. One of the menu pages corresponding to a plurality of layers includes icons corresponding to a plurality of applications, the other of the menu pages includes a plurality of emoticons, and another of the menu pages is a virtual keyboard It may include. Here, the virtual keyboard can be understood in the form of an input keyboard including, for example, Korean, English, numbers, and special characters.

복수의 레이어들에 대응하는 메뉴 페이지는 사용자 단말에 2차원 화면으로 나타날 수 있다. A menu page corresponding to a plurality of layers may be displayed on a user terminal as a two-dimensional screen.

사용자 단말은 예를 들어, 도 3의 화면과 같이 복수의 레이어들에 대응하는 모든 메뉴 페이지를 계층적으로 디스플레이할 수 있다. The user terminal may hierarchically display all menu pages corresponding to a plurality of layers, for example, as in the screen of FIG. 3.

이때, 사용자 단말은 130에서 식별된 적어도 하나의 레이어에 대응하는 메뉴 페이지의 시인성(visibility)을 향상시키고, 나머지 적어도 하나의 레이어에 대응하는 메뉴 페이지의 시인성을 감소시킬 수 있다. In this case, the user terminal may improve visibility of a menu page corresponding to at least one layer identified in 130 and reduce visibility of a menu page corresponding to at least one other layer.

또한, 사용자 단말은 110에서 측정된 깊이 정보에 기초하여 제1 레이어로부터 제2 레이어로의 이동을 감지할 수 있다. 이때, 사용자 단말은 깊이 정보에 응답하여, 제1 레이어에 대응하는 메뉴 페이지가 점진적으로 사라지고, 제2 레이어에 대응하는 메뉴 페이지가 점진적으로 나타나도록 복수의 레이어들 적어도 하나에 그래픽 효과를 적용할 수 있다. Also, the user terminal may detect movement from the first layer to the second layer based on the depth information measured at 110. In this case, the user terminal may apply a graphic effect to at least one of the plurality of layers so that the menu page corresponding to the first layer gradually disappears and the menu page corresponding to the second layer gradually appears in response to the depth information. have.

실시예에 따라서, 사용자 단말은 화면으로부터 사용자의 손까지 거리와 미리 설정된 거리를 비교하고, 비교 결과를 이용하여 제2 레이어에 대응하는 메뉴 페이지가 제1 레이어에 대응하는 메뉴 페이지로부터 불연속적으로 나타나도록 복수의 레이어들 적어도 하나에서 그래픽 효과를 적용할 수 있다.
According to an embodiment, the user terminal compares the distance from the screen to the user's hand with a preset distance, and using the comparison result, a menu page corresponding to the second layer appears discontinuously from the menu page corresponding to the first layer. A graphic effect may be applied to at least one of a plurality of layers so as to be possible.

도 2는 도 1의 방법에 따라 깊이 정보를 측정하는 사용자 단말의 구성 및 깊이 정보를 측정하는 방법을 설명하기 위한 도면이다. FIG. 2 is a diagram illustrating a configuration of a user terminal for measuring depth information and a method for measuring depth information according to the method of FIG. 1.

도 2를 참조하면, 일 실시예에 따른 깊이 정보에 기초하여 메뉴를 표시하는 방법이 수행되는 사용자 단말은 터치 센서 패널(Touch Sensor Panel; TSP)(210)과 함께 공간 인식을 위한 DVS(Dynamic Vision Sensor)(230)를 포함할 수 있다. 이때, 터치 센서 패널(TSP)(210)은 고감도 정전 용량을 가질 수 있다. Referring to FIG. 2, a user terminal in which a method for displaying a menu is performed based on depth information according to an embodiment is equipped with a touch sensor panel (TSP) 210 and a DVS (Dynamic Vision) for spatial recognition. Sensor) 230 may be included. In this case, the touch sensor panel (TSP) 210 may have high sensitivity capacitance.

DVS(230)는 사용자 단말의 화면으로부터 사용자의 손까지 거리에 대응하는 깊이(Depth) 정보를 측정하기 위한 센서의 일 예이다. The DVS 230 is an example of a sensor for measuring depth information corresponding to a distance from a screen of a user terminal to a user's hand.

일 실시예에서는 DVS(230)를 이용하여 사용자 단말의 화면(예를 들어, 터치 센서 패널(TSP)(210))으로부터 사용자의 손(끝)까지 거리에 대응하는 깊이 정보를 측정할 수 있다.In an embodiment, depth information corresponding to a distance from the screen of the user terminal (eg, the touch sensor panel (TSP) 210) to the user's hand (tip) may be measured using the DVS 230.

이때, DVS(Dynamic Vision Sensor)(230) 이외에도 공간 인식을 수행할 수 있는 다양한 센서들(예를 들어, 이미지 센서, ToF(Time of Flight) 센서, 능동형 IR(Infra Red) 광원과 결합한 적외선 센서, 장갑형 strain 센서, 가속도 센서, 자이로 센서 등)을 이용하여 깊이 정보를 측정할 수 있다. At this time, in addition to the DVS (Dynamic Vision Sensor) 230, various sensors capable of performing spatial recognition (for example, an image sensor, a Time of Flight (ToF) sensor, an infrared sensor combined with an active IR (Infra Red) light source, An armored strain sensor, an acceleration sensor, a gyro sensor, etc.) can be used to measure depth information.

일 실시예에서는 DVS(Dynamic Vision Sensor)(230)에 의해 비접촉 방식으로 사용자 단말의 화면 상으로부터 일정 거리의 위치(예를 들어, 미리 설정된 임계 거리)에서 손가락을 검출할 수 있다. 이후, 사용자 단말은 해당 위치에 대응하는 레이어를 식별하고, 식별된 레이어에 대응하는 메뉴 페이지를 선택하여 보여줄 수 있다. In an embodiment, a finger may be detected at a location (eg, a preset threshold distance) from a screen of a user terminal in a non-contact manner by the DVS (Dynamic Vision Sensor) 230. Thereafter, the user terminal may identify a layer corresponding to the location and select and display a menu page corresponding to the identified layer.

이때, 두 개의 DVS(230)를 이용하면 각 DVS(230)에서 출력되는 이미지에서 손의 위치(x, y, z)가 차이가 나게 된다. DVS(230)와 손의 위치가 가까울수록 이러한 위치의 차이가 커지게 된다. 이러한 원리는 사람의 두 눈이 사물까지의 거리를 인식하는 방법으로서 양안 시차 (binocular disparity)의 원리이다. 따라서, 두 개의 DVS(230) 또는 기타 이미지 센서들을 사용하고 양안 시차의 원리를 이용하여 손까지의 깊이 정보를 측정할 수 있다. In this case, if the two DVS 230 are used, the position of the hand (x, y, z) in the image output from each DVS 230 is different. The closer the position of the DVS 230 and the hand is, the greater the difference between these positions. This principle is the principle of binocular disparity as a method by which two eyes of a person perceive the distance to an object. Therefore, it is possible to measure the depth information to the hand by using two DVS 230 or other image sensors and using the principle of binocular parallax.

또한, TOF 센서는 센서 내에 광원이 있어서 빛을 물체에 뿌린 다음 반사되는 빛을 수광기로 측정하는 방식을 사용한다. 물체와 센서와의 거리가 멀수록 반사되는 빛을 측정하는 시간이 길어지므로 이를 이용하여 손의 depth 정보를 인식할 수 있다. 기타 가속도, 자이로 센서 등을 이용하여 이동 속도(vx, vy, vz), 및 각속도 측정을 통해 3D 이동 궤적, 속도 변화, 심볼(symbol) 인식 등을 수행하여 깊이 정보를 측정할 수 있다.
In addition, the TOF sensor has a light source in the sensor, so the light is scattered on an object and then the reflected light is measured with a light receiver. The longer the distance between the object and the sensor is, the longer the time to measure the reflected light is, so the depth information of the hand can be recognized using this. Depth information can be measured by performing 3D movement trajectory, velocity change, symbol recognition, etc. through measurement of movement velocity (vx, vy, vz), and angular velocity using other acceleration and gyro sensors.

도 3은 도 1의 방법에 의해 식별된 적어도 하나의 레이어에 대응하는 메뉴 페이지가 나타난 사용자 단말의 화면을 보여주는 도면이다. 3 is a diagram illustrating a screen of a user terminal in which a menu page corresponding to at least one layer identified by the method of FIG. 1 is displayed.

도 3을 참조하면, 일 실시예에 따른 사용자 단말은 깊이 정보에 기초하여 식별된 레이어에 대응하는 메뉴 페이지가 나타나도록 해당 레이어에 그래픽 효과를 적용함으로써 3차원 공간 인식 사용자 인터페이스(UI)를 2차원 디스플레이 상에 표현할 수 있다. Referring to FIG. 3, the user terminal according to an embodiment applies a graphic effect to the layer so that a menu page corresponding to the layer identified based on depth information is displayed, thereby providing a two-dimensional space recognition user interface (UI). It can be expressed on the display.

이때, 사용자 단말은 예를 들어, 스마트 폰, PC, TV 등의 기기를 포함할 수 있으며, 사용자의 손동작 및 사용자 단말의 화면(다시 말해, 디스플레이)으로부터 사용자의 손까지 거리에 대응하는 깊이 정보를 측정(혹은 인식)할 수 있다. In this case, the user terminal may include, for example, a device such as a smart phone, a PC, or a TV, and depth information corresponding to the distance from the user's hand motion and the user terminal's screen (that is, the display) to the user's hand is stored. It can be measured (or recognized).

이러한 3차원 공간 인식은 상술한 바와 같이 3차원 공간을 인식하는 Passive 광 이미지 센서, Time Of Flight(TOF) 센서, 능동형 Infra Red(IR) 광원과 결합한 적외선 센서, 손에 착용하는 장갑형 strain 센서, 가속도 센서, 자이로 센서 등으로 구현될 수 있다. These three-dimensional space recognition include a passive optical image sensor that recognizes three-dimensional space, a time of flight (TOF) sensor, an infrared sensor combined with an active Infra Red (IR) light source, an armored strain sensor worn on the hand, and acceleration. It can be implemented as a sensor, a gyro sensor, or the like.

따라서, 일 실시예에서는 사용자 단말이 공간에서의 손동작 혹은 디스플레이와 손가락 끝의 거리를 인식하면, 도 3과 같이 복수의 레이어들 중 적어도 하나에 그래픽 효과를 적용하여 사용자 단말의 화면에 메뉴 페이지가 나타나도록 하는 새로운 개념의 2D 사용자 인터페이스(UI)를 제공할 수 있다.Accordingly, in one embodiment, when the user terminal recognizes the hand motion in space or the distance between the display and the fingertip, a menu page appears on the screen of the user terminal by applying a graphic effect to at least one of a plurality of layers as shown in FIG. 3. A new concept of 2D user interface (UI) can be provided.

사용자는 공간상에서 각 레이어에 대응하는 메뉴 페이지(menu page)가 존재하는 것처럼 생각하고 2D 화면에서 깊이 정보에 따라 메뉴 페이지를 이동시키거나 선택할 수 있다. The user thinks that a menu page corresponding to each layer exists in space, and can move or select a menu page according to depth information on a 2D screen.

여기서, 각 레이어에 대응하는 '메뉴 페이지'는 다양한 어플리케이션들에 대응하는 아이콘들을 포함하는 서로 다른 메뉴 페이지뿐만 아니라, 하나의 메뉴 페이지 중 선택된 메뉴(혹은 아이콘)에 해당하는 서브 메뉴 혹은 서브 메뉴에 포함된 컨텐츠 등을 모두 포함하는 의미로 이해될 수 있다. Here, the'menu page' corresponding to each layer is included in not only different menu pages including icons corresponding to various applications, but also a sub-menu or sub-menu corresponding to a selected menu (or icon) among one menu page. It can be understood as including all of the content, etc.

또한, 사용자 단말과 손과의 거리가 가까워지면 원하는 메뉴 페이지가 이동하도록 2D 화면을 구성할 수 있다. 다시 말해, 사용자는 공간상에서 가상의 메뉴 페이지 레이어(menu page layer)가 존재하는 것처럼 생각하고 사용자 단말의 화면에 나타나는 메뉴 페이지를 조절할 수 있다.In addition, a 2D screen can be configured so that a desired menu page moves when the distance between the user terminal and the hand is close. In other words, the user may think that a virtual menu page layer exists in the space and adjust the menu page displayed on the screen of the user terminal.

사용자 단말은, 사용자의 손과 디스플레이의 표면(surface)(305) 간의 거리가 가까워 질수록, 바뀌기 전의 제1 레이어에 대응하는 메뉴 페이지(310)는 희미해 지면서 점진적으로 사라지고, 동시에 제2 레이어에 대응하는 메뉴 페이지(320)가 선명해 지면서 점진적으로 나타나도록 하는 그래픽 효과를 적용할 수 있다. In the user terminal, as the distance between the user's hand and the surface 305 of the display gets closer, the menu page 310 corresponding to the first layer before the change fades and gradually disappears, and at the same time, the second layer disappears. A graphic effect may be applied to gradually appear while the corresponding menu page 320 becomes clearer.

예를 들어, 도 3에서 각 레이어들은 사용자 단말의 디스플레이를 통하여 3D 입체 영상으로 구현될 수 있으며, 제1 레이어는 가장 상부에 있어 사용자에게 가깝게 느껴지도록 낮은 3D 깊이를 가질 수 있다. 이때, 제2 레이어를 거쳐 제3 레이어, 제4 레이어로 갈수록 점차적으로 레이어에 대응하는 메뉴 페이지의 배치 높이는 낮아지며, 사용자 단말의 화면에서 사용자로부터 멀게 느껴지도록 깊은 3D 깊이를 가질 수 있다. For example, in FIG. 3, each of the layers may be implemented as a 3D stereoscopic image through the display of the user terminal, and the first layer may have a low 3D depth so that the first layer is at the top and feels close to the user. At this time, as the layer goes through the second layer to the third layer and the fourth layer, the arrangement height of the menu page corresponding to the layer gradually decreases, and the user terminal may have a deep 3D depth so that the screen of the user terminal feels away from the user.

다시 말해, 제1 레이어에 대응하는 메뉴 페이지(310)(예를 들어, 메인 메뉴 페이지)가 가장 위에 배치될 수 있고, 이어서, 제2 레이어에 대응하는 메뉴 페이지(320)(예를 들어, 메인 메뉴 페이지에서 선택된 어플리이션 e-BOOK의 아이콘에 대응하는 메인 페이지), 제3 레이어에 대응하는 메뉴 페이지(330)(예를 들어, 어플리이션 e-BOOK에서 제공하는 서브 페이지 혹은 상품 페이지), 제4 레이어에 대응하는 메뉴 페이지(340)(예를 들어, 선택된 상품의 결제 페이지)의 순으로 깊어지는 3D 깊이를 가지는 것으로 표현될 수 있다. In other words, the menu page 310 corresponding to the first layer (eg, the main menu page) may be disposed on the top, and then, the menu page 320 corresponding to the second layer (eg, the main menu page) The main page corresponding to the icon of the application e-book selected on the menu page), the menu page 330 corresponding to the third layer (for example, a sub page or product page provided by the application e-BOOK), It may be expressed as having a 3D depth that deepens in the order of the menu pages 340 (eg, payment pages of the selected product) corresponding to the 4 layers.

실시예에 따라서, 사용자 단말은 깊이 정보에 기초하여 제1 레이어로부터 제2 레이어로의 이동을 감지하면, 화면으로부터 사용자의 손까지 거리와 미리 설정된 거리를 비교할 수 있다. 그리고, 비교 결과, 일정 거리가 되면, 제2 레이어에 대응하는 메뉴 페이지가 제1 레이어에 대응하는 메뉴 페이지로부터 불연속적(혹은 갑자기) 나타나도록 할 수 있다. According to an embodiment, when the user terminal detects movement from the first layer to the second layer based on depth information, it may compare a distance from the screen to the user's hand with a preset distance. And, as a result of the comparison, when a predetermined distance is reached, the menu page corresponding to the second layer may be discontinuously (or suddenly) appear from the menu page corresponding to the first layer.

또한, 일 실시예에 따라서, 사용자의 손이 사용자 단말의 화면과 떨어진 공간 상에서 수평으로 일정 거리를 이동하면, 사용자 단말은 이러한 이동을 감지하여 현재의 메뉴 페이지를 바로 다음의 메뉴 페이지로 바꾸어 디스플레이하도록 할 수도 있다. In addition, according to an embodiment, when the user's hand moves a certain distance horizontally on a space separated from the screen of the user terminal, the user terminal detects such movement and changes the current menu page to the next menu page and displays it. You may.

그러므로, 일 실시예에 따르면, 사용자가 메뉴 선택을 위해 일일이 페이지를 터치 앤 드래그(touch and drag)해야 하는 터치 기반의 사용자 인터페이스의 번거로움을 해결하고, 사용자와 사용자 단말 간의 직관적인 상호 작용(interaction)을 구현할 수 있다.Therefore, according to an embodiment, it solves the hassle of a touch-based user interface in which a user must manually touch and drag pages for menu selection, and intuitive interaction between the user and the user terminal. ) Can be implemented.

이 밖에도, 사용자 단말은 화면에 복수의 레이어들에 대응하는 모든 메뉴 페이지(310, 320, 330, 340)를 투명하게 계층적으로 디스플레이할 수 있다. 이때, 사용자 단말은 이들 중 식별된 적어도 하나의 레이어에 대응하는 메뉴 페이지(예를 들어, 310)의 시인성(visibility)을 향상시키고, 나머지 적어도 하나의 레이어(예를 들어, 320, 330, 340)에 대응하는 메뉴 페이지의 시인성을 감소시킴으로써 식별된 적어도 하나의 레이어(예를 들어, 현재 제1 레이어)에 대응하는 메뉴 페이지가 선택되었음을 나타낼 수 있다. In addition, the user terminal may transparently and hierarchically display all menu pages 310, 320, 330, and 340 corresponding to a plurality of layers on the screen. At this time, the user terminal improves the visibility of the menu page (eg, 310) corresponding to at least one layer identified among them, and the remaining at least one layer (eg, 320, 330, 340). By reducing the visibility of the menu page corresponding to, it may indicate that the menu page corresponding to the identified at least one layer (eg, the current first layer) is selected.

도 3에서는 공간 상에서 깊이 정보를 이용하여 메뉴가 위치한 페이지 레이어를 자연스럽게 이동할 수 있도록 하였지만, 이러한 원리를 확장하여 다양한 응용이 가능하다. In FIG. 3, the page layer on which the menu is located can be naturally moved using depth information in space, but various applications are possible by extending this principle.

예를 들어, 사용자가 문자 입력 시에 사용하는 한글, 영문, 숫자, 특수 문자 등의 입력 자판(다시 말해, 가상 키보드)를 상술한 가상의 공간 레이어를 이용하여 구현하거나 다양한 이모티콘 집합을 가상의 공간 레이어를 이용하여 구현할 수 있다. For example, an input keyboard (that is, a virtual keyboard) such as Korean, English, numbers, and special characters used by the user when entering characters is implemented using the above-described virtual space layer, or various sets of emoticons are implemented in a virtual space. It can be implemented using layers.

다시 말해, 복수의 레이어들에 대응하는 메뉴 페이지들 중 어느 하나는 복수의 어플리케이션들에 대응하는 아이콘들을 포함하고, 메뉴 페이지들 중 다른 하나는 복수의 이모티콘들을 포함하고, 메뉴 페이지들 중 또 다른 하나는 가상 키보드를 포함할 수 있다. In other words, one of the menu pages corresponding to a plurality of layers includes icons corresponding to a plurality of applications, the other of the menu pages includes a plurality of emoticons, and another one of the menu pages May include a virtual keyboard.

이와 같이 도 3에서는 가상의 공간 레이어를 설정함으로써 메뉴 페이지를 표시 및 이동시키는 방법으로 사용자 인터페이스를 구성하였으나, 이하에서는 다면체를 이용하여 메뉴를 표시하는 방법으로 사용자 인터페이스를 구성하는 경우에 대하여 설명한다.
As described above, in FIG. 3, a user interface is configured by displaying and moving a menu page by setting a virtual spatial layer. Hereinafter, a case of configuring a user interface by displaying a menu using a polyhedron will be described.

도 4는 일 실시예에 따른 사용자의 공간 제스처에 기초하여 메뉴를 표시하는 방법을 나타낸 플로우 차트이다. 4 is a flowchart illustrating a method of displaying a menu based on a user's spatial gesture according to an exemplary embodiment.

도 4를 참조하면, 일 실시예에 따른 사용자 단말은 복수의 면들을 포함하는 적어도 하나의 다면체를 디스플레이할 수 있다(410). Referring to FIG. 4, the user terminal according to an embodiment may display at least one polyhedron including a plurality of faces (410 ).

사용자 단말은 적어도 하나의 다면체를 조작하기 위한 사용자의 공간 제스처를 인식할 수 있다(420).The user terminal may recognize a user's spatial gesture for manipulating at least one polyhedron (420).

420에서 사용자 단말은 사용자 단말의 화면 상에서 사용자의 손의 위치, 이동 속도, 및 각속도를 측정하고, 그 측정 결과를 이용하여 사용자의 공간 제스처를 인식할 수 있다. 사용자 단말이 사용자의 공간 제스처를 인식하는 방법은 도 6을 참조하여 설명한다. At 420, the user terminal may measure the position, movement speed, and angular velocity of the user's hand on the screen of the user terminal, and recognize the user's spatial gesture using the measurement result. A method for the user terminal to recognize a user's spatial gesture will be described with reference to FIG. 6.

420에서 사용자의 공간 제스처가 미리 정의된 형태의 모션인 경우, 사용자 단말은 해당 모션을 적어도 하나의 다면체의 내부 혹은 외부에 있는 다른 다면체를 조작하기 위한 사용자의 공간 제스처로 인식할 수 있다. 여기서, 미리 정의된 형태의 모션은 예를 들어, 핀치 줌(pinch zoom) 형태의 모션, 손을 왼쪽 혹은 오른쪽으로 움직이는 이동 모션 혹은 주먹을 쥐었다 펴는 형태의 모션 등일 수 있다. In 420, when the user's spatial gesture is a motion of a predefined type, the user terminal may recognize the motion as a user's spatial gesture for manipulating another polyhedron inside or outside of at least one polyhedron. Here, the predefined type of motion may be, for example, a pinch zoom type of motion, a movement motion of moving a hand left or right, or a motion of clenching and opening a fist.

'핀치 줌(pinch zoom) 형태의 모션'이란 사용자가 엄지 손가락과 검지 혹은 중지 손가락 등으로 공간을 잡는 듯한 동작을 취하거나, 해당 동작의 크기를 크거나 작게 하는 동작으로 이해될 수 있다. 'Pinch zoom-type motion' may be understood as an action in which a user takes a motion as if holding a space with a thumb, index or middle finger, or increases or decreases the size of the motion.

또한, 사용자 단말은 화면으로부터 사용자의 손까지 거리와 미리 설정된 거리 간의 비교 결과에 기초하여 공간 제스처를 다르게 인식할 수도 있다. 사용자 단말이 공간 제스처를 다르게 인식하여 처리하는 방법에 대하여는 도 5를 참조하여 설명한다. In addition, the user terminal may recognize the spatial gesture differently based on a comparison result between the distance from the screen to the user's hand and the preset distance. A method in which the user terminal recognizes and processes spatial gestures differently will be described with reference to FIG. 5.

사용자 단말은 적어도 하나의 다면체에 포함된 복수의 면들 중 공간 제스처에 대응하는 면을 식별할 수 있다(430).The user terminal may identify a surface corresponding to the spatial gesture among a plurality of surfaces included in the at least one polyhedron (430).

이때, 적어도 하나의 다면체에 포함된 복수의 면들은 서로 다른 메뉴들을 포함할 수 있다. 예를 들어, 복수의 면들에 대응하는 메뉴들 중 어느 하나는 복수의 어플리케이션들에 대응하는 아이콘들을 포함하고, 메뉴들 중 다른 하나는 복수의 이모티콘들을 포함하며, 메뉴들 중 또 다른 하나는 가상 키보드를 포함할 수 있다. In this case, a plurality of faces included in at least one polyhedron may include different menus. For example, one of the menus corresponding to a plurality of sides includes icons corresponding to a plurality of applications, the other of the menus includes a plurality of emoticons, and another of the menus is a virtual keyboard It may include.

420에서 인식된 공간 제스처가 핀치 줌(pinch zoom) 형태의 모션인 경우, 사용자 단말은 430에서 다른 다면체에 포함된 복수의 면들 중 핀치 줌의 위치(혹은 사이즈)에 대응하는 면을 식별할 수 있다. 이때, 핀치 줌의 위치에 대응하는 면은 예를 들어, 핀치 줌 형태에 의해 사용자 단말의 화면 위의 일정 공간에 형성되는 사용자의 두 손가락 범위의 위치(혹은 사이즈)의 중심 혹은 가장 위쪽에 해당하는 면 등으로 이해될 수 있다. When the spatial gesture recognized at 420 is a pinch zoom-type motion, the user terminal may identify a plane corresponding to the position (or size) of the pinch zoom among a plurality of planes included in another polyhedron at 430. . At this time, the surface corresponding to the pinch zoom position corresponds to the center or the top of the position (or size) of the user's two finger ranges formed in a certain space on the screen of the user terminal by, for example, a pinch zoom type. It can be understood as cotton or the like.

사용자 단말은 430에서 식별된 면에 대응하는 메뉴를 디스플레이할 수 있다(440).The user terminal may display a menu corresponding to the surface identified at 430 (440).

430에서 공간 제스처가 변화함에 따라, 사용자 단말은 변화된 공간 제스처에 대응하는 면을 식별할 수 있다. 이 경우, 사용자 단말은 변화된 공간 제스처에 대응하는 제2 면에 대응하는 메뉴가, 변화 이전의 공간 제스처에 대응하는 제1 면에 대응하는 메뉴로부터 연속적으로 나타나도록 디스플레이할 수 있다. As the spatial gesture changes at 430, the user terminal may identify a surface corresponding to the changed spatial gesture. In this case, the user terminal may display a menu corresponding to the second surface corresponding to the changed spatial gesture to continuously appear from the menu corresponding to the first surface corresponding to the spatial gesture before the change.

사용자 단말은 복수의 면들을 포함하는 적어도 하나의 메뉴 다면체를 계층적으로 디스플레이할 수 있다. 이때, 적어도 하나의 다면체의 복수의 면들에 대응하는 메뉴들은 2차원 화면으로 나타날 수 있다.
The user terminal may hierarchically display at least one menu polyhedron including a plurality of faces. In this case, menus corresponding to a plurality of faces of at least one polyhedron may be displayed as a two-dimensional screen.

도 5는 도 4의 방법에서 화면으로부터 사용자의 손까지 거리에 따라 사용자의 공간 제스처를 다르게 인식하여 처리하는 방법을 나타낸 플로우 차트이다. 5 is a flowchart illustrating a method of differently recognizing and processing a user's spatial gesture according to a distance from a screen to a user's hand in the method of FIG. 4.

도 5를 참조하면, 일 실시예에 따른 사용자 단말은 화면으로부터 사용자의 손까지 거리(혹은 해당 거리에 대응하는 깊이 정보)를 측정할 수 있다(510). 그리고, 사용자 단말은 화면으로부터 사용자의 손까지 거리와 미리 설정된 거리를 비교할 수 있다. Referring to FIG. 5, the user terminal according to an embodiment may measure a distance (or depth information corresponding to the distance) from a screen to a user's hand (510). In addition, the user terminal may compare the distance from the screen to the user's hand and a preset distance.

사용자 단말은 화면으로부터 사용자의 손까지 거리가 미리 설정된 거리보다 큰 지 여부를 판단할 수 있다(520). The user terminal may determine whether the distance from the screen to the user's hand is greater than a preset distance (520).

520의 판단 결과, 화면으로부터 사용자의 손까지 거리가 미리 설정된 거리보다 크다면, 사용자 단말은 사용자의 공간 제스처를 적어도 하나의 다면체의 외부에 있는 다른 다면체를 조작하기 위한 사용자의 공간 제스처로 인식할 수 있다(530).As a result of the determination of 520, if the distance from the screen to the user's hand is greater than the preset distance, the user terminal may recognize the user's spatial gesture as a user's spatial gesture for manipulating another polyhedron outside at least one polyhedron. There is (530).

그리고, 사용자 단말은 외부에 있는 다른 다면체에 포함된 복수의 면들 중 공간 제스처에 대응하는 면을 식별할 수 있다(540).In addition, the user terminal may identify a surface corresponding to the spatial gesture among a plurality of surfaces included in another polyhedron outside (540 ).

이후, 사용자 단말은 식별된 면에 대응하는 메뉴를 디스플레이할 수 있다(550).Thereafter, the user terminal may display a menu corresponding to the identified surface (550).

반면에, 520의 판단 결과, 화면으로부터 사용자의 손까지 거리가 미리 설정된 거리보다 작거나 같다면, 사용자 단말은 사용자의 공간 제스처를 적어도 하나의 다면체의 내부에 있는 다른 다면체를 조작하기 위한 사용자의 공간 제스처로 인식할 수 있다(560).On the other hand, as a result of the determination of 520, if the distance from the screen to the user's hand is less than or equal to the preset distance, the user terminal uses the user's space gesture to manipulate another polyhedron inside at least one polyhedron. It can be recognized as a gesture (560).

이 경우, 사용자 단말은 내부에 있는 다른 다면체에 포함된 복수의 면들 중 공간 제스처에 대응하는 면을 식별(570)하고, 식별된 면에 대응하는 메뉴를 디스플레이할 수 있다(550).
In this case, the user terminal may identify a surface corresponding to a spatial gesture among a plurality of surfaces included in another polyhedron inside (570) and display a menu corresponding to the identified surface (550 ).

도 6은 도 4의 방법에 따라 사용자의 공간 제스처를 인식하는 사용자 단말의 구성 및 사용자 단말이 공간 제스처를 인식하는 방법을 설명하기 위한 도면이다. 6 is a diagram illustrating a configuration of a user terminal for recognizing a user's spatial gesture and a method for the user terminal to recognize a spatial gesture according to the method of FIG. 4.

도 6을 참조하면, 일 실시예에 따른 사용자의 공간 제스처에 기초하여 메뉴를 표시하는 방법이 수행되는 사용자 단말은 터치 센서 패널(Touch Sensor Panel; TSP)(610)과 함께 공간 인식을 위한 DVS(Dynamic Vision Sensor)(630)들을 포함할 수 있다. 이때, 터치 센서 패널(TSP)(610)은 고감도 정전 용량을 가질 수 있다. Referring to FIG. 6, a user terminal in which a method of displaying a menu is performed based on a user's spatial gesture according to an embodiment is a DVS for spatial recognition together with a touch sensor panel (TSP) 610 ( Dynamic Vision Sensor) 630 may be included. In this case, the touch sensor panel (TSP) 610 may have high sensitivity capacitance.

여기서, DVS(630)는 적어도 하나의 다면체를 조작하기 위한 사용자의 공간 제스처를 인식하거나 사용자 단말의 화면으로부터 사용자의 손까지 거리에 대응하는 깊이(Depth) 정보를 측정하기 위한 센서의 일 예이다. Here, the DVS 630 is an example of a sensor for recognizing a user's spatial gesture for manipulating at least one polyhedron or measuring depth information corresponding to a distance from the screen of the user terminal to the user's hand.

일 실시예에서 사용자 단말은 일정 공간에서 수행되는 사용자의 제스처에 대하여, 제1 DVS에서 출력되는 이미지와 제2 DVS에서 출력되는 이미지 간의 좌표 차이를 이용하여 적어도 하나의 다면체를 조작하기 위한 사용자의 공간 제스처를 인식할 수 있다. In one embodiment, the user terminal is a user's space for manipulating at least one polyhedron using a coordinate difference between the image output from the first DVS and the image output from the second DVS for the user's gesture performed in a certain space. Gestures can be recognized.

또한, 일 실시예에서는 사용자 단말은 가속도, 자이로 센서 등을 이용하여 사용자 단말의 화면(터치 센서 패널(TSP)(610)) 상에서 사용자의 손의 위치(x, y, z), 거리 (depth) 이동 속도(vx, vy, vz), 및 각속도를 측정할 수 있다. 그리고, 사용자 단말은 그 측정 결과를 이용하여 3D 이동 궤적 및 속도 변화를 파악하거나 심볼(symbol) 인식 등을 수행하여 사용자의 공간 제스처를 인식할 수 있다. 마찬가지 방법으로, 두 개의 DVS나 이미지 센서 또는 TOF 센서 등을 이용하여 사용자 단말은 화면(터치 센서 패널(TSP)(610))으로부터 사용자의 손(끝)까지 거리에 대응하는 깊이 정보를 측정할 수 있다.
In addition, in one embodiment, the user terminal uses an acceleration, a gyro sensor, etc., on the screen of the user terminal (touch sensor panel (TSP) 610) Movement speed (vx, vy, vz), and angular speed can be measured. In addition, the user terminal may recognize a user's spatial gesture by identifying a 3D movement trajectory and a change in speed using the measurement result or by performing symbol recognition. In the same way, using two DVS or image sensors or TOF sensors, the user terminal can measure depth information corresponding to the distance from the screen (touch sensor panel (TSP) 610) to the user's finger (tip). have.

도 7은 도 4의 방법에 따라 적어도 하나의 다면체에 포함된 복수의 면들 중 식별된 면에 대응하는 메뉴가 사용자 단말의 화면에 나타난 것을 보여주는 도면이다. FIG. 7 is a diagram illustrating that a menu corresponding to an identified surface among a plurality of surfaces included in at least one polyhedron according to the method of FIG. 4 is displayed on a screen of a user terminal.

일 실시예에 따른 사용자 단말은 사용자 단말의 화면 위 일정 공간에서 수행되는 사용자의 공간 제스처를 인식할 수 있다. 이때, 사용자의 공간 제스처는 사용자 단말에 2차원 화면으로 나타나는 다면체를 조작하기 위한 것일 수 있다. The user terminal according to an embodiment may recognize a user's spatial gesture performed in a predetermined space on the screen of the user terminal. In this case, the user's spatial gesture may be for manipulating a polyhedron displayed as a two-dimensional screen on the user terminal.

다면체는 예를 들어, 육면체의 큐브(Cube)이거나, 그 밖의 육면체 이상의 입체일 수 있다. 그리고, 다면체의 복수의 면(surface)들 각각에는 서로 유사한 속성을 가지는 메뉴들이 나타날 수 있다. The polyhedron may be, for example, a cube of a hexahedron, or other three-dimensional or more hexahedral. Further, menus having similar properties may appear on each of a plurality of surfaces of the polyhedron.

예를 들어, 사용자 단말의 화면에는 각 면에 서로 다른 메뉴가 나타난 큐브가 디스플레이될 수 있다. 이때, 사용자가 사용자 단말의 화면 위 일정 공간에서, 가상의 큐브를 잡고 돌리는 제스처를 취하면, 사용자 단말의 화면에 나타난 큐브 또한 함께 회전할 수 있다. 그리고, 사용자가 움직임을 멈추고 원하는 면이 위로 오도록 일정 시간을 유지하면, 사용자의 공간 제스처에 의해 가상의 큐브에서 가장 윗면으로 식별되는 면에 대응하는 메뉴가 사용자 단말의 화면에 디스플레이될 수 있다. For example, a cube in which different menus are displayed on each side may be displayed on the screen of the user terminal. At this time, when the user makes a gesture of holding and turning a virtual cube in a certain space on the screen of the user terminal, the cube displayed on the screen of the user terminal may also rotate together. In addition, when the user stops the movement and maintains a predetermined time so that the desired surface is on the top, a menu corresponding to the surface identified as the top surface in the virtual cube by the user's spatial gesture may be displayed on the screen of the user terminal.

또한, 일 실시예에 따르면, 하나의 큐브 안과 밖에는 서로 다른 크기를 가지는 다른 큐브들이 존재할 수 있다. 따라서, 사용자는 사용자 단말의 화면 위 일정 공간에서, 가상의 큐브를 잡은 엄지와 검지를 오므린 상태에서 펴거나, 편 상태에서 오므리는 핀치 줌(pinch zoom) 형태의 모션을 취함으로써 해당 큐브의 외부 혹은 내부에 있는 다른 큐브를 선택하고, 다른 큐브가 포함하는 메뉴를 선택할 수 있다. In addition, according to an embodiment, different cubes having different sizes may exist inside and outside one cube. Therefore, the user can open the thumb and forefinger holding the virtual cube in a closed state in a certain space on the screen of the user terminal, or take a pinch zoom-type motion that is closed in an open state to the outside of the cube. Alternatively, you can select another cube inside and select a menu that another cube contains.

이 밖에도, 실시예에 따라서는 도 5와 같이 화면으로부터 사용자의 손까지 거리(혹은 해당 거리에 대응하는 깊이 정보)를 이용하여 하나의 큐브 안 혹은 큐브 밖에 있는 다른 큐브 (레이어)를 선택할 수도 있다. In addition, depending on the embodiment, it is possible to select another cube (layer) in one cube or outside the cube by using the distance from the screen to the user's hand (or depth information corresponding to the distance) as shown in FIG. 5.

일 실시예에 따르면, 상술한 바와 같은 2D 화면에서 3D 공간 사용자 인터페이스를 통한 화면 표시 방식에 의해 일일이 페이지를 터치 앤 드래그(touch and drag)하지 않고도 원하는 메뉴를 선택할 수 있다. According to an embodiment, it is possible to select a desired menu without touching and dragging each page by a screen display method through a 3D space user interface on the 2D screen as described above.

또한, 일 실시예에 따르면, 사용자와 사용자 단말 간의 직관적인 상호 작용(interaction)을 구현하고, 풍부하고 자연스러운 사용자 경험(User Experience)를 제공할 수 있다.
In addition, according to an embodiment, an intuitive interaction between a user and a user terminal may be implemented, and a rich and natural user experience may be provided.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described by the limited embodiments and drawings, various modifications and variations are possible from the above description to those of ordinary skill in the art. For example, the described techniques are performed in a different order from the described method, and/or components such as systems, structures, devices, circuits, etc. described are combined or combined in a form different from the described method, or other components Alternatively, even if substituted or substituted by an equivalent, an appropriate result can be achieved.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and those equivalent to the claims also fall within the scope of the claims to be described later.

210: 터치 센서 패널(Touch Sensor Panel; TSP)
230: DVS(Dynamic Vision Sensor)
210: Touch Sensor Panel (TSP)
230: Dynamic Vision Sensor (DVS)

Claims (24)

적어도 하나의 DVS(Dynamic Vision Sensor)를 이용하여 사용자 단말의 화면으로부터 사용자의 손까지 거리에 대응하는 깊이 정보를 측정하는 단계;
상기 깊이 정보와 미리 설정된 거리 간의 비교 결과를 기초로, 상기 사용자의 공간 제스처가 메뉴 페이지에 대응하는 레이어를 식별하기 위한 제1 유형의 공간 제스처인지, 또는 서로 다른 메뉴들을 포함하는 다면체의 면을 식별하기 위한 제2 유형의 공간 제스처인지를 결정하는 단계;
상기 공간 제스처가 상기 제1 유형의 공간 제스처라고 결정된 경우,
상기 깊이 정보에 기초하여, 복수의 레이어들 중 제1 레이어를 식별하는 단계;
상기 식별된 제1 레이어에 대응하는 제1 메뉴 페이지- 상기 제1 메뉴 페이지는 제1 메뉴 아이템들을 포함함- 가 스크린 상에 나타나도록 상기 복수의 레이어들 중 상기 식별된 제1 레이어에 제1 그래픽 효과를 적용하는 단계;
상기 깊이 정보에 기초하여, 상기 식별된 제1 레이어로부터 상기 복수의 레이어들 중 제2 레이어로 상기 손의 이동을 감지하는 단계; 및
상기 제1 레이어로부터 상기 제2 레이어로의 손의 이동을 감지함에 응답하여, 상기 제1 메뉴 페이지는 움직임없이 상기 화면에서 점진적으로 사라지고 상기 제2 레이어에 대응하는 제2 메뉴 페이지는 움직임없이 상기 화면에서 점진적으로 나타나며, 상기 제1 메뉴 페이지 및 상기 제2 메뉴 페이지의 움직임없이, 상기 제1 메뉴 페이지가 제2 메뉴 항목들을 포함하는 상기 제2 메뉴 페이지 속으로 사라지도록 상기 식별된 제1 레이어 및 상기 제2 레이어에 제2 그래픽 효과를 적용하는 단계
를 포함하고,
상기 공간 제스처가 상기 제2 유형의 공간 제스처라고 결정된 경우,
상기 다면체의 복수의 면들 중 상기 제2 유형의 공간 제스처에 대응하는 어느 하나의 면을 식별하는 단계; 및
상기 식별된 면에 대응하는 메뉴를 디스플레이하는 단계
를 포함하는,
는 깊이 정보에 기초하여 메뉴를 표시하는 방법.
Measuring depth information corresponding to the distance from the screen of the user terminal to the user's hand using at least one DVS (Dynamic Vision Sensor);
Based on the comparison result between the depth information and a preset distance, whether the user's spatial gesture is a first type of spatial gesture for identifying a layer corresponding to a menu page, or a face of a polyhedron including different menus Determining whether it is a second type of spatial gesture to make;
When it is determined that the spatial gesture is the first type of spatial gesture,
Identifying a first layer among a plurality of layers based on the depth information;
A first graphic on the identified first layer among the plurality of layers such that a first menu page corresponding to the identified first layer-the first menu page including first menu items-appears on the screen. Applying the effect;
Sensing movement of the hand from the identified first layer to a second layer of the plurality of layers based on the depth information; And
In response to detecting the movement of the hand from the first layer to the second layer, the first menu page gradually disappears from the screen without movement, and the second menu page corresponding to the second layer disappears from the screen without movement. The first layer and the identified first layer and the identified so that the first menu page disappears into the second menu page including second menu items without movement of the first menu page and the second menu page. Applying a second graphic effect to the second layer
Including,
When it is determined that the spatial gesture is the second type of spatial gesture,
Identifying one of the plurality of faces of the polyhedron corresponding to the second type of spatial gesture; And
Displaying a menu corresponding to the identified surface
Containing,
How to display the menu based on the depth information.
삭제delete 제1항에 있어서,
상기 제2 그래픽 효과를 적용하는 단계는
상기 제2 메뉴 페이지의 시인성(visibility)을 향상시키는 단계; 및
상기 제1 레이어에 대응하는 메뉴 페이지의 시인성을 감소시키는 단계
를 포함하는 깊이 정보에 기초하여 메뉴를 표시하는 방법..
The method of claim 1,
The step of applying the second graphic effect
Improving visibility of the second menu page; And
Reducing visibility of a menu page corresponding to the first layer
A method of displaying a menu based on depth information comprising a.
제1항에 있어서,
상기 제2 그래픽 효과를 적용하는 단계는
상기 화면으로부터 사용자의 손까지 거리와 미리 설정된 거리를 비교하는 단계; 및
상기 비교 결과를 이용하여, 상기 제2 레이어에 대응하는 제2 메뉴 페이지가 상기 제1 레이어에 대응하는 제1 메뉴 페이지로부터 불연속적으로 나타나도록 상기 제2 레이어에 상기 제2 그래픽 효과를 적용하는 단계
를 포함하는 깊이 정보에 기초하여 메뉴를 표시하는 방법.
The method of claim 1,
The step of applying the second graphic effect
Comparing a distance from the screen to a user's hand and a preset distance; And
Using the comparison result, applying the second graphic effect to the second layer such that a second menu page corresponding to the second layer appears discontinuously from the first menu page corresponding to the first layer.
A method of displaying a menu based on depth information comprising a.
제1항에 있어서,
상기 사용자 단말의 화면으로부터 사용자의 손까지의 깊이 정보를 측정하는 단계는
적어도 하나의 DVS(Dynamic Vision Sensor)를 이용하여 상기 사용자 단말의 화면으로부터 사용자의 손까지의 깊이 정보를 측정하는 단계
를 포함하는 깊이 정보에 기초하여 메뉴를 표시하는 방법.
The method of claim 1,
Measuring depth information from the screen of the user terminal to the user's hand
Measuring depth information from the screen of the user terminal to the user's hand using at least one DVS (Dynamic Vision Sensor)
A method of displaying a menu based on depth information comprising a.
제5항에 있어서,
상기 사용자 단말의 화면으로부터 사용자의 손까지의 깊이 정보를 측정하는 단계는
제1 DVS에서 출력되는 이미지에서의 손의 제1 위치와 제2 DVS에서 출력되는 이미지에서의 손의 제2 위치 간의 차이를 이용하여 상기 사용자 단말의 화면으로부터 사용자의 손까지의 깊이 정보를 측정하는 단계
를 포함하는 깊이 정보에 기초하여 메뉴를 표시하는 방법.
The method of claim 5,
Measuring depth information from the screen of the user terminal to the user's hand
Measuring depth information from the screen of the user terminal to the user's hand using the difference between the first position of the hand in the image output from the first DVS and the second position of the hand in the image output from the second DVS step
A method of displaying a menu based on depth information comprising a.
제1항에 있어서,
상기 사용자 단말의 화면으로부터 사용자의 손까지의 깊이 정보를 측정하는 단계는
두 개의 이미지 센서들에서 측정된 손의 위치의 차이 또는 TOF(Time Of Flight) 센서를 이용하여 상기 사용자의 손의 깊이 정보를 측정하는 단계
를 포함하는 깊이 정보에 기초하여 메뉴를 표시하는 방법.
The method of claim 1,
Measuring depth information from the screen of the user terminal to the user's hand
Measuring the depth information of the user's hand using the difference in the position of the hand measured by two image sensors or a Time Of Flight (TOF) sensor
A method of displaying a menu based on depth information comprising a.
제1항에 있어서,
상기 복수의 레이어들에 대응하는 메뉴 페이지는
2차원 화면을 포함하는 깊이 정보에 기초하여 메뉴를 표시하는 방법.
The method of claim 1,
The menu page corresponding to the plurality of layers
A method of displaying a menu based on depth information including a two-dimensional screen.
제1항에 있어서,
상기 복수의 레이어들에 대응하는 메뉴 페이지를 계층적으로 디스플레이하는 단계
를 더 포함하는 깊이 정보에 기초하여 메뉴를 표시하는 방법.
The method of claim 1,
Hierarchically displaying a menu page corresponding to the plurality of layers
A method of displaying a menu based on depth information further comprising a.
제1항에 있어서,
상기 복수의 레이어들에 대응하는 메뉴 페이지들 중 제1 메뉴 페이지는 복수의 어플리케이션들에 대응하는 아이콘들을 포함하거나,
상기 메뉴 페이지들 중 제2 메뉴 페이지는 복수의 이모티콘들을 포함하거나,
상기 메뉴 페이지들 중 제3 메뉴 페이지는 가상 키보드를 포함하는,
깊이 정보에 기초하여 메뉴를 표시하는 방법.
The method of claim 1,
Of the menu pages corresponding to the plurality of layers, a first menu page includes icons corresponding to a plurality of applications, or
The second menu page of the menu pages includes a plurality of emoticons, or
A third menu page among the menu pages includes a virtual keyboard,
How to display a menu based on depth information.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 제1항, 제3항 내지 제10항 중 어느 한 항의 방법을 수행하기 위한 프로그램이 기록된 컴퓨터로 판독 가능한 기록 매체.A computer-readable recording medium on which a program for performing the method of any one of claims 1, 3 to 10 is recorded.
KR1020130147534A 2013-02-07 2013-11-29 Method of displaying menu based on depth information and space gesture of user KR102224930B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US14/168,049 US9983779B2 (en) 2013-02-07 2014-01-30 Method of displaying menu based on depth information and space gesture of user
US15/966,286 US10795568B2 (en) 2013-02-07 2018-04-30 Method of displaying menu based on depth information and space gesture of user

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020130014002 2013-02-07
KR20130014002 2013-02-07

Publications (2)

Publication Number Publication Date
KR20140101276A KR20140101276A (en) 2014-08-19
KR102224930B1 true KR102224930B1 (en) 2021-03-10

Family

ID=51746763

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130147534A KR102224930B1 (en) 2013-02-07 2013-11-29 Method of displaying menu based on depth information and space gesture of user

Country Status (1)

Country Link
KR (1) KR102224930B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102276863B1 (en) * 2019-12-05 2021-07-14 광주과학기술원 Image processing apparatus and image processing method
CN117218716B (en) * 2023-08-10 2024-04-09 中国矿业大学 DVS-based automobile cabin gesture recognition system and method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060015812A1 (en) * 2004-07-15 2006-01-19 Cingular Wireless Ii, Llc Using emoticons, such as for wireless devices
US20090128498A1 (en) * 2004-06-29 2009-05-21 Koninklijke Philips Electronics, N.V. Multi-layered display of a graphical user interface
US20110256848A1 (en) * 2010-04-14 2011-10-20 Samsung Electronics Co., Ltd. Touch-based mobile device and method for performing touch lock function of the mobile device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090128498A1 (en) * 2004-06-29 2009-05-21 Koninklijke Philips Electronics, N.V. Multi-layered display of a graphical user interface
US20060015812A1 (en) * 2004-07-15 2006-01-19 Cingular Wireless Ii, Llc Using emoticons, such as for wireless devices
US20110256848A1 (en) * 2010-04-14 2011-10-20 Samsung Electronics Co., Ltd. Touch-based mobile device and method for performing touch lock function of the mobile device

Also Published As

Publication number Publication date
KR20140101276A (en) 2014-08-19

Similar Documents

Publication Publication Date Title
US10795568B2 (en) Method of displaying menu based on depth information and space gesture of user
CN110476142B (en) Computing device, method and head mounted display device for displaying virtual content
CN108431729B (en) Three-dimensional object tracking to increase display area
EP2972669B1 (en) Depth-based user interface gesture control
KR101890459B1 (en) Method and system for responding to user's selection gesture of object displayed in three dimensions
US20110109577A1 (en) Method and apparatus with proximity touch detection
KR20110112606A (en) Method for hover sensing in the interactive display and method for processing hover sensing image
JP2012003742A (en) Input device, input method, program and recording medium
CN108431734A (en) Touch feedback for non-touch surface interaction
US20150261330A1 (en) Method of using finger surface area change on touch-screen devices - simulating pressure
US20130283214A1 (en) Apparatus and method for providing user interface for recognizing gesture
KR20170118864A (en) Systems and methods for user interaction with a curved display
CN106062672B (en) Device control
US10042445B1 (en) Adaptive display of user interface elements based on proximity sensing
WO2015094588A1 (en) Wearable display input system
EP3204843B1 (en) Multiple stage user interface
US20150253918A1 (en) 3D Multi-Touch
KR102198596B1 (en) Disambiguation of indirect input
KR102224930B1 (en) Method of displaying menu based on depth information and space gesture of user
WO2016099561A1 (en) Gesture library
KR101467144B1 (en) Method for Switching 3-Dimension Page Screen by Round Shape Touch Input
KR101535738B1 (en) Smart device with touchless controlling operation function and the control method of using the same
KR20150122021A (en) A method for adjusting moving direction of displaying object and a terminal thereof
CN104951211A (en) Information processing method and electronic equipment
KR20150098366A (en) Control method of virtual touchpadand terminal performing the same

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant