KR20180103366A - Apparatus and method for providing responsive user interface - Google Patents

Apparatus and method for providing responsive user interface Download PDF

Info

Publication number
KR20180103366A
KR20180103366A KR1020170030217A KR20170030217A KR20180103366A KR 20180103366 A KR20180103366 A KR 20180103366A KR 1020170030217 A KR1020170030217 A KR 1020170030217A KR 20170030217 A KR20170030217 A KR 20170030217A KR 20180103366 A KR20180103366 A KR 20180103366A
Authority
KR
South Korea
Prior art keywords
information
display
module
signal
menu
Prior art date
Application number
KR1020170030217A
Other languages
Korean (ko)
Inventor
신재찬
Original Assignee
주식회사 펍지랩스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 펍지랩스 filed Critical 주식회사 펍지랩스
Priority to KR1020170030217A priority Critical patent/KR20180103366A/en
Publication of KR20180103366A publication Critical patent/KR20180103366A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus

Abstract

An apparatus for providing a responsive user interface according to the present invention includes: a touch recognition module for receiving a first signal; a processor module for transmitting a second signal by corresponding to the received first signal; and a display module including a first area and a second area. When the first signal is received in the first area, the processor module extracts information on an input method of the first signal. The processor module transmits predetermined information as the second signal by corresponding to the extracted information on the input method, and the display module visualizes information corresponding to the second signal in the second area. Accordingly, the present invention can increase convenience by activating the user interface including at least one menu.

Description

반응형 유저 인터페이스 제공 장치 및 방법{APPARATUS AND METHOD FOR PROVIDING RESPONSIVE USER INTERFACE}  [0001] APPARATUS AND METHOD FOR PROVIDING RESPONSIVE USER INTERFACE [0002]

본 발명은 반응형 유저 인터페이스 제공 장치 및 방법에 의해 관한 것으로, 구체적으로 사용자의 조작신호 방향 또는 입력신호 방향에 대응하여 다양한 방식으로 메뉴를 제공하는 인터페이스 장치 빛 방법에 대한 것이다.  The present invention relates to an apparatus and method for providing a responsive user interface, and more particularly, to an interface apparatus light method for providing a menu in various ways corresponding to a direction of an operation signal or an input signal direction of a user.

종래의 컴퓨터장치 및 통신장치가 함께 구비된 휴대용전화기, 태블릿 컴퓨터 등의 보급이 일반화되었다. 휴대용전화기 또는 태블릿 컴퓨터는 주로 이동 중에 사용되며, 한 손을 사용하거나 파지하고 다른 한손으로 화면을 터치하는 방식으로 사용되는 것이 일반적이다. 한손으로 화면을 터치하는 등으로 조작이 이루어지기 때문에, 종래 컴퓨터의 키보드와 같이 다양하고 신속한 입력이 불가능하거나 곤란한 경우가 종종 발생하곤 한다. 양손 중 어느 한 손으로 제어가 가능하도록 외형의 크기가 정해져 생산되는 스마트 기기도 존재한다. 이는 휴대성을 극대화하기 위한 조치인 한편, 양손을 모두 활용하여 장치를 제어할 수 있도록 하기 위한 목적을 갖는다.  A portable telephone, a tablet computer, and the like, which are provided with a conventional computer device and a communication device, have become popular. Portable telephones or tablet computers are primarily used on the go, and are typically used in such a way that one hand is used or gripped and the other hand is used to touch the screen. The operation is performed by touching the screen with one hand or the like. Therefore, it is often occasionally difficult or impossible to input various and quick inputs like a keyboard of a conventional computer. There are also smart devices that are manufactured by controlling the size of the outer shape so that they can be controlled by either hand of both hands. This is a measure for maximizing the portability, while having the purpose of controlling the apparatus by utilizing both hands.

일반적으로 휴대폰, 태블릿 컴퓨터 등의 경우는 아이콘으로 표현된 메뉴를 클릭하는 것으로 해당 어플리케이션이 실행된다. 어플리케이션이 실행된 이후에는 어플리케이션을 제어하기 위한 별도의 메뉴가 존재하는 경우도 있지만, 이미지 등이 어플리케이션의 주된 속성 중 하나인 경우에는 메뉴가 생성되는 위치가 제한적일 수 있다.  Generally, in a case of a mobile phone, a tablet computer, etc., a corresponding application is executed by clicking a menu represented by an icon. After the application is executed, there may be a separate menu for controlling the application. However, when the image or the like is one of the main attributes of the application, the location where the menu is created may be limited.

한편, 어플리케이션이 게임인 경우가 있다. 시뮬레이션게임 또는 롤플레잉게임은 게임을 진행하는 경우 다양한 방식으로 명령을 입력하여 플레이가 되는 것이 일반적이다. 핀치투줌(Pinch to zoom)은 일종의 멀티 터치 기능으로 화면 속 이미지를 엄지와 검지로 벌리듯 확대하거나 조이듯 축소하는 것을 말하며, 손가락 하나로 화면을 위·아래로 끌어가는 기능도 포함하는 것을 의미하는 기술용어이다. 핀치투줌으로 게임화면을 확대 또는 축소하는 기술을 적용하면, 작은 화면의 단점을 일부 극복할 수 있으나, 신속한 대응이 어렵기 때문에 게임 어플리케이션에 적용하더라도 일부 불편한 점은 여전히 존재한다. 이러한 종류의 게임은 스마트폰 또는 태블릿 컴퓨터상에서의 플레이가 용이하지 않다. 스마트폰 또는 태블릿 컴퓨터는 종래의 데스크탑 컴퓨터에서 사용되는 키보드 또는 마우스를 사용할 수 없기 때문이다.  On the other hand, the application may be a game. Simulation games or role-playing games are usually played by entering commands in various ways when playing the game. Pinch to zoom is a sort of multi-touch function that enlarges or shrinks the image in the screen as if it were spread over the thumb and forefinger, and it also means that it includes the function of dragging the screen up and down with one finger It is a term. Applying the technique of enlarging or reducing the game screen with pinch throw may overcome some of the drawbacks of the small screen, but it is difficult to respond quickly, so even if applied to a game application, some inconveniences still exist. This kind of game is not easy to play on smartphones or tablet computers. A smartphone or tablet computer can not use a keyboard or mouse used in a conventional desktop computer.

본 발명은 상기 언급한 문제점을 해결하기 위하여 사용자의 조작 방식에 반응하는 반응형 유저 인터페이스 제공 장치 및 방법에 관한 것이다.  The present invention relates to an apparatus and method for providing a responsive user interface responsive to a user's operation method in order to solve the above-mentioned problems.

본 발명인 반응형 유저 인터페이스 제공 장치는 제 1 신호를 수신하는 터치인식모듈; 상기 수신된 제 1 신호에 대응하여 제 2 신호를 송신하는 프로세서 모듈; 및 제 1 영역 및 제 2 영역을 포함하는 디스플레이모듈을 포함하고, 상기 제 1 신호가 상기 제 1 영역에 수신될 경우, 상기 프로세서모듈은 상기 제 1 신호의 입력 방식에 대한 정보를 추출하고, 상기 추출된 입력 방식에 대한 정보에 대응하여 상기 프로세서모듈은 기설정된 정보를 상기 제 2 신호로 송신하고, 상기 디스플레이모듈은 상기 제 2 신호에 대응하는 정보를 상기 제 2 영역에 가시화하는 것을 특징으로 한다.  An apparatus for providing a responsive user interface according to the present invention comprises: a touch recognition module for receiving a first signal; A processor module for transmitting a second signal corresponding to the received first signal; And a display module including a first area and a second area, wherein when the first signal is received in the first area, the processor module extracts information on an input method of the first signal, The processor module transmits predetermined information to the second signal corresponding to information on the extracted input method, and the display module visualizes information corresponding to the second signal in the second area .

또한 본 발명인 반응형 유저 인터페이스 제공 방법은 제 1 신호를 수신하는 단계, 상기 수신된 제 1 신호에 대응하여 제 2 신호를 송신하는 단계, 상기 제 2 신호에 대응하는 정보를 가시화하는 단계를 포함할 수 있다.  The present invention also provides a method of providing a responsive user interface, the method comprising receiving a first signal, transmitting a second signal corresponding to the received first signal, and visualizing information corresponding to the second signal .

이상 설명한 바와 같이 본 발명은 사용자가 원하는 위치에서 자유롭게 적어도 하나의 메뉴를 포함하는 유저 인터페이스를 활성화 시켜 사용자의 편의성을 증대시킬 수 있다.  As described above, the present invention can increase the user's convenience by activating a user interface including at least one menu freely at a desired position by the user.

또한, 본 발명은 사용자의 조작 방식에 반응하여 다양한 방식으로 메뉴를 제공하여 사용자의 편의성을 제공할 수 있다.  In addition, the present invention can provide a convenience of the user by providing a menu in various ways in response to a user's operation mode.

또한, 본 발명은 사용자 제스처 등을 이용하여 즉각적이고도 직관적으로 디스플레이 화면을 제어할 수 있다.   In addition, the present invention can instantly and intuitively control the display screen using a user gesture or the like.

도 1은 반응형 유저 인터페이스 시스템의 일 실시예를 설명하기 위한 도면이다.
도 2는 반응형 유저 인터페이스 제공 장치의 일 실시예를 설명하기 위한 도면이다.
도 3은 제 1 경로에 따른 스마트 버튼 확장의 일 실시예를 설명하기 위한 도면이다.
도 4는 제 2 경로에 따른 스마트 버튼 확장의 일 실시예를 설명하기 위한 도면이다.
도 5는 본 발명에 따른 스마트 버튼 이동의 일 실시예를 설명하기 위한 도면이다.
도 6은 본 발명에 따른 디스플레이모듈의 일 실시예를 설명하기 위한 도면이다.
도 7은 본 발명에 따른 서브메뉴 편집의 일 실시예를 설명하기 위한 도면이다.
도 8은 본 발명에 따른 서브메뉴들 트리구조의 일 실시예를 설명하기 위한 도면이다.
도 9는 본 발명에 따른 서브메뉴들 트리구조에 대응하는 제 1 가시화의 일 실시예를 설명하기 위한 도면이다.
도 10은 본 발명에 따른 서브메뉴들 트리구조에 대응하는 제 2 가시화의 일 실시예를 설명하기 위한 도면이다.
도 11은 본 발명에 따른 서브메뉴들 트리구조에 대응하는 제 3 가시화의 일 실시예를 설명하기 위한 도면이다.
도 12는 본 발명에 따른 서브메뉴들 트리구조에 대응하는 제 4 가시화의 일 실시예를 설명하기 위한 도면이다.
도 13은 반응형 유저 인터페이스 제공 방법의 일 실시예를 설명하기 위한 도면이다.
1 is a view for explaining an embodiment of a responsive user interface system.
2 is a diagram for explaining an embodiment of a reactive-type user interface providing apparatus.
3 is a view for explaining an embodiment of smart button expansion according to the first path.
4 is a diagram for explaining an embodiment of smart button expansion according to the second path.
5 is a view for explaining an embodiment of smart button movement according to the present invention.
6 is a view for explaining an embodiment of a display module according to the present invention.
7 is a view for explaining an embodiment of sub-menu editing according to the present invention.
8 is a diagram for explaining an embodiment of a submenu tree structure according to the present invention.
9 is a view for explaining an embodiment of a first visualization corresponding to a sub-menus tree structure according to the present invention.
FIG. 10 is a view for explaining an embodiment of a second visualization corresponding to a sub-menus tree structure according to the present invention.
11 is a view for explaining an embodiment of a third visualization corresponding to a sub-menus tree structure according to the present invention.
12 is a view for explaining an embodiment of a fourth visualization corresponding to a sub-menus tree structure according to the present invention.
13 is a diagram for explaining an embodiment of a method for providing a responsive user interface.

본 발명의 일 실시예를 첨부된 도면들을 참조하여 상세히 설명한다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략한다.  One embodiment of the present invention will be described in detail with reference to the accompanying drawings. In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear.

또한 명세서에 기재된 유닛, 장치, 디바이스, 부, 또는 모듈 등의 용어는 적어도 하나의 기능마다 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.  Also, the terms unit, apparatus, device, subcomponent, or module described in the specification mean a unit for processing an operation for at least one function, which may be implemented by hardware, software, or a combination of hardware and software.

도 1은 반응형 유저 인터페이스 시스템의 일 실시예를 설명하기 위한 도면이다.   1 is a view for explaining an embodiment of a responsive user interface system.

도 1을 참조하면, 유저 인터페이스 시스템은 터치인식부(10), 메뉴관리부(20), 진동제어부(30), 또는 디스플레이부(40) 중 적어도 하나 이상을 포함할 수 있다. 또한 전술한 터치인식부(10), 메뉴관리부(20), 진동제어부(30), 또는 디스플레이부 (40)는 각각의 하드웨어 프로세서에 의해 구현되거나 하나의 통합 프로세서로 구현될 수 있다.  Referring to FIG. 1, the user interface system may include at least one of a touch recognition unit 10, a menu management unit 20, a vibration control unit 30, and a display unit 40. The touch recognition unit 10, the menu management unit 20, the vibration control unit 30, or the display unit 40 may be implemented by respective hardware processors or by a single integrated processor.

터치인식부(10)는 스마트폰 또는 태블릿 컴퓨터 등과 같이 주로 사용자의 터치가 이루어지는 디스플레이부(40)와 일체로 형성되어, 사용자의 터치가 직관적으로 인식되도록 구성할 수 있다. 터치인식부(10)가 사용자에 의해 디스플레이부(40) 상의 메뉴버튼이 터치된 상태에서 소정의 방향으로 스와이프 됨을 인식할 수 있다.  The touch recognition unit 10 may be formed integrally with the display unit 40, such as a smart phone or a tablet computer, which mainly performs a touch of a user, so that the touch of the user can be intuitively recognized. The touch recognition unit 10 can recognize that the menu button on the display unit 40 is swiped in a predetermined direction by the user.

한편, 터치인식부(10)는 사용자에 의해 디스플레이부(40)가 미리 설정된 시간동안 이상 터치 여부를 판단하여 일정시간 동안 터치가 이루어진 경우, 메뉴 버튼을 디스플레이하도록 구성될 수 있다. 터치인식부(10)는 가시화된 메뉴버튼을 터치한 상태에서 디스플레이부(40)의 세로방향을 기준으로 상, 하, 좌 또는 우측 방향으로 스와이프(swipe)를 인식할 수 있다. 터치인식부(10)는 전술한 4개의 방향 이외에도 각각의 방향을 조합하여 스와이프 되는 방향을 임의로 설정할 수 있다.  On the other hand, the touch recognition unit 10 may determine whether the display unit 40 is touched for a preset time by the user, and display the menu button when a touch is made for a predetermined time. The touch recognition unit 10 can recognize a swipe in the upward, downward, leftward, or rightward direction with respect to the vertical direction of the display unit 40 while touching the visualized menu button. The touch recognizing unit 10 can arbitrarily set the directions in which the respective directions are combined and swapped in addition to the above-described four directions.

또한 터치인식부(10)는 사용자에 의하여 전술한 메뉴버튼을 터치한 상태에서 메뉴버튼이 스와이프 조작이 이루어졌음을 인식하는 경우, 아래에서 후술할 메뉴관리부(20)가 소정의 방향에 매칭되는 서브메뉴를 디스플레이부(40) 상에 디스플레이 할 수 있다. 또한 서브메뉴는 앞서 기술된 바와 같이 사용자에 의하여 디스플레이부(40)상의 메뉴버튼이 스와이프 되는 방식에 의하여, 또는 단순히 메뉴버튼의 터치가 이루어지는 방식에 의하여 디스플레이될 수 있다.  When the menu recognition unit 10 recognizes that the menu button has been swiped with the menu button touched by the user, the menu management unit 20 to be described later is matched in a predetermined direction The submenu can be displayed on the display unit 40. Also, the submenu may be displayed by a method in which the menu button on the display unit 40 is swiped by the user as described above, or simply by a touch of the menu button.

또한 서브메뉴는 디스플레이부(40) 상에 터치된 메뉴를 중심으로 하여 디스플레이될 수 있고, 이 경우 서브메뉴에 의해 디바이스 또는 어플리케이션이 제공하는 스크립트 또는 타 메뉴가 가려질 수 있다. 즉, 서브메뉴는 최상위 레이어에 위치할 수 있다.  In addition, the submenu may be displayed around the menu touched on the display unit 40, in which case the script or other menu provided by the device or application may be hidden by the submenu. That is, the submenu can be located in the uppermost layer.

또한 터치인식부(10)는 사용자에 의해 디스플레이부(40)가 미리 설정된 시간동안 이상 터치가 되는지 여부를 인식할 수 있다. 터치인식부(10)는 스와이프된 위치상의 특정 서브 메뉴상에서 사용자에 의해 미리 설정된 시간동안 터치되는 경우, 메뉴관리부(20)는 서브메뉴의 서브메뉴를 디스플레이부(40) 상에 디스플레이 하도록 할 수 있다. 즉, 사용자의 터치 패턴 및 시간에 따라 메뉴의 하위 계층에 속하는 메뉴가 디스플레이될 수 있다.  In addition, the touch recognition unit 10 can recognize whether or not the display unit 40 is touched for a preset time by the user. When the touch recognition unit 10 is touched for a preset time by a user on a specific sub menu in a swapped position, the menu management unit 20 may display a sub menu of the sub menu on the display unit 40 have. That is, a menu belonging to a lower layer of the menu may be displayed according to the touch pattern and time of the user.

메뉴관리부(20)는 메뉴버튼이 디스플레이된 상태라면, 사용자에 의해 메뉴버튼이 미리 설정된 시간 이상 동안 메뉴버튼이 터치된 경우에는 메뉴버튼이 디스플레이 되는 방식을 변경하도록 제어할 수 있다. 이는 사용자의 주의를 환기시키기 위함이며, 메뉴버튼이 반짝거리거나, 메뉴버튼이 흔들리거나 또는 회전하는 등으로 시각에 의하여 메뉴버튼이 일정 시간동안 터치되고 있음을 알리게 된다.  If the menu button is displayed on the menu management unit 20, the menu management unit 20 may control the menu button to be displayed when the menu button is touched by the user for a predetermined time or more. This is to remind the user that the menu button is being touched for a certain period of time by the time, such as the menu button flashes, the menu button shakes, or rotates.

또한 메뉴관리부(20)는 디스플레이부(40) 상에 디스플레이되는 안내 스크립트 또는 디폴트 메뉴 위치에 서브메뉴가 디스플레이되는 것이 감지되는 경우, 안내 스크립트 또는 디폴트 메뉴가 디스플레이되는 위치 이외의 위치에 메뉴버튼 및 서브메뉴가 디스플레이하도록 제어할 수 있다.  In addition, when it is detected that the submenu is displayed at the guide script or the default menu position displayed on the display unit 40, the menu management unit 20 displays a menu button and a sub menu at a position other than the position at which the guide script or the default menu is displayed. So that the menu is displayed.

또한 메뉴관리부(20)는 사용자에 의해 메뉴버튼이 드래그된 위치로 메뉴버튼을 이동하도록 제어할 수 있다. 즉, 메뉴버튼이 디스플레이된 상태에서, 사용자에 의해 상기 메뉴버튼이 미리 설정된 시간 이상 동안 메뉴버튼이 터치된 경우에, 메뉴관리부(20)는 사용자에 의해 선택된 위치로 메뉴버튼을 이동하도록 제어할 수 있다. 보다 구체적으로, 선택된 위치는 사용자에 의해 디스플레이부(40) 상에서 메뉴버튼을 드래그한 위치일 수 있다.  In addition, the menu management unit 20 may control the user to move the menu button to a position where the menu button is dragged. That is, when the menu button is touched by the user for a predetermined time or longer, the menu management unit 20 can control the menu button to move to the position selected by the user have. More specifically, the selected position may be a position where the user has dragged the menu button on the display unit 40. [

하지만, 사용자에 의해 선택되는 위치는 드래그된 위치에 한정되지 않고 임의로 설정하도록 구성될 수 있다. 이는 메뉴버튼 하위의 서브메뉴의 선택이 정확히 이루어졌는지를 시각적으로 확인할 수 있도록 하기 위함이다.  However, the position selected by the user is not limited to the dragged position and can be configured to be set arbitrarily. This is to visually confirm whether the submenu under the menu button is correctly selected.

진동제어부(30)는 메뉴버튼이 디스플레이될 때 디바이스에 진동을 부여할 수 있다. 사용자는 시각으로 판단하지 않더라도 진동을 통하여 메뉴버튼이 생성되었음을 확인할 수 있다.  The vibration control unit 30 may impart vibration to the device when the menu button is displayed. The user can confirm that the menu button has been generated through the vibration even if the user does not judge by the time.

또한 디스플레이부(40)는 디스플레이된 메뉴를 직접 터치하는 것에 의하여 사용자의 터치를 인식할 수 있다. 다만, 이에 한정하는 것은 아니고, 디바이스의 터치인식부(10)에 의해 사용자의 터치가 이루어질 수 부분이라면 본 발명이 적용 가능한 범위 내에서 디바이스 상의 어느 부위에도 적용될 수 있다.  Also, the display unit 40 can recognize the user's touch by directly touching the displayed menu. However, the present invention is not limited to this, and the present invention can be applied to any part of the device within a range to which the present invention can be applied, provided that the user's touch can be performed by the touch recognition unit 10 of the device.

또한 디스플레이부(40)은 사용자를 향하고 있는 것이 일반적이며, 사용자는 디바이스의 디스플레이부(40) 반대면을 포함하여 파지한 상태로 사용이 가능할 수 있다. 이때 파지한 손의 검지손가락 또는 중지손가락 등을 자유로이 움직일 수 있도록 파지가 가능할 수 있다.  In addition, the display unit 40 is generally oriented toward the user, and the user may be able to use the device including the opposite side of the display unit 40 while holding the device. At this time, it is possible to grasp the index finger or the stop finger of the gripped hand to freely move.

이러한 경우, 도시되지는 않았으나 전술한 터치인식부(10)는 디바이스의 디스플레이부(40)가 위치한 반대쪽 면 일부 또는 전부에 위치하여 사용자의 터치를 인식하고, 디스플레이부(40)에 표현된 메뉴 등의 선택이 이루어지도록 구비될 수 있다. 이러한 구성을 통하여, 보다 빠른 메뉴생성 및 입력이 가능할 수 있고, 사용자의 손가락 등에 의해 디스플레이부(40)가 가려지게 되는 것을 방지할 수 있다.  In this case, although not shown, the above-described touch recognition unit 10 is located on a part or all of the opposite side of the display unit 40 where the device is located, recognizes the touch of the user, May be provided. With this configuration, it is possible to create and input a menu more quickly, and prevent the display unit 40 from being hidden by the user's finger or the like.

또한 디스플레이부(40)상의 메뉴버튼이 터치된 상태에서 사용자에 의해 메뉴버튼이 소정의 방향으로 스와이프 됨을 인식하는 경우와 같이, 디스플레이부(40) 표면을 직접 조작하는 방식은 디바이스의 디스플레이부(40) 반대쪽 일부 또는 전부에 형성된 면에 위치한 터치인식부(10)가 사용자에 의해 스와이프 됨을 인식하는 경우로도 변경되어 적용될 수 있다.  A method of directly operating the surface of the display unit 40, such as when the user recognizes that the menu button is swiped in a predetermined direction in a state that the menu button on the display unit 40 is touched, The touch recognition unit 10 located on a surface formed on a part or the entire surface opposite to the touch recognition unit 10 is swiped by the user.

또한 디스플레이부(40)는 메뉴버튼을 터치하고 스와이프 하는 것에 의하여 스와이프 방향에 따라 서브메뉴가 디스플레이될 수 있는데, 이때 스와이프 되는 방향에 따라 서브메뉴가 달리 구성되어 디스플레이될 수 있다. 즉, 디스플레이부(40)는 복수의 방향에 각각 대응되는 서브메뉴는 서로 다르게 구성할 수 있다. 이는 사용자마다 자신이 선호하는 방향이 있음을 고려한 것이다.   In addition, the display unit 40 may display sub-menus according to the swipe direction by touching and swiping the menu buttons, and the sub-menus may be displayed differently according to the direction in which the swipes are swiped. That is, the display unit 40 may have different sub-menus corresponding to a plurality of directions. This considers that each user has his / her preferred direction.

또한 디스플레이부(40)는 메뉴버튼을 터치한 상태에서 디스플레이부(40)의 세로방향을 기준으로 상, 하, 좌 또는 우측 방향으로 스와이프(swipe)를 인식할 수 있다. 디스플레이부(40)는 전술한 4개의 방향 이외에도 각각의 방향을 조합하여 스와이프 되는 방향을 임의로 설정할 수 있다. 디스플레이부(40)가 사용자에 의하여 스와이프 조작이 이루어졌음을 인식하는 경우, 메뉴관리부(20)가 소정의 방향에 매칭되는 서브메뉴를 디스플레이부(40) 상에 디스플레이할 수 있다. 또한 전술한 메뉴버튼은 후술할 스마트 버튼(도 2, 120)에 대응할 수 있다. 전술한 스마트 버튼은 메뉴 버튼으로 대체할 수 있다.  In addition, the display unit 40 can recognize a swipe in the up, down, left, or right direction with respect to the vertical direction of the display unit 40 while the menu button is touched. The display unit 40 can arbitrarily set the directions in which the respective directions are combined and swapped in addition to the above-described four directions. When the display unit 40 recognizes that the swipe operation has been performed by the user, the menu management unit 20 can display the submenu on the display unit 40 that matches the predetermined direction. The menu button described above may correspond to a smart button (FIG. 2, 120) to be described later. The smart button described above can be replaced with a menu button.

도 2는 반응형 유저 인터페이스 제공 장치의 일 실시예를 설명하기 위한 도면이다.  2 is a diagram for explaining an embodiment of a reactive-type user interface providing apparatus.

도 2를 참조하면, 반응형 유저 인터페이스 제공 장치는 터치인식모듈(50), 프로세서모듈(60) 또는 디스플레이모듈(70)을 포함할 수 있다. 터치인식모듈(50)은 도 1에서 전술한 터치인식부(10)와 대응할 수 있다. 또한 프로세서모듈(60)은 도 1에서 터치인식부(10)의 일부 기능과 메뉴관리부(20)와 대응할 수 있다. 디스플레이모듈(70)은 도 1에서 전술한 디스플레이부(40)와 대응할 수 있다.  Referring to FIG. 2, the responsive user interface providing device may include a touch recognition module 50, a processor module 60, or a display module 70. The touch recognition module 50 may correspond to the touch recognition unit 10 described above with reference to FIG. In addition, the processor module 60 may correspond to some functions of the touch recognition unit 10 and the menu management unit 20 in FIG. The display module 70 may correspond to the display unit 40 described above with reference to FIG.

터치인식모듈(50)은 인터페이스 조작에 대한 사용자 입력신호를 수신하여 프로세서 모듈(60)로 전송할 수 있다. 또한 프로세서모듈(60)은 수신한 사용자 입력신호에 대응하는 디스플레이 명령 신호를 디스플레이모듈(70)에 전송할 수 있다. 또한 디스플레이모듈(70)는 수신한 디스플레이 명령 신호에 대응하여 디바이스의 디스플레이상에 기설정된 정보를 가시화할 수 있다. 즉, 디스플레이모듈(70)은 프로세서모듈(60)에 의해 동작하지만 이하에서는 편의상 디스플레이모듈(70)이 직접 동작을 수행하는 방식으로 기술한다.  The touch recognition module 50 may receive a user input signal for interface operation and transmit it to the processor module 60. In addition, the processor module 60 may transmit a display command signal corresponding to the received user input signal to the display module 70. In addition, the display module 70 can visualize predetermined information on the display of the device in response to the received display command signal. That is, the display module 70 operates by the processor module 60, but hereinafter, the display module 70 directly operates in a manner that performs operations directly.

터치인식모듈(50)은 제 1 신호를 수신할 수 있다. 또한 프로세서 모듈(60)은 전술한 제 1 신호에 대응하여 제 2 신호를 송신할 수 있다. 또한 디스플레이모듈(70)은 제 1 영역 및 제 2 영역을 포함할 수 있다. 또한 디스플레이모듈(70)은 전술한 제 2 신호에 대응하는 정보를 전술한 제 2 영역에 가시화할 수 있다. 전술한 제 1 신호가 전술한 제 1 영역에 수신될 경우, 프로세서모듈(60)은 제 1 신호의 입력 방식에 대한 정보를 추출할 수 있다. 또한 프로세서모듈(60)은 추출된 입력 방식에 대한 정보에 대응하여 기설정된 정보를 전술한 제 2 신호로 송신할 수 있다.  The touch recognition module 50 may receive the first signal. The processor module 60 may also transmit the second signal in response to the first signal. The display module 70 may also include a first area and a second area. Also, the display module 70 can visualize the information corresponding to the second signal described above in the second area described above. When the first signal is received in the first area, the processor module 60 can extract information on the input method of the first signal. In addition, the processor module 60 may transmit predetermined information corresponding to the extracted information about the input method as the second signal.

또한 전술한 제 1 신호의 입력 방식에 대한 정보는 위쪽 방향의 스와이프(슬라이드), 아래쪽 방향의 스와이프, 왼쪽 방향의 스와이프, 오른쪽 방향의 스와이프, 또는 대각선 방향의 스와이프를 포함할 수 있다. 또한 전술한 제 1 신호의 입력 방식에 대한 정보는 기설정된 시간 이상의 터치(클릭) 입력, 기설정된 시간 이하의 터치 입력, 또는 기설정된 횟수에 대응하는 터치 입력을 포함할 수 있다.  In addition, the above-described information on the input method of the first signal may include a swipe in an upward direction, a swipe in a downward direction, a swipe in a left direction, a swipe in a right direction, or a swipe in a diagonal direction have. Also, the information on the input method of the first signal may include touch (click) input over a preset time, touch input below a preset time, or touch input corresponding to a predetermined number of times.

또한 전술한 제 2 영역에 가시화되는 정보는 적어도 하나 이상의 서브 메뉴에 대한 정보를 포함할 수 있다. 또한 전술한 제 1 영역에 가시화되는 정보는 스마트 버튼에 대한 정보를 포함할 수 있다. 이에 대한 구체적인 설명은 이하에서 후술한다.  In addition, the information to be visualized in the second area may include information on at least one or more submenus. In addition, the information to be visualized in the first area may include information on the smart button. A detailed description thereof will be described below.

도 3은 제 1 경로에 따른 스마트 버튼 확장의 일 실시예를 설명하기 위한 도면이다.  3 is a view for explaining an embodiment of smart button expansion according to the first path.

도 3을 참조하면, 디스플레이모듈(70)은 디바이스의 디스플레이 상의 우측 하단에 스마트 버튼(320)을 디스플레이할 수 있다. 또한 디스플레이모듈(70) 상의 스마트 버튼을 화살표 방향(310)으로 스와이프 할 경우, 디스플레이모듈(70)은 새로운 메뉴인 서브메뉴들(A(360), B(350), C(340), D(330))을 생성할 수 있다. 이에 대해서 구체적으로 설명하면, 사용자가 디바이스의 디스플레이상에 스마트 버튼(320)을 화살표 방향으로 스와이프 할 경우, 터치인식모듈(50)은 스마트 버튼의 이동방향에 대한 사용자의 입력 신호를 프로세서모듈(60)에 전송할 수 있다.  Referring to FIG. 3, the display module 70 may display the smart button 320 on the lower right side of the display of the device. When the smart button on the display module 70 is swiped in the direction of arrow 310, the display module 70 displays the submenus A (360), B (350), C (340), D (330). More specifically, when the user swipes the smart button 320 on the display of the device in the direction of the arrow, the touch recognition module 50 transmits the input signal of the user for the direction of movement of the smart button to the processor module 60).

또한 프로세서모듈(60)은 스마트 버튼의 이동방향에 대한 사용자의 입력 신호에 대응하여 기설정된 적어도 하나 이상의 서브메뉴에 대한 디스플레이 명령 신호를 디스플레이모듈(70)에게 전송할 수 있다. 전술한 기설정된 적어도 하나 이상의 서브메뉴에 대한 디스플레이 명령 신호는 서브메뉴 개수에 대한 정보, 서브메뉴 디스플레이 방향에 대한 정보, 복수의 서브메뉴들 간의 디스플레이 이격거리에 대한 정보, 또는 스마트 버튼과 복수의 서브메뉴들 사이의 이격거리에 대한 정보를 포함할 수 있다. 전술한 디스플레이 명령 신호에 포함되는 정보는 설계자에 의해서 변경이 가능하므로 전술한 것에 한정되지 않는다.  In addition, the processor module 60 may transmit a display command signal to the display module 70 for at least one or more sub-menus preset corresponding to a user's input signal with respect to the moving direction of the smart button. The display command signal for at least one or more submenus may include information on the number of submenus, information on a submenu display direction, information on a display separation distance between a plurality of submenus, And may include information on the separation distance between the menus. The information included in the above-mentioned display command signal can be changed by a designer, and thus is not limited to the above.

또한 도시하지 않았지만 사용자가 디스플레이모듈(70) 상의 스마트 버튼을 화살표 방향으로 스와이프 할 경우, 디스플레이모듈(70)은 서브메뉴들 대신 기설정된 키보드 또는 자판을 디스플레이할 수 있다. 이때, 각각의 서브 메뉴버튼의 이미지 또는 기능구성 등은 사용자에 의하여 설정된 것이거나, 미리 제공된 것일 수 있다. 또한 스마트 버튼(320)의 스와이프 이동방향에 따라 디스플레이모듈(70)이 가시화 또는 디스플레이하는 것은 전술한 서브 메뉴, 키보드 또는 자판에 한정되지 않으며 설계자의 의도에 따라 변경할 수 있다.  Also, although not shown, when the user swipes the smart button on the display module 70 in the direction of the arrow, the display module 70 may display a preset keyboard or keyboard instead of the submenus. At this time, the image or function configuration of each sub-menu button may be set by the user or provided in advance. Also, the visualization or display of the display module 70 according to the swipe movement direction of the smart button 320 is not limited to the above-described submenu, keyboard, or keyboard, and can be changed according to the intention of the designer.

도 4는 제 2 경로에 따른 스마트 버튼 확장의 일 실시예를 설명하기 위한 도면이다.  4 is a diagram for explaining an embodiment of smart button expansion according to the second path.

도 4를 참조하면, 디스플레이모듈(70)은 디바이스의 디스플레이 상의 우측 하단에 스마트 버튼(410)을 디스플레이 할 수 있다. 또한 디스플레이모듈(70) 상의 스마트 버튼을 대각선 화살표 방향(제 2의 경로, 400)으로 스와이프 할 경우, 디스플레이모듈(70)은 새로운 메뉴인 서브메뉴들(A(430), B(440), C(450), D(460))을 생성할 수 있다. 이에 대해서 구체적으로 설명하면, 사용자가 디바이스의 디스플레이 상에 스마트 버튼(410, 420)을 화살표 방향(400)으로 스와이프 할 경우, 터치인식모듈(50)은 스마트 버튼의 이동방향에 대한 사용자의 입력 신호를 프로세서모듈(60)에 전송할 수 있다.  Referring to FIG. 4, the display module 70 may display the smart button 410 on the lower right of the display of the device. When the smart button on the display module 70 is swiped in the diagonal arrow direction (second path, 400), the display module 70 displays the submenus A (430), B (440) C (450), D (460)). More specifically, when the user swipes the smart buttons 410 and 420 on the display of the device in the direction of the arrow 400, the touch recognition module 50 displays the user's input Signal to the processor module 60.

또한 프로세서모듈(60)은 스마트 버튼의 이동방향에 대한 사용자의 입력 신호에 대응하여 기설정된 적어도 하나 이상의 서브메뉴에 대한 디스플레이 명령 신호를 디스플레이모듈(70)에게 전송할 수 있다. 전술한 기설정된 적어도 하나 이상의 서브메뉴에 대한 디스플레이 명령 신호는 서브메뉴 개수에 대한 정보, 서브메뉴 디스플레이 방향에 대한 정보, 복수의 서브메뉴들 간의 디스플레이 이격거리에 대한 정보, 또는 스마트 버튼과 복수의 서브메뉴들 사이의 이격거리에 대한 정보를 포함할 수 있다. 전술한 디스플레이 명령 신호에 포함되는 정보는 설계자에 의해서 변경이 가능하므로 전술한 것에 한정되지 않는다.   In addition, the processor module 60 may transmit a display command signal to the display module 70 for at least one or more sub-menus preset corresponding to a user's input signal with respect to the moving direction of the smart button. The display command signal for at least one or more submenus may include information on the number of submenus, information on a submenu display direction, information on a display separation distance between a plurality of submenus, And may include information on the separation distance between the menus. The information included in the above-mentioned display command signal can be changed by a designer, and thus is not limited to the above.

또한 도시하지 않았지만 사용자가 디스플레이모듈(70) 상의 스마트 버튼을 전술한 대각선 화살표 방향으로 스와이프 할 경우, 디스플레이모듈(70)은 서브메뉴들 대신 기설정된 키보드 또는 자판을 디스플레이 할 수 있다. 이때, 각각의 서브 메뉴버튼의 이미지 또는 기능구성 등은 사용자에 의하여 설정된 것이거나, 미리 제공된 것일 수 있다. 또한 스마트 버튼(420)의 스와이프 이동방향에 따라 디스플레이모듈(70)이 가시화 또는 디스플레이 하는 것은 전술한 서브 메뉴, 키보드 또는 자판에 한정되지 않으며 설계자의 의도에 따라 변경할 수 있다.Also, although not shown, when the user swipes the smart button on the display module 70 in the diagonal arrow direction described above, the display module 70 may display a predetermined keyboard or keyboard instead of the submenus. At this time, the image or function configuration of each sub-menu button may be set by the user or provided in advance. Also, the visualization or display of the display module 70 in accordance with the swipe movement direction of the smart button 420 is not limited to the above-described submenu, keyboard, or keyboard, and can be changed according to the intention of the designer.

도 5는 본 발명에 따른 스마트 버튼 이동의 일 실시예를 설명하기 위한 도면이다.  5 is a view for explaining an embodiment of smart button movement according to the present invention.

도 5를 참조하면, 디스플레이모듈(70)은 디바이스의 디스플레이상의 우측 하단에 스마트 버튼(200, 220)을 디스플레이할 수 있다. 또한 디스플레이모듈(70)은 전술한 서브 메뉴 확장을 위한 스마트 버튼(220)의 이동 경로들(230, 240)을 가시화할 수 있다.  Referring to FIG. 5, the display module 70 may display the smart buttons 200 and 220 on the lower right side of the display of the device. In addition, the display module 70 may visualize the movement paths 230 and 240 of the smart button 220 for the sub-menu expansion described above.

전술한 디스플레이모듈(70)은 전술한 스마트 버튼(220)의 이동 경로들을 디스플레이모듈(70)상에 사용자 설정에 따라 음각형태 또는 양각형태로 가시화할 수 있다. 또한 디스플레이모듈(70)은 전술한 스마트 버튼(220)의 이동 경로들을 사용자 설정에 따라 디바이스의 디스플레이상에 가시화하지 않을 수 있다.  The display module 70 may visualize the movement paths of the smart button 220 on the display module 70 in an engraved or embossed form according to a user's setting. In addition, the display module 70 may not visualize the movement paths of the smart button 220 described above on the display of the device according to user settings.

또한 터치인식모듈(50)이 스마트 버튼(200)에 대해 사용자 입력 신호를 기설정된 시간동안 연속적으로 입력을 받는 경우(사용자가 스마트 버튼(200)을 기설정된 시간동안 누른 후 누른 상태에서 원하는 방향(210) 또는 원하는 위치(220)로 이동하는 경우), 터치인식모듈(50)은 스마트버튼 이동에 대한 입력신호를 프로세서모듈(60)에 송신할 수 있다.  Also, when the touch recognition module 50 continuously receives the user input signal for the preset time for the smart button 200 (when the user presses the smart button 200 for a predetermined time, 210 or desired location 220), the touch recognition module 50 may send an input signal to the processor module 60 for smart button movement.

또한 프로세서모듈(60)은 수신한 스마트버튼 이동에 대한 입력신호에 대응하여 디바이스의 디스플레이상의 우측 하단에 있는 스마트 버튼(200)을 디바이스의 디스플레이상 중앙으로 이동시킬 수 있다. 또한 디스플레이모듈(70)은 프로세서모듈(60)에 의한 전술한 스마트 버튼의 이동을 가시화할 수 있다.   In addition, the processor module 60 may move the smart button 200 on the lower right of the display of the device to the center of the display of the device in response to the received input signal for the smart button movement. In addition, the display module 70 can visualize the movement of the smart button described above by the processor module 60.

또한 디바이스의 디스플레이상에 전술한 서브 메뉴들이 가시화 또는 활성화되어 있는 경우, 터치인식모듈(50)이 스마트 버튼에 대해 사용자 입력 신호를 기설정된 시간동안 연속적으로 입력을 받는 경우(사용자가 스마트 버튼(200)을 기설정된 시간동안 누른 후 누른 상태에서 원하는 방향(210) 또는 원하는 위치(220)로 이동하는 경우), 터치인식모듈(50)은 스마트 버튼에 대한 제 1 이동입력신호 또는 서브 메뉴들에 대한 제 2 이동입력신호를 프로세서모듈(60)에 송신할 수 있다.  Also, when the above-described submenus are displayed on the display of the device or when the touch recognition module 50 receives the user input signal continuously for a preset time period (when the user presses the smart button 200 ) Is pressed for a predetermined period of time and then moved to the desired direction 210 or the desired position 220), the touch recognition module 50 generates a first movement input signal for the smart button, And transmit the second movement input signal to the processor module 60.

또한 프로세서모듈(60)은 수신한 제 1 이동입력신호에 대응하여 스마트 버튼만 이동 또는 제 1 및 제 2 이동입력신호에 대응하여 스마트 버튼과 서브 메뉴들을 동시에 이동을 수행할 수 있다.  In addition, the processor module 60 may move the smart button only or the submenus simultaneously in response to the received first movement input signal in response to the first or second movement input signal.

도 6은 본 발명에 따른 디스플레이모듈의 일 실시예를 설명하기 위한 도면이다.  6 is a view for explaining an embodiment of a display module according to the present invention.

도 6을 참조하면, 디스플레이모듈(70)은 제 1 영역(110) 및 제 2 영역(100)을 포함할 수 있다. 또한 전술한 제 1 영역은 스마트 버튼(120, 170)을 포함할 수 있다. 전술한 서브메뉴들은 전술한 제 2 영역(100)에 가시화될 수 있다.  Referring to FIG. 6, the display module 70 may include a first region 110 and a second region 100. Also, the first area may include smart buttons 120 and 170. The above-described submenus can be visualized in the second area 100 described above.

또한 디스플레이모듈(70)는 제 1 영역(110)에 입력되는 사용자의 입력 신호와 제 2 영역(100)에 입력되는 사용자 입력 신호에 대응하여 각기 달리 디스플레이할 수 있다.  Also, the display module 70 may display differently according to a user input signal input to the first area 110 and a user input signal input to the second area 100, respectively.

또한 디스플레이모듈(70)은 전술한 서브 메뉴 확장을 위한 스마트 버튼(120, 170)의 이동 경로들(130, 140, 150, 160)을 가시화할 수 있다. 또한 디스플레이모듈(70)은 전술한 바와 같이 스마트 버튼(120, 170)의 이동 경로들을 디스플레이모듈(70)상에 사용자 설정에 따라 양각(또는 음각)형태로 가시화하거나 사용자 설정에 따라 디바이스(180)의 디스플레이상에 가시화하지 않을 수 있다.  In addition, the display module 70 may visualize the movement paths 130, 140, 150, and 160 of the smart buttons 120 and 170 for extending the submenu described above. The display module 70 may display the movement paths of the smart buttons 120 and 170 on the display module 70 in an embossed (or embossed) form according to the user's setting, It may not be visible on the display of FIG.

또한 터치인식모듈(50)이 스마트 버튼(120, 170)의 이동 경로들(130, 140, 150, 160)에 대응하여 사용자 입력신호를 수신할 경우에만, 프로세서모듈(60)은 서브 메뉴 확장에 대한 명령신호를 디스플레이모듈(70)로 전송할 수 있다.  Only when the touch recognition module 50 receives a user input signal corresponding to the movement paths 130, 140, 150, and 160 of the smart buttons 120 and 170, To the display module (70).

또한 디스플레이모듈(70)은 전술한 스마트 버튼 및 서브메뉴들 외에 제 1 영역 및 제 2 영역에 게임정보를 포함한 기설정된 정보를 가시화할 수 있다. 하지만 전술한 게임정보는 설계자의 의도에 따라 변경이 가능하므로 전술한 것에 한정하지 않는다.  In addition, the display module 70 can visualize predetermined information including game information in the first area and the second area in addition to the smart buttons and submenus. However, the above-described game information can be changed according to the intention of the designer, and thus is not limited to the above.

또한 디스플레이모듈(70)은 복수의 레이어를 포함하고 제 1 레이어에는 전술한 게임정보와 같은 기설정된 정보, 제 2 레이어에는 서브메뉴에 대한 정보, 또는 제 3 레이어에는 스마트 버튼에 대한 정보를 가시화할 수 있다. 또한 전술한 제 3 레이어는 최상위 레이어로 디스플레이모듈(70)은 제 3 레이어에 가시화된 스마트 버튼에 대한 정보가 제 1 레이어 및 제 2 레이어에 의해 오버랩되지 않도록 가시화할 수 있다. 또한 전술한 제 2 레이어는 차상위 레이어로 디스플레이모듈(70)은 제 2 레이어에 가시화된 서브메뉴에 대한 정보가 전술한 제 1 레이어 의해 오버랩되지 않도록 가시화할 수 있다.  In addition, the display module 70 includes a plurality of layers, and visually displays information on the first layer such as the game information, information on the second layer on the submenu, or information on the smart button on the third layer . In addition, the third layer is the uppermost layer, and the display module 70 can visualize the information about the smart button visible on the third layer so that the information on the smart button is not overlapped by the first layer and the second layer. In addition, the second layer is the second layer, and the display module 70 can visualize the information about the sub-menu that is visible on the second layer to be overlapped by the first layer.

또한 터치인식모듈이 사용자 입력 신호를 기설정된 시간동안 인식하지 못하는 경우, 디스플레이모듈은 기설정된 정보를 디스플레이모듈 상의 기설정된 일부 영역 또는 전체영역에 가시화할 수 있다.  In addition, when the touch recognition module can not recognize the user input signal for a predetermined time, the display module can visualize predetermined information in a predetermined or entire area on the display module.

구체적으로 디바이스 디스플레이상에 게임을 가시화 상태인 경우, 터치인식모듈이 사용자 입력 신호를 기설정된 시간동안 인식하지 못하는 경우 디스플레이모듈은 기설정된 정보를 디바이스 디스플레이상에 일부 영역 또는 전체영역에 가시화할 수 있다.  Specifically, when the game is visible on the device display, if the touch recognition module can not recognize the user input signal for a predetermined time, the display module may visualize the predetermined information on the device display in some or all areas .

또한 전술한 기설정된 정보가 출력되는 상황에서, 터치인식모듈이 사용자 입력 신호를 인식할 경우, 디스플레이모듈은 전술한 기설정된 정보의 가시화를 중단할 수 있다. 전술한 기설정된 정보는 복수 개일 수 있으며, 전술한 복수의 정보가 순차적으로 나타나고, 순차적으로 사라질 수도 있다.  When the touch recognition module recognizes the user input signal in the situation where the predetermined information is output, the display module may stop visualization of the predetermined information. The above-described predetermined information may be plural, and the above-described plurality of pieces of information may sequentially appear and disappear sequentially.

또한 전술한 기설정된 정보는 광고, 게임 내 소식, 다른 유저의 활동 등 다양한 정보를 포함할 수 있다. 하지만 설계자의 의도에 따라 변경이 가능하므로 전술한 것에 한정되지 않는다.  The predetermined information may include various information such as an advertisement, news in a game, activities of other users, and the like. However, the present invention is not limited to the above, as it is possible to change it according to the intention of the designer.

또한 전술한 바와 달리 사용자 입력 신호는 터치 입력신호 외에 물리적인 버튼 입력신호, 기울임 입력신호, 위치이동 입력신호 중 적어도 하나 이상을 포함할 수 있다. 구체적으로, 기설정된 시간동안 기울임 입력신호가 입력되지 않을 경우 디스플레이모듈은 전술한 바와 같이 기설정된 정보를 가시화할 수 있다.  Also, unlike the above, the user input signal may include at least one of a physical button input signal, a tilt input signal, and a position movement input signal in addition to the touch input signal. Specifically, if an iterative input signal is not input for a preset time, the display module can visualize predetermined information as described above.

또한 터치인식모듈이 기설정된 사용자 입력방식에 대한 신호를 수신할 경우, 디스플레이모듈은 전술한 사용자 입력방식에 대한 신호에 대응하는 정보를 가시화할 수 있다.  Also, when the touch recognition module receives a signal for a predetermined user input method, the display module may visualize information corresponding to the signal for the user input method.

또한 전술한 제 2 영역은 제 A 영역, 전술한 제 A 영역을 기준으로 디바이스 의 디스플레이 우측 하단부에 제 B 영역, 전술한 제 A 영역을 기준으로 디바이스 의 디스플레이 좌측 하단부에 제 C 영역을 포함할 수 있다. 또한 전술한 제 A 영역, 제 B 영역 및 제 C 영역은 디바이스 디스플레이상에 모두 구체적으로 가시화될 수 없어 기설정된 크기로 가시화되어 서로 다른 위치일 수 있다. 또한 전술한 제 A 영역, 제 B 영역 및 제 C 영역 중 어느 하나의 영역 또는 특정 2개의 영역만 디바이스 디스플레이상에 가시화될 수 있다.  The second region may include a region A, a region B on the lower right side of the display right side of the device with reference to the region A described above, and a region C on the lower left side of the display left side of the device with reference to the above- have. In addition, the above-mentioned A region, B region and C region can not be specifically visualized on the device display, and they can be visualized in a predetermined size and different positions. In addition, only one of the above-described regions A, B, and C or specific two regions can be visualized on the device display.

또한 디스플레이모듈이 전술한 제 A 영역만을 가시화하고 있거나 전술한 제 A 영역을 전술한 제 2 영역 중앙에 가시화하고 동시에 전술한 제 B 영역 및 제 C 영역을 기설정된 크기로 기설정된 위치에 가시화하고 있는 경우, 디바이스 디스플레이 상의 우측 하단부를 두 번 터치하는 것에 의하여 디스플레이모듈은 전술한 제 B 영역에 대한 정보를 전체화면으로 가시화 또는 기설정된 크기로 확대하여 가시화 중 어느 하나의 방식으로 가시화할 수 있다.  In addition, the display module visualizes only the above-described area A or visualizes the above-mentioned area A at the center of the above-mentioned second area, and at the same time, visualizes the above-mentioned area B and area C at predetermined positions in predetermined sizes , The display module can visually display the information on the B area by either touching the lower right portion of the device display twice or by visually enlarging the information on the B area to a full screen or a predetermined size.

또한 디스플레이모듈이 전술한 제 A 영역만을 가시화하고 있거나 전술한 제 A 영역을 전술한 제 2 영역 중앙에 가시화하고 동시에 전술한 제 B 영역 및 제 C 영역을 기설정된 크기로 기설정된 위치에 가시화하고 있는 경우, 디스플레이상의 좌측 하단부를 길게 터치하는 것에 의하여 디스플레이모듈은 전술한 제 C 영역에 대한 정보를 전체화면으로 가시화 또는 기설정된 크기로 확대하여 가시화 중 어느 하나의 방식으로 가시화할 수 있다.  In addition, the display module visualizes only the above-described area A or visualizes the above-mentioned area A at the center of the above-mentioned second area, and at the same time, visualizes the above-mentioned area B and area C at predetermined positions in predetermined sizes , The display module can visually display the information on the C region on the entire screen or enlarge it to a predetermined size by visualizing by touching the lower left portion of the display on the left side.

또한 전술한 바와 달리 기설정된 사용자 입력방식에 대한 신호가 자이로센서(디바이스가 3차원 공간상에서 기울어짐을 인식)에 의한 경우, 프로세서모듈이 틸팅(자이로센서에 의하여 디바이스의 기울어짐)의 방향을 인식하면, 디스플레이모듈은 제 A 영역을 기준으로 전술한 틸팅의 방향에 대응하는 제 B 영역에 대한 정보 또는 제 C 영역에 대한 정보를 전체화면으로 가시화 또는 기설정된 크기로 확대하여 가시화 중 어느 하나의 방식으로 가시화할 수 있다.  Also, in the case where the gyro sensor (recognizing that the device is inclined in the three-dimensional space)) recognizes the direction of the tilting (the inclination of the device by the gyro sensor) , The display module displays the information on the B region or the information on the C region corresponding to the tilting direction described above with reference to the A region as a full screen or a predetermined size Can be visualized.

또한 전술한 바와 달리 기설정된 사용자 입력방식에 대한 신호가 디바이스의 탭핑에 의한 경우, 프로세서모듈이 전술한 탭핑(tapping)의 횟수를 인식하고, 디스플레이모듈은 인식한 탭핑의 횟수에 대응하여 제 B 영역에 대한 정보 또는 제 C 영역에 대한 정보를 전체화면으로 가시화 또는 기설정된 크기로 확대하여 가시화 중 어느 하나의 방식으로 가시화할 수 있다.  In addition, in the case where the signal for the predetermined user input method is tapped by the device, the processor module recognizes the number of times of tapping described above, and in response to the number of times of tapping recognized, Or the information on the C region can be visualized in either a full screen or a predetermined size.

전술한 제 A 영역, 제 B 영역 및 제 C 영역에 대한 기설정된 크기, 가시화 방식, 기설정된 사용자 입력방식은 설계자에 의도에 따라 설계변경이 가능하므로 전술한 것에 한정하지 않는다.  The predetermined size, the visualization method, and the predetermined user input method for the A region, the B region, and the C region are not limited to those described above because the design can be changed according to the designer's intention.

도 7은 본 발명에 따른 서브메뉴 편집의 일 실시예를 설명하기 위한 도면이다.  7 is a view for explaining an embodiment of sub-menu editing according to the present invention.

도 7을 참조하면, 도 7은 전술한 도 4와 달리 제 2 경로에 따른 스마트 버튼 확장의 다른 실시예를 설명한다. 이를 위해서 본 발명인 반응형 유저 인터페이스 제공 장치는 도 2에서 도시하지 않은 메뉴편집모듈을 더 포함할 수 있다.  Referring to FIG. 7, FIG. 7 illustrates another embodiment of smart button extension according to the second path, unlike FIG. 4 described above. To this end, the apparatus for providing a responsive user interface according to the present invention may further include a menu editing module not shown in FIG.

사용자가 디바이스의 디스플레이상에 스마트 버튼(500, 520)을 화살표 방향(510)으로 스와이프 할 경우, 터치인식모듈(50)은 스마트 버튼의 이동방향에 대한 사용자의 입력 신호를 프로세서모듈(60)에 전송할 수 있다. 또한 프로세서모듈(60)은 메뉴편집모듈에게 전술한 제 1 및 제 2 거리정보를 요청할 수 있다. 또한 메뉴편집모듈은 스마트 버튼의 이동방향에 대한 사용자의 입력 신호에 대응하여 전술한 제 1 거리정보 및 제 2 거리정보를 프로세서모듈(60)로 전송할 수 있다.  When the user swipes the smart buttons 500 and 520 on the display of the device in the direction of the arrow 510, the touch recognition module 50 transmits the user's input signal for the direction of movement of the smart button to the processor module 60, Lt; / RTI > The processor module 60 may also request the first and second distance information described above to the menu editing module. In addition, the menu editing module may transmit the first distance information and the second distance information to the processor module 60 in response to a user's input signal with respect to the moving direction of the smart button.

또한 프로세서모듈(60)은 수신한 제 1 거리정보 및 제 2 거리정보에 기반하여 적어도 하나 이상의 서브메뉴에 대한 디스플레이 명령 신호를 디스플레이모듈(70)에 전송할 수 있다. 또한 디스플레이모듈(70)은 전술한 디스플레이 명령 신호에 대응하여 적어도 하나 이상의 서브메뉴들(A(560), B(550), C(540), D(530))을 가시화할 수 있다.  In addition, the processor module 60 may transmit a display command signal for at least one or more submenus to the display module 70 based on the received first distance information and second distance information. In addition, the display module 70 may visualize at least one or more submenus A (560), B (550), C (540), and D (530) in response to the display command signal.

이에 대해서 구체적으로 설명하면 메뉴편집모듈은 스마트 버튼(520)과 서브 메뉴들 간의 제 1 거리정보(580) 또는 서브 메뉴들 간의 제 2 거리정보를(570) 설정할 수 있다. 또한 메뉴편집모듈은 스마트 버튼(520)과 서브 메뉴들이 전술한 제 1 거리정보(580) 및 제 2 거리정보를 사용자가 직접 입력한 정보를 기반으로 설정할 수 있다. 또한 메뉴편집모듈은 사용자가 디바이스의 디스플레이상에 연속적인 터치 입력(스와이프)에 의한 방식 또는 수치 정보를 포함한 개별 값 입력에 의한 방식으로 전술한 제 1 거리정보(580) 및 제 2 거리정보를 설정할 수 있다. 하지면 입력 방식은 설계자에 의도에 따라 변경이 가능하므로 전술한 것에 한정하지 않는다.  In detail, the menu editing module may set the first distance information 580 between the smart button 520 and the submenus or the second distance information between the submenus 570. In addition, the menu editing module can set the smart button 520 and submenus based on the first distance information 580 and the second distance information directly input by the user. The menu editing module also allows the user to input the first distance information 580 and the second distance information in the manner of continuous touch input (swipe) on the display of the device or by inputting individual values including numerical information Can be set. The input method is not limited to the above, since the input method can be changed according to the intention of the designer.

또한 메뉴편집모듈은 스마트 버튼과 개별 서브 메뉴들 간의 복수의 이격거리정보(제 1 거리정보)를 각각 설정할 수 있다. 또한 메뉴편집모듈은 스마트 버튼과 개별 서브 메뉴들 간의 단일 이격거리정보(제 1 거리정보)를 설정할 수 있다. 후자의 경우 한 예로 스마트 버튼과 개별 서브메뉴들은 원호 또는 부채꼴의 형태로 가시화될 수 있다.  In addition, the menu editing module can set a plurality of distance information (first distance information) between the smart button and the individual submenus. In addition, the menu editing module can set the single distance information (first distance information) between the smart button and the individual submenus. In the latter case, the smart button and individual submenus can be visualized in the form of an arc or sector.

또한 메뉴편집모듈은 개별 서브 메뉴들 간의 복수의 이격거리정보(제 2 거리정보)를 각각 설정할 수 있다. 또한 메뉴편집모듈은 개별 서브 메뉴들 간의 단일 이격거리정보(제 2 거리정보)를 설정할 수 있다.   Further, the menu editing module can set a plurality of distance information (second distance information) between the individual submenus. In addition, the menu editing module can set the single distance information (second distance information) between the individual submenus.

또한 스마트 버튼(520)과 서브 메뉴들이 가시화된 상태에서 터치인식모듈(50)이 스마트 버튼 또는 서브 메뉴들에 대해 기설정된 시간동안 입력신호를 인식할 경우, 프로세서모듈(60)은 스마트 버튼 또는 서브 메뉴들을 편집상태로 활성 시킬 수 있다.  When the smart button 520 and the submenus are visualized and the touch recognition module 50 recognizes the input signal for a predetermined time with respect to the smart button or the submenus, You can activate menus in edit mode.

또한 디바이스의 디스플레이상에서 사용자의 연속적인 입력신호에 대응하여 편집상태로 활성화된 스마트 버튼 또는 서브 메뉴들에 대한 이동이 있을 경우, 메뉴편집모듈은 수정된 제 1 거리정보, 수정된 제 2 거리정보, 스마트 버튼의 좌표정보, 또는 개별 서브메뉴들의 좌표정보를 저장할 수 있다. 참고로 전술한 메뉴편집모듈은 디스플레이모듈 상에 스마트 버튼 및 서브 메뉴들의 좌표정보에 기반하여 전술한 제 1 거리정보 제 2 거리정보를 산출할 수 있다.  Also, when there is a move to the smart button or submenus activated in the edit state corresponding to the continuous input signal of the user on the display of the device, the menu edit module displays the modified first distance information, the modified second distance information, The coordinate information of the smart button, or the coordinate information of the individual submenus. The menu editing module may calculate the first distance information second distance information based on the coordinate information of the smart buttons and the submenus on the display module.

또한 전술한 바와 같이 메뉴편집모듈이 스마트 버튼과 개별 서브 메뉴들 간의 복수의 이격거리정보(제 1 거리정보) 또는 단일 이격거리정보(제 1 거리정보)를 각각 설정할 경우, 프로세서모듈은 스마트 버튼의 이동에 대응하여 전술한 복수의 이격거리정보 또는 단일 이격거리정보에 기반하여 개별 서브메뉴들을 자동으로 이동시킬 수 있다. 또한 디스플레이모듈은 전술한 스마트 버튼 및 개별 서브메뉴들의 이동을 가시화할 수 있다.  In addition, when the menu editing module sets a plurality of distance information (first distance information) or single distance information (first distance information) between the smart button and the individual submenus, It is possible to automatically move the individual submenus based on the plurality of spacing distance information or the single spacing distance information described above in correspondence with the movement. The display module may also visualize the movement of the smart buttons and individual submenus described above.

또한 전술한 바와 같이 메뉴편집모듈이 개별 서브 메뉴들 간의 복수의 이격거리정보(제 2 거리정보)를 각각 설정할 경우, 프로세서모듈은 개별 서브 메뉴들 중 제 1 서비메뉴 이동에 대응하여 전술한 개별 서브 메뉴들 간의 복수의 이격거리정보에 기반하여 개별 서브메뉴들을 자동으로 이동시킬 수 있다. 또한 디스플레이모듈은 전술한 개별 서브메뉴들의 이동을 가시화할 수 있다.  In addition, when the menu editing module sets a plurality of distance information (second distance information) between the individual submenus as described above, the processor module controls the individual submenu It is possible to automatically move the individual submenus based on the plurality of distance information between the menus. The display module can also visualize the movement of the individual submenus described above.

도 8은 본 발명에 따른 서브메뉴들 트리구조의 일 실시예를 설명하기 위한 도면이다.  8 is a diagram for explaining an embodiment of a submenu tree structure according to the present invention.

도 8을 참조하면, 터치인식모듈이 스마트 버튼(600)에 대해 클릭 입력 신호(640)를 인식할 경우 디스플레이모듈은 도 6에서 전술한 제 2 영역에 메신저(Messenger) 정보, 채팅(Chatting) 정보, 화폐(Currency) 정보, 또는 설정(Setting) 정보와 관련된 서브메뉴들을 가시화할 수 있다. 또한 전술한 서브메뉴들은 개별 서브메뉴를 더 포함할 수 있다. 구체적으로 터치인식모듈이 화폐정보와 관련된 서브메뉴에 대해 클릭 입력 신호를 인식할 경우 디스플레이모듈은 은행정보와 관련된 서브메뉴(630)를 도 6에서 전술한 제 2 영역에 가시화할 수 있다.  Referring to FIG. 8, when the touch recognition module recognizes the click input signal 640 with respect to the smart button 600, the display module displays messenger information, chatting information , Currency information, or setting information can be visualized. In addition, the above-described submenus may further include individual submenus. Specifically, when the touch recognition module recognizes a click input signal with respect to a sub menu related to the currency information, the display module can visualize the sub menu 630 related to the bank information in the second region described above with reference to FIG.

또한 터치인식모듈이 스마트 버튼(600)에 대해 아래 방향의 스와이프 입력 신호(slide down, 650)를 인식할 경우 디스플레이모듈은 도 6에서 전술한 제 2 영역에 채팅 로그 정보(Chatting log)와 관련된 서브메뉴를 가시화할 수 있다.  In addition, when the touch recognition module recognizes the downward swipe input signal (slide down) 650 to the smart button 600, the display module displays the chat log information (Chatting log) in the second area The submenu can be visualized.

또한 터치인식모듈이 스마트 버튼(600)에 대해 위쪽 방향의 스와이프 입력 신호(slide up, 660)를 인식할 경우 디스플레이모듈은 도 6에서 전술한 제 2 영역에 IME와 관련된 서브메뉴를 가시화할 수 있다.  In addition, when the touch recognition module recognizes the swipe input signal (slide up) 660 in the upward direction with respect to the smart button 600, the display module can visualize the submenu related to the IME in the second region described in FIG. 6 have.

또한 터치인식모듈이 스마트 버튼(600)에 대해 왼쪽 방향의 스와이프 입력 신호(slide left, 670)를 인식할 경우 디스플레이모듈은 도 6에서 전술한 제 2 영역에 온라인 친구들 정보(online friends)와 관련된 서브메뉴를 가시화할 수 있다.  In addition, when the touch recognition module recognizes the left-side swipe input signal (slide left) 670 with respect to the smart button 600, the display module displays the swipe left input signal The submenu can be visualized.

또한 터치인식모듈이 스마트 버튼(600)에 대해 기설정된 시간 이상의 입력 신호(touch & hold, 680)를 인식할 경우 디스플레이모듈은 도 6에서 전술한 제 2 영역에 타운정보 또는 화폐정보와 관련된 서브메뉴를 가시화할 수 있다. In addition, when the touch recognition module recognizes an input signal (touch & hold, 680) of a predetermined time or longer with respect to the smart button 600, the display module displays a sub menu Can be visualized.

또한 터치인식모듈이 스마트 버튼(600)에 대해 기설정된 시간 이상의 입력 신호를 인식하지 못할 경우, 디스플레이모듈은 도 6에서 전술한 제 2 영역을 시너리 모드로 전환할 수 있다.  In addition, if the touch recognition module can not recognize the input signal of the smart button 600 for a predetermined time or longer, the display module can switch the second region described above in FIG. 6 to the screen mode.

전술한 터치인식모듈이 인식하는 입력신호에 대응하여 디스플레이모듈이 가시화하는 정보는 설계자에 의도에 따라 변경이 가능하므로 전술한 것이 한정하지 않는다. 이하 도 9 내지 도 12에서는 기설정된 서브메뉴 트리에 대응하여 디스플레이모듈이 가시화하는 정보들을 설명한다.  The information that the display module visualizes in response to the input signal recognized by the touch recognition module may be changed according to the intention of the designer, so the above description is not limited. 9 to 12, information to be displayed by the display module corresponding to the predetermined submenu tree will be described.

도 9는 본 발명에 따른 서브메뉴들 트리구조에 대응하는 제 1 가시화의 일 실시예를 설명하기 위한 도면이다.  9 is a view for explaining an embodiment of a first visualization corresponding to a sub-menus tree structure according to the present invention.

도 9를 참조하면, 도 6 및 도 8에서 전술한 바와 같이 터치인식모듈이 제 1 영역(720)에 포함된 스마트 버튼(700)에 대한 클릭 입력 신호를 인식할 경우 디스플레이모듈은 도 6에서 전술한 제 2 영역(760) 좌측 하단(710)에 마이메뉴 정보, 친구목록 정보, 메신저 정보, 채팅 정보, 뉴스북 정보, 또는 설정 정보와 관련된 서브메뉴들, 좌측 상단(740)에 레벨 정보와 관련된 서브메뉴들, 우측 상단(730)에 화폐 정보와 관련된 서브메뉴들을 각각 가시화할 수 있다. 또한 디스플레이모듈은 도 6에서 전술한 제 2 영역(760) 중앙(750)에 게임 플레이 정보를 가시화할 수 있다.  Referring to FIG. 9, when the touch recognition module recognizes a click input signal for the smart button 700 included in the first area 720 as described above with reference to FIGS. 6 and 8, Submenus related to my menu information, friend list information, messenger information, chat information, news book information, or setting information are displayed in the lower left portion 710 of the second region 760, Submenus, and submenus associated with the currency information in the upper right 730, respectively. In addition, the display module may visualize game play information in the center 750 of the second area 760 described above with reference to FIG.

도 10은 본 발명에 따른 서브메뉴들 트리구조에 대응하는 제 2 가시화의 일 실시예를 설명하기 위한 도면이다.  FIG. 10 is a view for explaining an embodiment of a second visualization corresponding to a sub-menus tree structure according to the present invention.

도 10을 참조하면, 도 8에서 전술한 바와 같이 터치인식모듈이 스마트 버튼(1200)에 대한 클릭 입력 신호를 인식할 경우 디스플레이모듈은 도 6에서 전술한 제 2 영역(1100) 좌측 하단에 마이메뉴 정보, 친구목록 정보, 메신저 정보, 채팅 정보, 뉴스북 정보, 또는 설정 정보와 관련된 서브메뉴들을 가시화할 수 있다. 이후 연속적으로 터치인식모듈이 스마트 버튼(1200)에 대한 기설정된 시간 이상의 클릭 입력 신호를 인식할 경우 디스플레이모듈은 도 6에서 전술한 제 2 영역을 분할하여 분할된 제 2 영역(1000)에 친구의 타운 정보를 가시화할 수 있다.  Referring to FIG. 10, when the touch recognition module recognizes a click input signal to the smart button 1200 as described above with reference to FIG. 8, the display module displays the My Menu Information about the user, friend list information, instant messenger information, chat information, news book information, or setting information. When the touch recognition module continuously recognizes a click input signal of a predetermined time or longer with respect to the smart button 1200, the display module divides the second area described above in FIG. 6, Town information can be visualized.

도 11은 본 발명에 따른 서브메뉴들 트리구조에 대응하는 제 3 가시화의 일 실시예를 설명하기 위한 도면이다.  11 is a view for explaining an embodiment of a third visualization corresponding to a sub-menus tree structure according to the present invention.

도 11을 참조하면, 터치인식모듈이 스마트 버튼에 대해 아래 방향의 스와이프 입력 신호(slide down, 810)를 인식할 경우 디스플레이모듈은 도 6에서 전술한 제 2 영역(850) 좌측하단에 기설정된 정보(A, B C)를 가시화할 수 있다.  11, when the touch recognition module recognizes a downward swipe input signal (slide down) 810 with respect to the smart button, the display module is set in the lower left portion of the second region 850 The information A and BC can be visualized.

또한 터치인식모듈이 스마트 버튼에 대해 위쪽 방향의 스와이프 입력 신호(slide up, 800)를 인식할 경우 디스플레이모듈은 도 6에서 전술한 제 2 영역(820)에 채팅 키보드 정보(830)와 관련된 서브메뉴를 가시화할 수 있다. 전술한 키보드 정보에 관련된 서브메뉴가 활성화된 상태에서, 터치인식모듈이 스마트 버튼에 대해 아래 방향의 스와이프 입력 신호(slide down, 840)를 인식할 경우 디스플레이모듈은 도 6에서 전술한 제 2 영역(860)에 사용자가 기설정한 메인모드에 관한 정보를 가시화할 수 있다. 즉, 프로세서모듈은 전술한 스마트 버튼에 대해 아래 방향의 스와이프 입력 신호(slide down, 810)에 대응하는 기설정된 정보(A, B C) 가시화보다 사용자가 기설정한 메인모드에 관한 정보 가시화를 우선할 수 있다.   In addition, when the touch recognition module recognizes a swipe input signal (slide up) 800 in the upward direction with respect to the smart button, the display module displays the chat key information 830 related to the chat key information 830 in the second area 820, The menu can be visualized. If the touch recognition module recognizes the downward swipe input signal (slide down) 840 with respect to the smart button while the submenu related to the keyboard information is activated, the display module displays the second area The information on the main mode preset by the user can be visualized in the display unit 860. That is, the processor module prioritizes the visualization of the information about the main mode set by the user before the predetermined information (A, BC) visualization corresponding to the downward swipe input signal (slide down) 810 can do.

도 12는 본 발명에 따른 서브메뉴들 트리구조에 대응하는 제 4 가시화의 일 실시예를 설명하기 위한 도면이다.  12 is a view for explaining an embodiment of a fourth visualization corresponding to a sub-menus tree structure according to the present invention.

도 12를 참조하면, 터치인식모듈이 스마트 버튼에 대해 왼쪽 방향의 스와이프 입력 신호(slide left, 920)를 인식할 경우 디스플레이모듈은 도 6에서 전술한 제 2 영역(940)에 온라인 친구들 정보(online friends)와 관련된 서브메뉴를 가시화할 수 있다.  12, when the touch recognition module recognizes a leftward swipe input signal (slide left) 920 with respect to the smart button, the display module displays the online friends information (FIG. 12) in the second area 940 online friends) can be visualized.

또한 터치인식모듈이 스마트 버튼에 대해 기설정된 시간 이상의 입력 신호(touch & hold)를 인식할 경우 디스플레이모듈은 도 6에서 전술한 제 2 영역(930)의 좌측 상단에는 아바타 정보, 우측상단에는 화폐정보와 관련된 서브메뉴를 가시화할 수 있다.  Also, when the touch recognition module recognizes an input signal (touch & hold) of a predetermined time or longer with respect to the smart button, the display module displays avatar information on the upper left side of the second region 930, Can be visualized.

또한 스마트 버튼에 대해 기설정된 시간 이상의 입력 신호(touch & hold)에 대응하여 전술한 도 8에서 가시화되는 정보와 도 12에서 가시화되는 정보가 다른 것은 설계자의 의도에 따라 설정이 가능함을 의미한다.  In addition, the information displayed in FIG. 8 and the information visualized in FIG. 12 corresponding to an input signal (touch & hold) over a predetermined time for the smart button are different from each other, meaning that the setting can be performed according to the designer's intention.

도 13은 반응형 유저 인터페이스 제공 방법의 일 실시예를 설명하기 위한 도면이다.  13 is a diagram for explaining an embodiment of a method for providing a responsive user interface.

도 13을 참조하면, 반응형 유저 인터페이스 제공 방법은 제 1 신호를 수신하는 단계(S1300), 수신된 제 1 신호에 대응하여 제 2 신호를 송신하는 단계(S1310), 또는 제 2 신호에 대응하는 정보를 가시화하는 단계(S1320)을 포함할 수 있다. 터치인식모듈(50)은 제 1 신호를 수신하는 단계(S1300)를 수행할 수 있다. 이에 대한 구체적인 설명은 도 1 내지 도 12에서 전술한 바 있다. 또한 프로세서모듈(60)은 수신된 제 1 신호에 대응하여 제 2 신호를 송신하는 단계(S1310)를 수행할 수 있다. 이에 대한 구체적인 설명은 도 1 내지 도 12에서 전술한 바 있다. 또한 디스플레이모듈(70)은 제 2 신호에 대응하는 정보를 가시화하는 단계(S1320)를 수행할 수 있다. 이에 대한 구체적인 설명은 도 1 내지 도 12에서 전술한 바 있다.  Referring to FIG. 13, a method of providing a responsive user interface includes receiving a first signal (S1300), transmitting a second signal corresponding to the received first signal (S1310) And displaying the information (S1320). The touch recognition module 50 may perform the step S1300 of receiving the first signal. A detailed description thereof has been given above with reference to FIG. 1 to FIG. In addition, the processor module 60 may perform the step S1310 of transmitting the second signal corresponding to the received first signal. A detailed description thereof has been given above with reference to FIG. 1 to FIG. Also, the display module 70 may perform step S1320 of visualizing information corresponding to the second signal. A detailed description thereof has been given above with reference to FIG. 1 to FIG.

본 발명의 명세서에 개시된 실시예들은 본 발명을 한정하는 것이 아니다. 본 발명의 범위는 아래의 특허청구범위에 의해 해석되어야 하며, 그와 균등한 범위 내에 있는 모든 기술도 본 발명의 범위에 포함되는 것으로 해석해야 할 것이다.  The embodiments disclosed in the specification of the present invention do not limit the present invention. The scope of the present invention should be construed according to the following claims, and all the techniques within the scope of equivalents should be construed as being included in the scope of the present invention.

50 : 터치인식모듈
60 : 프로세서모듈
70 : 디스플레이모듈
50: Touch recognition module
60: Processor module
70: Display module

Claims (1)

제 1 신호를 수신하는 터치인식모듈;
상기 수신된 제 1 신호에 대응하여 제 2 신호를 송신하는 프로세서 모듈; 및
제 1 영역 및 제 2 영역을 포함하는 디스플레이모듈을 포함하고,
상기 제 1 신호가 상기 제 1 영역에 수신될 경우, 상기 프로세서모듈은 상기 제 1 신호의 입력 방식에 대한 정보를 추출하고,
상기 추출된 입력 방식에 대한 정보에 대응하여 상기 프로세서모듈은 기설정된 정보를 상기 제 2 신호로 송신하고,
상기 디스플레이모듈은 상기 제 2 신호에 대응하는 정보를 상기 제 2 영역에 가시화하는 반응형 유저 인터페이스 제공 장치.
A touch recognition module for receiving a first signal;
A processor module for transmitting a second signal corresponding to the received first signal; And
A display module including a first region and a second region,
When the first signal is received in the first area, the processor module extracts information on an input method of the first signal,
Wherein the processor module transmits predetermined information as the second signal corresponding to information on the extracted input method,
Wherein the display module visualizes information corresponding to the second signal in the second area.
KR1020170030217A 2017-03-09 2017-03-09 Apparatus and method for providing responsive user interface KR20180103366A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170030217A KR20180103366A (en) 2017-03-09 2017-03-09 Apparatus and method for providing responsive user interface

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170030217A KR20180103366A (en) 2017-03-09 2017-03-09 Apparatus and method for providing responsive user interface

Publications (1)

Publication Number Publication Date
KR20180103366A true KR20180103366A (en) 2018-09-19

Family

ID=63719011

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170030217A KR20180103366A (en) 2017-03-09 2017-03-09 Apparatus and method for providing responsive user interface

Country Status (1)

Country Link
KR (1) KR20180103366A (en)

Similar Documents

Publication Publication Date Title
CN107533373B (en) Input via context-sensitive collision of hands with objects in virtual reality
US10353570B1 (en) Thumb touch interface
US9128575B2 (en) Intelligent input method
JP5951638B2 (en) Virtual controller for touch display
US11036372B2 (en) Interface scanning for disabled users
US20190227688A1 (en) Head mounted display device and content input method thereof
JP2014531946A (en) Game controller for touch-enabled mobile devices
KR20140112918A (en) Method and apparatus for controlling screen display using temperature and humidity
US20140055385A1 (en) Scaling of gesture based input
TW201337711A (en) Systems and methods for presenting visual interface content
KR102138913B1 (en) Method for processing input and an electronic device thereof
US11644973B2 (en) Multi-perspective input for computing devices
US20200293155A1 (en) Device and method for providing reactive user interface
KR101432483B1 (en) Method for controlling a touch screen using control area and terminal using the same
CN108351748B (en) Computer readable medium and portable terminal
KR20180103366A (en) Apparatus and method for providing responsive user interface
KR20150106282A (en) A touch screen keypad system
KR20150098366A (en) Control method of virtual touchpadand terminal performing the same
KR102540798B1 (en) Method for providing user interface and mobile terminal
KR20120094728A (en) Method for providing user interface and mobile terminal using the same
KR20170053976A (en) A table top interface apparatus, a multi touch object and method thereof
JP6204414B2 (en) GAME DEVICE AND PROGRAM
CA3212975A1 (en) Virtual automatic aiming
CN117015757A (en) Virtualized physical controller
KR20150049661A (en) Apparatus and method for processing input information of touchpad