KR101066954B1 - A system and method for inputting user command using a pointing device - Google Patents

A system and method for inputting user command using a pointing device Download PDF

Info

Publication number
KR101066954B1
KR101066954B1 KR1020090008964A KR20090008964A KR101066954B1 KR 101066954 B1 KR101066954 B1 KR 101066954B1 KR 1020090008964 A KR1020090008964 A KR 1020090008964A KR 20090008964 A KR20090008964 A KR 20090008964A KR 101066954 B1 KR101066954 B1 KR 101066954B1
Authority
KR
South Korea
Prior art keywords
user
pointing device
layer
display screen
command
Prior art date
Application number
KR1020090008964A
Other languages
Korean (ko)
Other versions
KR20100089630A (en
Inventor
정학영
천병식
Original Assignee
(주)마이크로인피니티
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)마이크로인피니티 filed Critical (주)마이크로인피니티
Priority to KR1020090008964A priority Critical patent/KR101066954B1/en
Publication of KR20100089630A publication Critical patent/KR20100089630A/en
Application granted granted Critical
Publication of KR101066954B1 publication Critical patent/KR101066954B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • G06F3/0236Character input methods using selection techniques to select from displayed items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명의 일 실시예에 따른, 포인팅 디바이스와, 사용자의 의도에 따라 디스플레이 화면 상에서 포인터를 이동시키고 오브젝트를 선택하는 영상 기기를 포함하는 사용자 명령 입력 시스템에서, 상기 영상 기기는 상기 디스플레이 화면 상에 제1 레이어에 속하는 적어도 하나의 제1 오브젝트를 표시하고, 상기 포인팅 디바이스로부터 상기 제1 오브젝트 중 하나의 오브젝트를 선택하는 명령을 수신하면, 상기 선택된 오브젝트의 주변에 제2 레이어에 속하는 적어도 하나의 제2 오브젝트를 표시한다.In a user command input system including a pointing device and an image device for moving a pointer on a display screen and selecting an object according to an intention of a user according to an embodiment of the present invention, the image device may be arranged on the display screen. Displaying at least one first object belonging to one layer, and receiving a command for selecting one of the first objects from the pointing device, at least one second belonging to a second layer around the selected object Display the object.

포인팅 디바이스, 모션 센서, 자이로, 가속도계, 오브젝트, 선택 명령, 레이어 Pointing Devices, Motion Sensors, Gyro, Accelerometers, Objects, Selection Commands, Layers

Description

포인팅 디바이스를 이용한 사용자 명령 입력 시스템 및 방법{A system and method for inputting user command using a pointing device}A system and method for inputting user command using a pointing device}

본 발명은 모션 센서를 구비한 포인팅 디바이스를 이용한 사용자 명령 입력 시스템에 관한 것으로서, 더욱 상세하게는 디지털 TV, 셋톱박스 등의 영상 표시 장치에 있어서 명령을 입력하는 데에 사용되는 포인팅 디바이스를 이용하여 다양한 오브젝트들을 용이하게 선택하고 대응되는 명령을 실행하는 방법에 관한 것이다.The present invention relates to a user command input system using a pointing device having a motion sensor. More particularly, the present invention relates to a user command input system using a pointing device used to input a command in a video display device such as a digital TV or a set-top box. A method for easily selecting objects and executing corresponding commands.

컴퓨터 과학 분야가 발달함에 따라, 사용자들이 컴퓨터 디바이스에 정보를 입력할 수 있게 해주는 다양한 디바이스들이 개발되었다. 상기 디바이스들 중 한 그룹은 포인팅 디바이스라고 불리운다. 사용자가 이러한 디바이스의 컴포넌트들을 조작함에 따라, 포인팅 디바이스의 이동에 대응하는 위치 데이터가 생성된다. 그리고, 이러한 위치 데이터는 디스플레이 상에 나타나는 포인터 이미지의 움직임으로 변환된다. 따라서, 포인팅 디바이스를 움직임으로써, 사용자는 그 포인터 이미지를 디스플레이 상에 표시되는 오브젝트들과 연관시킬 수 있다. 상기 오브젝트란 메뉴, 버튼, 이미지 등 선택되었을 때 특정 동작이 수행되도록 하는 사용자 인터페이스를 의미한다. 그 후 사용자는 포인팅 디바이스의 특정 버튼을 누르는 것과 같은 선택 동작을 통하여 해당 오브젝트와 관련된 특정 명령을 수행할 수 있게 된다.As the field of computer science has developed, a variety of devices have been developed that allow users to enter information into computer devices. One group of such devices is called a pointing device. As the user manipulates the components of this device, position data corresponding to the movement of the pointing device is generated. This position data is then converted into movement of the pointer image appearing on the display. Thus, by moving the pointing device, the user can associate the pointer image with the objects displayed on the display. The object refers to a user interface that performs a specific operation when a menu, a button, an image, or the like is selected. Thereafter, the user may perform a specific command related to the object through a selection operation such as pressing a specific button of the pointing device.

일반적인 개인용 컴퓨터의 사용자들은 자신의 컴퓨터를 구동하기 위한 운영체제(OS: Operating System)로서 마이크로소프트 사의 윈도우(Windows)를 사용하고 있다. 이는 기존의 DOS(Disk Operating System) 체제에서 지원하지 못하는 편리한 마우스 기능 및 다양한 그래픽 기능에 기인하는데, 사용자들은 윈도우를 통해 특정 명령을 입력할 시, 일일이 키보드로 입력하지 않고도 마우스의 드래그나 스크롤, 클릭 등을 통해 간편하게 명령을 입력할 수 있다.Users of general personal computers use Microsoft's Windows as an operating system (OS) to run their own computers. This is due to convenient mouse functions and various graphic functions that are not supported by the existing DOS (Disk Operating System) system. When a user enters a specific command through a window, the user can drag, scroll, or click the mouse without typing a keyboard. You can easily enter a command by, for example.

한편, 이와는 대조적으로 디지털 TV, 셋톱박스 등과 같이 개인용 컴퓨터에서 사용되는 키보드나 마우스를 사용할 수 없는 영상 표시 장치에서는, 리모콘이라는 원격 제어 장치 상에 구비된 키패드를 이용하여 다양한 명령을 입력하고 있는 실정에 있다. 이렇게 키패드 누름 입력 방식이 주로 사용되었던 이유는, 이러한 장치들은 개인용 컴퓨터와 달리 사용자가 상기 장치의 조작을 위하여 특정한 위치에 고정되어 있는 것도 아니고, 거실과 같은 개방된 공간에서 조작이 필요하기 때문에 키보드나 마우스와 같이 주로 평면에 고정되어 사용되는 입력 수단을 이용하기가 어렵기 때문이다.On the other hand, in a video display device in which a keyboard or a mouse used in a personal computer such as a digital TV or a set-top box cannot be used, various commands are input using a keypad provided on a remote control device called a remote controller. have. The reason why the keypad press input method is mainly used is that, unlike a personal computer, such a device is not fixed to a specific location for the user to operate the device, and because the device requires manipulation in an open space such as a living room, This is because it is difficult to use an input means mainly fixed to a plane such as a mouse.

이러한 이유로 인하여, 상기와 같은 영상 표시 장치에서의 입력 수단은 키패드를 구비한 리모콘 등과 같은 공간 상에서 조작이 간편한 입력 수단을 선호하게 된 것이다. 그러나, 이러한 키패드 입력 방식은 문자 입력이나 메뉴의 선택에 있어서, 키패드가 눌러질 때 한 칸씩만 움직이는 방식을 사용하므로, 사용자의 명령 입력에 있어서 제약이 있을 수 밖에 없었다.For this reason, the input means in the image display device as described above is preferred to the input means easy to operate in a space such as a remote control having a keypad. However, since the keypad input method uses a method of moving only one space when the keypad is pressed in character input or menu selection, there is a limitation in the user's command input.

이러한 문제점을 고려하여, 최근에는 자이로스코프(이하, 자이로라고 함), 가속도계 등의 모션 센서를 탑재한 3차원 포인팅 디바이스들이 개발되고 있다. 사용자는 3차원 포인팅 디바이스를 움직임으로써 이에 대응되는 디스플레이상의 포인터 이미지를 원하는 방향과 속도로 움직일 수 있고, 상기 포인팅 디바이스 상에 구비된 특정 버튼을 누름으로써 원하는 오브젝트를 선택하고 실행할 수 있게 된다.In view of these problems, recently, three-dimensional pointing devices equipped with motion sensors such as gyroscopes (hereinafter, referred to as gyroscopes) and accelerometers have been developed. By moving the three-dimensional pointing device, the user can move the pointer image on the display corresponding to the desired direction and speed, and select and execute a desired object by pressing a specific button provided on the pointing device.

그러나, 이와 같이 공간 상에 제약을 받지 않는 3차원 포인팅 디바이스가 제공된다고 하더라도, 개인용 컴퓨터의 키보드나 마우스에 비해서는 명령 입력이 신속하고 용이하게 이루어지기 어려운 문제가 있다. 예를 들어, 디스플레이 상에서 가상 키보드가 제공된다고 해도 입력되는 음소간의 거리가 항상 가까운 것은 아니기 때문에 문자 입력이 용이하지는 않으며, 메뉴 및 하위 메뉴에서 특정 항목을 선택한다고 해도 그 이동 거리가 최소화되어 있지 않기 때문에 특정 명령의 실행이 용이하지 않다. However, even when a three-dimensional pointing device that is not limited in space is provided, there is a problem that command input is difficult to be made quickly and easily as compared to a keyboard or a mouse of a personal computer. For example, even if a virtual keyboard is provided on the display, the distance between input phonemes is not always close, so character input is not easy, and even if a particular item is selected from menus and submenus, the moving distance is not minimized. Execution of certain commands is not easy.

다음의 도 1 및 2는 종래의 포인팅 디바이스를 이용하여 오브젝트를 선택하는 것이 비효율적임을 보여준다. 도 1은 디스플레이 상에 표시된 문자판(10)에서 음소를 선택하여 문자를 입력하는 종래의 기술의 예를 보여주는 도면이다. 여기서, "대"라는 문자를 입력하고자 하면 사용자는 먼저, 자음 "ㄷ"(11)을 선택하고 3차원 포인팅 디바이스를 우측으로 움직여 모음 "ㅏ"(12)를 선택한 후, 상기 디바이스를 좌측 하방으로 움직여 모음 "ㅣ"(13)를 선택하게 된다. 이와 같이 하나의 음소를 선택한 후에 다른 음소를 선택하기까지의 이동 거리는 임의로 변동되기 때문에 사용자가 문자 입력을 완성하기 위해서는 상당한 노력과 수고가 필요하다.1 and 2 show that selecting an object using a conventional pointing device is inefficient. FIG. 1 is a diagram showing an example of a conventional technique of selecting a phoneme from a dial 10 displayed on a display to input characters. Here, if the user wants to input the letter "large", the user first selects the consonant "c" (11), moves the three-dimensional pointing device to the right, selects the vowel "ㅏ" (12), and then moves the device downward to the left. Move to select the vowel “ㅣ” (13). As such, since the moving distance from selecting one phoneme to selecting another phoneme is arbitrarily changed, considerable effort and effort is required for the user to complete the character input.

도 2는 디스플레이 상의 메뉴에서 하위 메뉴로 이동하면서 최종적인 항목을 선택하는 종래 기술의 예를 보여주는 도면이다. 사용자가 주 메뉴(22)에서 "영화"(21)라는 카테고리를 선택하고, 다시 제1 하위 메뉴(24)에서 "액션"(23)이라는 장르를 선택하고, 제2 하위 메뉴(26)에서 "매트릭스"(25)라는 영화를 선택한다고 가정하면, 총 8번의 간격에 해당하는 포인터 이동이 필요하다. 포인터는 아무래도 마우스보다는 사용자 조작성 면에서 부족할 수 있기 때문에, 이와 같이 포인팅 디바이스를 이용하여 디스플레이상의 특정 오브젝트를 선택함에 있어서 가변적인 거리를 이동하여야 한다면 사용자는 불편을 느낄 수 밖에 없다.2 is a diagram illustrating an example of the prior art of selecting a final item while moving from a menu on a display to a lower menu. The user selects the category "movie" 21 in the main menu 22, again selects the genre "action" 23 in the first sub-menu 24, and selects "" in the second sub-menu 26. Assuming a movie called "Matrix" 25 is selected, a pointer movement corresponding to a total of eight intervals is required. Since the pointer may be insufficient in terms of user operability rather than a mouse, the user may feel inconvenient if the variable distance has to be moved in selecting a specific object on the display using the pointing device.

본 발명은 이러한 포인팅 디바이스의 조작상의 특수성을 고려하여, 상기 포인팅 디바이스를 이용하여 디스플레이 상의 오브젝트를 선택하기 위한 보다 편리한 방법을 제공하고자 한다.The present invention seeks to provide a more convenient method for selecting an object on a display using the pointing device, in view of the operational specificity of the pointing device.

본 발명이 이루고자 하는 기술적 과제는, 모션 센서를 구비한 포인팅 디바이스를 사용자의 조작 부담을 최소화하고자 하는 것이다.The technical problem to be achieved by the present invention is to minimize the burden on the user of the pointing device having a motion sensor.

본 발명의 기술적 과제들은 이상에서 언급한 기술적 과제로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.Technical problems of the present invention are not limited to the technical problems mentioned above, and other technical problems not mentioned will be clearly understood by those skilled in the art from the following description.

상기 기술적 과제를 달성하기 위하여, 본 발명의 일 실시예에 따른, 모션 센서를 통해 사용자의 움직임을 감지하는 포인팅 디바이스와, 상기 감지된 사용자의 움직임에 따라 디스플레이 화면 상에서 포인터를 이동시키고 오브젝트를 선택하는 영상 기기를 포함하는 사용자 명령 입력 시스템에서, 상기 영상 기기는 상기 디스플레이 화면 상에 제1 레이어에 속하는 적어도 하나의 제1 오브젝트를 표시하고, 상기 포인팅 디바이스로부터 상기 제1 오브젝트 중 하나의 오브젝트를 선택하는 명령을 수신하면, 상기 선택된 오브젝트의 주변에 제2 레이어에 속하는 적어도 하나의 제2 오브젝트를 표시한다.In order to achieve the above technical problem, according to an embodiment of the present invention, a pointing device for detecting a user's movement through a motion sensor, and moving the pointer on the display screen according to the detected user's movement to select an object In a user command input system including an imaging device, the imaging device displays at least one first object belonging to a first layer on the display screen, and selects one of the first objects from the pointing device. Upon receiving the command, at least one second object belonging to a second layer is displayed around the selected object.

상기 기술적 과제를 달성하기 위하여, 본 발명의 일 실시예에 따른, 모션 센서를 갖는 포인팅 디바이스에 의하여 사용자의 움직임을 감지하고 상기 감지된 움직임에 따라 디스플레이 화면 상에서 포인터를 제어하는 사용자 명령 입력 방법은, 사용자의 움직임을 감지하는 단계, 상기 감지된 움직임에 따라 디스플레이 화면 상 에서 포인터를 이동시키고 오브젝트를 선택하는 단계, 상기 디스플레이 화면 상에 제1 레이어에 속하는 적어도 하나의 제1 오브젝트를 표시하는 단계, 상기 포인팅 디바이스로부터 상기 제1 오브젝트 중 하나의 오브젝트를 선택하는 명령을 수신하는 단계 및 상기 선택된 오브젝트의 주변에 제2 레이어에 속하는 적어도 하나의 제2 오브젝트를 표시하는 단계를 포함한다.In order to achieve the above technical problem, according to an embodiment of the present invention, a user command input method for detecting a user's movement by a pointing device having a motion sensor and controlling a pointer on a display screen according to the detected movement, Detecting a movement of a user, moving a pointer on a display screen according to the detected movement, selecting an object, displaying at least one first object belonging to a first layer on the display screen, and Receiving a command for selecting one of the first objects from a pointing device and displaying at least one second object belonging to a second layer around the selected object.

본 발명에 따른 포인팅 디바이스를 이용한 사용자 명령 입력 시스템 및 방법에 의하면, 모션 센서를 구비한 포인팅 디바이스를 사용하는 사용자가 디스플레이 화면상에 표시되는 오브젝트들이 속한 각각의 레이어들 간을 이동하는 경우에 조작 부담을 최소화할 수 있다.According to the user command input system and method using the pointing device according to the present invention, the operation burden when a user using the pointing device having a motion sensor moves between each layer belonging to the objects displayed on the display screen Can be minimized.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Advantages and features of the present invention and methods for achieving them will be apparent with reference to the embodiments described below in detail with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but will be implemented in various forms, and only the present embodiments are intended to complete the disclosure of the present invention, and the general knowledge in the art to which the present invention pertains. It is provided to fully convey the scope of the invention to those skilled in the art, and the present invention is defined only by the scope of the claims. Like reference numerals refer to like elements throughout.

이하 첨부된 도면들을 참조하여 본 발명의 일 실시예를 상세히 설명한다.Hereinafter, an embodiment of the present invention will be described in detail with reference to the accompanying drawings.

도 3 및 4는 본 발명의 일 실시예에 따른 관성 센서를 갖는 포인팅 디바이스 를 이용하여 디스플레이 상의 오브젝트를 선택하는 개념을 설명하는 도면들이다. 본 발명에서, 오브젝트라 함은 메뉴, 버튼, 이미지 등과 같이 특정 동작이 수행하기 위하여 디스플레이 상에서 선택되는 사용자 인터페이스를 의미한다. 3 and 4 illustrate a concept of selecting an object on a display using a pointing device having an inertial sensor according to an exemplary embodiment of the present invention. In the present invention, an object refers to a user interface selected on a display for performing a specific operation such as a menu, a button, an image, or the like.

도 3에 도시된 바와 같이, 주 메뉴에 속하는 오브젝트(30)가 포인팅 디바이스에 의하여 선택되면, 제1 하위 메뉴의 오브젝트들(31 내지 36)이 상기 오브젝트(30)의 근접한 주변에 표시되고 활성화된다. 이 때, 사용자는 현재 활성화되어 있는 오브젝트들(31 내지 36) 중에서 선택할 수 있게 된다. 도 3에서 오브젝트(30) 주변에 하위 오브젝트들(31 내지 36)이 원형으로 배치되도록 하는 것은 하나의 예에 불과하고, 이것들이 오브젝트(30) 주변에 근접하도록 배치되기만 한다면 다른 형태로 배치되어도 무방함은 당업자라면 충분히 이해할 수 있을 것이다.As shown in FIG. 3, when the object 30 belonging to the main menu is selected by the pointing device, the objects 31 to 36 of the first submenu are displayed and activated in the vicinity of the object 30. . At this time, the user can select from among the objects 31 to 36 currently active. In FIG. 3, the sub-objects 31 to 36 are circularly arranged around the object 30, but only one example may be arranged in other forms as long as they are arranged to be close to the object 30. It will be understood by those skilled in the art.

또한, 도 4에 도시된 바와 같이, 사용자가 상기 활성화된 오브젝트들(31 내지 36) 중에서 하나의 오브젝트(32)에 대한 선택 명령을 내리면 제2 하위 메뉴의 오브젝트들(41 내지 45)이 상기 오브젝트(32)의 근접한 주변에 표시되고 활성화되고, 사용자는 마찬가지로 활성화된 오브젝트들 중에서 선택을 할 수 있게 된다. 만약, 여기서 사용자가 더 이상의 하위 메뉴로 진행하지 않기를 결정하는 경우(또는 더 이상의 하위 메뉴가 없는 경우)에는 사용자는 해당 최종 오브젝트에 대한 선택 명령을 내림으로써 상기 최종 오브젝트에 대응되는 미리 정의된 명령(또는 동작)이 수행된다. 본 발명에 있어서, 선택 명령은 포인팅 디바이스의 특정 버튼을 누르거나 기 정의된 특정 제스쳐(gesture)에 의하여 트리거(triggering)될 수 있다. 상기 특정 제스쳐로는 포인팅 디바이스를 파지하고 있는 자세에서 전방을 향해 찌르는 동작을 예로 들 수 있다. 이와 같이 찌르는 동작은 예를 들면 포인팅 디바이스의 길이 방향으로 정렬된 가속도계에 의하여 간단히 감지될 수 있는데, 다른 복잡한 제스쳐에 비하여 사용자가 동작을 취하기도 쉽고 정의된 제스쳐와 매핑되는지를 판단하기에도 용이한 장점이 있다. 다만, 오작동을 방지하기 위하여 거리, 속도 또는 가속도가 특정 문턱값(threshold)를 넘는 경우에 한하여 선택 명령을 위한 제스쳐로 판단하는 것이 바람직하다. 또한, 이와 같이 별도의 조작없이 단순히 포인터를 특정 오브젝트 위에 소정 시간 이상 올려 놓는 것만으로도 선택 명령이 전달되도록 할 수도 있고, 소정 시간 이상 포인터를 특정 오브젝트 위에 올려 놓는 경우 중간 선택으로 인정되어 하위 메뉴가 표시되다가 최종적으로 특정 버튼을 누르는 경우 선택 명령이 완료된 것으로 정의할 수도 있다.In addition, as shown in FIG. 4, when the user issues a selection command for one object 32 among the activated objects 31 to 36, the objects 41 to 45 of the second submenu are displayed. Displayed and activated in the vicinity of 32, the user can likewise select from the activated objects. If the user decides not to proceed to further submenus (or if there are no further submenus), the user may issue a selection command for the final object to define a predefined command corresponding to the final object ( Or the operation) is performed. In the present invention, the selection command may be triggered by pressing a specific button of the pointing device or by a predefined specific gesture. For example, the specific gesture may include an operation of stabbing forward in a position in which the pointing device is held. This stab motion can be easily detected by, for example, an accelerometer aligned in the longitudinal direction of the pointing device, which makes it easier for the user to take action and to determine if it is mapped to a defined gesture compared to other complex gestures. There is this. However, in order to prevent a malfunction, it is preferable to determine the gesture for the selection command only when the distance, speed, or acceleration exceeds a certain threshold. In addition, a selection command may be transmitted by simply placing the pointer on a specific object for a predetermined time without additional manipulation. If a pointer is placed on a specific object for a predetermined time or more, the submenu is recognized as an intermediate selection. When a specific button is pressed while being displayed, the selection command may be defined as completed.

이상의 도 3 및 4에서 설명한 바와 같이, 복수의 메뉴 레벨(주 메뉴, 제1 하위 메뉴, 제2 하위 메뉴 등) 중 각각의 레벨에 속하는 오브젝트들은 동시에 활성화/비활성화되기 때문에, 상기 오브젝트들에 관한 이미지 및 속성은 레이어(layer)로 분리되는 것이 바람직하다. 따라서, 특정 메뉴 레벨에 대한 오브젝트들을 활성화할 필요가 있으면 상기 메뉴 레벨에 대응되는 레이어를 활성화하는 방식으로 용이하게 구현이 가능하다.As described above with reference to FIGS. 3 and 4, since objects belonging to each level among a plurality of menu levels (main menu, first sub-menu, second sub-menu, etc.) are activated / deactivated at the same time, an image related to the objects. And the attributes are preferably separated into layers. Therefore, if it is necessary to activate objects for a particular menu level, it can be easily implemented by activating a layer corresponding to the menu level.

이상에서 설명한 바와 같이, 하나의 오브젝트에서 다음 오브젝트로 이동하는 거리를 최소화하는 것은 단순히 사용자의 움직임을 줄여주기 위한 목적뿐만은 아니다. 모션 센서에 의하여 동작하는 포인팅 디바이스는 3차원 공간 상에서 자유로이 움직이고 레퍼런스 평면이 존재하지 않기 때문에, 상대적으로 2차원 마우스 또는 키패드 등의 통상의 입력 장치에 비하여 포인터의 움직임을 컨트롤하기가 용이하지 않다는 점이 고려된 것이다. 상기 통상의 입력 장치들에 있어서는 하나의 오브젝트를 선택한 후 다소 먼 거리를 이동하여 다른 오브젝트를 선택하더라도 컨트롤에 큰 어려움은 없다. 물론, 포인터를 움직이는 동안의 가속 및 감속을 감지하는 모션 센서의 자체의 정밀도 및 모션 센서의 출력으로부터 계산하는 알고리즘에 따라 포인터의 컨트롤 정밀도는 달라지겠지만, 포인터를 멀리 이동시킬 때의 정밀도는 2차원 마우스 등에 비하여 상대적으로 떨어진다는 점은 잘 알려져 있는 사실이다. 따라서, 본 발명에서와 같이 모션 센서를 이용한 포인팅 디바이스에 있어서는, 선택되는 오브젝트들 간의 거리를 최소화하는 것이 매우 중요하다.As described above, minimizing the distance to move from one object to the next object is not merely for reducing the user's movement. Since the pointing device operated by the motion sensor is free to move in three-dimensional space and there is no reference plane, it is relatively difficult to control the movement of the pointer as compared to a conventional input device such as a two-dimensional mouse or a keypad. It is. In the conventional input devices, even if one object is selected and then a long distance is moved to select another object, there is no great difficulty in controlling. Of course, the accuracy of the pointer's control will vary depending on the motion sensor's own accuracy of detecting acceleration and deceleration while moving the pointer, and algorithms calculated from the output of the motion sensor, but the precision of moving the pointer farther than the two-dimensional mouse It is well known that it is relatively inferior to the back. Therefore, in the pointing device using the motion sensor as in the present invention, it is very important to minimize the distance between the selected objects.

도 5는 본 발명의 일 실시예에 따른 사용자 명령 입력 시스템(300)을 도시하는 개략도이다. 사용자 명령 입력 시스템(300)은 적어도 하나 이상의 포인팅 디바이스(100)와 적어도 하나 이상의 영상 기기(200)를 포함한다. 상기 포인팅 디바이스(100)는 모션 센서를 통하여 사용자의 움직임을 감지하고 그 감지된 결과를 디스플레이 평면 상의 횡방향 움직임 및 종방향 움직임으로 변환하여, 소정의 무선 통신 규약에 따라 영상 기기(200)에 전송하는 역할을 수행한다. 상기 무선 통신 규약은 블루투스, IEEE 802.11 무선랜 표준, IEEE 802.15.3 무선팬 표준 기타의 무선 통신 규약을 포함할 수 있다.5 is a schematic diagram illustrating a user command input system 300 according to an embodiment of the present invention. The user command input system 300 includes at least one pointing device 100 and at least one imaging device 200. The pointing device 100 detects a user's movement through a motion sensor and converts the detected result into a horizontal movement and a longitudinal movement on a display plane, and transmits the image to the imaging apparatus 200 according to a predetermined wireless communication protocol. It plays a role. The wireless communication protocol may include Bluetooth, IEEE 802.11 WLAN standard, IEEE 802.15.3 wireless fan standard, and other wireless communication protocols.

영상 기기(200)는 상기 감지된 결과 데이터를 수신하고, 수신된 데이터를 바탕으로 디스플레이 상의 포인터를 이동시킨다. 또한, 포인팅 디바이스(100)로부터 선택 명령이 전달되면 포인터가 가리키는 오브젝트에 대응되는 명령을 실행한다. 상기 영상 기기(200)는 디지털 TV, 셋톱박스, IPTV 등 그 명칭을 불문하고, 포인팅 디바이스(100)와 원격으로 통신하며, 직접 또는 간접적으로 디스플레이 장치와 연결되는 임의의 영상 기기를 포함한다.The imaging apparatus 200 receives the detected result data and moves the pointer on the display based on the received data. In addition, when a selection command is transmitted from the pointing device 100, a command corresponding to the object pointed to by the pointer is executed. The imaging apparatus 200 may include any imaging apparatus that communicates with the pointing device 100 remotely and directly or indirectly with a display device, regardless of its name, such as a digital TV, a set-top box, an IPTV, or the like.

도 6은 도 5의 포인팅 디바이스(100) 및 영상 기기(200)의 구성을 보다 자세히 예시한 블록도이다. 포인팅 디바이스(100)는 모션 센서부(110), 제어부(120), 트리거 감지부(130), 좌표 연산부(140) 및 발신부(150)를 포함하여 구성될 수 있다. FIG. 6 is a block diagram illustrating in detail the configuration of the pointing device 100 and the imaging device 200 of FIG. 5. The pointing device 100 may be configured to include a motion sensor unit 110, a controller 120, a trigger detector 130, a coordinate calculator 140, and a transmitter 150.

모션 센서부(110)는 사용자(포인팅 디바이스(100))의 움직임의 방향을 감지하여 샘플링된 출력 값(디지털 값)을 제공한다. 구체적으로 모션 센서부(110)는 적어도 하나 이상의 자이로스코프 또는 적어도 하나 이상의 가속도계 또는 자이로스코프와 가속도계의 조합으로 구성될 수 있다. 상기 자이로스코프로는 기계식, 유체식, 광학식, 압전식을 불문하고 사용될 수 있으며, 상기 가속도계로는 압전형(piezodlectric type), 동전형(moving coil type)을 불문하고 사용될 수 있다.The motion sensor unit 110 detects the direction of movement of the user (pointing device 100) and provides a sampled output value (digital value). In detail, the motion sensor unit 110 may include at least one gyroscope or at least one accelerometer or a combination of a gyroscope and an accelerometer. The gyroscope may be used regardless of mechanical, fluid, optical, or piezoelectric type, and the accelerometer may be used regardless of a piezodlectric type or a moving coil type.

좌표 연산부(140)는 모션 센서부(110)로부터 제공되는 출력 값으로부터, 디스플레이 화면 상의 횡방향 이동값(x 변위) 및 종방향 이동값(y 변위)을 산출한다.The coordinate calculator 140 calculates a horizontal movement value (x displacement) and a longitudinal movement value (y displacement) on the display screen from the output value provided from the motion sensor unit 110.

예를 들어, 모션 센서부(110)가 자이로스코프를 이용하는 경우에는, 모션 센서부(110)는 사용자의 움직임에 대응되는 각속도 정보(Wbx, Wby, Wbz)를 생성하고 이를 좌표 연산부(140)에 제공한다. 상기 소첨자 b는 바디 프레임에서의 가속도 정보임을 의미하고, 소첨자 x, y 및 z는 x축, y축 및 z축에 대한 정보임을 의미한다. 좌표 연산부(140)는 상기 입력된 각속도 정보를 소정의 연산 과정을 거쳐 회전각 정보로 변환된다. 상기 회전각 정보는 피치(φ), 롤(θ) 및 요(ψ) 중 적어도 하나 이상을 포함한다. 다음의 도 7과 같은 x, y, z로 이루어진 참조 프레임에서 피치(φ)는 y축 방향에 대한 회전을, 롤(θ)은 x축 방향에 대한 회전을, 그리고 요(ψ)는 z축 방향에 대한 회전을 각각 의미한다. 이들 회전에 대해 양(+) 및 음(-)를 결정하는 기준은 오른손 좌표계(right-handed coordinate)를 따른다. 회전각 정보로 변환되기 위한 연산과정은 공지의 기술에 속하므로 본 명세서에서는 그에 대한 상세한 설명은 생략한다. 예를 들어, 요는 디스플레이 화면상의 횡방향 변위에 대응되고, 피치는 종방향 변위에 대응될 수 있다.For example, when the motion sensor unit 110 uses a gyroscope, the motion sensor unit 110 generates angular velocity information W bx , W by , and W bz corresponding to a user's movement, and coordinate coordinates ( 140). The subscript b means acceleration information in the body frame, and the subscripts x, y, and z mean information about the x-axis, the y-axis, and the z-axis. The coordinate calculator 140 converts the input angular velocity information into rotation angle information through a predetermined calculation process. The rotation angle information includes at least one of pitch φ, roll θ, and yaw ψ. In the following reference frame composed of x, y, and z as shown in FIG. 7, the pitch φ is rotated in the y-axis direction, the roll θ is rotated in the x-axis direction, and the yaw is the z-axis. Each means rotation about the direction. The criteria for determining positive and negative values for these rotations follow the right-handed coordinate system. Since a calculation process for converting the rotation angle information belongs to a known technique, a detailed description thereof will be omitted herein. For example, the yaw may correspond to the lateral displacement on the display screen, and the pitch may correspond to the longitudinal displacement.

한편, 모션 센서부(110)가 가속도계를 이용하는 경우에는, 모션 센서부(110)는 사용자의 움직임에 대응되는 가속도 정보(Abx, Aby, Abz)를 생성하고 이를 좌표 연산부(140)에 제공한다. 좌표 연산부(140)는 상기 가속도 정보를 이중적분하여 x, y, z 축에 관한 각각의 변위 정보로 변환된다. 만약, 자이로스코프와 가속도계가 함께 사용된다면 이 중 어느 하나의 연산 결과를 바탕으로 다른 하나를 보정하는 것도 가능하다.On the other hand, when the motion sensor unit 110 uses an accelerometer, the motion sensor unit 110 generates acceleration information (A bx , A by , A bz ) corresponding to the user's movement and transmits it to the coordinate calculator 140. to provide. The coordinate calculator 140 double-integrates the acceleration information and converts the displacement information into respective displacement information about the x, y, and z axes. If a gyroscope and an accelerometer are used together, it is possible to calibrate the other based on the result of one of these calculations.

포인팅 디바이스(100)의 자세와 무관하게 바디 프레임 상에서의 움직임을 디스플레이 상에서의 움직임과 매칭시킬 수도 있고, 공간 상에 고정된 항법 프레임(navigation frame) 상에서의 움직임을 디스플레이상에서의 움직임과 매칭시킬 수도 있다. Regardless of the posture of the pointing device 100, the movement on the body frame may be matched to the movement on the display, and the movement on the navigation frame fixed in space may be matched to the movement on the display. .

좌표 연산부(140)는 이와 같은 과정을 통하여 디스플레이 상의 변위 정보(예를 들어, 횡방향 변위 및 종방향 변위)를 산출하고 이를 제어부(120)에 제공한다. 이와 같이, 좌표 연산부(140)를 포인팅 디바이스(100) 내에 구비하는 것은 하나의 예로서, 포인팅 디바이스(100)는 단순히 공간상에서의 움직임에 관한 센서 출력에 관한 raw 데이터 만을 영상 기기(200)에 제공하고, 영상 기기(200)내에 구비된 좌표 연산부에서 상기 raw 데이터로부터 횡방향 변위 및 종방향 변위를 산출하도록 하는 실시예도 생각할 수 있다.The coordinate calculator 140 calculates displacement information (eg, horizontal displacement and longitudinal displacement) on the display and provides the same to the controller 120 through the above process. As such, providing the coordinate operation unit 140 in the pointing device 100 is one example, and the pointing device 100 simply provides the imaging device 200 with raw data relating to a sensor output relating to movement in space. In addition, an embodiment in which a coordinate calculation unit provided in the imaging device 200 calculates a lateral displacement and a longitudinal displacement from the raw data may be considered.

트리거 감지부(130)는 사용자로부터 선택 명령을 감지하여 제어부(120)에 전달한다. 상기 선택 명령은 단순히 포인팅 디바이스(100)에 구비된 특정 버튼을 누름으로써 감지될 수도 있지만, 기 정의된 특정 제스쳐가 발생하였는지를 판단함으로써 감지될 수도 있다. 상기 특정 제스쳐로는 포인팅 디바이스를 파지하고 있는 자세에서 전방으로 찌르는 동작을 예로 들 수 있는데, 이와 같은 제스쳐는 사용자로 하여금 버튼을 누르는 동작을 직감하게 하는 장점이 있다. 이와 같이 찌르는 동작은 예를 들면, 포인팅 디바이스(100)의 길이 방향으로 정렬된 가속도계(모션 센서부(110)에 내장된)에 의하여 간단히 감지될 수 있다.The trigger detector 130 detects a selection command from the user and transmits the selection command to the controller 120. The selection command may be detected by simply pressing a specific button provided in the pointing device 100, but may also be detected by determining whether a predetermined specific gesture has occurred. The specific gesture may include an operation of stabbing forward in a posture of holding a pointing device. Such a gesture has an advantage of allowing a user to intuitively press a button. Such a stabbing operation can be simply detected by, for example, an accelerometer (built in the motion sensor unit 110) aligned in the longitudinal direction of the pointing device 100.

제어부(120)는 포인팅 디바이스(100)의 다른 구성요소들의 동작을 전반적으로 제어하며, 좌표 연산부(140)로부터 제공된 변위 정보(횡방향 변위 및 종방향 변위)와, 트리거 감지부(130)로부터 제공된 선택 명령을 발신부(150)에 제공한다.The controller 120 controls the overall operation of the other components of the pointing device 100, and provides displacement information (lateral displacement and longitudinal displacement) provided from the coordinate calculating unit 140 and provided from the trigger detecting unit 130. The selection command is provided to the transmitter 150.

발신부(150)는 제어부(120)로부터 제공된 변위 정보 및 선택 명령을 소정의 무선 통신 규약을 따르는 무선 신호로 변환하여 영상 기기(200)에 전송한다. The transmitter 150 converts the displacement information and the selection command provided from the controller 120 into a wireless signal that conforms to a predetermined wireless communication protocol and transmits the converted signal to the video device 200.

한편, 영상 기기(200)는 수신부(210), 제어부(220), 메모리(240) 및 영상처리부(250)를 포함하여 구성될 수 있다.The image device 200 may include a receiver 210, a controller 220, a memory 240, and an image processor 250.

수신부(210)는 포인팅 디바이스(100)로부터 발신된 무선 신호를 수신하고, 수신된 무선 신호로부터 변위 정보 및 선택 명령을 복원한다.The receiver 210 receives a radio signal transmitted from the pointing device 100 and restores displacement information and a selection command from the received radio signal.

제어부(220)는 영상 기기(200)의 다른 구성요소들의 동작을 전반적으로 제어하며, 상기 변위 정보를 적절히 스케일링(scaling)하여 영상 기기(200)의 디스플레이(미도시됨) 상에서 포인터의 이동을 제어하고, 선택 명령에 따라 현재 포인터가 위치한 오브젝트(현재 오브젝트)의 하위 레이어에 속하는 오브젝트들을 상기 현재 오브젝트의 주변에 표시하거나(영상처리부(250)를 통하여), 현재 포인트가 위치한 오브젝트에 대응되는 영상 기기(200)의 동작(비디오 재생, 문자 입력 등)을 수행한다.The controller 220 controls the overall operation of the other components of the imaging apparatus 200 and controls the movement of the pointer on the display (not shown) of the imaging apparatus 200 by appropriately scaling the displacement information. According to the selection command, objects belonging to a lower layer of the object (current object) on which the current pointer is located are displayed around the current object (via the image processor 250), or an image device corresponding to the object where the current point is located. Operation 200 (video playback, text input, etc.) is performed.

메모리(240)는 도 3 및 4에서와 같이 복수의 오브젝트들을 레이어 별로 저장하였다가, 영상처리부(250)의 요청에 의하여 상기 오브젝트들을 레이어 별로 제공한다.As shown in FIGS. 3 and 4, the memory 240 stores a plurality of objects for each layer, and provides the objects for each layer at the request of the image processor 250.

영상처리부(250)는 하나의 레이어에 속하는 오브젝트들을 디스플레이(미도시됨) 상에 표시하고, 제어부(220)의 제어에 의하여 특정 오브젝트가 선택되면 상기 오브젝트의 하위 레이어에 속하는 오브젝트들을 상기 특정 오브젝트 주변에 추가로 표시한다. 또한, 영상처리부(250)는 제어부(220)의 제어에 따라 디스플레이(미도시됨) 상에서 포인터를 이동시킨다.The image processor 250 displays objects belonging to one layer on a display (not shown), and when a specific object is selected by the control of the controller 220, objects belonging to a lower layer of the object may be surrounded by the specific object. In addition to. In addition, the image processor 250 moves the pointer on a display (not shown) under the control of the controller 220.

지금까지 도 6의 각 블록들은 메모리 상의 소정 영역에서 수행되는 태스크, 클래스, 서브 루틴, 프로세스, 오브젝트, 실행 쓰레드, 프로그램과 같은 소프트웨어(software)나, FPGA(field-programmable gate array)나 ASIC(application-specific integrated circuit)과 같은 하드웨어(hardware)로 구현될 수 있으며, 또한 상기 소프트웨어 및 하드웨어의 조합으로 이루어질 수도 있다. 또한, 각 블록들은 특정된 논리적 기능(들)을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. 또, 몇 가지 대체 예들에서는 상기 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능하다. 예컨대, 잇달아 도시되어 있는 두 개의 블록들은 사실 실질적으로 동시에 수행되는 것도 가능하고 그 블록들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다.Until now, each block in FIG. 6 is a software, such as a task, a class, a subroutine, a process, an object, an execution thread, a program, or a field-programmable gate array (ASGA) or an application (ASIC) that is performed in a predetermined area of memory. It may be implemented in hardware, such as a -specific integrated circuit, or may be a combination of the above software and hardware. In addition, each block may represent a portion of a module, segment, or code that includes one or more executable instructions for executing a specified logical function (s). It is also possible in some alternatives that the above-mentioned functions occur out of order. For example, the two blocks shown in succession may in fact be executed substantially concurrently, and the blocks may sometimes be executed in the reverse order, depending on the corresponding function.

도 8 내지 13은 본 발명의 일 실시예에 따라 영상처리부(250)가 오브젝트를 레이어 별로 표시하고 사용자가 이 중 특정 오브젝트를 선택하도록 하는 실시예들을 도시한 도면들이다.8 to 13 illustrate embodiments in which the image processor 250 displays an object for each layer and allows a user to select a particular object among the layers according to an embodiment of the present invention.

이 중에서 도 8 내지 도 10은 본 발명의 일 실시예에 따른 문자 입력 어플리케이션에 관한 동작을 도시한다.8 to 10 illustrate an operation related to a character input application according to one embodiment of the present invention.

영상 기기(200)의 디스플레이상에 표시된 키패드(50)에 포함된 오브젝트들(음소들) 중 하나를 선택하기 위하여, 사용자는 포인팅 디바이스(100)를 이용하여 원하는 오브젝트(52) 상으로 포인터(54)를 이동시킨 후 선택 명령을 내린다. 그러면, 상기 선택된 오브젝트(52)에 대한 하위 레이어에 속하는 오브젝트들(하위 오브젝트들)이 상기 선택된 오브젝트(52)의 주변에 표시된다. 이와 함께, 선택된 오브 젝트에 해당하는 음소 "ㄷ"(57)으로 시작되는 다양한 후보 항목들의 리스트(55)가 일측에 표시될 수 있다.In order to select one of the objects (phonemes) included in the keypad 50 displayed on the display of the imaging device 200, the user uses the pointing device 100 on the pointer 52 on the desired object 52. Move) to the Select command. Then, objects (sub-objects) belonging to the lower layer of the selected object 52 are displayed around the selected object 52. In addition, a list 55 of various candidate items starting with the phoneme “” 57 corresponding to the selected object may be displayed on one side.

사용자가 특정 오브젝트(52)를 선택한 후 그 주변에 표시되는 하위 오브젝트들(64)은 도 9에서와 같이 표시된다. 이와 같이 하위 오브젝트들(64)이 표시될 때에는, 상위 오브젝트들은 선택이 될 수 없도록 디스플레이 화면에 표시되지 않도록 하거나 비활성화된 상태로 표시되도록 하는 것이 바람직하다.The sub-objects 64 displayed around the user after selecting the specific object 52 are displayed as shown in FIG. 9. As such, when the lower objects 64 are displayed, it is preferable that the upper objects are not displayed on the display screen or displayed in an inactive state so that they cannot be selected.

특정 오브젝트(52)가 자음이므로, 상기 하위 오브젝트들(64)은 모음들의 집합이다. 단, 그 숫자의 제한을 고려하여 상기 모음들로는 단모음만 표시된다. 사용자가 이 중에서 하나의 모음 "ㅏ"(62) 상으로 포인터(54)를 움직여서 선택 명령을 내리면, 도 10과 같이, 상기 선택된 오브젝트(62)에 대한 하위 오브젝트들이 상기 선택된 오브젝트(62)의 주변에 표시된다. 이와 함께, 현재까지 선택된 음소들의 조합인 "다"(67)로 시작되는 후보 항목들의 리스트(65)가 일측에 표시된다.Since the particular object 52 is a consonant, the sub-objects 64 are a collection of vowels. However, in consideration of the limitation of the number, only short vowels are displayed in the vowels. When a user issues a selection command by moving the pointer 54 on one of the collections "ㅏ" 62, as shown in FIG. 10, sub-objects for the selected object 62 are surrounded by the selected object 62. Is displayed. Along with this, a list 65 of candidate items beginning with "C" 67, which is a combination of phonemes selected so far, is displayed on one side.

상기 모음 "ㅏ"(62)에 대한 하위 오브젝트들(74)은 상기 모음(62)을 기초로 한 쌍자음들이다. 사용자는 이들 쌍자음들 중 "ㅐ"(72)를 선택하여, 최종적으로 우측의 항목 리스트(77)에서 "대"(77)로 시작하는 항목들만 리스팅할 수 있고, 여기서 원하는 항목을 최종적으로 선택할 수 있다.Sub-objects 74 for the vowel " k " 62 are twin consonants based on the vowel 62. The user may select "ㅐ" 72 of these dipoles to finally list only those items that begin with "large" 77 in the item list 77 on the right, where the desired item is finally selected. Can be.

한편, 도 11 내지 도 13은 본 발명의 다른 실시예에 따른 컨텐츠 실행 어플리케이션에 관한 동작을 도시한다.11 to 13 illustrate an operation related to a content execution application according to another embodiment of the present invention.

사용자는 포인팅 디바이스(100)를 이용하여 포인터(54)를 움직여서, 주 메뉴(주 레이어)에서 컨텐츠의 카테고리들 중 하나를 선택할 수 있다. 사용자가 "영 화"라는 오브젝트(81)를 선택하면, 도 12와 같이 상기 오브젝트(81) 주변에 하위 오브젝트들이 표시된다. 물론, 이 때에도 주 메뉴의 오브젝트들은 선택이 되지 않도록 표시되지 않도록 하거나 비활성으로 표시되도록 할 수 있다.The user may select one of the categories of content in the main menu (main layer) by moving the pointer 54 using the pointing device 100. When the user selects the object 81 called "movie", sub-objects are displayed around the object 81 as shown in FIG. Of course, at this time, the objects of the main menu can be displayed so that they are not selected or displayed as inactive.

상기 하위 오브젝트들은 예를 들어, 상기 "영화"라는 오브젝트(81)의 장르들이다. 사용자가 이들 장르 중에서 하나의 장르인 "액션"이라는 오브젝트(82)를 선택하면, 도 13과 같이 상기 오브젝트(82) 주변에 영화의 제목을 나타내는 하위 오브젝트들이 표시된다. 사용자는 이중에서 하나인 "매트릭스"(84)를 선택하여 시청할 수 있다.The sub-objects are, for example, genres of the object 81 called "movie". When the user selects an object 82 called "action" among these genres, sub-objects representing the title of the movie are displayed around the object 82 as shown in FIG. The user can select and watch one of the "matrix" 84.

도 14는 본 발명의 일 실시예에 따른, 포인팅 디바이스를 이용한 사용자 명령 입력 방법을 도시하는 흐름도이다. 상기 방법은 포인팅 디바이스를 이용하여 사용자의 움직임을 감지하고 상기 감지된 움직임에 따라 디스플레이 화면 상에서 포인터를 제어하는 사용자 명령 입력 방법이다.14 is a flowchart illustrating a user command input method using a pointing device according to an embodiment of the present invention. The method is a user command input method of detecting a user's movement using a pointing device and controlling a pointer on a display screen according to the detected movement.

먼저, 포인팅 디바이스(100)는 사용자의 움직임을 감지한다(S1). 그러면, 상기 감지된 움직임은 영상기기로 전달된다. 상기 S1 단계는 예를 들어, 모션 센서부(110)가 사용자의 움직임을 감지하여 샘플링된 출력 값을 제공하는 단계와, 좌표 연산부(140)가 상기 출력 값으로부터 상기 디스플레이 화면상의 변위 정보를 산출하는 단계와, 트리거 감지부(130)가 사용자로부터 특정 오브젝트를 선택하는 명령을 감지하는 단계와, 발신부(150)가 상기 산출된 변위 정보 및 상기 선택하는 명령을 상기 영상 기기(200)에 전송하는 단계로 이루어질 수 있다.First, the pointing device 100 detects a user's movement (S1). Then, the detected motion is transmitted to the video device. In the step S1, for example, the motion sensor unit 110 detects a user's movement to provide a sampled output value, and the coordinate calculator 140 calculates displacement information on the display screen from the output value. And detecting, by the trigger detecting unit 130, a command for selecting a specific object from a user, and transmitting, by the transmitter 150, the calculated displacement information and the selecting command to the video device 200. It may consist of steps.

그 다음, 영상 기기(200)의 제어부(220)는 상기 감지된 움직임 및 사용자의 선택 명령에 따라 디스플레이 화면 상에서 포인터를 이동시키고 오브젝트가 선택되도록 한다(S2). 본 발명의 바람직한 실시예에 있어서, 상기 선택하는 명령은 상기 포인팅 디바이스의 길이 방향으로 찌르는 제스쳐이다.Next, the controller 220 of the imaging apparatus 200 moves the pointer on the display screen according to the detected movement and a user's selection command (S2). In a preferred embodiment of the present invention, the selecting command is a gesture stabbing in the longitudinal direction of the pointing device.

그러면, 영상 처리부(250)는 상기 디스플레이 화면 상에 제1 레이어에 속하는 적어도 하나의 제1 오브젝트를 표시한다(S3).Then, the image processor 250 displays at least one first object belonging to the first layer on the display screen (S3).

그 후, 수신부(210)는 포인팅 디바이스(100)로부터 상기 제1 오브젝트 중 하나의 오브젝트를 선택하는 명령을 수신한다(S4). 본 발명의 제1 실시예에 따르면, 상기 적어도 하나의 제1 오브젝트는 자음이고, 상기 적어도 하나의 제2 오브젝트는 상기 자음과 결합하여 문자를 형성하는 모음일 수 있다. 물론, 상기 제1 오브젝트가 자음인 경우에도 상기 제2 오브젝트는 반드시 모음일 필요는 없고, 상기 제1 오브젝트의 자음과 함께 사용하여 필요한 정보를 지정할 수 있는 자음일 수도 있다. 또한, 본 발명의 제2 실시예에 따르면, 상기 적어도 하나의 제1 오브젝트는 소정의 컨텐츠에 대한 상위 분류이고, 상기 적어도 하나의 제2 오브젝트는 상기 컨텐츠에 대한 하위 분류이다.Thereafter, the receiver 210 receives a command for selecting one of the first objects from the pointing device 100 (S4). According to the first embodiment of the present invention, the at least one first object may be a consonant, and the at least one second object may be a vowel that forms a letter by combining with the consonant. Of course, even when the first object is a consonant, the second object does not necessarily need to be a vowel, and may be a consonant which can designate necessary information using the consonant of the first object. Further, according to the second embodiment of the present invention, the at least one first object is an upper classification of predetermined content, and the at least one second object is a lower classification of the content.

만약, 상기 제1 레이어의 다음 레이어가 존재하지 않으면(S5의 아니오), 제어부(220)는 상기 제1 레이어에서 상기 선택된 선택된 오브젝트에 대응되는 동작을 실행한다(S6).If the next layer of the first layer does not exist (NO in S5), the controller 220 executes an operation corresponding to the selected object in the first layer (S6).

한편, 상기 제1 레이어의 다음 레이어가 존재하면(S5의 예), 영상 처리부(250)는 상기 선택된 오브젝트의 주변에 제2 레이어에 속하는 적어도 하나의 제2 오브젝트를 표시한다(S7). 상기 제2 오브젝트는 상기 선택된 오브젝트의 주변에 원 형으로 표시될 수 있다. 그 이후 다시 S4 단계 및 그 이하 단계가 반복될 수 있다.Meanwhile, if the next layer of the first layer exists (YES in S5), the image processor 250 displays at least one second object belonging to the second layer around the selected object (S7). The second object may be displayed in a circle around the selected object. Thereafter, the S4 and subsequent steps may be repeated again.

이상 첨부된 도면을 참조하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야 한다.Although the embodiments of the present invention have been described above with reference to the accompanying drawings, those skilled in the art to which the present invention pertains may implement the present invention in other specific forms without changing the technical spirit or essential features thereof. I can understand that. Therefore, it should be understood that the embodiments described above are exemplary in all respects and not restrictive.

도 1은 디스플레이 상에 표시된 문자판(10)에서 음소를 선택하여 문자를 입력하는 종래의 기술의 예를 보여주는 도면.1 is a view showing an example of a conventional technique of selecting a phoneme from a dial 10 displayed on a display to input characters.

도 2는 디스플레이 상의 메뉴에서 하위 메뉴로 이동하면서 최종적인 항목을 선택하는 종래 기술의 예를 보여주는 도면.2 shows an example of the prior art of selecting the final item while moving from a menu on the display to a submenu.

도 3 및 4는 본 발명의 일 실시예에 따른 관성 센서를 갖는 포인팅 디바이스를 이용하여 디스플레이 상의 오브젝트를 선택하는 개념을 설명하는 도면들.3 and 4 illustrate the concept of selecting an object on a display using a pointing device with an inertial sensor in accordance with one embodiment of the present invention.

도 5는 본 발명의 일 실시예에 따른 사용자 명령 입력 시스템을 도시하는 개략도.5 is a schematic diagram illustrating a user command input system according to an embodiment of the present invention.

도 6은 도 5의 포인팅 디바이스(100) 및 영상 기기(200)의 구성을 보다 자세히 예시한 블록도.6 is a block diagram illustrating in more detail the configuration of the pointing device 100 and the imaging device 200 of FIG. 5.

도 7은 피치, 롤 및 요의 정의를 설명하는 도면.7 is a diagram explaining the definition of pitch, roll, and yaw;

도 8 내지 도 10은 본 발명의 일 실시예에 따른 문자 입력 어플리케이션에 관한 동작을 도시한 도면들.8 to 10 are diagrams illustrating operations relating to a character input application according to one embodiment of the present invention.

도 11 내지 도 13은 본 발명의 다른 실시예에 따른 컨텐츠 실행 어플리케이션에 관한 동작을 도시한 도면들.11 to 13 illustrate operations related to a content execution application according to another embodiment of the present invention.

도 14는 본 발명의 일 실시예에 따른 포인팅 디바이스를 이용한 사용자 명령 입력 방법을 도시하는 흐름도.14 is a flowchart illustrating a user command input method using a pointing device according to an embodiment of the present invention.

(도면의 주요부분에 대한 부호 설명)(Symbol description of main part of drawing)

100: 포인팅 디바이스 110: 모션 센서부100: pointing device 110: motion sensor unit

120, 220: 제어부 130: 트리거 감지부120, 220: control unit 130: trigger detection unit

140: 좌표 연산부 150: 발신부140: coordinate calculator 150: transmitter

200: 영상 기기 210: 수신부200: video device 210: receiver

240: 메모리 250: 영상 처리부240: memory 250: image processor

Claims (19)

사용자의 움직임을 감지하는 포인팅 디바이스와, 상기 감지된 사용자의 움직임에 따라 디스플레이 화면 상에서 포인터를 이동시키고 오브젝트를 선택하는 영상 기기를 포함하는 사용자 명령 입력 시스템으로서, 상기 영상 기기는 A user command input system comprising a pointing device for detecting a movement of a user and an image device for moving a pointer on a display screen and selecting an object according to the detected movement of the user. 상기 디스플레이 화면 상에 제1 레이어에 속하는 적어도 하나의 제1 오브젝트를 표시하고, 상기 포인팅 디바이스로부터 상기 제1 오브젝트 중 하나의 오브젝트를 선택하는 명령을 수신하면, 상기 선택된 오브젝트의 주변에 제2 레이어에 속하는 적어도 하나의 제2 오브젝트를 표시하되, Displaying at least one first object belonging to a first layer on the display screen, and receiving a command to select one of the first objects from the pointing device, the second layer around the selected object Display at least one second object to which it belongs, 상기 제 2 레이어에 속하는 적어도 하나의 제 2 오브젝트가 표시되면, 상기 제 1 레이어에 속하는 적어도 하나의 제 1 오브젝트는 표시되지 않거나 비활성되는, 포인팅 디바이스를 이용한 사용자 명령 입력 시스템.And when at least one second object belonging to the second layer is displayed, the at least one first object belonging to the first layer is not displayed or inactive. 제1항에 있어서,The method of claim 1, 상기 적어도 하나의 제1 오브젝트는 자음이고, 상기 적어도 하나의 제2 오브젝트는 상기 자음과 결합하여 문자를 형성하는 모음인, 포인팅 디바이스를 이용한 사용자 명령 입력 시스템.And the at least one first object is a consonant, and the at least one second object is a vowel that combines with the consonant to form a character. 제1항에 있어서,The method of claim 1, 상기 적어도 하나의 제1 오브젝트는 자음이고, 상기 적어도 하나의 제2 오브젝트는 상기 자음과 함께 사용하여 필요한 정보를 지정할 수 있는 자음인, 포인팅 디바이스를 이용한 사용자 명령 입력 시스템.And the at least one first object is a consonant, and the at least one second object is a consonant capable of specifying necessary information together with the consonant. 제1항에 있어서,The method of claim 1, 상기 적어도 하나의 제1 오브젝트는 소정의 컨텐츠에 대한 상위 분류이고, 상기 적어도 하나의 제2 오브젝트는 상기 컨텐츠에 대한 하위 분류인, 포인팅 디바이스를 이용한 사용자 명령 입력 시스템.And the at least one first object is an upper classification of predetermined content, and the at least one second object is a lower classification of the content. 제1항에 있어서, 상기 영상 기기는 The method of claim 1, wherein the imaging device 상기 적어도 하나의 제2 오브젝트 중 하나의 오브젝트가 선택되면, 상기 적어도 하나의 제2 오브젝트 중에서 선택된 오브젝트에 대응되는 동작을 실행하는, 포인팅 디바이스를 이용한 사용자 명령 입력 시스템.And when an object of the at least one second object is selected, executing an operation corresponding to the selected object among the at least one second object. 제1항에 있어서, 상기 제2 오브젝트는The method of claim 1, wherein the second object 상기 선택된 오브젝트의 주변에 원형으로 표시되는, 포인팅 디바이스를 이용한 사용자 명령 입력 시스템.A user command input system using a pointing device, which is displayed in a circle around the selected object. 제1항에 있어서,The method of claim 1, 상기 포인팅 디바이스는The pointing device is 사용자의 움직임을 감지하여 샘플링된 출력 값을 제공하는 모션 센서부;A motion sensor unit which detects a user's movement and provides a sampled output value; 상기 출력 값으로부터 상기 디스플레이 화면상의 변위 정보를 산출하는 좌표 연산부;A coordinate calculator configured to calculate displacement information on the display screen from the output value; 사용자로부터 특정 오브젝트를 선택하는 명령을 감지하는 트리거 감지부; 및A trigger detector for detecting a command for selecting a specific object from a user; And 상기 산출된 변위 정보 및 상기 선택하는 명령을 상기 영상 기기에 전송하는 발신부를 포함하는, 포인팅 디바이스를 이용한 사용자 명령 입력 시스템.And a transmitter for transmitting the calculated displacement information and the selected command to the video apparatus. 제7항에 있어서,The method of claim 7, wherein 상기 영상 기기는The imaging device 상기 발신부로부터 전송되는 상기 변위 정보 및 상기 선택하는 명령을 수신하는 수신부;A receiver which receives the displacement information and the command to select from the transmitter; 상기 변위 정보에 근거하여 상기 디스플레이 화면 상에서 상기 포인터의 이동을 제어하는 제어부;A control unit controlling a movement of the pointer on the display screen based on the displacement information; 상기 제1 및 제2 오브젝트에 관한 이미지를 저장하는 메모리; 및A memory for storing images relating to the first and second objects; And 상기 제어부의 제어에 따라 상기 제1 오브젝트 또는 제2 오브젝트에 관한 이미지를 상기 디스플레이 화면 상에 표시하는 영상 처리부를 포함하는, 포인팅 디바이스를 이용한 사용자 명령 입력 시스템.And an image processor configured to display an image related to the first object or the second object on the display screen under the control of the controller. 삭제delete 모션 센서를 갖는 포인팅 디바이스에 의하여 사용자의 움직임을 감지하고 상기 감지된 움직임에 따라 디스플레이 화면 상에서 포인터를 제어하는 사용자 명령 입력 방법으로서,A user command input method of detecting a user's movement by a pointing device having a motion sensor and controlling a pointer on a display screen according to the detected movement, 사용자의 움직임을 감지하는 단계;Detecting movement of a user; 상기 감지된 움직임에 따라 디스플레이 화면 상에서 포인터를 이동시키고 오브젝트를 선택하는 단계;Moving a pointer on a display screen and selecting an object according to the detected movement; 상기 디스플레이 화면 상에 제1 레이어에 속하는 적어도 하나의 제1 오브젝트를 표시하는 단계;Displaying at least one first object belonging to a first layer on the display screen; 상기 포인팅 디바이스로부터 상기 제1 오브젝트 중 하나의 오브젝트를 선택하는 명령을 수신하는 단계; 및Receiving a command to select one of the first objects from the pointing device; And 상기 선택된 오브젝트의 주변에 제2 레이어에 속하는 적어도 하나의 제2 오브젝트를 표시하는 단계를 포함하되, Displaying at least one second object belonging to a second layer around the selected object, 상기 제 2 레이어에 속하는 적어도 하나의 제 2 오브젝트가 표시되면, 상기 제 1 레이어에 속하는 적어도 하나의 제 1 오브젝트는 표시되지 않거나 비활성되는, 포인팅 디바이스를 이용한 사용자 명령 입력 방법.And when at least one second object belonging to the second layer is displayed, the at least one first object belonging to the first layer is not displayed or inactivated. 제10항에 있어서,The method of claim 10, 상기 적어도 하나의 제1 오브젝트는 자음이고, 상기 적어도 하나의 제2 오브젝트는 상기 자음과 결합하여 문자를 형성하는 모음인, 포인팅 디바이스를 이용한 사용자 명령 입력 방법.The at least one first object is a consonant, and the at least one second object is a vowel that forms a character by combining with the consonant. 제10항에 있어서,The method of claim 10, 상기 적어도 하나의 제1 오브젝트는 자음이고, 상기 적어도 하나의 제2 오브젝트는 상기 자음과 함께 사용하여 필요한 정보를 지정할 수 있는 자음인, 포인팅 디바이스를 이용한 사용자 명령 입력 방법.And the at least one first object is a consonant, and the at least one second object is a consonant capable of designating necessary information using the consonant. 제10항에 있어서,The method of claim 10, 상기 적어도 하나의 제1 오브젝트는 소정의 컨텐츠에 대한 상위 분류이고, 상기 적어도 하나의 제2 오브젝트는 상기 컨텐츠에 대한 하위 분류인, 포인팅 디바이스를 이용한 사용자 명령 입력 방법.And the at least one first object is an upper classification of a predetermined content, and the at least one second object is a lower classification of the content. 제10항에 있어서,The method of claim 10, 상기 적어도 하나의 제2 오브젝트 중 하나의 오브젝트가 선택되면, 상기 적어도 하나의 제2 오브젝트 중에서 선택된 오브젝트에 대응되는 동작을 실행하는 단계를 더 포함하는, 포인팅 디바이스를 이용한 사용자 명령 입력 방법.And if an object of the at least one second object is selected, executing an operation corresponding to the selected object among the at least one second object. 제10항에 있어서, 상기 제2 오브젝트는The method of claim 10, wherein the second object 상기 선택된 오브젝트의 주변에 원형으로 표시되는, 포인팅 디바이스를 이용한 사용자 명령 입력 방법.A user command input method using a pointing device, which is displayed in a circle around the selected object. 제10항에 있어서,The method of claim 10, 상기 사용자의 움직임을 감지하는 단계는Detecting the movement of the user 사용자의 움직임을 감지하여 샘플링된 출력 값을 제공하는 단계;Detecting a user's movement and providing a sampled output value; 상기 출력 값으로부터 상기 디스플레이 화면상의 변위 정보를 산출하는 단계; 및Calculating displacement information on the display screen from the output value; And 사용자로부터 특정 오브젝트를 선택하는 명령을 감지하는 단계를 포함하는, 포인팅 디바이스를 이용한 사용자 명령 입력 방법.And detecting a command for selecting a specific object from a user. 삭제delete 디스플레이 화면 상에서 포인터를 이동시키고 오브젝트를 선택하는 영상 기기를 포함하는 사용자 명령 입력 시스템으로서, 상기 영상 기기는 A user command input system comprising a video device for moving a pointer on a display screen and selecting an object, wherein the video device includes: 상기 디스플레이 화면 상에 제1 레이어에 속하는 적어도 하나의 제1 오브젝트를 표시하고, 포인팅 디바이스로부터 상기 제1 오브젝트 중 하나의 오브젝트를 선택하는 명령을 수신하면, 상기 선택된 오브젝트의 주변에 제2 레이어에 속하는 적어도 하나의 제2 오브젝트를 표시하며, Displaying at least one first object belonging to a first layer on the display screen, and receiving a command to select one of the first objects from a pointing device, belonging to a second layer around the selected object Display at least one second object, 상기 선택하는 명령은 상기 포인팅 디바이스의 길이 방향으로 찌르는 제스쳐이고, The selecting command is a gesture stabbing in the longitudinal direction of the pointing device, 상기 제 2 레이어에 속하는 적어도 하나의 제 2 오브젝트가 표시되면, 상기 제 1 레이어에 속하는 적어도 하나의 제 1 오브젝트는 표시되지 않거나 비활성되는, 포인팅 디바이스를 이용한 사용자 명령 입력 시스템.And when at least one second object belonging to the second layer is displayed, the at least one first object belonging to the first layer is not displayed or inactive. 포인팅 디바이스의 움직임에 따라 디스플레이 화면 상에서 포인터를 제어하는 사용자 명령 입력 방법으로서,A user command input method of controlling a pointer on a display screen according to a movement of a pointing device, 사용자의 움직임을 감지하는 단계;Detecting movement of a user; 상기 감지된 움직임에 따라 디스플레이 화면 상에서 포인터를 이동시키고 오브젝트를 선택하는 단계;Moving a pointer on a display screen and selecting an object according to the detected movement; 상기 디스플레이 화면 상에 제1 레이어에 속하는 적어도 하나의 제1 오브젝트를 표시하는 단계;Displaying at least one first object belonging to a first layer on the display screen; 상기 포인팅 디바이스로부터 상기 제1 오브젝트 중 하나의 오브젝트를 선택하는 명령을 수신하는 단계; 및Receiving a command to select one of the first objects from the pointing device; And 상기 선택된 오브젝트의 주변에 제2 레이어에 속하는 적어도 하나의 제2 오브젝트를 표시하는 단계를 포함하며,Displaying at least one second object belonging to a second layer around the selected object, 상기 선택하는 명령은 상기 포인팅 디바이스의 길이 방향으로 찌르는 제스쳐이고, The selecting command is a gesture stabbing in the longitudinal direction of the pointing device, 상기 제 2 레이어에 속하는 적어도 하나의 제 2 오브젝트가 표시되면, 상기 제 1 레이어에 속하는 적어도 하나의 제 1 오브젝트는 표시되지 않거나 비활성되는, 포인팅 디바이스를 이용한 사용자 명령 입력 방법.And when at least one second object belonging to the second layer is displayed, the at least one first object belonging to the first layer is not displayed or inactivated.
KR1020090008964A 2009-02-04 2009-02-04 A system and method for inputting user command using a pointing device KR101066954B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090008964A KR101066954B1 (en) 2009-02-04 2009-02-04 A system and method for inputting user command using a pointing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090008964A KR101066954B1 (en) 2009-02-04 2009-02-04 A system and method for inputting user command using a pointing device

Publications (2)

Publication Number Publication Date
KR20100089630A KR20100089630A (en) 2010-08-12
KR101066954B1 true KR101066954B1 (en) 2011-09-22

Family

ID=42755495

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090008964A KR101066954B1 (en) 2009-02-04 2009-02-04 A system and method for inputting user command using a pointing device

Country Status (1)

Country Link
KR (1) KR101066954B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102681695B (en) * 2012-04-25 2016-12-07 北京三星通信技术研究有限公司 cursor control method and device
KR102105101B1 (en) * 2012-11-07 2020-04-27 삼성전자주식회사 Display apparatus and Method for correcting character thereof

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020006237A (en) * 2000-07-12 2002-01-19 주식회사 슈프리마 Pointing device using accelerometers
KR20030046943A (en) * 2001-12-07 2003-06-18 주식회사 두솔시스템 Proffering method of virtual Keyboard and operating method for the same
KR20070089381A (en) * 2006-02-28 2007-08-31 삼성전자주식회사 Method for displaying menu and computer readable recording medium storing program for performing the menu display method
KR20080094200A (en) * 2007-04-19 2008-10-23 삼성전자주식회사 Method for providing gui including menu item displayed in pointer locating area and video apparatus thereof

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020006237A (en) * 2000-07-12 2002-01-19 주식회사 슈프리마 Pointing device using accelerometers
KR20030046943A (en) * 2001-12-07 2003-06-18 주식회사 두솔시스템 Proffering method of virtual Keyboard and operating method for the same
KR20070089381A (en) * 2006-02-28 2007-08-31 삼성전자주식회사 Method for displaying menu and computer readable recording medium storing program for performing the menu display method
KR20080094200A (en) * 2007-04-19 2008-10-23 삼성전자주식회사 Method for providing gui including menu item displayed in pointer locating area and video apparatus thereof

Also Published As

Publication number Publication date
KR20100089630A (en) 2010-08-12

Similar Documents

Publication Publication Date Title
US8677284B2 (en) Method and apparatus for controlling and displaying contents in a user interface
JP5531616B2 (en) Control device, input device, control system, control method, and handheld device
US9841827B2 (en) Command of a device by gesture emulation of touch gestures
US10042438B2 (en) Systems and methods for text entry
EP3087456B1 (en) Remote multi-touch control
US20140002355A1 (en) Interface controlling apparatus and method using force
WO2012011263A1 (en) Gesture input device and gesture input method
US20120256835A1 (en) Motion control used as controlling device
US20130246955A1 (en) Visual feedback for highlight-driven gesture user interfaces
EP2144142A2 (en) Input apparatus using motions and user manipulations and input method applied to such input apparatus
KR20140060818A (en) Remote controller and display apparatus, control method thereof
JP2012521594A (en) Multi-telepointer, virtual object display device, and virtual object control method
EP2752831B1 (en) Input device, display device and method of controlling thereof
US20150109206A1 (en) Remote interaction system and control thereof
JP2014109866A (en) Instrument operation device and program
EP2751653A1 (en) Information processing apparatus, information processing method, and program
JP6270495B2 (en) Information processing apparatus, information processing method, computer program, and storage medium
CN111475069B (en) Display method and electronic equipment
JP2009265897A (en) Hand-held information processor, controller, control system and control method
EP2538308A2 (en) Motion-based control of a controllled device
US9878246B2 (en) Method and device for controlling a display device
US20140152563A1 (en) Apparatus operation device and computer program product
KR101066954B1 (en) A system and method for inputting user command using a pointing device
CN107111930B (en) Display device and control method thereof
EP3433713B1 (en) Selecting first digital input behavior based on presence of a second, concurrent, input

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20140902

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20150615

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20160630

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20170629

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20180625

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20190625

Year of fee payment: 9