KR20110010522A - User interface method using drag action and terminal - Google Patents

User interface method using drag action and terminal Download PDF

Info

Publication number
KR20110010522A
KR20110010522A KR1020090068123A KR20090068123A KR20110010522A KR 20110010522 A KR20110010522 A KR 20110010522A KR 1020090068123 A KR1020090068123 A KR 1020090068123A KR 20090068123 A KR20090068123 A KR 20090068123A KR 20110010522 A KR20110010522 A KR 20110010522A
Authority
KR
South Korea
Prior art keywords
drag
information
input
touch
terminal
Prior art date
Application number
KR1020090068123A
Other languages
Korean (ko)
Inventor
홍상우
박명순
Original Assignee
에스케이텔레콤 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에스케이텔레콤 주식회사 filed Critical 에스케이텔레콤 주식회사
Priority to KR1020090068123A priority Critical patent/KR20110010522A/en
Publication of KR20110010522A publication Critical patent/KR20110010522A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1643Details related to the display arrangement, including those related to the mounting of the display in the housing the display being associated to a digitizer, e.g. laptops that can be used as penpads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72469User interfaces specially adapted for cordless or mobile telephones for operating the device by selecting functions from two or more displayed items, e.g. menus or icons

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PURPOSE: A user interface method and a terminal thereof for utilizing a drag motion of a touch input unit are provided to divide existing drag motions into the motion of respectively different input signals according to the strength or the time of the drag. CONSTITUTION: A touch input unit(20) generates drag information according to the strength or the time of the drag. A control unit(30) inputs the drag information according to the touch input unit. The control unit executes a command corresponding to the inputted drag information. The control unit recognizes the drag information according to the strength or the time of the drag.

Description

드래그 동작을 활용한 사용자 인터페이스 방법 및 단말기{USER INTERFACE METHOD USING DRAG ACTION AND TERMINAL}USER INTERFACE METHOD USING DRAG ACTION AND TERMINAL}

본 발명은 사용자 인터페이스 방법 및 단말기에 관한 것으로, 더욱 상세하게는 외형상 동일한 드래그 동작을 수행하더라도 드래그의 장단, 강약 및 시간 중 적어도 하나에 따른 드래그 정보를 서로 다른 입력 신호로 인식하여 동작을 수행하는 드래그 동작을 활용한 사용자 인터페이스 방법 및 단말기에 관한 것이다.The present invention relates to a user interface method and a terminal, and more particularly, even when the same drag operation is performed in appearance, the drag information according to at least one of short and long, strong and time of the drag is recognized as different input signals to perform the operation. It relates to a user interface method and a terminal using a drag operation.

통상적으로 사용자는 단말기에 마련된 키패드, 터치스크린, 조이스틱, 스크롤 휠 등의 입력장치를 이용하여 단말기를 조작하거나 단말기에 필요한 정보를 입력한다.Typically, a user operates a terminal or inputs information necessary for the terminal by using an input device such as a keypad, a touch screen, a joystick, or a scroll wheel provided in the terminal.

특히 최근의 휴대단말기에는 표시부와 입력부의 기능을 도시에 수행할 수 있는 터치스크린의 장착이 확대되고 있다. 사용자는 터치스크린의 터치를 통하여 휴대단말기의 응용프로그램을 실행하고, 필요한 기능을 수행한다. 예를 들어 단말기의 터치스크린에 표시되는 아이콘이나 메뉴바의 터치를 통하여 응용프로그램의 기능을 실행할 수 있다. 따라서 응용프로그램의 실행이라는 측면에서 터치스크린 방식이 통상적인 키패드 방식에 비하여 사용자에게 편리성을 제공하고 있다고 할 수 있다.In particular, in recent years, mounting of a touch screen capable of performing functions of a display unit and an input unit in a portable terminal has been expanded. The user executes an application of the mobile terminal through a touch of the touch screen and performs a necessary function. For example, an application program may be executed by touching an icon displayed on a touch screen of a terminal or a menu bar. Therefore, in terms of execution of an application program, the touch screen method provides convenience to a user as compared to a conventional keypad method.

하지만 종래의 터치스크린을 통한 터치 입력은 손가락으로 터치스크린의 특정 영역을 짧게 한 번, 또는 두 번 터치하거나 드래그하는 정도에 그치고 있기 때문에, 입력 방식이 한정적이다. 이로 인해 사용자는 터치스크린을 통하여 단말기의 다양한 기능을 수행하는 데 불편이 따른다.However, the conventional touch input through the touch screen is limited to the input method because the finger touches or drags a specific area of the touch screen shortly or twice. As a result, the user is inconvenient to perform various functions of the terminal through the touch screen.

더욱이 터치스크린을 통한 터치 입력이 증대되고 있는 현 시점에서, 상기와 같은 한정된 입력 방식은 사용자로 하여금 다양한 입력을 할 수 없게 하므로 불편을 야기할 수 있다.Furthermore, at the present time when the touch input through the touch screen is increasing, the limited input method as described above may cause inconvenience to the user since it is impossible for the user to perform various inputs.

따라서 본 발명의 목적은 터치입력부를 통한 새로운 입력 방식을 제공할 수 있는 드래그 동작을 활용한 사용자 인터페이스 방법 및 단말기를 제공하는 데 있다.Accordingly, an object of the present invention is to provide a user interface method and a terminal using a drag operation that can provide a new input method through the touch input unit.

본 발명의 다른 목적은 외형상 동일한 드래그 동작을 수행하더라도 드래그의 장단, 강약 및 시간 중 적어도 하나에 따른 드래그 정보를 서로 다른 입력 신호로 인식하여 동작을 수행하는 드래그 동작을 활용한 사용자 인터페이스 방법 및 단말기를 제공하는 데 있다.Another object of the present invention is a user interface method and a terminal using a drag operation for performing the operation by recognizing the drag information according to at least one of long and short, strong and time of the drag as a different input signal even if the same drag operation is performed in appearance. To provide.

상기 목적을 달성하기 위해서, 본 발명은 터치입력부와 제어부를 포함하여 구성되는 단말기를 제공한다. 상기 터치입력부는 드래그 되면, 상기 드래그의 장단, 강약 및 시간 중 적어도 하나에 따른 드래그 정보를 생성한다. 그리고 상기 제어부는 상기 터치입력부를 통하여 상기 드래그 정보를 입력받고, 상기 입력된 드래그 정보에 대응되는 명령어를 결정하여 실행한다.In order to achieve the above object, the present invention provides a terminal including a touch input unit and a control unit. When the touch input unit is dragged, the touch input unit generates drag information according to at least one of long and short, strength and time of the drag. The controller receives the drag information through the touch input unit and determines and executes a command corresponding to the input drag information.

본 발명에 따른 단말기에 있어서, 상기 제어부는 상기 드래그 정보에 포함된 상기 드래그의 장단, 강약 및 시간 중 적어도 하나에 따라 상기 드래그 정보를 각각 다른 입력 신호로 인식한다.In the terminal according to the present invention, the control unit recognizes the drag information as different input signals according to at least one of long and short, strong and time of the drag included in the drag information.

본 발명에 따른 단말기에 있어서, 상기 드래그 정보는 상기 드래그의 방향정보와, 상기 드래그의 시작지점과 종료지점의 좌표정보를 갖는 드래그 기본정보를 포함한다. 이때 상기 제어부는 상기 드래그 기본정보에 대해서 상기 드래그의 장단, 강약 및 시간 중 적어도 하나에 가중치로 사용하여 상기 명령어를 실행할 수 있다.In the terminal according to the present invention, the drag information includes drag basic information having direction information of the drag and coordinate information of a start point and an end point of the drag. In this case, the controller may execute the command by using the drag basic information as a weight for at least one of long, short, and long periods of the drag.

본 발명에 따른 단말기는 드래그 정보에 각각 대응되는 명령어를 저장하는 메모리를 더 포함하여 구성된다. 이때 상기 제어부는 상기 입력된 드래그 정보에 대응되는 명령어를 상기 메모리에서 추출하여 결정할 수 있다.The terminal according to the present invention further comprises a memory for storing a command corresponding to each of the drag information. In this case, the controller may extract and determine a command corresponding to the input drag information from the memory.

본 발명에 따른 단말기에 있어서, 상기 터치입력부는 터치스크린의 터치패널, 터치패드, 터치센서 중에 적어도 하나를 포함한다.In the terminal according to the present invention, the touch input unit includes at least one of a touch panel, a touch pad, and a touch sensor of the touch screen.

본 발명은 또한, 터치입력부를 구비한 단말기의 사용자 인터페이스 방법으로, 상기 터치입력부가 사용자의 터치에 의해 드래그되면, 상기 드래그의 장단, 강약 및 시간 중 적어도 하나에 따른 드래그 정보를 생성하여 제어부로 입력하는 입력 단계, 상기 제어부가 상기 입력된 드래그 정보에 대응되는 명령어를 결정하는 결정 단계, 상기 제어부가 상기 결정된 명령어를 실행하는 실행 단계를 포함하는 드래그 동작을 활용한 사용자 인터페이스 방법을 제공한다.The present invention also provides a user interface method of a terminal having a touch input unit. When the touch input unit is dragged by a user's touch, the drag input unit generates drag information according to at least one of long and short periods, strength and time of the drag, and inputs it to the controller. And an input step, a determining step of the control unit determining a command corresponding to the input drag information, and an execution step of the control unit executing the determined command.

본 발명에 따른 사용자 인터페이스 방법은, 상기 입력 단계 이전에 수행되는, 상기 제어부가 상기 드래그의 장단, 강약 및 시간 중 적어도 하나에 따라 각기 다르게 인식되는 드래그 정보에 대응하는 명령어를 메모리에 저장하는 저장단계를 더 포함할 수 있다.In the user interface method according to the present invention, the storage step of the control unit performed before the input step, the command corresponding to the drag information that is differently recognized according to at least one of the short and long, strong and time of the drag in the memory storage step It may further include.

그리고 본 발명에 따른 사용자 인터페이스 방법에 있어서, 상기 실행 단계는 상기 제어부가 상기 결정된 명령어에 따른 실행 결과를 영상, 음성 및 진동 중에 적어도 하나로 출력 단계를 더 포함할 수 있다.In the user interface method according to the present invention, the executing may further include outputting, by the controller, at least one of an execution result according to the determined command to at least one of an image, a voice, and a vibration.

본 발명에 따르면, 단말기는 외형상 동일한 드래그 동작을 수행하더라도 드래그의 장단, 강약 및 시간 중 적어도 하나에 따른 드래그 정보를 서로 다른 입력 신호로 구분하여 동작을 수행하기 때문에, 사용자는 드래그 동작을 통하여 단말기의 다양한 기능을 동작시킬 수 있다.According to the present invention, even if the terminal performs the same drag operation in appearance, the user performs the operation by dividing the drag information according to at least one of long, short, weak and time of the drag into different input signals. You can operate various functions of.

이와 같이 기존의 드래그 동작을 드래그의 장단, 강약, 시간에 따라 각기 다른 입력 신호로 구분함으로써, 별도의 입력기가 없더라도 단말기에 다양한 입력이 가능하고, 사용자는 드래그 입력만으로도 단말기의 다양한 기능을 기능을 동작시킬 수 있어 편리하다.As such, by dividing the existing drag operation into different input signals according to the length, strength and weakness of the drag, various inputs are possible on the terminal even without a separate input device, and the user operates various functions of the terminal with only a drag input. It is convenient to be able to do it.

이하 본 발명의 바람직한 실시 예를 첨부한 도면을 참조하여 상세히 설명한다. 도면들 중 동일한 구성 요소들은 가능한 한 어느 곳에서든지 동일한 부호들로 나타내고 있음에 유의하여야 한다. 하기 설명 및 첨부 도면에서 본 발명의 요지를 불필요하게 흐릴 수 있는 공지 기능 및 구성에 대한 상세한 설명은 생략한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. It should be noted that the same elements in the figures are denoted by the same reference numerals wherever possible. In the following description and the annexed drawings, detailed descriptions of well-known functions and configurations that may unnecessarily obscure the subject matter of the present invention will be omitted.

도 1은 본 발명의 실시예에 따른 단말기(100)의 구성을 보여주는 블록도이다.1 is a block diagram showing the configuration of a terminal 100 according to an embodiment of the present invention.

도 1을 참조하면, 본 실시예에 따른 단말기(100)는 터치입력부(20)를 구비한 단말기이다. 단말기(100)는 터치입력부(20)를 통해 입력되는 터치 또는 드래그 신호에 따라 기능을 수행할 수 있다. 여기서 단말기(100)는 이동통신 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 노트북, 이동방송 수신기, 디지털 카메라 등을 포함한다.Referring to FIG. 1, the terminal 100 according to the present embodiment is a terminal having a touch input unit 20. The terminal 100 may perform a function according to a touch or drag signal input through the touch input unit 20. The terminal 100 includes a mobile communication terminal, a personal digital assistant (PDA), a portable multimedia player (PMP), a notebook computer, a mobile broadcast receiver, a digital camera, and the like.

본 실시예에 따른 단말기(100)는 통신 인터페이스부(12), 표시부(14), 키 입력부(16), 메모리(18), 터치입력부(20) 및 제어부(30)를 포함한다.The terminal 100 according to the present exemplary embodiment includes a communication interface unit 12, a display unit 14, a key input unit 16, a memory 18, a touch input unit 20, and a controller 30.

통신 인터페이스부(12)는 단말기(100)의 유선 또는 무선통신 기능을 수행한다. 무선통신 기능을 수행하는 통신 인터페이스부(12)는 송신되는 신호의 주파수를 상승변환 및 증폭하는 RF(Radio Frequency) 송신기(미도시)와, 수신되는 신호를 저잡음 증폭하고 주파수를 하강 변환하는 RF 수신기(미도시) 등을 포함할 수 있다.The communication interface unit 12 performs a wired or wireless communication function of the terminal 100. The communication interface 12 performing a wireless communication function includes an RF (Radio Frequency) transmitter (not shown) for upconverting and amplifying a frequency of a transmitted signal, and an RF receiver for low noise amplifying and downconverting a received signal. (Not shown) and the like.

표시부(14)는 단말기(100)에서 실행되는 각종 기능 메뉴를 비롯하여 메모리(18)에 저장된 정보를 표시한다. 표시부(14)는 제어부(30)의 제어에 따라 터치입력부(20)를 통한 터치 또는 드래그에 따른 실행 결과를 영상으로 표시할 수 있다. 표시부(14)로는 LCD(Liquid Crystal Display)나 터치스크린이 사용될 수 있다. 본 실시예에서는 표시부(14)로 터치입력부(20)를 구비하는 터치스크린을 예시하였다. 표시부(14)의 터치 또는 드래그를 통하여 입력되는 사용자 입력은 터치입력부(20)에 의해 감지될 수 있다.The display unit 14 displays information stored in the memory 18 including various function menus executed in the terminal 100. The display unit 14 may display an execution result according to a touch or a drag through the touch input unit 20 under the control of the controller 30 as an image. As the display unit 14, a liquid crystal display (LCD) or a touch screen may be used. In the present exemplary embodiment, the touch screen including the touch input unit 20 as the display unit 14 is illustrated. The user input input through touch or dragging of the display unit 14 may be sensed by the touch input unit 20.

키 입력부(16)는 숫자 및 문자를 입력받을 수 있는 키 및 각종 기능을 설정하기 위한 키를 구비하여 사용자로부터 선택 신호를 입력받는다. 본 실시예에 따른 키 입력부(16)는 터치입력부(20)를 통해 터치 입력 또는 드래그 입력을 수신할 것인지를 결정하는 사용자 입력을 수신할 수 있다. 예를 들어 터치입력부(20)를 통한 사용자 입력이 가능한 단말기(100)가 그 입력을 수신할 수 없도록 잠금기능을 구비 하고 있다고 가정하면, 사용자는 키 입력부(16)에 기 설정된 키를 입력함으로써 잠금기능을 해제하고 터치입력부(20)를 통한 사용자 입력이 가능하도록 할 수 있다.The key input unit 16 includes a key for receiving numbers and letters and a key for setting various functions to receive a selection signal from a user. The key input unit 16 according to the present exemplary embodiment may receive a user input for determining whether to receive a touch input or a drag input through the touch input unit 20. For example, assuming that the terminal 100 capable of user input through the touch input unit 20 has a lock function such that the terminal 100 cannot receive the input, the user locks by inputting a predetermined key to the key input unit 16. The function may be released and a user input may be enabled through the touch input unit 20.

메모리(18)는 단말기(100)의 동작 제어시 필요한 프로그램과, 그 프로그램 수행 중에 발생되는 데이터를 저장하며, 하나 이상의 휘발성 메모리 소자와 비휘발성 메모리 소자로 이루어진다. 메모리(18)는 터치입력부(20)를 통한 드래그에 따른 사용자 인터페이스를 구현하는 실행프로그램을 저장한다. 메모리(18)는 터치입력부(20)를 통해 입력되는 드래그 정보에 각각 대응하는 명령어(Command)를 저장한다.The memory 18 stores a program necessary for controlling the operation of the terminal 100 and data generated during execution of the program, and includes one or more volatile memory devices and nonvolatile memory devices. The memory 18 stores an execution program for implementing a user interface according to dragging through the touch input unit 20. The memory 18 stores commands corresponding to drag information input through the touch input unit 20, respectively.

터치입력부(20)는 사용자의 터치 또는 드래그에 따른 입력 신호를 감지하여 터치 정보 또는 드래그 정보를 생성하여 제어부(30)로 출력한다. 터치입력부(20)는 드래그의 장단, 강약 및 시간 중에 적어도 하나에 따른 드래그 정보를 생성한다. 이때 터치입력부(20)는 터치스크린의 터치패널, 터치패드 및 터치센서 중에 적어도 하나를 포함한다. 본 실시예에 따른 터치입력부(20)는 터치스크린의 터치패널로 구현된 예를 개시하였다. The touch input unit 20 detects an input signal according to a user's touch or drag, generates touch information or drag information, and outputs the touch information or drag information to the controller 30. The touch input unit 20 generates drag information according to at least one of long, short, and long periods of dragging. In this case, the touch input unit 20 includes at least one of a touch panel, a touch pad, and a touch sensor of the touch screen. The touch input unit 20 according to the present embodiment has been described as an example implemented as a touch panel of a touch screen.

터치입력부(20)는 터치스크린 방식으로 구현된 표시부(14)를 통해 사용자로부터의 입력을 수신한다. 터치입력부(20)는 표시부(14)를 터치 또는 드래그하는 사용자 입력을 수신한다. 터치입력부(20)를 통한 사용자 입력은 크게 드래그 입력 및 터치 입력으로 구분된다. 사용자 입력은 사용자의 손가락, 스타일러스펜 등의 표시부(14)에 이용 가능한 입력기를 통해 입력된다. 사용자 입력이 메모리(18)에 기 저장된 시간 또는 이동거리 이상 표시부(14)에 지속적으로 감지되는 경우에 '드래그 입력'이라 한다. 터치 입력은 드래그 입력과 달리 표시부(14)에서 메모리(18)에 기 저장된 시간 또는 이동거리 이하로 감지되는 입력을 가리키는 것으로, 한 번 또는 두 번 표시부(20)가 터치되는 경우를 '터치 입력'이라 한다.The touch input unit 20 receives an input from a user through the display unit 14 implemented as a touch screen method. The touch input unit 20 receives a user input of touching or dragging the display unit 14. The user input through the touch input unit 20 is largely divided into a drag input and a touch input. The user input is input through an input device available to the display unit 14 such as a user's finger, a stylus pen, or the like. When a user input is continuously sensed by the display unit 14 over a time or moving distance previously stored in the memory 18, it is referred to as a 'drag input'. Unlike the drag input, the touch input refers to an input detected by the display unit 14 at a time or moving distance previously stored in the memory 18, and is referred to as 'touch input' when the display unit 20 is touched once or twice. This is called.

본 실시예에 따른 터치입력부(20)는 사용자가 손가락 등을 이용하여 표시부(14)에 드래그 동작을 가하면, 그 동작에 따른 드래그 정보를 생성하여 제어부(30)에 전달할 수 있다. 이를 위하여 터치입력부(20)는 사용자의 드래그 입력을 감지할 수 있는 적어도 하나의 센서(Sensor)(미도시)를 포함할 수 있다. 드래그 입력을 감지하는 센서는 예를 들어, 압력을 감지하는 압력센서, 광센서, 초음파 센서, 사용자의 손가락 등이 접촉 또는 근접하였을 때 변화하는 정전용량의 측정하는 정전용량센서 등이 있을 수 있다. 이러한 센서들은 드래그 입력뿐만 아니라 터치 입력도 감지할 수 있음은 당업자에게 자명하다 할 것이다.When the user applies a drag operation to the display unit 14 using a finger or the like, the touch input unit 20 according to the present exemplary embodiment may generate drag information according to the operation and transmit the drag information to the controller 30. To this end, the touch input unit 20 may include at least one sensor (not shown) capable of detecting a user's drag input. The sensor for detecting the drag input may include, for example, a pressure sensor for detecting pressure, an optical sensor, an ultrasonic sensor, a capacitance sensor for measuring a change in capacitance when the user's finger, or the like is in contact with or in proximity. It will be apparent to those skilled in the art that these sensors can sense not only drag input but also touch input.

터치입력부(20)는 드래그 입력에 따른 드래그의 장단(長短), 강약(强弱) 및 시간 중 적어도 하나에 따른 드래그 정보를 생성한다. 즉, 외형적으로 동일한 드래그 동작이 수행된다고 하더라도 터치입력부(20)는 드래그의 장단, 강약, 및 시간 중 적어도 하나에 따라 각기 다른 드래그 정보를 생성하여 제어부(30)에 전달하기 때문에, 제어부(30)는 각각의 드래그 동작을 각기 다른 입력 신호로서 인식할 수 있다. 물론 드래그 정보는 드래그의 방향정보와, 드래그의 시작지점과 종료지점의 좌표정보와 같은 드래그 기본정보를 포함한다.The touch input unit 20 generates drag information according to at least one of long, weak, and time of the drag according to the drag input. That is, even if the same drag operation is performed in appearance, the touch input unit 20 generates different drag information according to at least one of long, short, and time of the drag, and transmits the different drag information to the control unit 30. ) May recognize each drag operation as a different input signal. Of course, the drag information includes drag basic information such as direction information of the drag and coordinate information of start and end points of the drag.

그리고 제어부(30)는 단말기(100)의 전반적인 동작을 제어한다. 제어부(30)는 드래그 입력에 따른 단말기(100)의 동작 수행을 제어한다. 제어부(30)는 터치입 력부(20)로부터 사용자의 드래그 입력에 따른 드래그 정보가 전달되면 해당 드래그 정보에 대응하는 명령어를 결정한다. 제어부(30)는 결정한 명령어를 실행하여 표시부(14) 등을 통하여 출력한다. 이때 제어부(30)는 입력된 드래그 정보에 대응되는 명령어를 메모리(18)에서 추출하여 결정한다.The controller 30 controls the overall operation of the terminal 100. The controller 30 controls the operation of the terminal 100 according to the drag input. When the drag information according to the drag input of the user is transmitted from the touch input unit 20, the controller 30 determines a command corresponding to the drag information. The controller 30 executes the determined command and outputs the same through the display unit 14. In this case, the controller 30 extracts and determines a command corresponding to the input drag information from the memory 18.

제어부(30)는 입력된 드래그 정보에 따라 명령어를 실행할 때, 드래그 정보에 포함된 드래그 기본정보에 대해서 드래그의 장단, 강약 및 시간 중 적어도 하나에 가중치로 사용하여 명령어를 실행하거나, 드래그의 장단, 강약 및 시간 중 적어도 하나에 따라 개별적인 명령어를 실행할 수 있다. When executing the command according to the input drag information, the controller 30 executes the command using at least one of the length, strength, and time of the drag as the weight of the drag basic information included in the drag information, Individual instructions may be executed according to at least one of strength and time.

예컨대 아래 표1은 드래그의 강약을 레벨로 나타내고, 각 레벨에 따른 명령어를 나타낸다. 메모리(18)는 제어부(30)에 의하여 하기와 같은 표1을 저장할 수 있다.For example, Table 1 below shows the strength and weakness of the drag, and the command according to each level. The memory 18 may store the following Table 1 by the controller 30.

드래그의
강약(Level)
Drag
Strength
명령어(Command)Command
낮음lowness 일반적인 영상 이동General video shift 중간middle 빠른 영상 이동Fast video movement 높음height 영상 회전Video rotation

표1을 예로 들면, 드래그 정보는 드래그의 강약에 대응하는 드래그의 강약 정보를 포함한다. 이때 드래그의 강약은 드래그 시 터치입력부(20)에 가해지는 압력에 따라 결정될 수 있으며, 예컨대 낮음, 중간 및 높음으로 결정될 수 있다.Taking Table 1 as an example, the drag information includes the strength and weakness information of the drag corresponding to the strength and weakness of the drag. In this case, the strength of the drag may be determined according to the pressure applied to the touch input unit 20 when the drag is applied.

만약 영상이 표시부(14)에 표시된 상태에서, 드래그 정보에 포함된 드래그의 강약이 낮음이라면, 제어부(30)는 그 드래그 정보에 대응하는 명령어가 '일반적인 영상 이동'임을 표1을 통하여 알아낼 수 있다. 따라서 제어부(30)는 표시부(14)를 제어하여 영상을 드래그 방향으로 드래그 길이에 비례하게 이동시켜 표시할 수 있다.If the intensity of the drag included in the drag information is low while the image is displayed on the display unit 14, the controller 30 may find out from Table 1 that the command corresponding to the drag information is 'normal image movement'. . Accordingly, the controller 30 may control the display unit 14 to move and display the image in proportion to the drag length in the drag direction.

드래그 정보에 포함된 드래그의 강약이 중간이라면, 제어부(30)는 그 드래그 정보에 대응하는 명령어가 '빠른 영상 이동'임을 표1을 통하여 알아낼 수 있다. 따라서 제어부(30)는 표시부(14)를 제어하여 영상을 드래그 방향으로 이동시켜 표시하되, 드래그 길이에 드래그의 강약에 해당되는 가중치를 부가하여 '일반적인 영상 이동'에 비해서 멀리 또는 빠르게 이동시켜 표시할 수 있다.If the strength or weakness of the drag included in the drag information is medium, the controller 30 may find out from Table 1 that the command corresponding to the drag information is 'fast image movement'. Accordingly, the controller 30 controls the display unit 14 to move and display the image in the drag direction, but adds a weight corresponding to the strength of the drag to the drag length to move the display farther or faster than the normal image movement. Can be.

그리고 드래그 정보에 포함된 드래그의 강약이 높음이라면, 제어부(30)는 그 드래그 정보에 대응하는 명령어가 '영상 회전'임을 표1을 통하여 알아낼 수 있다. 따라서 제어부(30)는 표시부(14)를 제어하여 영상을 90도 회전시켜 표시한다.If the strength of the drag included in the drag information is high, the controller 30 may find out from Table 1 that the command corresponding to the drag information is 'image rotation'. Therefore, the controller 30 controls the display unit 14 to rotate and display the image by 90 degrees.

한편 표1에는 드래그의 강약을 3단계로 구분하여 표시하였지만, 더 많은 단계로 구분하거나, 드래그의 강약에 비례하게 연속적으로 구분할 수도 있다.Meanwhile, in Table 1, the strength and weakness of the drag are divided and displayed in three stages. However, the strength and weakness of the drag may be divided into three or more levels.

그리고 드래그의 장단 또는 길이 또한 드래그의 강약과 같은 방식으로 드래그 정보를 구별되게 설정할 수 있다.In addition, the length or length of the drag may be set to distinguish the drag information in the same manner as the strength or weakness of the drag.

또한 표1에서는 드래그 정보에 따른 영상 표시 방법을 예시하였지만 이에 한정되는 것은 아니다. 즉 단말기(100)에서 실행할 수 있는 다양한 기능, 예컨대 아이콘, 전화번호 등의 선택을 취소하거나 또는 드래그 입력 이전에 수행되고 있던 동작을 중지할 수 있는 기능 등에 적용될 수 있다.Also, Table 1 exemplifies an image display method based on drag information, but is not limited thereto. That is, various functions that can be executed in the terminal 100 may be applied to, for example, a function of canceling a selection of an icon, a phone number, or the like, or stopping an operation that was performed before a drag input.

또한 본 실시예에 따른 제어부(30)는 터치입력부(20)를 통해 전달되는 사용자 입력이 드래그 입력인지 여부를 판단할 수 있다. 제어부(30)는 터치입력부(20)를 통한 사용자 입력이 특정 지점에서 다른 지점까지 메모리(18)에 기 저장된 거리 이상 이동하는 입력인 경우 또는 메모리(18)에 기 저장된 시간 이상 지속적으로 감지되는 입력인 경우 해당 사용자 입력을 드래그 입력이라고 판단할 수 있다.In addition, the controller 30 according to the present exemplary embodiment may determine whether the user input transmitted through the touch input unit 20 is a drag input. The controller 30 is an input that is continuously sensed for more than a time previously stored in the memory 18 or when the user input through the touch input unit 20 moves more than a distance previously stored in the memory 18 from a specific point to another point. In this case, it may be determined that the corresponding user input is a drag input.

상기의 판단결과 드래그 입력이 아닌 경우 제어부(30)는 상기의 사용자 입력이 터치 입력인지 여부를 판단할 수 있다. 이때 메모리(18)는 각 터치 입력에 대응하는 명령어를 기 저장한 상태인 것으로 가정한다. 상기 사용자 입력에 대응하는 적어도 하나의 명령어가 메모리(18)에 기 저장되어 있다면 제어부(30)는 해당 사용자 입력을 터치 입력으로 결정한다. 따라서 제어부(30)는 터치 입력에 대응하는 명령어에 따른 동작을 수행한다.If the determination result is not the drag input, the controller 30 may determine whether the user input is a touch input. In this case, it is assumed that the memory 18 has previously stored a command corresponding to each touch input. If at least one command corresponding to the user input is previously stored in the memory 18, the controller 30 determines that the user input is a touch input. Accordingly, the controller 30 performs an operation according to a command corresponding to the touch input.

이와 같이 본 실시예에 따른 단말기(100)는 외형상 동일한 드래그 동작을 수행하더라도 드래그의 장단, 강약 및 시간 중 적어도 하나에 따른 드래그 정보를 서로 다른 입력 신호로 구분하여 동작을 수행하기 때문에, 사용자는 터치입력부(20)를 통한 드래그 동작을 통하여 단말기(100)의 다양한 기능을 동작시킬 수 있다.As described above, even if the terminal 100 performs the same drag operation in appearance, the terminal 100 divides the drag information according to at least one of short and long, strong and time of the drag into different input signals to perform the operation. Various functions of the terminal 100 may be operated through a drag operation through the touch input unit 20.

이와 같은 본 실시예에 따른 단말기(100)의 드래그 동작을 활용한 사용자 인터페이스 방법을 도 1 및 도 2를 참조하여 설명하면 다음과 같다. 여기서 도 2는 본 발명의 실시예에 따른 드래그 동작을 활용한 사용자 인터페이스 방법에 따른 흐름도이다.The user interface method using the drag operation of the terminal 100 according to the present embodiment will be described with reference to FIGS. 1 and 2 as follows. 2 is a flowchart illustrating a user interface method using a drag operation according to an embodiment of the present invention.

여기서 단말기(100)는 메모리(18)에 드래그 정보에 대응하는 명령어를 저장하고 있다. 드래그 정보에 따른 명령어는 디폴트 형태로 메모리(18)에 저장되어 있을 수도 있고, 사용자에 의해 설정될 수 있다.In this case, the terminal 100 stores a command corresponding to the drag information in the memory 18. The command according to the drag information may be stored in the memory 18 in a default form or set by a user.

사용자에 의해 명령어 설정 단계를 설명하면 다음과 같다. 드래그 정보에 대응하는 명령어는, S42단계를 수행하기 전에 메모리(18)에 드래그 정보에 대응하는 명령어를 설정하여 저장할 수 있다. 즉 사용자는 드래그 정보에 따른 명령어 입력 모드에서, 터치입력부(20)를 통하여 설정할 명령어에 대응하는 드래그를 입력한 후, 입력한 드래그의 장단, 강약 및 시간 중 적어도 하나에 따라 각기 다르게 입력된 드래그 정보에 대응할 명령어 선택하면, 제어부(30)는 입력된 드래그 정보에 선택된 명령어를 대응시켜 메모리(18)에 저장한다.The following describes the command setting step by the user. The command corresponding to the drag information may be set and stored in the memory 18 before the step S42. That is, in the command input mode according to the drag information, the user inputs a drag corresponding to a command to be set through the touch input unit 20, and then drag information input differently according to at least one of long and short, strong and time of the input drag. When the command corresponding to the command is selected, the controller 30 associates the selected command with the input drag information and stores the same command in the memory 18.

이와 같은 명령어 설정 단계는 S42단계를 수행하기 전에 수행할 수도 있고, 메모리(18)에 명령어 저장되어 있는 경우 수행하지 않을 수도 있다.The command setting step may be performed before the step S42 or may not be performed when the command is stored in the memory 18.

먼저 S42단계에서 터치입력부(20)는 사용자로부터 사용자 입력을 수신한다. 이어서 S44단계에서 제어부(30)는 터치입력부(20)로부터 수신된 사용자 입력이 드래그 입력인지 터치 입력인지의 여부를 판단한다.First, in step S42, the touch input unit 20 receives a user input from the user. Subsequently, in step S44, the controller 30 determines whether the user input received from the touch input unit 20 is a drag input or a touch input.

S44단계에서의 판단결과 드래그 입력인 경우, S46단계에서 터치입력부(20)는 제어부(30)의 제어하에 드래그 정보를 생성한다. 즉 터치입력부(20)는 드래그의 장단, 강약 및 시간 중 적어도 하나에 따라 드래그 정보를 생성한다. 터치입력부(20)는 생성한 드래그 정보를 제어부(30)로 전달한다. 이때 드래그 정보는 드래그 기본정보를 포함할 수 있다. In the case where the determination result in step S44 is a drag input, in step S46, the touch input unit 20 generates drag information under the control of the controller 30. That is, the touch input unit 20 generates the drag information according to at least one of long and short, strong and time of the drag. The touch input unit 20 transmits the generated drag information to the control unit 30. In this case, the drag information may include basic drag information.

다음으로 S48단계에서 제어부(30)는 입력된 드래그 정보에 대응하는 명령어를 결정한다. 즉 제어부(30)는 메모리(18)를 참조하여 해당 드래그 정보에 대응하는 명령어를 추출하여 결정한다. 제어부(30)는 드래그 정보에 포함된 드래그의 장단, 강약 및 시간 중 적어도 하나에 따라 드래그 정보를 각각 다른 입력 신호로 인식한다. 따라서 외형적으로 동일한 드래그 동작이 수행된다고 하더라도, 터치입력부(20)는 드래그의 장단, 강약 및 시간 중 적어도 하나에 따라 각기 다른 드래그 정보를 생성하여 제어부(30)에 전달하기 때문에, 제어부(30)는 각각의 드래그 동작을 각기 다른 입력 신호로서 인식할 수 있다.Next, in step S48, the controller 30 determines a command corresponding to the input drag information. That is, the controller 30 refers to the memory 18 to extract and determine a command corresponding to the drag information. The controller 30 recognizes the drag information as different input signals according to at least one of short, long, and weak times of the drag included in the drag information. Therefore, even if the same drag operation is performed in appearance, the touch input unit 20 generates different drag information according to at least one of short and long, strong and time of the drag, and transmits the different drag information to the control unit 30. Each drag operation can be recognized as a different input signal.

그리고 S54단계에서 제어부(30)는 결정된 명령어에 따른 동작을 수행하도록 단말기(100)를 제어한다. 이때 명령어는 단말기(100)에서 수행할 수 있는 응용프로그램의 기능 수행과 관련된 명령어일 수 있다. 예컨대 명령어는 카메라 촬영, 영상 편집 또는 전화번호부를 통한 통화 또는 메시지 전송 등이 될 수 있다. 즉 전화번호부가 실행된 상태에서 사용자의 외형상 동일한 드래그 동작에 대해서, 천천히 드래그할 경우 제어부(30)는 포커스를 천천히 이동시키고, 빠르게 드래그할 경우 제어부(30)는 포커스를 빠르게 이동시킬 수 있다. 또는 드래그 동작 중 특정 지점에서 강약을 줄 경우, 제어부(30)는 포커스된 특정 전화번호로 통화 또는 메시지 전송을 수행할 수 있다.In operation S54, the controller 30 controls the terminal 100 to perform an operation according to the determined command. In this case, the command may be a command related to performance of an application program that can be performed by the terminal 100. For example, the command may be camera shooting, image editing or a call or message transmission through a phone book. That is, when dragging slowly, the controller 30 moves the focus slowly, and when dragging quickly, the controller 30 may move the focus quickly. Alternatively, when the strength is given at a specific point during the drag operation, the controller 30 may perform a call or a message transmission to the specific phone number in focus.

한편 S44단계의 판단결과 사용자 입력이 드래그 입력이 아닌 경우, S50단계에서 제어부(30)는 사용자 입력을 터치 입력으로 결정한다.If the user input is not a drag input as a result of the determination in step S44, the controller 30 determines the user input as a touch input in step S50.

다음으로 S52단계에서 제어부(30)는 터치 입력에 대응하는 명령어를 결정한다. 이때 S52단계에서도 S48단계에서와 마찬가지로 제어부(30)는 터치 입력에 대응하는 명령어를 결정하기 위하여 메모리(18)를 참조할 수 있다. 제어부(30)는 메모리(18)를 참조하여 해당 터치 입력에 대응하는 명령어를 추출하여 결정한다.Next, in step S52, the controller 30 determines a command corresponding to the touch input. In this case, in step S52, as in step S48, the controller 30 may refer to the memory 18 to determine a command corresponding to the touch input. The controller 30 extracts and determines a command corresponding to the corresponding touch input with reference to the memory 18.

그리고 S54단계에서 제어부(30)는 결정된 명령어에 따른 동작을 실행한다. 제어부(30)는 결정된 명령어에 따른 실행 결과를 사용자가 인지할 수 있도록 외부로 출력할 수 있다. 예컨대 제어부(30)는 실행 결과는 표시부(14)를 통하여 영상으로 출력하거나, 스피커(미도시)를 통하여 음성으로 출력하거나, 진동모터(미도시)를 통하여 진동으로 출력할 수 있다.In operation S54, the control unit 30 executes an operation according to the determined command. The controller 30 may output the execution result according to the determined command to the outside so that the user can recognize it. For example, the controller 30 may output the execution result as an image through the display unit 14, output a voice through a speaker (not shown), or output vibration as a vibration motor (not shown).

본 실시예에 따른 단말기(100)의 드래그 동작을 활용한 사용자 인터페이스 방법에 대해서 표1 및 도 3의 화면 예시도를 참조하여 설명하면 다음과 같다. 여기서 도 3은 본 발명의 실시예에 따른 드래그 동작을 활용한 사용자 인터페이스를 도시한 화면 예시도이다.The user interface method using the drag operation of the terminal 100 according to the present embodiment will be described with reference to the screen examples of Table 1 and FIG. 3 as follows. 3 is a diagram illustrating a screen illustrating a user interface using a drag operation according to an embodiment of the present invention.

먼저 도 3(a)에 도시된 바와 같이, 표시부(14)에 세로 방향으로 영상이 표시된 상태에서, 사용자가 손가락을 이용하여 왼쪽에서 오른쪽으로 드래그하면, 터치입력부(20)는 드래그에 따른 드래그 정보를 생성한다. 이때 드래그 정보는 좌에서 우로 향하는 방향정보, 드래그 입력이 시작된 부분 및 드래그 입력이 끝난 부분의 좌표정보에 따른 드래그의 길이, 드래그의 강약 정보를 포함한다.First, as shown in FIG. 3A, when a user drags from left to right using a finger while the image is displayed on the display unit 14 in the vertical direction, the touch input unit 20 may drag information according to the dragging. Create At this time, the drag information includes the direction information from left to right, the length of the drag according to the coordinate information of the portion at which the drag input is started, the coordinate at which the drag input is finished, and the intensity of the drag.

제어부(30)는 드래그 정보를 분석함으로써 단말기(100)가 수행하여야 할 동작을 결정한다. 이때 외형상 동일한 드래그 동작에 대해서 제어부(30)는 드래그의 강약에 따라 표시부(14)의 화면에 표시되는 영상의 이동 속도를 달리하거나 표시 방향을 전환시킬 수 있다.The controller 30 determines an operation to be performed by the terminal 100 by analyzing drag information. In this case, the controller 30 may change the moving speed or change the display direction of the image displayed on the screen of the display unit 14 depending on the strength of the drag for the same drag operation.

예컨대, 도 3(a)에서 입력된 드래그의 강약이 낮은 경우, 도 3(b)에 도시된 바와 같이 제어부(30)는 화면에 표시되는 영상을 드래그 방향으로 드래그 길이에 비례하게 이동시켜 표시한다.For example, when the strength of the drag input in FIG. 3 (a) is low, as shown in FIG. 3 (b), the controller 30 moves and displays the image displayed on the screen in proportion to the drag length in the drag direction. .

도 3(a)에서 입력된 드래그의 강약이 중간인 경우, 도 3(c)에 도시된 바와 같이 제어부(30)는 화면에 표시되는 영상을 드래그 방향으로 이동시켜 표시하되, 드래그 길이에 드래그의 강약에 해당되는 가중치를 부가하여 도 3(b)에 비해서는 상대적으로 멀리 이동시켜 표시할 수 있다.If the intensity of the drag input in FIG. 3 (a) is medium, as shown in FIG. 3 (c), the controller 30 moves and displays the image displayed on the screen in the drag direction, By adding a weight corresponding to the strength and weakness, it can be displayed by moving relatively relative to FIG. 3 (b).

그리고 도 3(a)에서 입력된 드래그의 강약이 높은 경우, 도 3(d)에 도시된 바와 같이 제어부(30)는 화면에 표시된 영상을 90도 회전시켜 표시한다. 이때 드래그의 방향이 좌에서 우로 향하는 경우, 영상을 시계방향으로 90도 회전시키고, 반대로 우에서 좌우로 향하는 경우, 영상을 반시계방향으로 90도 회전시킬 수 있다.In addition, when the strength of the drag input in FIG. 3 (a) is high, as shown in FIG. 3 (d), the controller 30 rotates and displays the image displayed on the screen by 90 degrees. In this case, when the drag direction is from left to right, the image may be rotated 90 degrees clockwise. On the contrary, when the drag is directed from right to left, the image may be rotated 90 degrees counterclockwise.

이상과 같이, 본 명세서와 도면에는 본 발명의 바람직한 실시 예에 대하여 개시하였으며, 비록 특정 용어들이 사용되었으나, 이는 단지 본 발명의 기술 내용을 쉽게 설명하고 발명의 이해를 돕기 위한 일반적인 의미에서 사용된 것이지, 본 발명의 범위를 한정하고자 하는 것은 아니다. 여기에 개시된 실시 예 외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형 예들이 실시 가능하다는 것은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 자명한 것이다.As described above, the specification and the drawings have been described with respect to the preferred embodiments of the present invention, although specific terms are used, it is only used in a general sense to easily explain the technical contents of the present invention and to help the understanding of the invention. It is not intended to limit the scope of the present invention. It will be apparent to those skilled in the art that other modifications based on the technical idea of the present invention can be carried out in addition to the embodiments disclosed herein.

본 발명은 드래그 동작을 활용한 사용자 인터페이스 방법 및 단말기에 관한 것으로, 단순히 터치입력부의 터치 또는 드래그를 통하여 사용자의 선택 신호를 입력하는 방식 이외에 사용자가 동일한 드래그 동작을 수행하더라도 드래그의 장단, 강약 및 시간 중 적어도 하나에 따라 단말기는 각각 다른 입력 신호로 인식하여 동작을 수행하기 때문에, 사용자는 드래그 동작을 통하여 다양한 신호를 단말기에 입력하여 단말기를 조작할 수 있는 편의성을 제공받을 수 있다.The present invention relates to a user interface method and a terminal using a drag operation, in addition to the method of inputting a user's selection signal by simply touching or dragging the touch input unit, the user may perform the same drag operation even if the user performs the same drag operation. Since the terminals perform operations by recognizing different input signals according to at least one of them, the user may be provided with the convenience of operating the terminal by inputting various signals to the terminal through a drag operation.

도 1은 본 발명의 실시예에 따른 단말기의 구성을 보여주는 블록도이다.1 is a block diagram showing the configuration of a terminal according to an embodiment of the present invention.

도 2는 본 발명의 실시예에 따른 드래그 동작을 활용한 사용자 인터페이스 방법을 나타내는 흐름도이다.2 is a flowchart illustrating a user interface method using a drag operation according to an embodiment of the present invention.

도 3은 본 발명의 실시예에 따른 드래그 동작을 활용한 사용자 인터페이스를 도시한 화면 예시도이다.3 is an exemplary screen illustrating a user interface utilizing a drag operation according to an embodiment of the present invention.

* 도면의 주요 부분에 대한 설명 *Description of the Related Art [0002]

12 : 통신 인터페이스부 14 : 표시부12: communication interface unit 14: display unit

16 : 키 입력부 18 : 메모리16: key input 18: memory

20 : 터치입력부 22 : 제어부20: touch input unit 22: control unit

100 : 단말기100: terminal

Claims (10)

드래그 되면, 상기 드래그의 장단, 강약 및 시간 중 적어도 하나에 따른 드래그 정보를 생성하는 터치입력부;A touch input unit configured to generate drag information based on at least one of short and long, strong and time of the drag when dragged; 상기 터치입력부를 통하여 상기 드래그 정보를 입력받고, 상기 입력된 드래그 정보에 대응되는 명령어를 결정하여 실행하는 제어부;A control unit which receives the drag information through the touch input unit and determines and executes a command corresponding to the input drag information; 를 포함하는 것을 특징으로 하는 단말기.Terminal comprising a. 제1항에 있어서, 상기 제어부는,The method of claim 1, wherein the control unit, 상기 드래그 정보에 포함된 상기 드래그의 장단, 강약 및 시간 중 적어도 하나에 따라 상기 드래그 정보를 각각 다른 입력 신호로 인식하는 것을 특징으로 하는 단말기.And recognizing the drag information as different input signals according to at least one of the short and long, the strength, and the time of the drag included in the drag information. 제1항에 있어서, 상기 드래그 정보는,The method of claim 1, wherein the drag information, 상기 드래그의 방향정보와, 상기 드래그의 시작지점과 종료지점의 좌표정보를 갖는 드래그 기본정보를 포함하는 것을 특징으로 하는 단말기.And basic drag information having direction information of the drag and coordinate information of a start point and an end point of the drag. 제3항에 있어서, 상기 제어부는,The method of claim 3, wherein the control unit, 상기 드래그 기본정보에 대해서 상기 드래그의 장단, 강약 및 시간 중 적어도 하나에 가중치로 사용하여 상기 명령어를 실행하는 것을 특징으로 하는 단말기.And executing the command by using the drag basic information as a weight on at least one of long, short, and long periods of the drag. 제2항 또는 제4항에 있어서,The method according to claim 2 or 4, 드래그 정보에 각각 대응되는 명령어를 저장하는 메모리;A memory for storing instructions respectively corresponding to drag information; 를 더 포함하는 것을 특징으로 하는 단말기.The terminal further comprises. 제5항에 있어서, 상기 제어부는,The method of claim 5, wherein the control unit, 상기 입력된 드래그 정보에 대응되는 명령어를 상기 메모리에서 추출하여 결정하는 것을 특징으로 하는 단말기.And extracting from the memory a command corresponding to the input drag information. 제1항에 있어서, 상기 터치입력부는,The method of claim 1, wherein the touch input unit, 터치스크린의 터치패널, 터치패드, 터치센서 중에 적어도 하나를 포함하는 것을 특징으로 하는 단말기.A terminal comprising at least one of a touch panel, a touch pad, and a touch sensor of a touch screen. 터치입력부를 구비한 단말기의 사용자 인터페이스 방법으로,A user interface method of a terminal having a touch input unit, 상기 터치입력부가 사용자의 터치에 의해 드래그되면, 상기 드래그의 장단, 강약 및 시간 중 적어도 하나에 따른 드래그 정보를 생성하여 제어부로 입력하는 입력 단계;When the touch input unit is dragged by a user's touch, an input step of generating drag information according to at least one of short and long periods, intensity and time of the drag and inputting it to a controller; 상기 제어부가 상기 입력된 드래그 정보에 대응되는 명령어를 결정하는 결정 단계;A determination step of determining, by the controller, a command corresponding to the input drag information; 상기 제어부가 상기 결정된 명령어를 실행하는 실행 단계;An execution step of the control unit executing the determined command; 를 포함하는 것을 특징으로 하는 드래그 동작을 활용한 사용자 인터페이스 방법.User interface method using a drag operation, characterized in that it comprises a. 제8항에 있어서, 상기 입력 단계 이전에 수행되는,The method according to claim 8, which is performed before the input step, 상기 제어부가 상기 드래그의 장단, 강약 및 시간 중 적어도 하나에 따라 각기 다르게 인식되는 드래그 정보에 대응하는 명령어를 메모리에 저장하는 저장단계;A storage step of storing, by the controller, a command corresponding to drag information that is differently recognized according to at least one of long, short, and long periods of the drag in a memory; 를 더 포함하는 것을 특징으로 하는 드래그 동작을 활용한 사용자 인터페이스 방법.User interface method using a drag operation, characterized in that it further comprises. 제9항에 있어서, 상기 실행 단계는,The method of claim 9, wherein the executing step, 상기 제어부가 상기 결정된 명령어에 따른 실행 결과를 영상, 음성 및 진동 중에 적어도 하나로 출력 단계;Outputting, by the control unit, an execution result according to the determined command to at least one of an image, a voice, and a vibration; 를 더 포함하는 것을 특징으로 하는 드래그 동작을 활용한 사용자 인터페이스 방법.User interface method using a drag operation, characterized in that it further comprises.
KR1020090068123A 2009-07-24 2009-07-24 User interface method using drag action and terminal KR20110010522A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090068123A KR20110010522A (en) 2009-07-24 2009-07-24 User interface method using drag action and terminal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090068123A KR20110010522A (en) 2009-07-24 2009-07-24 User interface method using drag action and terminal

Publications (1)

Publication Number Publication Date
KR20110010522A true KR20110010522A (en) 2011-02-01

Family

ID=43771059

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090068123A KR20110010522A (en) 2009-07-24 2009-07-24 User interface method using drag action and terminal

Country Status (1)

Country Link
KR (1) KR20110010522A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101397907B1 (en) * 2011-11-22 2014-05-21 인크로스 주식회사 System, control method, and recording media for recognizing multi-touch
KR101435075B1 (en) * 2013-01-17 2014-08-29 한국표준과학연구원 Mobile terminal using drag related polymer composite and method for controlling thereof
WO2015122551A1 (en) * 2014-02-12 2015-08-20 엘지전자 주식회사 Mobile terminal and control method therefor

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101397907B1 (en) * 2011-11-22 2014-05-21 인크로스 주식회사 System, control method, and recording media for recognizing multi-touch
KR101435075B1 (en) * 2013-01-17 2014-08-29 한국표준과학연구원 Mobile terminal using drag related polymer composite and method for controlling thereof
WO2015122551A1 (en) * 2014-02-12 2015-08-20 엘지전자 주식회사 Mobile terminal and control method therefor
US10198170B2 (en) 2014-02-12 2019-02-05 Lg Electronics Inc. Mobile terminal and control method therefor

Similar Documents

Publication Publication Date Title
US9357396B2 (en) Terminal device
EP2184672B1 (en) Information display apparatus, mobile information unit, display control method and display control program
AU2013276998B2 (en) Mouse function provision method and terminal implementing the same
KR102016975B1 (en) Display apparatus and method for controlling thereof
KR101484529B1 (en) Touchscreen apparatus user interface processing method and touchscreen apparatus
KR20110028834A (en) Method and apparatus for providing user interface using touch pressure on touch screen of mobile station
KR20110037761A (en) Method for providing user interface using a plurality of touch sensor and mobile terminal using the same
US20110185308A1 (en) Portable computer device
US20130167074A1 (en) Device, method, and storage medium storing program
CN108733303B (en) Touch input method and apparatus of portable terminal
KR20100069842A (en) Electronic apparatus implementing user interface and method thereof
JP2010277191A (en) Information processing apparatus
US20140035853A1 (en) Method and apparatus for providing user interaction based on multi touch finger gesture
KR20110092826A (en) Method and apparatus for controlling screen in mobile terminal comprising a plurality of touch screens
KR20120080859A (en) Method and apparatus for controlling a portable terminal using a finger tracking
JP2010224663A (en) Information processing apparatus, information processing method, and program
JP6102474B2 (en) Display device, input control method, and input control program
US20110074829A1 (en) Mobile communication terminal including touch interface and method thereof
KR20140119546A (en) Method and apparatus for displaying user interface
KR20140044585A (en) Method and apparatus for using a portable terminal
US20150002417A1 (en) Method of processing user input and apparatus using the same
US10159046B2 (en) Mobile terminal device
KR101384535B1 (en) Method for transmitting message using drag action and terminal therefor
KR20110010522A (en) User interface method using drag action and terminal
US20160103506A1 (en) Input device, method for controlling input device, and non-transitory computer-readable recording medium

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
N231 Notification of change of applicant
E601 Decision to refuse application
AMND Amendment
E902 Notification of reason for refusal
AMND Amendment