KR20130056503A - System, control method, and recording media for recognizing multi-touch - Google Patents

System, control method, and recording media for recognizing multi-touch Download PDF

Info

Publication number
KR20130056503A
KR20130056503A KR1020110122142A KR20110122142A KR20130056503A KR 20130056503 A KR20130056503 A KR 20130056503A KR 1020110122142 A KR1020110122142 A KR 1020110122142A KR 20110122142 A KR20110122142 A KR 20110122142A KR 20130056503 A KR20130056503 A KR 20130056503A
Authority
KR
South Korea
Prior art keywords
touch
drag
input
user
point
Prior art date
Application number
KR1020110122142A
Other languages
Korean (ko)
Other versions
KR101397907B1 (en
Inventor
이승엽
이종희
정진희
제영익
Original Assignee
인크로스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 인크로스 주식회사 filed Critical 인크로스 주식회사
Priority to KR1020110122142A priority Critical patent/KR101397907B1/en
Publication of KR20130056503A publication Critical patent/KR20130056503A/en
Application granted granted Critical
Publication of KR101397907B1 publication Critical patent/KR101397907B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

PURPOSE: A system for recognizing multi-touch, a control method, and a recording medium are provided to implement a multi-touch function in a device which does not include a multi-touch interface by using a successive dragging combination and successive point selection. CONSTITUTION: A user input unit(110) generates a drag input signal and a point selection signal according to the control of a user. A signal determination unit(120) determines the input of a user based on the drag input signal and the point selection signal. When the drag is inputted in a point which is finally selected by the user, a multi-touch recognition unit(130) recognizes coordinates for the selected points with a multi-touch method. [Reference numerals] (110) User input unit; (120) Signal determination unit; (130,130') Multi-touch recognition unit; (140) Function execution unit; (150) Display unit

Description

멀티 터치 인식을 위한 시스템, 제어방법과, 기록 매체{SYSTEM, CONTROL METHOD, AND RECORDING MEDIA FOR RECOGNIZING MULTI-TOUCH}TECHNICAL FIELD [0001] The present invention relates to a system for multi-touch recognition, a control method, and a recording medium,

본 발명은 멀티 터치 인식을 위한 시스템, 제어방법과, 기록 매체에 관한 것으로, 보다 상세하게는 멀티 터치 인식을 지원하는 않는 장치를 이용하여 멀티 터치 기능을 이용할 수 있도록 하는 시스템, 제어방법과, 기록 매체에 관한 것이다.The present invention relates to a system, a control method, and a recording medium for multi-touch recognition, and more particularly, to a system, a control method, and a recording medium that enable a multi- Media.

최근 사용자 단말기들은 기존의 키보드나 마우스 형태의 입력 인터페이스 대신에 터치스크린(터치 패널)을 구비하여 사용자의 터치 입력에 따라 특정 기능이 수행되도록 구성되고 있다.Recently, user terminals are provided with a touch screen (touch panel) instead of a conventional keyboard or mouse type input interface so that a specific function is performed according to a user's touch input.

예를 들어 최근 출시되고 있는 각종 스마트폰들은 사용자가 터치스크린에 보이는 각종 앱(APP: APPLICATION) 아이콘을 터치 선택함으로써 해당 앱 기능이 실행되도록 할 수 있다.For example, in recent smart phones, a user can select an application (APP: APPLICATION) icon displayed on a touch screen to select an application function.

이처럼 터치 방식은 사용자들에 보다 직관적인 인터페이스를 제공하고, 텍스트 입력을 위한 키보드 등의 별도의 장치를 구비해야 하는 부담을 덜도록 하며, 입력 인터페이스를 프로그램에 의해 얼마든지 수정 가능하게 함으로써 보다 유연한 사용 환경을 제공하고 있는 것이다.As described above, the touch method provides a more intuitive interface to users, reduces the burden of having a separate device such as a keyboard for text input, and allows the input interface to be freely modified by a program, Environment.

이에 더하여 멀티 터치 방식이 도입되고 있는데, 여기서 멀티 터치는 사용자에 의한 복수 개의 터치를 동시에 인식하는 것을 의미한다.In addition, a multi-touch method has been introduced, wherein the multi-touch means simultaneously recognizing a plurality of touches by a user.

즉, 종래의 터치스크린은 한 번에 하나의 터치 입력만을 인식해왔으나, 최근에는 여러 개의 손가락을 동시에 터치하여 입력하는 것을 가능해진 것이다.That is, the conventional touch screen has recognized only one touch input at a time, but recently, it has become possible to input a plurality of fingers by touching them at the same time.

예를 들어 터치스크린이 구비된 스마트폰 사용자들은 지도 검색을 통해 지도를 확인하는 과정에서 특정 지역을 확대하거나 축소하고자 하는 경우 두 개의 손가락으로 멀티 터치한 후 터치된 각 손가락을 수렴하도록 모으거나 발산하도록 펴는 동작(드래그 동작)을 하는 것이다.For example, smartphone users equipped with a touch screen can perform multi-touching with two fingers to collect or divert each finger touched when it is desired to enlarge or reduce a specific area in a process of checking a map through a map search (Drag operation).

이 경우 스마트폰은 사용자가 멀티 터치한 후 수렴 동작으로 드래그를 하는 경우 줌아웃 기능을 수행하고, 사용자가 멀티 터치한 후 발산 동작으로 드래그를 하는 경우 줌인 기능을 수행할 수 있다.In this case, the smartphone performs a zoom-out function when a user performs multi-touching and then dragging with a converging operation, and can perform a zoom-in function when a user performs multi-touching and then drags with a diverging operation.

이러한 예가 도 1 및 도 2에 도시되었다.An example of this is shown in Figs.

도 1은 줌인 과정을 나타낸 것이고, 도 2는 줌아웃 과정을 나타낸 것이다.FIG. 1 shows a zoom in process, and FIG. 2 shows a zoom out process.

즉, 도 1(a)에서 사용자는 터치스크린 상의 두 개의 특정 지점(a1, a2)을 두 손가락을 이용하여 터치한 후 그 양쪽 터치를 유지하면서 발산 방향 즉, 손가락이 벌어지는 방향으로 드래그를 하면 도 1(b)에 도시된 바와 같이 두 개의 특정 지점(a1, a2)을 지나가는 원(A)이 확대되어 결국 보다 더 큰 원(A')이 되는 것이다. 이때 해당 원 안에 있는 내용(예를 들어 지도의 특정 영역)이 확대(줌인)되는 효과를 달성할 수 있는 것이다.That is, in FIG. 1 (a), the user touches two specific points a1 and a2 on the touch screen using two fingers, and while dragging the finger in the diverging direction, that is, The circle A passing through the two specific points a1 and a2 is enlarged as shown in FIG. 1 (b), resulting in a circle A 'that is larger than the circle A'. At this time, the effect of enlarging (zooming in) the contents in the circle (for example, a specific area of the map) can be achieved.

마찬가지로 도 2(a)에서 사용자는 터치스크린 상의 두 개의 특정 지점(b1, b2)을 두 손가락을 이용하여 터치한 후 그 양쪽 터치를 유지하면서 수렴 방향 즉, 손가락을 오므리는 방향으로 드래그를 하면 도 1(b)에 도시된 바와 같이 두 개의 특정 지점(b1, b2)을 지나가는 원(B)이 축소되어 결국 보다 더 작은 원(B')이 되는 것이다. 이때 해당 원 안에 있는 내용(예를 들어 지도의 특정 영역)이 축소(줌 아웃)되는 효과를 달성할 수 있는 것이다.Similarly, in FIG. 2 (a), when a user touches two specific points b1 and b2 on the touch screen using two fingers and then drags the finger in the converging direction, that is, A circle B passing through two specific points b1 and b2 is reduced as shown in FIG. 1 (b), resulting in a circle B 'that is smaller than the end. At this time, the effect that the contents in the circle (for example, a specific area of the map) is reduced (zoomed out) can be achieved.

그런데 이처럼 스마트폰과 같은 휴대용 장치들에서는 터치스크린이 구비되고 또한 멀티터치 기능을 지원하는 것이 대세이나, 멀티터치 기능을 지원하지 않거나 터치스크린조차도 구비되지 않는 장치들도 여전히 이용되고 있다.However, handheld devices such as smart phones are equipped with touch screens and support multi-touch functions, but devices that do not support multi-touch functions or even do not have touch screens are still used.

예를 들어 댁내에 구비된 개인용 컴퓨터들 상당수는 키보드나 마우스 등과 같은 전통적인 입력 인터페이스를 구비하고 있을 뿐, 멀티 터치 기능을 지원하지 않을 뿐만 아니라 더 나아가 모니터가 터치스크린으로 구성되지 않을 수도 있다.For example, many of the personal computers provided in the home have a conventional input interface such as a keyboard or a mouse, and not only do not support the multi-touch function, and furthermore, the monitor may not be configured as a touch screen.

따라서 이러한 멀티 터치를 인터페이스를 구비하지 못한 장치에서 멀티 터치 입력이 가능하도록 하는 수단의 제시가 요망되고 있다.Accordingly, it is desired to provide a means for allowing multi-touch input from a device having no multi-touch interface.

특히, 원격지에 있는 멀티 터치 지원 단말기를 서비스 업자, 개발자 등이 컴퓨터를 이용하여 제어 또는 조작하기 위해서는 이처럼 멀티 터치 인터페이스를 구성하지 못한 컴퓨터에서도 멀티 터치 입력이 가능하도록 하는 방안이 필요한 것이다.In particular, in order for a service provider, a developer, or the like to control or operate a multi-touch capable terminal at a remote place using a computer, it is necessary to provide a multi-touch input capable of a computer that can not configure the multi-touch interface.

본 발명은 상기한 종래의 요청에 부응하기 위해 안출된 것으로서, 그 목적은 멀티 터치 입력을 위한 인터페이스를 포함하지 않는 장치에서도 멀티 터치 입력에 대한 처리가 가능하도록 하기 위한 시스템, 제어방법과, 기록 매체를 제공하는 것이다.SUMMARY OF THE INVENTION The present invention has been made to solve the above-mentioned conventional problems, and it is an object of the present invention to provide a system and a control method for enabling a multi-touch input to be processed even in an apparatus not including an interface for multi- .

상기한 목적을 달성하기 위해 본 발명에 따른 멀티 터치 인식 시스템은, 사용자의 조작에 따라 포인트 선택 신호와 드래그 입력 신호를 생성하는 사용자 입력부와; 상기 사용자 입력부로부터 수신되는 포인트 선택 신호와 드래그 입력 신호를 기초로 사용자의 입력을 판별하는 신호 판별부와; 상기 신호 판별부의 판별 결과 사용자로부터 복수 개의 포인트 선택이 순차적으로 이루어진 후에 최종 선택된 포인트에서 드래그가 입력된 경우 상기 선택된 복수 개의 포인트에 대한 좌표를 멀티 터치로 인식하고 상기 최종 선택된 포인트에서의 드래그는 상기 멀티 터치가 이루어진 상태에서 입력되는 멀티 터치 드래그로 인식하는 멀티터치 인식부를 포함하여 구성된다.According to an aspect of the present invention, there is provided a multi-touch recognition system including: a user input unit for generating a point selection signal and a drag input signal according to a user's operation; A signal discrimination unit for discriminating an input of a user based on a point selection signal and a drag input signal received from the user input unit; When a drag is inputted at a finally selected point after a plurality of point selection is sequentially performed from a user as a result of the signal discrimination result, a drag on the finally selected point is recognized as a multi- And a multi-touch recognition unit for recognizing the input multi-touch dragged in a state where the touch is made.

또, 상기한 목적을 달성하기 위해 본 발명에 따른 멀티 터치 인식 시스템은, 사용자의 조작에 따라 포인트 선택 신호와 드래그 입력 신호를 생성하는 사용자 입력부와; 상기 사용자 입력부로부터 수신되는 포인트 선택 신호와 드래그 입력 신호를 기초로 사용자의 입력을 판별하는 신호 판별부와; 상기 신호 판별부의 판별 결과 사용자로부터 어느 하나의 포인트 선택이 이루어진 후에 방향 전환 드래그가 입력된 경우 상기 선택된 포인트와 상기 방향이 전환된 포인트에 대한 좌표를 멀티 터치로 인식하고 상기 최종으로 방향 전환된 포인트에서의 드래그는 상기 멀티 터치가 이루어진 상태에서 입력되는 멀티 터치 드래그로 인식하는 멀티터치 인식부와; 상기 멀티터치 인식부에서 인식된 멀티 터치 드래그에 따른 특정 기능을 수행하는 기능 수행부를 포함하여 구성된다.According to another aspect of the present invention, there is provided a multi-touch recognition system including: a user input unit for generating a point selection signal and a drag input signal according to a user's operation; A signal discrimination unit for discriminating an input of a user based on a point selection signal and a drag input signal received from the user input unit; When a direction switching drag is input after one of the points is selected by the user as a result of the signal discrimination unit, the coordinates of the selected point and the point where the direction is switched are recognized by multi-touch, A multi-touch recognizing unit for recognizing the drag as a multi-touch drag input when the multi-touch is performed; And a function execution unit for performing a specific function corresponding to the multi-touch drag recognized by the multi-touch recognition unit.

또, 상기한 목적을 달성하기 위해 본 발명에 따른 멀티 터치 인식 시스템이 수행하는 제어방법은, 포인트 선택 신호와 드래그 입력 신호를 기초로 사용자의 입력을 판별하는 단계와; 상기 판별 결과 사용자로부터 복수 개의 포인트 선택이 순차적으로 이루어진 후에 최종 선택된 포인트에서 드래그가 입력된 경우 상기 선택된 복수 개의 포인트에 대한 좌표를 멀티 터치로 인식하는 단계와; 상기 최종 선택된 포인트에서의 드래그를 상기 멀티 터치가 이루어진 상태에서 입력되는 멀티 터치 드래그로 인식하는 단계와; 상기 인식된 멀티 터치 드래그 따른 특정 기능을 수행하는 단계를 포함하여 이루어진다.According to another aspect of the present invention, there is provided a control method performed by a multi-touch recognition system, comprising: determining input of a user based on a point selection signal and a drag input signal; Recognizing coordinates of the selected plurality of points by multi-touch when a drag is input at a finally selected point after a plurality of point selections are sequentially performed by the user as a result of the determination; Recognizing a drag at the finally selected point as a multi-touch drag input in a state where the multi-touch is performed; And performing a specific function corresponding to the recognized multi-touch drag.

또, 상기한 목적을 달성하기 위해 본 발명에 따른 멀티 터치 인식 시스템이 수행하는 제어방법은, 포인트 선택 신호와 드래그 입력 신호를 기초로 사용자의 입력을 판별하는 단계와; 상기 판별 결과 사용자로부터 어느 하나의 포인트 선택이 이루어진 후에 방향 전환 드래그가 입력된 경우 상기 선택된 포인트와 상기 방향이 전환된 포인트에 대한 좌표를 멀티 터치로 인식하는 단계와; 상기 최종으로 방향 전환된 포인트에서의 드래그를 상기 멀티 터치가 이루어진 상태에서 입력되는 멀티 터치 드래그로 인식하는 단계와; 상기 인식된 멀티 터치 드래그 따른 특정 기능을 수행하는 단계를 포함하여 이루어진다.According to another aspect of the present invention, there is provided a control method performed by a multi-touch recognition system, comprising: determining input of a user based on a point selection signal and a drag input signal; Recognizing the coordinates of the selected point and the point where the direction is switched when the direction switching drag is inputted after the selection of a point from the user as a result of the determination; Recognizing a drag at the finally redirected point as a multi-touch drag input in a state where the multi-touch is performed; And performing a specific function corresponding to the recognized multi-touch drag.

이상 설명한 바와 같이 본 발명에 따르면, 멀티 터치 인터페이스가 구성되어 있지 않은 장치에서 사용자의 순차적 포인트 선택(클릭 등)과 순차적 드래그의 조합을 이용하여 멀티 터치 기능이 구현될 수 있도록 할 수 있다.As described above, according to the present invention, it is possible to realize a multi-touch function using a combination of sequential point selection (click, etc.) and sequential dragging of a user in an apparatus having no multi-touch interface.

게다가 멀티 터치 인터페이스가 구성되어 있지 않은 컴퓨터 등을 이용하여 원격지의 멀티 터치 가능 단말기를 직접 제어할 수 있다.In addition, it is possible to directly control a multi-touch capable terminal at a remote place by using a computer not having a multi-touch interface.

도 1은 종래에 멀티 터치 기능이 구비된 단말기에서 사용자가 줌인 기능을 수행하는 예를 나타낸 도면이고,
도 2는 종래에 멀티 터치 기능이 구비된 단말기에서 사용자가 줌아웃 기능을 수행하는 예를 나타낸 도면이고,
도 3은 본 발명의 일 실시예에 따른 멀티 터치 인식 시스템의 기능 블록도이고,
도 4 및 도 5는 도 2의 멀티 터치 인식 시스템을 이용하는 사용자가 마우스 등을 이용하여 포인트 선택과 드래그를 입력하는 과정 및 상태를 나타낸 도면이고,
도 6은 본 발명의 일 실시예에 따른 멀티 터치 인식 시스템의 제어흐름도이고,
도 7 및 도 8은 본 발명의 다른 실시예에 따른 멀티 터치 인식 시스템을 이용하는 사용자가 마우스 등을 이용하여 포인트 선택과 드래그를 입력하는 과정 및 상태를 나타낸 도면이고,
도 9는 본 발명의 일 실시예에 따른 멀티 터치 인식 시스템과 멀티 터치 기능을 구비한 외부의 원격 단말기간의 연결도이다.
FIG. 1 is a diagram illustrating an example in which a user performs a zoom-in function in a terminal having a multi-touch function,
2 is a diagram illustrating an example in which a user performs a zoom-out function in a terminal having a multi-touch function,
3 is a functional block diagram of a multi-touch recognition system according to an embodiment of the present invention,
FIGS. 4 and 5 are diagrams illustrating a process and a state in which a user using the multi-touch recognition system of FIG. 2 inputs point selection and drag using a mouse or the like,
FIG. 6 is a control flowchart of a multi-touch recognition system according to an embodiment of the present invention,
7 and 8 are diagrams illustrating a process and a state in which a user using a multi-touch recognition system according to another embodiment of the present invention inputs point selection and drag using a mouse or the like,
FIG. 9 is a connection diagram between a multi-touch recognition system according to an embodiment of the present invention and an external remote terminal having a multi-touch function.

이하에서는 첨부도면을 참조하여 본 발명에 대해 상세히 설명한다.Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.

본 발명의 일 실시예에 따른 멀티 터치 인식 시스템(100)은 도 3에 도시된 바와 같이 사용자 입력부(110), 신호 판별부(120), 멀티 터치 인식부(130), 기능 수행부(140), 디스플레이부(150)를 포함하여 구성될 수 있다.3, the multi-touch recognition system 100 according to an exemplary embodiment of the present invention includes a user input unit 110, a signal determination unit 120, a multi-touch recognition unit 130, a function execution unit 140, And a display unit 150, as shown in FIG.

여기서 디스플레이부(150)는 소정의 텍스트, 이미지 등이 표시되는 것으로서 예를 들어 사용자가 조작하는 키보드나 마우스에 대응되는 포인터(일 예로 마우스 포인터) 등이 표시될 수 있다. 이러한 디스플레이부(150)는 전력 소모가 적은 LCD(Liquid Crystal Display)를 포함하여 구성될 수 있다.Here, the display unit 150 displays predetermined text, images, and the like. For example, a pointer (e.g., a mouse pointer) corresponding to a keyboard or a mouse operated by a user may be displayed. The display unit 150 may include an LCD (Liquid Crystal Display) having low power consumption.

사용자 입력부(110)는 해당 멀티 터치 인식 시스템(100)을 이용하는 사용자의 조작(입력)에 따라 포인트 선택 신호와 드래그 입력 신호를 생성하는 기능을 수행한다.The user input unit 110 performs a function of generating a point selection signal and a drag input signal according to an operation (input) of a user using the multi-touch recognition system 100.

예를 들어 사용자 입력부(110)는 컴퓨터에 연결되어 사용되는 키보드나 마우스 등의 입력 인터페이스를 포함하여 구성될 수 있다.For example, the user input unit 110 may include an input interface such as a keyboard or a mouse connected to the computer.

여기서 포인트 선택 신호는 사용자가 특정 위치(좌표)를 선택할 때 발생하는 신호이고, 드래그 입력 신호는 사용자가 특징 위치를 선택한 상태에서 소정의 궤적을 그리며 이동할 때 발생하는 신호이다.Here, the point selection signal is generated when the user selects a specific position (coordinate), and the drag input signal is generated when the user moves while drawing a predetermined locus while the feature position is selected by the user.

마우스를 예로 든다면, 사용자가 마우스에 구비된 누름 버튼을 누르는 경우 마우스는 포인트 선택 신호를 발생시킬 수 있고, 또한 사용자가 그 마우스에 구비된 누름 버튼을 누른 상태에서 해당 마우스를 이동시키는 경우 마우스는 드래그 입력 신호를 발생시킬 수 있다.For example, when a user presses a push button provided on a mouse, the mouse can generate a point selection signal. If the user moves the mouse while pressing the push button provided on the mouse, A drag input signal can be generated.

멀티 터치를 지원하지 않는 터치스크린을 예로 든다면, 사용자가 터치스크린상의 특정 위치를 누르는 경우 터치스크린 처리 모듈은 포인트 선택 신호를 발생시킬 수 있고, 또한 사용자가 그 터치스크린상의 접촉을 유지하면서 터치 궤적을 그리는 경우 터치스크린은 터치스크린 처리 모듈은 드래그 입력 신호를 발생시킬 수 있다.In the case of a touch screen which does not support multi-touch, for example, when the user presses a specific position on the touch screen, the touch screen processing module can generate a point selection signal, The touch screen can generate a drag input signal by the touch screen processing module.

신호 판별부(120)는 사용자 입력부(110)로부터 수신되는 포인트 선택 신호와 드래그 입력 신호를 기초로 사용자의 입력을 판별하는 기능을 수행한다. 즉, 신호 판별부(120)는 사용자 입력부(110)로부터 수신된 신호 해석을 통해 사용자가 포인트 선택을 하는지, 또는 드래그 동작을 하는지 여부를 판별하는 것이다.The signal determination unit 120 performs a function of determining a user's input based on a point selection signal and a drag input signal received from the user input unit 110. That is, the signal determining unit 120 determines whether the user selects a point or performs a drag operation through analyzing a signal received from the user input unit 110. [

멀티 터치 인식부(130)는 신호 판별부(120)의 판별 결과를 참조하여 사용자로부터 복수 개의 포인트 선택이 순차적으로 이루어진 후에 최종 선택된 포인트에서 드래그가 입력된 경우 그 선택된 복수 개의 포인트에 대한 좌표를 멀티 터치로 인식하는 기능을 수행한다. 또한 멀티 터치 인식부(130)는 최종 선택된 포인트에서의 드래그는 멀티 터치가 이루어진 상태에서 입력되는 멀티 터치 드래그로 인식하는 기능을 수행한다.The multi-touch recognition unit 130 refers to the determination result of the signal determination unit 120 to sequentially select a plurality of points from the user, and when a drag is input at the last selected point, Performs a function to recognize by touch. Further, the multi-touch recognition unit 130 performs a function of recognizing the drag at the finally selected point as a multi-touch drag input in a state where the multi-touch is performed.

여기서 입력의 마지막에는 터치를 제거하는 과정이 포함될 수 있으나 이는 너무도 당연한 것이므로 보다 구체적 설명은 생략한다.Here, the process of removing the touch may be included at the end of the input, but this is so natural that a more detailed description will be omitted.

여기서 "멀티 터치"라는 것은 복수 개의 지점에 동시에 터치가 이루어지는 것을 의미하고, "멀티 터치 드래그"는 멀티 터치를 유지하면서 소정 궤적을 그리는 것을 의미한다.Here, "multi-touch" means that a plurality of points are simultaneously touched, and "multi-touch drag" means drawing a predetermined locus while maintaining multi-touch.

즉, 멀티 터치 인식부(130)는 실제로는 사용자로부터 멀티 터치가 입력되지 않았음에도 상술한 조건을 만족하는 경우 멀티 터치 입력으로 인식하는 것이다.That is, the multi-touch recognition unit 130 actually recognizes the multi-touch input when the above conditions are satisfied even though the multi-touch is not input from the user.

설명을 단순화하기 위해 이하에서는 2번의 포인트 선택과 1번의 드래그가 입력되는 것을 일 예로 하여 설명한다.In order to simplify the description, the following description will be made by way of example in which two point selection and one drag are input.

우선 도 4를 참조하면 멀티 터치 인식 시스템(100)의 일 예로 컴퓨터가 도시되었다.4, a computer is shown as an example of the multi-touch recognition system 100. The multi-

컴퓨터 사용자가 마우스를 이용하여 특정 위치를 순차적으로 클릭하고 마지막 클릭을 위해 마우스 버튼을 누른 상태에서 드래그하면, 예를 들어 c1 위치를 클릭하고 c2 위치로 마우스 포인터를 이동한 상태에서 마우스 누름 버튼을 누르고 도 4에 도시된 바와 같은 방향으로 드래그를 하면, 컴퓨터(100)는 사용자에 의해 선택된 c1위치와 c2위치를 멀티 터치 위치로 인식하고 드래그는 멀티 터치 드래그로 인식하는 것이다.If a computer user clicks a specific position sequentially with a mouse and clicks and holds the mouse button for the last click, for example, clicking the c1 position and moving the mouse pointer to the c2 position, pressing the mouse push button When dragging in the direction as shown in FIG. 4, the computer 100 recognizes the c1 position and the c2 position selected by the user as multi-touch positions, and recognizes the drag as multi-touch drag.

이 경우 컴퓨터(100)는 마치 사용자가 터치스크린 상에서 c1과 c2를 동시에 두 손가락으로 터치하고 안쪽(수렴)방향으로 멀티 터치 드래그(터치된 두 손가락을 오므림 : 두 손가락 모두 터치된 상태를 유지하면서 동시에 안쪽 방향으로 드래그함)를 하는 것이라고 인식하는 것이다.In this case, the computer 100 may be configured as if the user touches c1 and c2 with two fingers at the same time on the touch screen and multi-touch drag (touches two fingers in the inward (converging) direction) And at the same time dragging inward).

예를 들어 컴퓨터(100)는 상술한 바와 같은 사용자의 마우스 조작(순차적인 포인트 선택과 마지막 포인트에서의 드래그)이 감지되는 경우 도 1(a)에 도시된 것과 동일한 줌인 동작이 입력되었다고 인식할 수 있는 것이다.For example, when the user's mouse operation (sequential point selection and dragging at the last point) as described above is detected, the computer 100 can recognize that the same zoom-in operation as that shown in Fig. 1 (a) It is.

도 5는 사용자가 도 4와는 다른 방향으로 드래그 하는 것을 보이고 있는 것이다.FIG. 5 shows that the user drags in a direction different from FIG.

즉, 사용자가 d1위치에서 마우스 클릭을 하고 d2로 마우스 포인터를 이동시킨 후 마우스 누름 스위치를 누르고 그 상태에서 도 5에 도시된 바와 같은 방향으로 마우스 포인터를 이동(드래그)하는 경우 컴퓨터(100)는 마치 사용자가 터치스크린 상에서 d1과 d2를 동시에 두 손가락으로 터치하고 바깥쪽(발산)방향으로 멀티 터치 드래그(터치된 두 손가락을 벌림 : 두 손가락 모두 터치된 상태를 유지하면서 동시에 바깥쪽 방향으로 드래그함)를 하는 것이라고 인식할 수 있는 것이다.That is, when the user clicks the mouse at d1 and moves the mouse pointer to d2, and then presses the mouse push switch and moves (drag) the mouse pointer in the direction as shown in Fig. 5, the computer 100 As if the user touches d1 and d2 on the touch screen at the same time with two fingers and multi-touch drag in the outward (divergence) direction (two fingers are touched: both fingers are touched while simultaneously dragging outward ).

기능 수행부(140)는 멀티 터치 인식부(130)에서 인식된 멀티 터치 드래그에 따른 특정 기능을 수행한다.The function performing unit 140 performs a specific function according to the multi-touch dragging recognized by the multi-touch recognizing unit 130. [

예를 들어 도 4와 같은 터치 입력이 이루어진 경우 기능 수행부(140)는 c1과 c2 위치를 기준으로 줌아웃 기능을 수행할 수 있는데 이는 도 2(b)와 동일한 결과라 할 수 있다.For example, when the touch input as shown in FIG. 4 is performed, the function performing unit 140 can perform a zoom-out function based on the positions c1 and c2, which is the same result as FIG. 2 (b).

또한 도 5와 같은 터치 입력이 이루어진 경우 기능 수행부(140)는 d1과 d2 위치를 기준으로 줌인 기능을 수행할 수 있는데 이 경우 도 1(b)와 동일한 결과라 할 수 있다.Also, when the touch input as shown in FIG. 5 is performed, the function execution unit 140 can perform a zoom-in function based on the positions d1 and d2. In this case, the same result as FIG. 1 (b) can be obtained.

이하에서는 도 6을 참조하여 본 발명의 일 실시예에 따른 멀티 터치 인식 시스템(100)의 제어 흐름을 설명한다.Hereinafter, a control flow of the multi-touch recognition system 100 according to an embodiment of the present invention will be described with reference to FIG.

사용자로부터 멀티 터치 시작 버튼(미 도시함)의 선택(누름, 입력)을 감지하면(단계 S1) 멀티 터치 인식 시스템(100)은 멀티 터치 인식 기능을 활성화시킨다(단계 S3).When the user selects (presses, inputs) a multi-touch start button (not shown) (step S1), the multi-touch recognition system 100 activates the multi-touch recognition function (step S3).

사용자의 제1 터치가 감지되면(단계 S5) 멀티 터치 인식 시스템(100)은 제1 터치 위치 좌표(이하 제1 좌표)를 저장한다(단계 S7).When the first touch of the user is sensed (step S5), the multi-touch recognition system 100 stores the first touch position coordinate (hereinafter referred to as the first coordinate) (step S7).

이어서 사용자의 제2 터치가 감지되면(단계 S9) 멀티 터치 인식 시스템(100)은 제2 터치 위치 좌표(이하 제2 좌표)를 저장한다(단계 S11).When the second touch of the user is detected (step S9), the multi-touch recognition system 100 stores the second touch position coordinate (hereinafter referred to as the second coordinate) (step S11).

그리고 제2 터치가 유지되는 상태에서 사용자의 드래그 동작을 감지하면(단계 S13) 멀티 터치 인식 시스템(100)은 제1 좌표와 제2 좌표를 추출한 후(단계 S15) 추출한 제1 좌표와 제2 좌표 및 드래그 방향을 고려한 멀티 터치 드래그를 인식한다(단계 S17). 이러한 멀티 터치 드래그 인식 과정의 구체적 예는 앞서 여러 번 설명을 하였으므로 생략한다.When the drag operation of the user is detected in the state where the second touch is maintained (step S13), the multi-touch recognition system 100 extracts the first coordinate and the second coordinate (step S15) And the multi-touch drag in consideration of the drag direction (step S17). A specific example of the multi-touch drag recognition process has been described above several times, and thus will be omitted.

멀티 터치 인식 시스템(100)은 인식된 멀티 터치 드래그에 대응되는 특정 기능(예를 들어 줌인, 줌아웃)을 수행한다(단계 S19).The multi-touch recognition system 100 performs a specific function (e.g., zoom in or zoom out) corresponding to the recognized multi-touch drag (step S19).

본 실시예에서는 멀티 터치 기능이 구비되지 않은 장치에서 멀티 터치 입력을 가상으로 수행하도록 하기 위해 사용자가 멀티 터치 시작 버튼을 누른 후 터치 입력을 하는 것을 일 예로 하였으나, 이러한 특정 멀티 터치 시작 버튼을 이용하지 않는 다른 방법들이 이용될 수도 있음은 물론이다.In the present embodiment, the user inputs a touch after pressing the multi-touch start button in order to virtually perform the multi-touch input in a device having no multi-touch function. However, Of course, other methods may be used.

예를 들어 사용자가 별도 버튼 입력 없이 쉬프트 키(Shift Key)와 마우스 버튼의 조합에 의해 멀티 터치 입력을 할 수도 있다.For example, a user can perform multi-touch input by a combination of a shift key and a mouse button without inputting a separate button.

이하에서는 본 발명의 다른 실시예에 따른 멀티 터치 인식 시스템(100)에 대해 설명한다.Hereinafter, a multi-touch recognition system 100 according to another embodiment of the present invention will be described.

본 실시예는 앞선 실시예와 구성은 동일하나 그 구성의 기능 중 일부가 다르다.The present embodiment has the same configuration as the preceding embodiment, but some of the functions of the configuration are different.

즉, 본 발명의 다른 실시예에 따른 멀티 터치 인식 시스템(100)은 도 3에 도시된 바와 동일한 구성으로 이루어질 수 있다.That is, the multi-touch recognition system 100 according to another embodiment of the present invention may have the same configuration as shown in FIG.

여기서 사용자 입력부(110)와 신호 판별부(120), 기능 수행부(140)는 앞선 실시예와 그 기능이 동일하므로 중복 설명을 생략한다.Here, the user input unit 110, the signal discrimination unit 120, and the function execution unit 140 have the same functions as those of the preceding embodiment, and thus duplicate descriptions thereof will be omitted.

멀티 터치 인식부(130')는 신호 판별부(120)의 판별 결과 사용자로부터 어느 하나의 포인트 선택이 이루어진 후에 방향 전환 드래그가 입력된 경우 그 선택된 포인트와 방향이 전환된 포인트에 대한 좌표를 멀티 터치로 인식하고 최종으로 방향 전환된 포인트에서의 드래그는 멀티 터치가 이루어진 상태에서 입력되는 멀티 터치 드래그인 것으로 인식한다.The multi-touch recognizing unit 130 'recognizes the coordinates of the selected point and the point where the direction is switched when the direction switching drag is inputted after the selection of any one point from the user as a result of the determination by the signal determining unit 120, And recognizes that the drag at the finally redirected point is a multi-touch drag that is input while the multi-touch is performed.

이에 대한 예가 도 7 및 도 8에 도시되었는데, 멀티 터치 인식 시스템(100')의 일 예로써 컴퓨터가 나타나 있다.An example of this is shown in FIGS. 7 and 8, where a computer is shown as an example of a multi-touch recognition system 100 '.

도 7을 참조하면 컴퓨터 사용자가 마우스를 이용하여 e1 위치를 터치한 상태에서 e2방향으로 드래그하고, e2 위치에서 왼쪽 위쪽 사선방향으로 드래그를 하는 경우 컴퓨터(100)는 e1 위치와 e2 위치를 멀티 터치 위치로 인식하고 마지막 드래그는 멀티 터치 드래그로 인식하는 것이다. 이 경우 컴퓨터(100')는 예를 들어 줌아웃 기능을 수행할 수도 있다.Referring to FIG. 7, when the computer user drags in the e2 direction while touching the e1 position using the mouse and drags in the upper left diagonal direction at the e2 position, the computer 100 transmits the e1 position and the e2 position to the multi- Position and the final drag is to recognize it as multi-touch drag. In this case, the computer 100 'may perform a zoom-out function, for example.

도 8을 참조하면 컴퓨터 사용자가 마우스를 이용하여 f1 위치를 터치한 상태에서 f2방향으로 드래그하고, f2 위치에서 오른쪽 방향으로 드래그를 하는 경우 컴퓨터(100')는 f1 위치와 f2 위치를 멀티 터치 위치로 인식하고 마지막 드래그는 멀티 터치가 이루어진 상태에서의 드래그로 인식하는 것이다. 이 경우 컴퓨터(100')는 예를 들어 줌인 기능을 수행할 수도 있다.Referring to FIG. 8, when a computer user drags in the f2 direction while touching the f1 position with the mouse and drags in the right direction at the f2 position, the computer 100 ' And the last drag is recognized as a drag in a state where the multi-touch is made. In this case, the computer 100 'may perform a zoom-in function, for example.

상술한 실시예들에서는 멀티 터치 인식 시스템(100)은 단일 장치(예를 들어 컴퓨터)로 이루어진 것을 일 예로 하면서 멀티 터치 인식에 따른 특정 기능 수행도 멀티 터치 인식 시스템(100) 상에서 수행하는 것에 대해서만 설명하였으나 멀티 터치 인식 시스템(100)은 원격의 다른 단말기를 제어하는 용도로 이용될 수도 있다.In the above-described embodiments, the multi-touch recognition system 100 is made up of a single device (e.g., a computer), and only a specific function performed by the multi-touch recognition is performed on the multi- However, the multi-touch recognition system 100 may be used to control other remote terminals.

이 경우 멀티 터치 인식에 따른 특정 기능의 수행은 그 원격 단말기에서 이루어진다.In this case, the execution of the specific function according to the multi-touch recognition is performed in the remote terminal.

예를 들어 도 9에 도시된 바와 같은 멀티 터치 인식 시스템(100)의 일 예인 컴퓨터(100)는 통신망을 통해 원격지의 단말기(예를 들어 스마트폰)(200)와 연결되어 있는 경우, 컴퓨터 사용자가 컴퓨터(100)에 연결된 마우스 등의 조작을 통해 원격지의 단말기(200)에서 멀티 터치에 따른 특정 기능이 수행되도록 할 수 있는 것이다.For example, when the computer 100, which is an example of the multi-touch recognition system 100 shown in FIG. 9, is connected to a remote terminal (e.g., a smart phone) 200 through a communication network, A specific function according to multi-touch can be performed in the terminal 200 at a remote place through an operation of a mouse or the like connected to the computer 100. [

즉, 컴퓨터 사용자는 앞선 실시예들에 설명한 다양한 방식으로 순차적 터치 입력을 하게 되고, 이러한 입력은 컴퓨터(100)에서 멀티 터치 입력으로 인식되어 결국 멀티 터치 기능이 구비된 원격지의 단말기(200)를 제어할 수 있는 것이다.That is, the computer user performs sequential touch input in various manners as described in the previous embodiments, and the input is recognized as multi-touch input in the computer 100, so that the remote terminal 200 having the multi- You can do it.

이외에도 멀티 터치 인식 시스템(100)은 컴퓨터를 포함하는 복수의 장치들의 조합으로 구성될 수도 있는데, 이 경우 도 3에 도시된 각 기능 블록은 복수의 장치들에 분산되어 구비될 수도 있다.In addition, the multi-touch recognition system 100 may be configured by a combination of a plurality of devices including a computer. In this case, each functional block shown in FIG. 3 may be dispersedly provided in a plurality of devices.

상술한 각 실시예를 수행하는 과정은 소정의 기록 매체(예를 들어 컴퓨터로 판독 가능한)에 저장된 프로그램에 의해 이루어질 수 있음은 물론이다.It goes without saying that the process of performing each of the above-described embodiments may be performed by a program stored in a predetermined recording medium (e.g., a computer readable recording medium).

한편, 본 발명은 상기한 특정 실시예에 한정되는 것이 아니라 본 발명의 요지를 벗어나지 않는 범위 내에서 여러 가지로 변형 및 수정하여 실시할 수 있는 것이다. 이러한 변형 및 수정이 첨부되는 특허청구범위에 속한다면 본 발명에 포함된다는 것은 자명할 것이다. While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, is intended to cover various modifications and equivalent arrangements included within the spirit and scope of the invention. It is to be understood that such variations and modifications are intended to be included in the scope of the appended claims.

100,100' : 멀티 터치 인식 시스템 110 : 사용자 입력부
120 : 신호 판별부 130,130' : 멀티 터치 인식부
140 : 기능 수행부 150 : 디스플레이부
100, 100 ': Multi-touch recognition system 110: User input
120: signal discrimination unit 130, 130 ': multi-
140: function performing unit 150:

Claims (8)

사용자의 조작에 따라 포인트 선택 신호와 드래그 입력 신호를 생성하는 사용자 입력부와;
상기 사용자 입력부로부터 수신되는 포인트 선택 신호와 드래그 입력 신호를 기초로 사용자의 입력을 판별하는 신호 판별부와;
상기 신호 판별부의 판별 결과 사용자로부터 복수 개의 포인트 선택이 순차적으로 이루어진 후에 최종 선택된 포인트에서 드래그가 입력된 경우 상기 선택된 복수 개의 포인트에 대한 좌표를 멀티 터치로 인식하고 상기 최종 선택된 포인트에서의 드래그는 상기 멀티 터치가 이루어진 상태에서 입력되는 멀티 터치 드래그로 인식하는 멀티터치 인식부를 포함하는 것을 특징으로 하는 멀티 터치 인식 시스템.
A user input unit for generating a point selection signal and a drag input signal according to an operation of a user;
A signal discrimination unit for discriminating an input of a user based on a point selection signal and a drag input signal received from the user input unit;
As a result of the determination of the signal determination unit, when dragging is input from the last selected point after a plurality of point selections are sequentially performed from a user, the coordinates of the selected plurality of points are recognized as multi-touch, and the dragging from the last selected point is performed by the multi-touch. And a multi-touch recognition unit configured to recognize a multi-touch drag input while a touch is made.
제1항에 있어서,
상기 사용자 입력부는 키보드와 마우스 중 적어도 어느 하나와 통신하는 것을 특징으로 하는 멀티 터치 인식 시스템.
The method of claim 1,
Wherein the user input unit communicates with at least one of a keyboard and a mouse.
제1항에 있어서,
상기 멀티터치 인식부는 상기 최종 선택된 포인트에서의 드래그가 이루어진 경우 해당 드래그 방향에 따라 상기 멀티 터치로 인식된 복수 개의 포인트 모두에서 수렴 또는 발산을 위한 동시 드래그가 발생한 것으로 인식하는 것을 특징으로 하는 멀티 터치 인식 시스템.
The method of claim 1,
Wherein the multi-touch recognition unit recognizes that simultaneous dragging for convergence or divergence has occurred in all of the plurality of points recognized by the multi-touch according to the drag direction when dragging is performed at the finally selected point. system.
사용자의 조작에 따라 포인트 선택 신호와 드래그 입력 신호를 생성하는 사용자 입력부와;
상기 사용자 입력부로부터 수신되는 포인트 선택 신호와 드래그 입력 신호를 기초로 사용자의 입력을 판별하는 신호 판별부와;
상기 신호 판별부의 판별 결과 사용자로부터 어느 하나의 포인트 선택이 이루어진 후에 방향 전환 드래그가 입력된 경우 상기 선택된 포인트와 상기 방향이 전환된 포인트에 대한 좌표를 멀티 터치로 인식하고 상기 최종으로 방향 전환된 포인트에서의 드래그는 상기 멀티 터치가 이루어진 상태에서 입력되는 멀티 터치 드래그로 인식하는 멀티터치 인식부와;
상기 멀티터치 인식부에서 인식된 멀티 터치 드래그에 따른 특정 기능을 수행하는 기능 수행부를 포함하는 것을 특징으로 하는 멀티 터치 인식 시스템.
A user input unit for generating a point selection signal and a drag input signal according to an operation of a user;
A signal discrimination unit for discriminating an input of a user based on a point selection signal and a drag input signal received from the user input unit;
As a result of the determination of the signal discrimination unit, when a direction change drag is input after a user selects one point, the coordinates of the selected point and the point to which the direction is changed are recognized as multi-touch, The drag of the multi-touch recognition unit for recognizing the multi-touch drag input in the state of the multi-touch;
And a function execution unit to perform a specific function according to the multi-touch drag recognized by the multi-touch recognition unit.
(a) 포인트 선택 신호와 드래그 입력 신호를 기초로 사용자의 입력을 판별하는 단계와;
(b) 상기 (a) 단계에서의 판별 결과 사용자로부터 복수 개의 포인트 선택이 순차적으로 이루어진 후에 최종 선택된 포인트에서 드래그가 입력된 경우 상기 선택된 복수 개의 포인트에 대한 좌표를 멀티 터치로 인식하는 단계와;
(c) 상기 최종 선택된 포인트에서의 드래그를 상기 멀티 터치가 이루어진 상태에서 입력되는 멀티 터치 드래그로 인식하는 단계와;
(d) 상기 (c) 단계에서 인식된 멀티 터치 드래그 따른 특정 기능을 수행하는 단계를 포함하는 것을 특징으로 하는 멀티 터치 인식 시스템이 수행하는 제어방법.
(a) determining a user's input based on a point selection signal and a drag input signal;
(b) recognizing coordinates of the selected plurality of points by multi-touch when a drag is input at a finally selected point after a plurality of point selection is sequentially performed from the user as a result of the determination in the step (a);
(c) recognizing a drag at the finally selected point as a multi-touch drag input in a state where the multi-touch is performed;
and (d) performing a specific function according to the multi-touch drag recognized in step (c).
제5항에 있어서,
상기 (c) 단계에서는 상기 최종 선택된 포인트에서의 드래그가 이루어진 경우 해당 드래그 방향에 따라 상기 멀티 터치로 인식된 복수 개의 포인트 모두에서 수렴 또는 발산을 위한 동시 드래그가 발생한 것으로 인식하는 것을 특징으로 하는 멀티 터치 인식 시스템이 수행하는 제어방법.
The method of claim 5,
In the step (c), when dragging is performed at the finally selected point, it is recognized that simultaneous dragging for convergence or divergence has occurred in all of the plurality of points recognized by the multi-touch according to the drag direction. A control method performed by the recognition system.
(a) 포인트 선택 신호와 드래그 입력 신호를 기초로 사용자의 입력을 판별하는 단계와;
(b) 상기 (a) 단계에서의 판별 결과 사용자로부터 어느 하나의 포인트 선택이 이루어진 후에 방향 전환 드래그가 입력된 경우 상기 선택된 포인트와 상기 방향이 전환된 포인트에 대한 좌표를 멀티 터치로 인식하는 단계와;
(c) 상기 최종으로 방향 전환된 포인트에서의 드래그를 상기 멀티 터치가 이루어진 상태에서 입력되는 멀티 터치 드래그로 인식하는 단계와;
(d) 상기 (c) 단계에서 인식된 멀티 터치 드래그 따른 특정 기능을 수행하는 단계를 포함하는 것을 특징으로 하는 멀티 터치 인식 시스템이 수행하는 제어방법.
(a) determining a user's input based on a point selection signal and a drag input signal;
(b) recognizing, by multi-touch, coordinates of the selected point and the point to which the direction is changed when a direction change drag is input after a point selection is made by the user as a result of the determination in step (a); ;
(c) recognizing the drag at the point in which the direction is finally changed as a multi-touch drag input while the multi-touch is made;
and (d) performing a specific function according to the multi-touch drag recognized in step (c).
제5항 내지 제7항 중 어느 한 항의 방법이 실현되도록 하는 프로그램을 기록한 컴퓨터 판독 가능 기록 매체.A computer-readable recording medium storing a program for realizing the method according to any one of claims 5 to 7.
KR1020110122142A 2011-11-22 2011-11-22 System, control method, and recording media for recognizing multi-touch KR101397907B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110122142A KR101397907B1 (en) 2011-11-22 2011-11-22 System, control method, and recording media for recognizing multi-touch

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110122142A KR101397907B1 (en) 2011-11-22 2011-11-22 System, control method, and recording media for recognizing multi-touch

Publications (2)

Publication Number Publication Date
KR20130056503A true KR20130056503A (en) 2013-05-30
KR101397907B1 KR101397907B1 (en) 2014-05-21

Family

ID=48664509

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110122142A KR101397907B1 (en) 2011-11-22 2011-11-22 System, control method, and recording media for recognizing multi-touch

Country Status (1)

Country Link
KR (1) KR101397907B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150040825A (en) * 2013-07-17 2015-04-15 한국과학기술원 User interface method and apparatus using successive touches

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090070491A (en) * 2007-12-27 2009-07-01 엔에이치엔(주) Apparatus and method for controlling screen using touch screen
KR20110010522A (en) * 2009-07-24 2011-02-01 에스케이텔레콤 주식회사 User interface method using drag action and terminal
KR101354991B1 (en) * 2009-08-05 2014-01-23 에스케이플래닛 주식회사 Mobile Communication Terminal and Method for Edit via Multi-Touch in Thereof
KR101132598B1 (en) * 2009-09-10 2012-04-06 문준희 Method and device for controlling screen size of display device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150040825A (en) * 2013-07-17 2015-04-15 한국과학기술원 User interface method and apparatus using successive touches

Also Published As

Publication number Publication date
KR101397907B1 (en) 2014-05-21

Similar Documents

Publication Publication Date Title
US10996834B2 (en) Touchscreen apparatus user interface processing method and touchscreen apparatus
US8212785B2 (en) Object search method and terminal having object search function
KR102133410B1 (en) Operating Method of Multi-Tasking and Electronic Device supporting the same
KR102020345B1 (en) The method for constructing a home screen in the terminal having touchscreen and device thereof
KR101328202B1 (en) Method and apparatus for running commands performing functions through gestures
WO2013174057A1 (en) Touch screen operation method and device
US20090102809A1 (en) Coordinate Detecting Device and Operation Method Using a Touch Panel
US8456433B2 (en) Signal processing apparatus, signal processing method and selection method of user interface icon for multi-touch panel
KR20090081602A (en) Method for providing UI to detect a multi-point stroke and multimedia apparatus thereof
US9465470B2 (en) Controlling primary and secondary displays from a single touchscreen
US9377944B2 (en) Information processing device, information processing method, and information processing program
CN101470575B (en) Electronic device and its input method
KR20100033214A (en) Automatic switching method of input-mode by input pattern
CN104281378A (en) Mobile device one-hand control method and system
CN102880413B (en) The method of the mobile terminal control display touching control screen for having and mobile terminal
CN107817927B (en) Application icon management method and device
KR101397907B1 (en) System, control method, and recording media for recognizing multi-touch
JP5882973B2 (en) Information processing apparatus, method, and program
KR20150040825A (en) User interface method and apparatus using successive touches
KR101260016B1 (en) Method and touch-screen device for implementing pointer interface using skin-type interface
CN109804342B (en) Method for adjusting display and operation of graphical user interface
WO2018167860A1 (en) Touch gesture determination device, touch gesture determination method, touch gesture determination program, and touch panel input device
KR20150098366A (en) Control method of virtual touchpadand terminal performing the same
CN104407789A (en) Mobile-terminal desktop-icon display control method and device
TW201543328A (en) Method for quickly changing user interface and computer program thereof and electronic device for using the same

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20181005

Year of fee payment: 5