WO2014021499A1 - Apparatus and method for multi-touch recognition capable of discriminating touch on object - Google Patents

Apparatus and method for multi-touch recognition capable of discriminating touch on object Download PDF

Info

Publication number
WO2014021499A1
WO2014021499A1 PCT/KR2012/007454 KR2012007454W WO2014021499A1 WO 2014021499 A1 WO2014021499 A1 WO 2014021499A1 KR 2012007454 W KR2012007454 W KR 2012007454W WO 2014021499 A1 WO2014021499 A1 WO 2014021499A1
Authority
WO
WIPO (PCT)
Prior art keywords
touch
reaction
touch point
point
screen
Prior art date
Application number
PCT/KR2012/007454
Other languages
French (fr)
Korean (ko)
Inventor
김숙영
Original Assignee
(주)라온제나
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)라온제나 filed Critical (주)라온제나
Publication of WO2014021499A1 publication Critical patent/WO2014021499A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04104Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Definitions

  • the present invention relates to a multi-touch recognition apparatus and method for identifying a touch on an object. More particularly, the present invention relates to a multi-touch recognition device and a method for identifying a touch on an object. The present invention relates to a multi-touch recognition apparatus and method for identifying a touch on an object capable of recognizing only a touch on an object and implementing a reaction action according to the touch action.
  • the problem to be solved by the present invention is to reduce the waste of resources involved in the interpretation of the touch point by ignoring the touch on the area that does not respond to the touch and only recognize the touch on the reaction object, and to identify the touch on the reaction object.
  • the touch points of the recognition device when applied to a touch recognition device having a predetermined number of touch points that can be recognized simultaneously, the touch points of the recognition device can be effectively used by ignoring the touch on the non-responsive object.
  • FIG. 1 is a diagram illustrating multi-touch recognition according to the prior art and multi-touch recognition according to the present invention, respectively.
  • FIG. 2 is a block diagram illustrating a multi-touch recognition device for identifying a touch on an object according to the present invention.
  • Figure 3 is a block diagram showing in detail the touch analysis unit.
  • FIG. 4 is a flowchart illustrating a multi-touch recognition method for identifying a touch on an object according to the present invention.
  • a multi-touch recognition apparatus for identifying a touch on an object includes an object including a reaction object performing a reaction operation when the touch is performed and a non-responsive object not performing the reaction operation when the touch is performed.
  • a content player for playing the contained content includes a touch screen which outputs the content on the screen in association with a content player and detects at least one touch point on the screen;
  • a touch analysis unit configured to monitor a change in the touch point when the position of the touch point exists in the reactive object area, and ignore touch recognition of the touch point when the position of the touch point exists in the non-response object area.
  • the touch point may be a starting point of the touch.
  • the touch analysis unit may include an operation analysis unit for determining a reaction operation of the reaction object according to the change of the monitored touch point.
  • the touch interpreter may include an object manager that manages generation, destruction and reaction of an object.
  • the object manager may manage the creation, destruction and reaction of the object.
  • the object manager may recognize and manage at least one of whether a plurality of objects overlap each other, an overlapping area, and an overlapping order.
  • the object manager may register and manage each image corresponding to a menu, a button, a banner, and an icon by uploading or linking them as an object.
  • the object manager may delete each image corresponding to a menu, a button, a banner, and an icon to destroy the object.
  • the multi-touch recognizing apparatus may further include an object database storing object characteristic information including information on at least one of an object type, a shape, and a reaction operation according to a touch operation.
  • object characteristic information including information on at least one of an object type, a shape, and a reaction operation according to a touch operation.
  • the multi-touch recognition device may be mounted on at least one of a computer terminal, a personal portable terminal, a digital electronic table, and a distance information terminal.
  • a multi-touch recognition method for identifying a touch on an object includes the steps of: (a) the content player outputs the content on the screen; (b) the touch screen obtaining a position of the touch point; (c) determining whether a location of a touch point exists in a reaction object area that performs a reaction operation upon touch; (d) ignoring recognition of the touch point and change of the touch point when the location of the touch point exists in the non-response object area that does not perform a reaction operation upon touch; And (e) monitoring a change to the touch point when the position of the touch point exists in the reaction object area.
  • the multi-touch recognition method may further include (g) implementing an operation of the reaction object according to the determined reaction operation.
  • the present invention provides a computer-readable recording medium recording a program for realizing the multi-touch recognition method.
  • first and second may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another.
  • the first component may be referred to as the second component, and similarly, the second component may also be referred to as the first component.
  • FIG. 1 is a diagram illustrating multi-touch recognition according to the prior art and multi-touch recognition according to the present invention, respectively.
  • 1 (a) illustrates multi-touch recognition according to the prior art
  • FIG. 1 (b) illustrates multi-touch recognition according to the present invention.
  • the multi-touch recognition device and recognition method for identifying a touch on an object detects only a touch and a touch change on a reaction object that performs a reaction when touched, and implements a touch action according to the touch action.
  • the present invention provides a recognition apparatus and method.
  • a recognition apparatus and method when a touch is detected on a non-responsive object that does not perform a reaction upon touch, a resource related to touch gesture recognition may be reduced by ignoring touch and treatment changes on the non-responsive object.
  • the background region does not perform any response to touch.
  • the multi-touch recognition apparatus detects and continuously monitors a touch on a background area and its touch change, even though no operation is performed on the touch on the background area.
  • the touch recognition apparatus even though six touch points P11 to P16 are detected in the background, since the background area is a non-responsive object, the touch recognition for the six touch points P11 to P12 for the background area is performed. And do not monitor the change in touch point.
  • the multi-touch recognition apparatus recognizes only the touch points P17 to P22 for the reaction object and monitors the change of the touch point, even if there are six touch points in the background area, only the touch point for the reaction object is present. Recognize only (P17 ⁇ P22) and monitor the change of the touch point.
  • FIG. 2 is a block diagram illustrating a multi-touch recognition device for identifying a touch on an object according to the present invention.
  • the multi-touch recognition apparatus 100 for identifying a touch on an object and a background includes a content player 110, a touch screen 120, a position acquisition unit 130, and a touch analysis unit ( 140, and may further include an object manager 150 and / or an object database 160.
  • the content player 110 plays the contents 10_1 to 10_n including various objects.
  • the object includes a reaction object that performs a reaction upon touch and a non-response object that does not perform a response upon touch.
  • the touch screen 120 is interlocked with the content player 110 to output the content being played by the content player 110 on the screen, and simultaneously detects at least one touch point contacted on the screen.
  • the content 10_1 to 10_n played by the content player 110 includes an object, and the object includes a reaction object that performs a reaction when the body part is touched and a non-response object that does not perform the reaction when touched. do.
  • the reaction object is an object that performs a reaction operation according to the touch when the touch is performed. For example, if a window is an object, the size of the window window can be reduced or enlarged, the window window moved, the window window deleted, the upper part of the window window, the boundary of the window window, various function buttons included in the window window, or a specific area within the window window area. It may be implemented through a touch operation or a multi-touch on a location.
  • various functions such as zooming out or zooming in the video play screen, moving the video play screen, playing, stopping, moving back and forth, adjusting the playback speed, adjusting the volume, adjusting the screen size, and selecting a video file can be performed. It may be implemented as a touch or gesture on a function button, a touch action or gesture in a player screen area, or a gesture using multi-touch and multi-touch.
  • the background region which is a space between the objects, may perform a reaction operation when touched.
  • a variety of application icons are arranged on a plurality of pages of a smart phone or tablet computer.
  • an operation of moving to another page may be implemented.
  • the background region since the reaction operation is performed according to the touch operation, the background region may also be included in the reaction object performing the reaction operation according to the touch.
  • the background area that does not perform any reaction operation according to the touch operation or the multi-touch operation is a non-responsive object.
  • reaction objects all objects that perform a specific reaction according to the touch action are reaction objects, and objects that do not perform the specific reaction action according to the touch action are non-response objects.
  • the touch operation is a concept including at least one touch of a single single touch, multi touch, and touch gesture.
  • these touch gestures can be sized by touching and releasing a touch, tapping twice as quickly as a double-clicking of a mouse button, dragging without touching and releasing, or shortening or stretching the distance without touching and releasing two points.
  • touch operations such as changing the (which is also used to zoom in and out of text or images), touching several points at the same time, and performing a specific gesture.
  • the touch operation in the present invention is not limited to any of the specific touches described above, and all touch methods developed in the future as well as existing touch methods such as a single touch using a single finger, a multi touch using multiple fingers at the same time, and a gesture operation accordingly. It includes.
  • the position acquisition unit 130 obtains information on the location of the touch point, which is the point where the body part is in contact, and continues the information on the change of the touch point in real time. Monitor.
  • various touch operations such as removing, dragging, or double touching may be performed.
  • the position acquisition unit 130 identifies the starting point of the touch and continuously monitors the change of the touch point. Information about the starting point of the touch and the trajectory change of the touch point is provided to the touch interpreter 140.
  • the touch interpreter 140 continuously monitors the change of the touch point when the position of the touch point is in the reaction object area output on the screen, and touches the touch point when the position of the touch point is in the non-response object area. Ignore recognition.
  • the touch interpreter 140 analyzes a touch action on the reaction object, determines a reaction action corresponding to the touch action, and controls the content player to implement the reaction action of the reaction object.
  • 3 is a block diagram showing in detail the touch analysis unit.
  • the object manager 141 manages the generation, destruction, and action of all objects played through the content player 110 with reference to the object database 160.
  • the object database 150 stores characteristic information about all objects including the reaction object and the non-reaction object.
  • the characteristic information is information including at least one of a type, a shape, a size of an object, and a reaction operation according to a touch operation.
  • the characteristic information may further include information about a color, an area, and a pixel position when outputting the object.
  • the object manager 141 refers to the object database 150 to grasp characteristics of each object, and manages generation, destruction, and action of all objects played through the content player 110.
  • Each object may have a different size, angle, shape, color, area, pixel position, and the like when outputted on the screen.
  • the object manager 141 recognizes and manages at least one of the size, angle, shape, color, area, pixel position, and boundary of each object when each object is generated and displayed on the screen. It also manages the reaction action according to the action.
  • the object manager 141 also uploads or links each image corresponding to various icons including at least one of a menu, a button, and a banner to register and manage the object in the object database 150 as an object. do.
  • the object manager 141 may delete each image corresponding to various icons including at least one of a menu, a button, and a banner, and then delete the images from the object.
  • the position comparison unit 142 determines whether the touch point is located in the object area by comparing the position of each object output in the screen with the position of the touch point on the screen.
  • the operation interpreter 143 determines whether the type of the object is a reactive object or a non-responsive object.
  • the operation analysis unit 142 ignores the touch on the non-responsive object. That is, when the touch on the non-responsive object is detected, the operation interpreter 142 does not monitor the change in the touch point for the non-responsive object.
  • the operation analysis unit 142 interprets the touch operation based on the information on the change of the touch point for the reaction object, and the object to perform the reaction operation according to the interpreted touch operation To control.
  • the motion analysis unit 143 determines the response motion of the object based on the information on the change of the monitored touch point, that is, the analysis result of the touch motion, and provides the content player 110 with information on the determined reaction motion.
  • the content player 110 causes the object to perform a reaction operation according to the touch operation according to the result of the operation analysis unit 143.
  • an object can have various function buttons in its area, each of which is treated as an independent object.
  • the video player outputs video on the touch screen, and the video player has a stop button, a play button, a pause button, a forward and backward button, and a volume control button.
  • the size of the video window being played by the video player may be adjusted by touching and dragging the border of the video window, and the stopping, playing, and volume control of the video may be controlled by touching respective buttons.
  • the video window may be moved to any area of the screen of the touch screen 110 by touching and dragging an area within the video window.
  • FIG. 4 is a flowchart illustrating a multi-touch recognition method for identifying a touch on an object according to the present invention.
  • the multi-touch recognition method for identifying a touch on an object according to the present invention is a method performed by the multi-touch recognition apparatus for identifying a touch on an object according to the present invention. Omit it.
  • the touch screen 120 is interlocked with the content player 110 to output the content being played by the content player 110 on the screen (S10).
  • the touch screen 120 detects whether a body part, for example, a finger, is touched on the screen. That is, the touch screen 120 detects at least one touch point on the screen (S20).
  • the position acquisition unit 130 obtains the position of the detected touch point (S30). Of course, the position acquisition unit 130 also keeps track of the change in the touch point in real time.
  • the touch interpreter 140 determines whether the location of the touch point exists in the reaction object area performing the reaction operation when the touch is performed (S40).
  • the step S40 will be described in more detail.
  • the touch interpreter 140 determines whether the position of the touch point exists in the object area. Then, the touch interpreter 140 determines the type of the touched object when the position of the touch point exists in the object area. To judge. Since the reaction operation according to the touch operation on the reaction object and the non-reaction object is different, the Tay analysis unit 140 accurately determines whether the touched object is a reaction object or a non-reaction object.
  • the touch interpreter 140 ignores the recognition of the touch point and does not monitor the change of the touch point (S50). .
  • the touch analysis unit 140 monitors the change of the touch point to interpret the touch operation (S60).
  • the touch interpreter 140 determines a reaction operation according to the touch operation with reference to the object database 150 (S70). The response action according to the determined touch action is provided to the content player.
  • the content player 110 implements the operation of the response object according to the analysis result of the touch interpreter. That is, the content player 110 operates the reaction object according to the determined reaction operation (S80).
  • the method of the present invention can also be embodied as computer readable code on a computer readable recording medium.
  • the computer-readable recording medium includes all kinds of recording devices in which data that can be read by a computer system is stored. Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage, and the like, and may also be implemented in the form of a carrier wave (for example, transmission over the Internet). Include.
  • the computer readable recording medium can also be distributed over network coupled computer systems so that the computer readable code is stored and executed in a distributed fashion.
  • the multi-touch recognition apparatus and method for identifying a touch on an object according to the present invention may be mounted on various devices and implemented.
  • a general computer terminal it can be mounted in personal portable terminals such as smartphones and tablet computers.
  • personal portable terminals such as smartphones and tablet computers.
  • it can be implemented in a variety of devices, such as a distance information terminal that is installed in a digital electronic table and a street that can be used by multiple people at the same time to provide a variety of information through a touch input of a plurality of users.
  • the present invention by only recognizing the touch on the response object and ignoring the touch on the non-response object, it is possible to reduce resource waste involved in the interpretation of the touch point.
  • the touch points of the recognition device when applied to a touch recognition device having a predetermined number of touch points that can be recognized simultaneously, the touch points of the recognition device can be effectively used by ignoring the touch on the non-responsive object.
  • the method of the present invention can also be embodied as computer readable code on a computer readable recording medium.
  • the computer-readable recording medium includes all kinds of recording devices in which data that can be read by a computer system is stored. Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage, and the like, and may also be implemented in the form of a carrier wave (for example, transmission over the Internet). Include.
  • the computer readable recording medium can also be distributed over network coupled computer systems so that the computer readable code is stored and executed in a distributed fashion.

Abstract

The present invention relates to an apparatus and a method for a multi-touch recognition capable of discriminating a touch on an object. More particularly, the present invention relates to an apparatus and a method for a multi-touch recognition capable of discriminating a touch on an object, the apparatus and the method being capable of discriminating a reaction object which performs a reaction operation in reaction to a touch and a non-reaction object which does not react to a touch, thus recognizing only the touch for the reaction object and carrying out the reaction operation to the touch operation. According to the present invention, only the touch on the reaction object is recognized and the touch on the non-reaction object is ignored, thereby reducing waste of resources involved in the interpretation of a touch point.

Description

오브젝트에 대한 터치를 식별하는 멀티터치 인식 장치 및 방법Apparatus and method for multi-touch recognition for identifying touch on an object
본 발명은 오브젝트에 대한 터치를 식별하는 멀티터치 인식 장치 및 방법에 관한 것으로서, 더욱 상세하게는, 터치에 반응하여 반응동작을 수행하는 반응 오브젝트와 터치에 반응하지 않는 비반응 오브젝트를 각각 식별함으로써 반응 오브젝트에 대한 터치만을 인식하고 그 터치 동작에 따른 반응동작을 구현할 수 있는 오브젝트에 대한 터치를 식별하는 멀티터치 인식 장치 및 방법에 관한 것이다.The present invention relates to a multi-touch recognition apparatus and method for identifying a touch on an object. More particularly, the present invention relates to a multi-touch recognition device and a method for identifying a touch on an object. The present invention relates to a multi-touch recognition apparatus and method for identifying a touch on an object capable of recognizing only a touch on an object and implementing a reaction action according to the touch action.
멀티터치 제어 프로그램들은 멀티터치 콘텐츠를 사용할 시에 화면에서의 정확한 터치와 터치점의 개수에만 주목하고 있어 멀티터치의 사용성을 떨어뜨린다. 예를 들어 터치에 전혀 반응하지 않는 배경 영역이 있는 경우, 사용자가 배경을 터치한다 하여도 멀티터치 제어 프로그램들은 배경에 대한 터치를 인식한다.When using multi-touch content, multi-touch control programs pay attention only to the correct touch on the screen and the number of touch points, thereby reducing the usability of the multi-touch. For example, if there is a background area that does not respond to touch at all, even if the user touches the background, the multi-touch control programs recognize a touch on the background.
터치점을 무한히 인식할 수 있는 것이 아니기 때문에, 터치에 전혀 반응하지 않는 영역에 대한 터치를 굳이 인식하는 것은 하드웨어나 소프트웨어의 리소스 측면에서 부정적인 결과를 가져온다. Since touch points are not infinitely recognizable, recognizing a touch on an area that does not respond to touch at all has negative consequences in terms of hardware or software resources.
예를 들어 6개의 터치점을 인식할 수 있는 멀티터치 기술에서 터치에 전혀 반응하지 않는 화면의 배경에서 4개의 손가락이 접촉되어 있다고 가정하자. 그러한 경우 멀티터치 제어 프로그램은 4개의 터치점을 이미 인식하고 그에 대한 리소스를 점유하고 있으므로, 2개의 터치점만 추가로 인식될 수 있을 뿐 더 많은 개수의 터치점을 인식할 수 없다. 터치에 반응하지 않는 4개의 터치점과 반응하는 2개의 터치점으로서 6개의 터치점이 모두 사용되면, 여분의 포인트가 남아있지 않아 더 이상의 접촉도 인식될 수 없으며, 이는 멀티터치의 사용성능을 현저하게 떨어뜨린다.For example, suppose that four fingers are in contact with a background of a screen that does not respond to touch at all in a multi-touch technology capable of recognizing six touch points. In such a case, since the multi-touch control program already recognizes the four touch points and occupies the resources thereof, only the two touch points can be recognized additionally and a larger number of touch points cannot be recognized. If all six touch points are used as two touch points that do not respond to the touch and two touch points that do not respond to the touch, no extra points remain and no further touches can be recognized, which significantly improves the performance of the multi-touch. Drop it.
6개의 터치점이 모두 점유되면, 여분의 포인트가 남아있지 않아 더 이상의 접촉도 인식될 수 없으면, 이는 멀티터치의 사용성능을 현저하게 떨어뜨린다.When all six touch points are occupied, if no extra points remain and no further contact can be recognized, this significantly degrades the performance of the multi-touch.
따라서 멀티터치의 사용성능을 향상시키기 위해, 터치에 반응하지 않는 영역에 대한 터치를 무시하고 반응 오브젝트에 대한 터치만을 인식할 수 있는 멀티터치 인식 기술에 대한 필요성이 대두되고 있다. Therefore, in order to improve the performance of multi-touch, there is a need for a multi-touch recognition technology capable of ignoring a touch on an area that does not respond to a touch and recognizing only a touch on a reaction object.
본 발명이 해결하고자 하는 과제는, 터치에 반응하지 않는 영역에 대한 터치를 무시하고 반응 오브젝트에 대한 터치만을 인식함으로써 터치점의 해석에 관여하는 리소스 낭비를 줄일 수 있고 반응 오브젝트에 대한 터치를 식별하는 멀티터치 인식 장치 및 방법을 제공하는 데 있다.The problem to be solved by the present invention is to reduce the waste of resources involved in the interpretation of the touch point by ignoring the touch on the area that does not respond to the touch and only recognize the touch on the reaction object, and to identify the touch on the reaction object A multi-touch recognition apparatus and method are provided.
본 발명에 따르면, 반응 오브젝트에 대한 터치만을 인식하고 비반응 오브젝트에 대한 터치는 무시함으로써 터치점의 해석에 관여하는 리소스 낭비를 줄일 수 있다.According to the present invention, it is possible to reduce the waste of resources involved in the interpretation of the touch point by recognizing only the touch on the response object and ignoring the touch on the non-response object.
또한 본 발명에 따르면, 동시에 인식할 수 있는 터치점의 개수가 정해져 있는 터치 인식 장치에 적용되는 경우, 비반응 오브젝트에 대한 터치를 무시함으로써 효과적으로 인식 장치의 터치점들을 사용할 수 있다.In addition, according to the present invention, when applied to a touch recognition device having a predetermined number of touch points that can be recognized simultaneously, the touch points of the recognition device can be effectively used by ignoring the touch on the non-responsive object.
도 1은 종래기술에 따른 멀티터치 인식과 본 발명에 따른 멀티터치 인식을 각각 예시한 도면.1 is a diagram illustrating multi-touch recognition according to the prior art and multi-touch recognition according to the present invention, respectively.
도 2는 본 발명에 따른 오브젝트에 대한 터치를 식별하는 멀티터치 인식 장치를 나타낸 블록도.2 is a block diagram illustrating a multi-touch recognition device for identifying a touch on an object according to the present invention.
도 3은 터치해석부를 상세히 나타낸 블록도.Figure 3 is a block diagram showing in detail the touch analysis unit.
도 4는 본 발명에 따른 오브젝트에 대한 터치를 식별하는 멀티터치 인식 방법을 나타낸 흐름도.4 is a flowchart illustrating a multi-touch recognition method for identifying a touch on an object according to the present invention.
상기한 과제를 해결하기 위해 본 발명에 따른 오브젝트에 대한 터치를 식별하는 멀티터치 인식 장치는, 터치 시 반응동작을 수행하는 반응 오브젝트와 터치 시 반응동작을 수행하지 않는 비반응 오브젝트를 포함하는 오브젝트가 담겨진 콘텐츠를 플레이하는 콘텐츠 플레이어; 콘텐츠 플레이어에 연동하여 상기 콘텐츠를 화면상에 출력하되, 스크린상에서 적어도 하나 이상의 터치점을 감지하는 터치스크린; 터치점의 위치를 획득하는 위치 획득부; 및 터치점의 위치가 반응 오브젝트 영역 내에 존재하면 터치점의 변화를 모니터링하고, 터치점의 위치가 비반응 오브젝트 영역내에 존재하면 터치점에 대한 터치 인식을 무시하는 터치 해석부를 포함하는 것을 특징으로 한다.In order to solve the above problems, a multi-touch recognition apparatus for identifying a touch on an object according to the present invention includes an object including a reaction object performing a reaction operation when the touch is performed and a non-responsive object not performing the reaction operation when the touch is performed. A content player for playing the contained content; A touch screen which outputs the content on the screen in association with a content player and detects at least one touch point on the screen; A position obtaining unit obtaining a position of the touch point; And a touch analysis unit configured to monitor a change in the touch point when the position of the touch point exists in the reactive object area, and ignore touch recognition of the touch point when the position of the touch point exists in the non-response object area. .
바람직하게는, 상기 터치점은 터치의 시작점일 수 있다.Preferably, the touch point may be a starting point of the touch.
바람직하게는, 상기 터치해석부는, 모니터링한 터치점의 변화에 따라 반응 오브젝트의 반응동작을 결정하는 동작해석부를 포함할 수 있다.Preferably, the touch analysis unit may include an operation analysis unit for determining a reaction operation of the reaction object according to the change of the monitored touch point.
바람직하게는, 상기 터치해석부는, 오브젝트의 생성, 소멸 및 반응동작을 관리하는 오브젝트 관리부를 포함할 수 있다.Preferably, the touch interpreter may include an object manager that manages generation, destruction and reaction of an object.
바람직하게는, 상기 오브젝트 관리부는, 오브젝트의 생성, 소멸 및 반응동작을 관리할 수 있다.Preferably, the object manager may manage the creation, destruction and reaction of the object.
바람직하게는, 상기 오브젝트 관리부는, 터치스크린상에서 출력되고 있는 각 오브젝트에 대하여 그 위치, 경계, 및 크기 중의 적어도 하나를 인식하고 관리할 수 있다.Preferably, the object manager may recognize and manage at least one of a position, a boundary, and a size of each object output on the touch screen.
바람직하게는, 상기 오브젝트 관리부는, 복수 개의 오브젝트 간의 중첩 여부, 중첩 영역, 및 중첩 순서 중의 적어도 하나를 인식하고 관리할 수 있다.Preferably, the object manager may recognize and manage at least one of whether a plurality of objects overlap each other, an overlapping area, and an overlapping order.
바람직하게는, 상기 오브젝트 관리부는, 메뉴, 버튼, 배너, 아이콘에 해당하는 각각의 이미지를 업로드 또는 링크 연결하여 오브젝트로 등록 및 관리할 수 있다.Preferably, the object manager may register and manage each image corresponding to a menu, a button, a banner, and an icon by uploading or linking them as an object.
바람직하게는, 상기 오브젝트 관리부는, 메뉴, 버튼, 배너, 아이콘에 해당하는 각각의 이미지를 삭제하여, 오브젝트에서 소멸시킬 수 있다.Preferably, the object manager may delete each image corresponding to a menu, a button, a banner, and an icon to destroy the object.
바람직하게는, 상기 멀티터치 인식 장치는, 오브젝트의 종류, 형태, 및 터치동작에 따른 반응동작 중의 적어도 하나에 대한 정보를 포함하는 오브젝트 특성정보를 저장하고 있는 오브젝트 데이터베이스를 더 포함할 수 있다.Preferably, the multi-touch recognizing apparatus may further include an object database storing object characteristic information including information on at least one of an object type, a shape, and a reaction operation according to a touch operation.
바람직하게는, 상기 멀티터치 인식 장치는, 컴퓨터 단말기, 개인용 휴대 단말기, 디지털 전자 테이블 및 거리 정보 단말기 중의 적어도 하나에 탑재될 수 있다. Preferably, the multi-touch recognition device may be mounted on at least one of a computer terminal, a personal portable terminal, a digital electronic table, and a distance information terminal.
또한, 상기한 과제를 해결하기 위해 본 발명에 따른 오브젝트에 대한 터치를 식별하는 멀티터치 인식 방법은, (a) 콘텐츠 플레이어가 콘텐츠를 화면에 출력하는 단계; (b) 터치스크린이 터치점의 위치를 획득하는 단계; (c) 터치점의 위치가 터치 시 반응동작을 수행하는 반응 오브젝트 영역 내에 존재하는지 여부를 판단하는 단계; (d) 터치점의 위치가 터치 시 반응동작을 수행하지 않는 비반응 오브젝트 영역 내에 존재하는 경우, 터치점에 대한 인식 및 터치점 변화를 무시하는 단계; 및 (e) 터치점의 위치가 반응 오브젝트 영역 내에 존재하는 경우, 터치점에 대한 변화를 모니터링하는 단계를 포함하는 것을 특징으로 한다.In addition, to solve the above problems, a multi-touch recognition method for identifying a touch on an object according to the present invention includes the steps of: (a) the content player outputs the content on the screen; (b) the touch screen obtaining a position of the touch point; (c) determining whether a location of a touch point exists in a reaction object area that performs a reaction operation upon touch; (d) ignoring recognition of the touch point and change of the touch point when the location of the touch point exists in the non-response object area that does not perform a reaction operation upon touch; And (e) monitoring a change to the touch point when the position of the touch point exists in the reaction object area.
바람직하게는, 상기 멀티터치 인식 방법은, (g) 상기 결정된 반응동작에 따라 상기 반응 오브젝트의 동작을 구현하는 단계를 더 포함할 수 있다.Preferably, the multi-touch recognition method may further include (g) implementing an operation of the reaction object according to the determined reaction operation.
한편, 상기한 목적을 달성하기 위해서 본 발명은 상기 멀티터치 인식 방법을 실현하기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공한다.On the other hand, in order to achieve the above object, the present invention provides a computer-readable recording medium recording a program for realizing the multi-touch recognition method.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 형태를 가질 수 있는바, 특정 실시예들을 도면에 예시하고 본문에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 개시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.As the inventive concept allows for various changes and numerous modifications, particular embodiments will be illustrated in the drawings and described in detail in the text. However, this is not intended to limit the present invention to the specific disclosed form, it should be understood to include all modifications, equivalents, and substitutes included in the spirit and scope of the present invention.
제1, 제2 등의 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성 요소는 제2 구성 요소로 명명될 수 있고, 유사하게 제2 구성 요소도 제1 구성 요소로 명명될 수 있다. Terms such as first and second may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the first component may be referred to as the second component, and similarly, the second component may also be referred to as the first component.
본 출원에서 사용한 용어는 단지 특정한 실시예들을 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서에 기재된 특징, 숫자, 단계, 동작, 구성 요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성 요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In this application, the terms "comprise" or "having" are intended to indicate that there is a feature, number, step, action, component, part, or combination thereof described in the specification, and that one or more other features It should be understood that it does not exclude in advance the possibility of the presence or addition of numbers, steps, actions, components, parts or combinations thereof.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art.
일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Terms such as those defined in the commonly used dictionaries should be construed as having meanings consistent with the meanings in the context of the related art, and shall not be construed in ideal or excessively formal meanings unless expressly defined in this application. Do not.
이하에서 첨부된 도면을 참조하여, 본 발명의 바람직한 실시예를 상세히 설명한다. 각 도면에 제시된 동일한 참조부호는 동일한 부재를 나타낸다. Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. Like reference numerals in the drawings denote like elements.
도 1은 종래기술에 따른 멀티터치 인식과 본 발명에 따른 멀티터치 인식을 각각 예시한 도면이다. 도 1(a)는 종래기술에 따른 멀티터치 인식을 예시하고, 도 1(b)는 본 발명에 따른 멀티터치 인식을 예시한다.1 is a diagram illustrating multi-touch recognition according to the prior art and multi-touch recognition according to the present invention, respectively. 1 (a) illustrates multi-touch recognition according to the prior art, and FIG. 1 (b) illustrates multi-touch recognition according to the present invention.
본 발명에 따른 오브젝트에 대한 터치를 식별하는 멀티터치 인식 장치 및 인식 방법은 터치 시 반응동작을 수행하는 반응 오브젝트에 대한 터치와 터치 변화만을 감지하여 그 터치 동작에 따른 반응동작을 구현할 수 있는 멀티터치 인식 장치 및 방법을 제공하는 발명이다. 본 발명에서 터치 시 반응동작을 수행하지 않는 비반응 오브젝트에 대한 터치가 감지된 경우 비반응 오브젝트에 대한 터치 및 처치 변화를 무시함으로써 터치동작 인식과 관련된 자원을 절감할 수 있다.The multi-touch recognition device and recognition method for identifying a touch on an object according to the present invention detects only a touch and a touch change on a reaction object that performs a reaction when touched, and implements a touch action according to the touch action. The present invention provides a recognition apparatus and method. In the present invention, when a touch is detected on a non-responsive object that does not perform a reaction upon touch, a resource related to touch gesture recognition may be reduced by ignoring touch and treatment changes on the non-responsive object.
도 1(a) 및 도 1(b)에서 배경 영역은 터치에 대하여 어떠한 반응동작도 수행하지 않는다. In FIGS. 1A and 1B, the background region does not perform any response to touch.
종래기술에 따른 멀티터치 인식 장치는 배경 영역에 대한 터치에 대하여 어떠한 동작도 수행하지 않음에도 불구하고, 배경 영역에 대한 터치 및 그 터치 변화를 감지하고 계속적으로 모니터링한다. The multi-touch recognition apparatus according to the related art detects and continuously monitors a touch on a background area and its touch change, even though no operation is performed on the touch on the background area.
종래기술에 따른 멀티터치 인식 장치에서 동시에 인식할 수 있는 터치점이 6개라고 가정하자. 이러한 경우, 배경에서 6개의 터치점(P1~P6)이 인식되면 터치에 반응하는 오브젝트를 터치하여도(P7~P9) 종래기술에 따른 멀티터치 인식 장치는 오브젝트에 대한 터치점(P7~P9)을 감지할 수 없으며, 터치동작에 따른 반응동작도 수행할 수 없다.Assume that there are six touch points that can be recognized simultaneously in the multi-touch recognition device according to the prior art. In this case, when six touch points P1 to P6 are recognized in the background, even if an object responding to a touch is touched (P7 to P9), the multi-touch recognition apparatus according to the prior art touch points P7 to P9 for the object. Cannot be detected, and the response operation according to the touch operation cannot be performed.
그러나 본 발명에 따른 멀티터치 인식장치는 배경에서 6개의 터치점(P11~P16)이 감지되었다 하더라도, 배경 영역은 비반응 오브젝트이므로 배경 영역에 대한 6개의 터치점(P11~P12)에 대한 터치 인식 및 터치점의 변화를 모니터링하지 않는다.However, in the multi-touch recognition apparatus according to the present invention, even though six touch points P11 to P16 are detected in the background, since the background area is a non-responsive object, the touch recognition for the six touch points P11 to P12 for the background area is performed. And do not monitor the change in touch point.
본 발명에 따른 멀티터치 인식 장치는 오직 반응 오브젝트에 대한 터치점(P17~P22)만을 인식하고 그 터치점의 변화를 모니터링 하기 때문에, 배경 영역에 6개의 터치점이 존재하더라도 오직 반응 오브젝트에 대한 터치점(P17~P22)만을 인식하고 그 터치점의 변화를 모니터링한다.Since the multi-touch recognition apparatus according to the present invention recognizes only the touch points P17 to P22 for the reaction object and monitors the change of the touch point, even if there are six touch points in the background area, only the touch point for the reaction object is present. Recognize only (P17 ~ P22) and monitor the change of the touch point.
도 2는 본 발명에 따른 오브젝트에 대한 터치를 식별하는 멀티터치 인식 장치를 나타낸 블록도이다.2 is a block diagram illustrating a multi-touch recognition device for identifying a touch on an object according to the present invention.
도 2를 참조하면, 본 발명에 따른 오브젝트와 배경에 대한 터치를 식별하는 멀티터치 인식 장치(100)는 콘텐츠 플레이어(110), 터치스크린(120), 위치획득부(130), 터치해석부(140)를 포함하며, 추가로 오브젝트 관리부(150) 및/또는 오브젝트 데이터베이스(160)를 포함할 수 있다.Referring to FIG. 2, the multi-touch recognition apparatus 100 for identifying a touch on an object and a background according to the present invention includes a content player 110, a touch screen 120, a position acquisition unit 130, and a touch analysis unit ( 140, and may further include an object manager 150 and / or an object database 160.
콘텐츠 플레이어(110)는 각종 오브젝트들이 포함된 콘텐츠(10_1~10_n)를 플레이한다. 오브젝트는 터치 시 반응동작을 수행하는 반응 오브젝트 및 터치시 반응동작을 수행하지 않는 비반응 오브젝트를 포함한다.The content player 110 plays the contents 10_1 to 10_n including various objects. The object includes a reaction object that performs a reaction upon touch and a non-response object that does not perform a response upon touch.
터치스크린(120)은 콘텐츠 플레이어(110)와 연동되어 콘텐츠 플레이어(110)가 플레이하고 있는 콘텐츠를 화면에 출력하며, 화면에서 접촉되는 적어도 하나 이상의 터치점을 동시에 감지한다. The touch screen 120 is interlocked with the content player 110 to output the content being played by the content player 110 on the screen, and simultaneously detects at least one touch point contacted on the screen.
콘텐츠 플레이어(110)가 플레이하고 있는 콘텐츠(10_1~10_n)는 오브젝트를 포함하는데, 이러한 오브젝트는 신체 일부의 터치 시 반응동작을 수행하는 반응 오브젝트와 터치 시 반응동작을 수행하지 않는 비반응 오브젝트를 포함한다.The content 10_1 to 10_n played by the content player 110 includes an object, and the object includes a reaction object that performs a reaction when the body part is touched and a non-response object that does not perform the reaction when touched. do.
반응 오브젝트란 터치 시 그 터치에 따른 반응동작을 수행하는 오브젝트이다. 예를 들어 윈도우 창이 오브젝트인 경우, 윈도우 창 크기의 축소나 확대, 윈도우 창의 이동, 윈도우 창의 삭제 등이 윈도우 창의 윗부분, 윈도우 창의 경계 부분, 윈도우 창에 포함된 각종 기능버튼, 또는 윈도우 창의 영역 내의 특정 위치에 대한 터치 동작이나 멀티 터치를 통해 구현될 수 있다.The reaction object is an object that performs a reaction operation according to the touch when the touch is performed. For example, if a window is an object, the size of the window window can be reduced or enlarged, the window window moved, the window window deleted, the upper part of the window window, the boundary of the window window, various function buttons included in the window window, or a specific area within the window window area. It may be implemented through a touch operation or a multi-touch on a location.
또한 동영상 플레이어가 오브젝트인 경우, 동영상 플레이 화면의 축소나 확대, 동영상 플레이 화면의 이동, 동영상의 재생, 정지, 전후 이동, 재생속도 조정, 볼륨 조절, 화면 크기 조정, 동영상 파일 선택 등의 기능들이 다양한 기능 버튼에 대한 터치나 제스처, 플레이어 화면 영역 내의 터치 동작이나 제스처, 또는 멀티 터치 및 멀티 터치를 이용한 제스처로 구현될 수 있다.Also, when the video player is an object, various functions such as zooming out or zooming in the video play screen, moving the video play screen, playing, stopping, moving back and forth, adjusting the playback speed, adjusting the volume, adjusting the screen size, and selecting a video file can be performed. It may be implemented as a touch or gesture on a function button, a touch action or gesture in a player screen area, or a gesture using multi-touch and multi-touch.
또한 오브젝트들 사이의 공간인 배경 영역도 터치시에 반응 동작을 수행할 수 있다. 최근 많이 이용되는 스마트폰이나 태블릿 컴퓨터의 경우 다수의 페이지에 각종 애플리케이션 아이콘들이 배치되어 있는데, 애플리케이션 아이콘 사이의 배경 영역을 터치한 후 좌우로 드래그하는 경우 다른 페이지로 이동되는 동작이 구현될 수 있다. 이러한 경우 터치 동작에 따라 반응 동작이 수행되기 때문에, 배경 영역도 터치에 따른 반응동작을 수행하는 반응 오브젝트에 포함될 수 있다. In addition, the background region, which is a space between the objects, may perform a reaction operation when touched. Recently, a variety of application icons are arranged on a plurality of pages of a smart phone or tablet computer. When a user touches a background area between application icons and drags left and right, an operation of moving to another page may be implemented. In this case, since the reaction operation is performed according to the touch operation, the background region may also be included in the reaction object performing the reaction operation according to the touch.
한편, 터치 동작이나 멀티 터치 동작에 따라 어떠한 반응동작도 수행하지 않는 배경 영역이 있을 수 있는데, 이처럼 터치 동작에도 어떠한 반응동작을 수행하지 않는 배경 영역은 비반응 오브젝트이다.Meanwhile, there may be a background area that does not perform any reaction operation according to the touch operation or the multi-touch operation. Thus, the background area that does not perform any reaction operation on the touch operation is a non-responsive object.
결과적으로, 터치 동작에 따라 특정 반응동작을 수행하는 오브젝트는 모두 반응 오브젝트이고, 터치 동작에 따라 특정 반응동작을 수행하지 않는 오브젝트는 비반응 오브젝트이다. As a result, all objects that perform a specific reaction according to the touch action are reaction objects, and objects that do not perform the specific reaction action according to the touch action are non-response objects.
여기서, 터치 동작이란 단일의 싱글 터치, 멀티 터치, 및 터치 제스처 중의 적어도 하나의 터치를 포함하는 개념이다. 예를 들어 이러한 터치 동작에는, 터치한 후 접촉 떼기, 마우스 버튼을 더블 클릭하듯이 빠르게 두 번 터치하기, 터치 후 떼지 않고 드래그하기, 두 점을 터치한 후 떼지 않은 채로 거리를 좁히거나 늘림으로써 크기를 변경하기(텍스트나 영상의 확대 및 축소에도 이용됨), 여러 점을 동시에 터치한 후 특정 제스처를 수행하기 등 다양한 터치 동작이 있을 수 있다. 본 발명에서의 터치 동작이란 전술한 어느 특정한 터치에 한정되지 않으며, 하나의 손가락을 이용한 싱글 터치, 여러 손가락을 동시에 이용하는 멀티 터치 및 그에 따른 제스처 동작 등 현존하는 터치 방식뿐 아니라 향후 개발되는 모든 터치 방식을 포함한다. Here, the touch operation is a concept including at least one touch of a single single touch, multi touch, and touch gesture. For example, these touch gestures can be sized by touching and releasing a touch, tapping twice as quickly as a double-clicking of a mouse button, dragging without touching and releasing, or shortening or stretching the distance without touching and releasing two points. There may be a variety of touch operations, such as changing the (which is also used to zoom in and out of text or images), touching several points at the same time, and performing a specific gesture. The touch operation in the present invention is not limited to any of the specific touches described above, and all touch methods developed in the future as well as existing touch methods such as a single touch using a single finger, a multi touch using multiple fingers at the same time, and a gesture operation accordingly. It includes.
터치스크린(120)에 신체 일부가 접촉되는 경우, 위치획득부(130)는 그 신체 일부가 접촉된 지점인 터치점의 위치에 대한 정보를 획득하고, 터치점의 변화에 대한 정보를 실시간으로 계속 모니터링한다. When a part of the body comes into contact with the touch screen 120, the position acquisition unit 130 obtains information on the location of the touch point, which is the point where the body part is in contact, and continues the information on the change of the touch point in real time. Monitor.
손가락 등 신체 일부를 이용하여 터치스크린(120)에 터치한 후에는 터치한 신체 일부를 떼거나 드래그하거나 더블 터치를 하는 등의 다양한 터치 동작이 이뤄질 수 있다. 터치 동작을 구분하기 위해서는 최초 터치의 위치, 즉 터치의 시작점을 파악하고 터치점의 변화를 모니터링하는 것이 필요하다. After touching the touch screen 120 using a body part such as a finger, various touch operations such as removing, dragging, or double touching may be performed. In order to distinguish the touch operation, it is necessary to determine the position of the initial touch, that is, the starting point of the touch, and monitor the change of the touch point.
이를 위해 위치획득부(130)는 터치의 시작점을 파악하고, 터치점의 변화를 계속적으로 모니터링한다. 터치의 시작점 및 터치점의 궤적 변화에 대한 정보는 터치해석부(140)로 제공된다.To this end, the position acquisition unit 130 identifies the starting point of the touch and continuously monitors the change of the touch point. Information about the starting point of the touch and the trajectory change of the touch point is provided to the touch interpreter 140.
터치해석부(140)는 터치점의 위치가 화면상에 출력된 반응 오브젝트 영역 내에 존재하면 터치점의 변화를 계속적으로 모니터링하고, 터치점의 위치가 비반응 오브젝트 영역 내에 존재하면 터치점에 대한 터치 인식을 무시한다.The touch interpreter 140 continuously monitors the change of the touch point when the position of the touch point is in the reaction object area output on the screen, and touches the touch point when the position of the touch point is in the non-response object area. Ignore recognition.
또한 터치해석부(140)는 반응 오브젝트에 대한 터치동작을 해석하고, 그 터치동작에 대응하는 반응동작을 판단하여 콘텐츠 플레이어가 반응 오브젝트의 반응동작을 구현하도록 제어한다.In addition, the touch interpreter 140 analyzes a touch action on the reaction object, determines a reaction action corresponding to the touch action, and controls the content player to implement the reaction action of the reaction object.
도 3은 터치해석부를 상세히 나타낸 블록도이다.3 is a block diagram showing in detail the touch analysis unit.
도 3을 참조하면, 터치해석부(140)는 오브젝트 관리부(141), 위치비교부(142), 및 동작해석부(143)를 포함한다.Referring to FIG. 3, the touch interpreter 140 includes an object manager 141, a position comparator 142, and an operation interpreter 143.
오브젝트 관리부(141)는 오브젝트 데이터베이스(160)를 참조하여 콘텐츠 플레이어(110)를 통해 재생되는 모든 오브젝트의 생성, 소멸, 액션을 관리한다.The object manager 141 manages the generation, destruction, and action of all objects played through the content player 110 with reference to the object database 160.
오브젝트 데이터베이스(150)는 반응 오브젝트 및 비반응 오브젝트를 포함하는 모든 오브젝트에 대한 특성정보를 저장하고 있다. 특성정보란 오브젝트의 종류, 형태, 크기, 및 터치동작에 따른 반응동작 중의 적어도 하나에 대한 정보를 포함하는 정보로서, 오브젝트의 색깔, 면적, 출력시 픽셀 위치 등에 대한 정보도 더 포함할 수 있다.The object database 150 stores characteristic information about all objects including the reaction object and the non-reaction object. The characteristic information is information including at least one of a type, a shape, a size of an object, and a reaction operation according to a touch operation. The characteristic information may further include information about a color, an area, and a pixel position when outputting the object.
오브젝트 관리부(141)는 오브젝트 데이터베이스(150)를 참조하여 각 오브젝트의 특성을 파악하고, 콘텐츠 플레이어(110)를 통해 재생되는 모든 오브젝트의 생성, 소멸, 및 액션을 관리한다.The object manager 141 refers to the object database 150 to grasp characteristics of each object, and manages generation, destruction, and action of all objects played through the content player 110.
각 오브젝트는 화면에 출력되는 경우, 크기, 각도, 형태, 색깔, 면적, 출력시 픽셀 위치 등이 상이할 수 있다. 오브젝트 관리부(141)는 각 오브젝트가 생성되어 화면에 출력될 때 각 오브젝트의 크기, 각도, 형태, 색깔, 면적, 픽셀 위치, 경계 중의 적어도 하나를 인식하고 관리하며, 오브젝트의 크기 변화, 이동, 터치동작에 따른 반응동작도 관리한다.Each object may have a different size, angle, shape, color, area, pixel position, and the like when outputted on the screen. The object manager 141 recognizes and manages at least one of the size, angle, shape, color, area, pixel position, and boundary of each object when each object is generated and displayed on the screen. It also manages the reaction action according to the action.
또한 오브젝트 관리부(141)는 다수 개의 오브젝트가 출력된 경우 다수 개의 오브젝트 간에 겹침이 발생하는 경우 겹친 순서 및 겹친 영역도 역시 관리할 수 있다. 즉, 오브젝트 관리부(141)는 복수 개의 오브젝트 간의 중첩 여부, 중첩 영역, 및 중첩 순서 중의 적어도 하나를 인식하고 관리할 수 있다.In addition, when a plurality of objects are output, the object manager 141 may also manage overlapping orders and overlapping areas when overlapping occurs between the plurality of objects. That is, the object manager 141 may recognize and manage at least one of whether the plurality of objects overlap each other, an overlapping area, and an overlapping order.
또한 오브젝트 관리부(141)는 메뉴, 버튼, 및 배너 중의 적어도 하나를 포함하는 다양한 아이콘에 각각 대응하는 각각의 이미지를 업로드 또는 링크 연결하여 오브젝트로서 오브젝트 데이터베이스(150)에 등록하고 이를 관리하는 역할도 수행한다. In addition, the object manager 141 also uploads or links each image corresponding to various icons including at least one of a menu, a button, and a banner to register and manage the object in the object database 150 as an object. do.
또한 오브젝트 관리부(141)는 메뉴, 버튼, 및 배너 중의 적어도 하나를 포함하는 다양한 아이콘에 각각 대응하는 각각의 이미지를 삭제하여, 오브젝트에서 소멸시킬 수 있다.In addition, the object manager 141 may delete each image corresponding to various icons including at least one of a menu, a button, and a banner, and then delete the images from the object.
위치비교부(142)는 화면 내에 출력된 각 오브젝트의 위치와 화면에서의 터치점의 위치를 비교함으로써 오브젝트 영역에 터치점이 위치하는지를 판단한다. The position comparison unit 142 determines whether the touch point is located in the object area by comparing the position of each object output in the screen with the position of the touch point on the screen.
동작해석부(143)는 오브젝트 영역에 터치점이 위치하는 경우 오브젝트의 종류가 반응 오브젝트인지 비반응 오브젝트인지 여부를 판단한다. When the touch point is located in the object area, the operation interpreter 143 determines whether the type of the object is a reactive object or a non-responsive object.
만일 오브젝트의 종류가 비반응 오브젝트인 경우, 동작해석부(142)는 비반응 오브젝트에 대한 터치를 무시한다. 즉, 동작해석부(142)는 비반응 오브젝트에 대한 터치가 감지되면 비반응 오브젝트에 대한 터치점의 변화를 모니터링하지 않는다. If the type of object is a non-responsive object, the operation analysis unit 142 ignores the touch on the non-responsive object. That is, when the touch on the non-responsive object is detected, the operation interpreter 142 does not monitor the change in the touch point for the non-responsive object.
한편 오브젝트의 종류가 반응 오브젝트인 경우, 동작해석부(142)는 반응 오브젝트에 대한 터치점의 변화에 대한 정보를 바탕으로 터치동작을 해석하고, 해석한 터치동작에 따른 반응동작을 수행하도록 오브젝트를 제어한다.On the other hand, if the type of the object is a reaction object, the operation analysis unit 142 interprets the touch operation based on the information on the change of the touch point for the reaction object, and the object to perform the reaction operation according to the interpreted touch operation To control.
전술한 것처럼, 터치한 후 접촉 떼기, 마우스 버튼을 더블 클릭하듯이 빠르게 두 번 터치하기, 터치 후 떼지 않고 드래그하기, 두 점을 터치한 후 떼지 않은 채로 거리를 좁히거나 늘림으로써 크기를 변경하기(텍스트의 확대나 축소에도 이용됨), 여러 점을 동시에 터치한 후 특정 제스처를 수행하기 등 터치동작에 따라 다양한 반응동작이 대응될 수 있다. As mentioned above, you can change the size by touching and releasing the touch, tapping twice quickly as if you double-clicked the mouse button, dragging without touching and releasing, and shortening or stretching the distance without touching and releasing the two points ( It can be used to enlarge or reduce text), touch various points at the same time, and perform various gestures.
동작해석부(143)는 모니터링한 터치점의 변화에 대한 정보, 즉 터치동작의 해석 결과를 바탕으로 오브젝트의 반응동작을 결정하고, 결정한 반응동작에 대한 정보를 콘텐츠 플레이어(110)로 제공한다. The motion analysis unit 143 determines the response motion of the object based on the information on the change of the monitored touch point, that is, the analysis result of the touch motion, and provides the content player 110 with information on the determined reaction motion.
전술한 것처럼 오브젝트의 종류, 형태, 터치동작에 따른 반응동작 등 오브젝트 특성정보는 오브젝트 데이터베이스(160)에 저장되어 있다. 동작해석부(142)는 오브젝트 데이터베이스(160)를 참조하여 터치동작에 따른 오브젝트의 반응동작을 해석하고, 그 해석 결과를 콘텐츠 플레이어(110)로 제공한다. As described above, the object characteristic information such as the type, shape, and response of the touch operation is stored in the object database 160. The operation interpreter 142 analyzes the reaction operation of the object according to the touch operation with reference to the object database 160, and provides the analysis result to the content player 110.
콘텐츠 플레이어(110)는 동작해석부(143)의 결과에 따라 오브젝트가 터치동작에 따른 반응동작을 수행하도록 한다.The content player 110 causes the object to perform a reaction operation according to the touch operation according to the result of the operation analysis unit 143.
한편 오브젝트는 그 영역 내에 다양한 기능버튼을 가질 수 있는데, 그러한 기능버튼들은 각각 독립된 오브젝트로서 취급된다. On the other hand, an object can have various function buttons in its area, each of which is treated as an independent object.
예를 들어, 터치스크린 상에서 동영상을 출력하기 위한 동영상 플레이어가 동영상을 출력하고 있다고 가정하자. For example, assume that a video player for outputting a video on a touch screen is outputting a video.
동영상 플레이어는 터치스크린 상에서 동영상을 출력하고 있으며, 그 동영상 플레이어는 정지 버튼, 재생 버튼, 일시정지 버튼, 전후이동 버튼, 볼륨조정 버튼을 가지고 있다. The video player outputs video on the touch screen, and the video player has a stop button, a play button, a pause button, a forward and backward button, and a volume control button.
이때 동영상 플레이어가 재생하고 있는 동영상 창의 크기는 그 동영상 창의 경계부분에 대하여 터치하고 드래그하는 방식으로 조절될 수 있으며, 동영상의 정지, 재생, 및 볼륨조절은 각각의 버튼을 터치함으로써 제어될 수 있다. 또한 동영상 창은 동영상 창 내의 영역을 터치한 후 드래그함으로써 터치스크린(110) 화면 내의 어떠한 영역으로도 이동될 수 있다.In this case, the size of the video window being played by the video player may be adjusted by touching and dragging the border of the video window, and the stopping, playing, and volume control of the video may be controlled by touching respective buttons. In addition, the video window may be moved to any area of the screen of the touch screen 110 by touching and dragging an area within the video window.
이때 동영상 창과 각각의 버튼들은 각각 독립된 오브젝트로서 동작한다.At this time, the video window and each button operate as independent objects.
도 4는 본 발명에 따른 오브젝트에 대한 터치를 식별하는 멀티터치 인식 방법을 나타낸 흐름도이다.4 is a flowchart illustrating a multi-touch recognition method for identifying a touch on an object according to the present invention.
이하에서는 본 발명에 따른 오브젝트에 대한 터치를 식별하는 멀티터치 인식 방법을 설명하도록 한다. 본 발명에 따른 오브젝트에 대한 터치를 식별하는 멀티터치 인식 방법은 본 발명에 따른 오브젝트에 대한 터치를 식별하는 멀티터치 인식 장치에 의해 수행되는 방법으로서, 서로 본질적으로 동일하므로 상세한 설명 및 중복되는 설명은 생략하도록 한다.Hereinafter, a multi-touch recognition method for identifying a touch on an object according to the present invention will be described. The multi-touch recognition method for identifying a touch on an object according to the present invention is a method performed by the multi-touch recognition apparatus for identifying a touch on an object according to the present invention. Omit it.
터치스크린(120)은 콘텐츠 플레이어(110)와 연동되어 콘텐츠 플레이어(110)가 플레이하고 있는 콘텐츠를 화면에 출력한다(S10). The touch screen 120 is interlocked with the content player 110 to output the content being played by the content player 110 on the screen (S10).
터치스크린(120)은 화면에서 신체 일부, 예를 들어 손가락이 접촉되는지 여부를 감지하는 역할을 수행한다. 즉, 터치스크린(120)은 화면에서 적어도 하나 이상의 터치점을 감지한다(S20).The touch screen 120 detects whether a body part, for example, a finger, is touched on the screen. That is, the touch screen 120 detects at least one touch point on the screen (S20).
터치점이 감지되면, 위치획득부(130)는 감지된 터치점의 위치를 획득한다(S30). 물론 위치획득부(130)는 터치점의 변화도 실시간으로 계속 파악한다. If the touch point is detected, the position acquisition unit 130 obtains the position of the detected touch point (S30). Of course, the position acquisition unit 130 also keeps track of the change in the touch point in real time.
터치해석부(140)는 터치점의 위치가 터치 시 반응동작을 수행하는 반응 오브젝트 영역 내에 존재하는지 여부를 판단한다(S40). The touch interpreter 140 determines whether the location of the touch point exists in the reaction object area performing the reaction operation when the touch is performed (S40).
S40 단계를 좀 더 상세히 설명하도록 한다.The step S40 will be described in more detail.
터치해석부(140)는 터치점의 위치가 오브젝트 영역 내에 존재하는지 여부를 판단한다, 그리고 나서, 터치해석부(140)는 터치점의 위치가 오브젝트 영역 내에 존재하는 경우 그 터치된 오브젝트의 종류를 판단한다. 반응 오브젝트와 비반응 오브젝트에 대한 터치동작에 따른 반응동작이 상이하기 때문에, 터이해석부(140)는 터치된 오브젝트가 반응 오브젝트인지 비반응 오브젝트인지 여부를 정확히 판단한다. The touch interpreter 140 determines whether the position of the touch point exists in the object area. Then, the touch interpreter 140 determines the type of the touched object when the position of the touch point exists in the object area. To judge. Since the reaction operation according to the touch operation on the reaction object and the non-reaction object is different, the Tay analysis unit 140 accurately determines whether the touched object is a reaction object or a non-reaction object.
만일 터치점의 위치가 터치 시 반응동작을 수행하지 않는 비반응 오브젝트 영역 내에 존재하는 경우, 터치해석부(140)는 터치점에 대한 인식을 무시하고, 터치점의 변화를 모니터링하지 않는다(S50).If the location of the touch point exists in the non-response object area that does not perform a reaction operation when the touch is performed, the touch interpreter 140 ignores the recognition of the touch point and does not monitor the change of the touch point (S50). .
한편 터치점의 위치가 반응 오브젝트 영역 내에 존재하는 경우, 터치해석부(140)는 터치점의 변화를 모니터링하여 터치동작을 해석한다(S60).On the other hand, if the location of the touch point is present in the reaction object area, the touch analysis unit 140 monitors the change of the touch point to interpret the touch operation (S60).
터치해석부(140)는 오브젝트 데이터베이스(150)를 참조하여 터치동작에 따른 반응동작을 결정한다(S70). 결정된 터치동작에 따른 반응동작은 콘텐츠 플레이어로 제공된다. The touch interpreter 140 determines a reaction operation according to the touch operation with reference to the object database 150 (S70). The response action according to the determined touch action is provided to the content player.
콘텐츠 플레이어(110)는 터치해석부의 해석결과에 따라 반응 오브젝트의 동작을 구현한다. 즉 콘텐츠 플레이어(110)는 결정된 반응동작에 따라 반응 오브젝트를 동작시킨다(S80). The content player 110 implements the operation of the response object according to the analysis result of the touch interpreter. That is, the content player 110 operates the reaction object according to the determined reaction operation (S80).
본 발명의 상기 방법은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.The method of the present invention can also be embodied as computer readable code on a computer readable recording medium. The computer-readable recording medium includes all kinds of recording devices in which data that can be read by a computer system is stored. Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage, and the like, and may also be implemented in the form of a carrier wave (for example, transmission over the Internet). Include. The computer readable recording medium can also be distributed over network coupled computer systems so that the computer readable code is stored and executed in a distributed fashion.
본 발명에 따른 오브젝트에 대한 터치를 식별하는 멀티터치 인식 장치 및 방법은 다양한 기기에 탑재되어 구현될 수 있다. 일반적인 컴퓨터 단말기에 포함될 수 있을 뿐 아니라 스마트폰 및 태블릿 컴퓨터 등의 개인용 휴대 단말기에 탑재될 수 있다. 또한 여러 사람이 동시에 이용가능한 디지털 전자 테이블 및 거리에 설치되어 복수 사용자의 터치 입력을 통해 각종 다양한 정보를 제공하는 거리 정보 단말기 등 다양한 기기에 탑재되어 구현될 수 있다.The multi-touch recognition apparatus and method for identifying a touch on an object according to the present invention may be mounted on various devices and implemented. In addition to being included in a general computer terminal, it can be mounted in personal portable terminals such as smartphones and tablet computers. In addition, it can be implemented in a variety of devices, such as a distance information terminal that is installed in a digital electronic table and a street that can be used by multiple people at the same time to provide a variety of information through a touch input of a plurality of users.
본 발명에 따르면 반응 오브젝트에 대한 터치만을 인식하고 비반응 오브젝트에 대한 터치는 무시함으로써, 터치점의 해석에 관여하는 리소스 낭비를 줄일 수 있다.According to the present invention, by only recognizing the touch on the response object and ignoring the touch on the non-response object, it is possible to reduce resource waste involved in the interpretation of the touch point.
또한 본 발명에 따르면, 동시에 인식할 수 있는 터치점의 개수가 정해져 있는 터치 인식 장치에 적용되는 경우, 비반응 오브젝트에 대한 터치를 무시함으로써 효과적으로 인식 장치의 터치점들을 사용할 수 있다.In addition, according to the present invention, when applied to a touch recognition device having a predetermined number of touch points that can be recognized simultaneously, the touch points of the recognition device can be effectively used by ignoring the touch on the non-responsive object.
본 발명의 상기 방법은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.The method of the present invention can also be embodied as computer readable code on a computer readable recording medium. The computer-readable recording medium includes all kinds of recording devices in which data that can be read by a computer system is stored. Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage, and the like, and may also be implemented in the form of a carrier wave (for example, transmission over the Internet). Include. The computer readable recording medium can also be distributed over network coupled computer systems so that the computer readable code is stored and executed in a distributed fashion.
이상에서는 도면에 도시된 구체적인 실시예를 참고하여 본 발명을 설명하였으나 이는 예시적인 것에 불과하므로, 본 발명이 속하는 기술 분야에서 통상의 기술을 가진 자라면 이로부터 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명의 보호 범위는 후술하는 특허청구범위에 의하여 해석되어야 하고, 그와 동등 및 균등한 범위 내에 있는 모든 기술적 사상은 본 발명의 보호 범위에 포함되는 것으로 해석되어야 할 것이다.In the above described the present invention with reference to the specific embodiment shown in the drawings, but this is only an example, those of ordinary skill in the art to which the present invention pertains various modifications and variations therefrom. Therefore, the protection scope of the present invention should be interpreted by the claims to be described later, and all the technical ideas within the equivalent and equivalent ranges should be construed as being included in the protection scope of the present invention.

Claims (15)

  1. 터치 시 반응동작을 수행하는 반응 오브젝트와 터치 시 반응동작을 수행하지 않는 비반응 오브젝트를 포함하는 오브젝트가 담겨진 콘텐츠를 플레이하는 콘텐츠 플레이어;A content player for playing content containing an object including a reaction object performing a reaction upon touch and a non-responsive object not performing the reaction upon touch;
    상기 콘텐츠 플레이어에 연동하여 상기 콘텐츠를 화면상에 출력하되, 스크린상에서 적어도 하나 이상의 터치점을 감지하는 터치스크린;A touch screen which outputs the content on the screen in association with the content player and detects at least one touch point on the screen;
    상기 터치점의 위치를 획득하는 위치 획득부; 및A position obtaining unit obtaining a position of the touch point; And
    상기 터치점의 위치가 상기 반응 오브젝트 영역 내에 존재하면 상기 터치점의 변화를 모니터링하고, 상기 터치점의 위치가 상기 비반응 오브젝트 영역내에 존재하면 상기 터치점에 대한 터치 인식을 무시하는 터치 해석부를 포함하는, 오브젝트에 대한 터치를 식별하는 멀티터치 인식 장치.A touch interpreter configured to monitor a change in the touch point when the location of the touch point exists in the reactive object area, and to ignore touch recognition of the touch point when the location of the touch point exists in the non-reactive object area; A multi-touch recognition device for identifying a touch on the object.
  2. 제1항에 있어서, 상기 터치점은 터치의 시작점인 것을 특징으로 하는, 오브젝트에 대한 터치를 식별하는 멀티터치 인식 장치.The apparatus of claim 1, wherein the touch point is a starting point of a touch.
  3. 제1항에 있어서, 상기 터치해석부는, The method of claim 1, wherein the touch analysis unit,
    상기 모니터링한 터치점의 변화에 따라 상기 반응 오브젝트의 반응동작을 결정하는 동작해석부를 포함하는 것을 특징으로 하는, 오브젝트에 대한 터치를 식별하는 멀티터치 인식 장치.And an operation analysis unit for determining a reaction operation of the reaction object according to the change of the monitored touch point.
  4. 제1항에 있어서, 상기 터치해석부는,The method of claim 1, wherein the touch analysis unit,
    오브젝트의 생성, 소멸 및 반응동작을 관리하는 오브젝트 관리부를 포함하는 것을 특징으로 하는, 오브젝트에 대한 터치를 식별하는 멀티터치 인식 장치.And an object manager for managing generation, destruction, and reaction operations of the object.
  5. 제4항에 있어서, 상기 오브젝트 관리부는,The method of claim 4, wherein the object management unit,
    터치스크린상에서 출력되고 있는 각 오브젝트에 대하여 그 위치, 경계, 및 크기 중의 적어도 하나를 인식하고 관리하는 것을 특징으로 하는, 오브젝트에 대한 터치를 식별하는 멀티터치 인식 장치.Recognizing and managing at least one of its position, boundary, and size for each object output on the touch screen, the multi-touch recognition device for identifying a touch on the object.
  6. 제4항에 있어서, 상기 오브젝트 관리부는,The method of claim 4, wherein the object management unit,
    복수 개의 오브젝트 간의 중첩 여부, 중첩 영역, 및 중첩 순서 중의 적어도 하나를 인식하고 관리하는 것을 특징으로 하는, 오브젝트에 대한 터치를 식별하는 멀티터치 인식 장치.And recognizing and managing at least one of overlapping, overlapping regions, and overlapping order of the plurality of objects.
  7. 제4항에 있어서, 상기 오브젝트 관리부는,The method of claim 4, wherein the object management unit,
    메뉴, 버튼, 배너, 아이콘에 해당하는 각각의 이미지를 업로드 또는 링크 연결하여 오브젝트로 등록 및 관리하는 것을 특징으로 하는, 오브젝트에 대한 터치를 식별하는 멀티터치 인식 장치.And uploading or linking each image corresponding to a menu, a button, a banner, and an icon to register and manage the image as an object.
  8. 제4항에 있어서, 상기 오브젝트 관리부는,The method of claim 4, wherein the object management unit,
    메뉴, 버튼, 배너, 아이콘에 해당하는 각각의 이미지를 삭제하여, 오브젝트에서 소멸시키는 것을 특징으로 하는, 오브젝트에 대한 터치를 식별하는 멀티터치 인식 장치.And deleting each image corresponding to a menu, a button, a banner, and an icon and erasing the image from the object.
  9. 제1항에 있어서, 상기 멀티터치 인식 장치는,The apparatus of claim 1, wherein the multi-touch recognition device comprises:
    오브젝트의 종류, 형태, 및 터치동작에 따른 반응동작 중의 적어도 하나에 대한 정보를 포함하는 오브젝트 특성정보를 저장하고 있는 오브젝트 데이터베이스를 더 포함하는 것을 특징으로 하는, 오브젝트에 대한 터치를 식별하는 멀티터치 인식 장치.Multi-touch recognition for identifying a touch on an object, characterized by further comprising an object database storing object characteristic information including information on at least one of an object type, a form, and a reaction operation according to the touch operation. Device.
  10. 제1항 내지 제9항 중의 어느 한 항에 있어서, 상기 멀티터치 인식 장치는 10. The apparatus of claim 1, wherein the multi-touch recognition device is
    컴퓨터 단말기, 개인용 휴대 단말기, 디지털 전자 테이블 및 거리 정보 단말기 중의 적어도 하나에 탑재되는 것을 특징으로 하는, 오브젝트에 대한 터치를 식별하는 멀티터치 인식 장치.And at least one of a computer terminal, a personal digital assistant, a digital electronic table, and a distance information terminal.
  11. 멀티터치 인식 장치에 의해 수행되는 멀티터치 인식 방법으로서, A multi-touch recognition method performed by a multi-touch recognition device,
    (a) 콘텐츠 플레이어가 콘텐츠를 화면에 출력하는 단계;(a) the content player outputting the content to the screen;
    (b) 터치스크린이 터치점의 위치를 획득하는 단계;(b) the touch screen obtaining a position of the touch point;
    (c) 상기 터치점의 위치가 터치 시 반응동작을 수행하는 반응 오브젝트 영역 내에 존재하는지 여부를 판단하는 단계; (c) determining whether the location of the touch point exists in a reaction object area that performs a reaction operation upon touch;
    (d) 상기 터치점의 위치가 터치 시 반응동작을 수행하지 않는 비반응 오브젝트 영역 내에 존재하는 경우, 터치점에 대한 인식 및 터치점 변화를 무시하는 단계; 및(d) ignoring recognition of the touch point and change of the touch point when the location of the touch point exists in the non-response object area that does not perform a reaction operation upon touch; And
    (e) 상기 터치점의 위치가 상기 반응 오브젝트 영역 내에 존재하는 경우, 상기 터치점에 대한 변화를 모니터링하는 단계를 포함하는 것을 특징으로 하는, 오브젝트에 대한 터치를 식별하는 멀티터치 인식 방법.and (e) monitoring a change to the touch point when the position of the touch point is present in the reactive object area.
  12. 제11항에 있어서, 상기 방법은The method of claim 11, wherein the method is
    (f) 상기 모니터링한 터치점의 변화에 따라 상기 반응 오브젝트의 반응동작을 결정하는 단계를 더 포함하는 것을 특징으로 하는, 오브젝트에 대한 터치를 식별하는 멀티터치 인식 방법.and determining a reaction operation of the reaction object according to the change of the monitored touch point.
  13. 제11항에 있어서, 상기 방법은 The method of claim 11, wherein the method is
    (g) 상기 결정된 반응동작에 따라 상기 반응 오브젝트의 동작을 구현하는 단계를 더 포함하는 것을 특징으로 하는, 오브젝트에 대한 터치를 식별하는 멀티터치 인식 방법.and (g) realizing an operation of the reaction object according to the determined reaction operation.
  14. 제11항에 있어서, The method of claim 11,
    상기 터치점은 터치의 시작점인 것을 특징으로 하는, 오브젝트에 대한 터치를 식별하는 멀티터치 인식 방법.And the touch point is a starting point of a touch.
  15. 제11항 내지 제14항 중의 어느 한 항에 따른 방법을 실현시키기 위한 프로그램을 구현한 컴퓨터로 일을 수 있는 기록매체. A recording medium capable of working with a computer implementing a program for realizing the method according to any one of claims 11 to 14.
PCT/KR2012/007454 2012-07-30 2012-09-18 Apparatus and method for multi-touch recognition capable of discriminating touch on object WO2014021499A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2012-0083514 2012-07-30
KR1020120083514A KR20140016655A (en) 2012-07-30 2012-07-30 Multi touch apparatus and method of discriminating touch on object

Publications (1)

Publication Number Publication Date
WO2014021499A1 true WO2014021499A1 (en) 2014-02-06

Family

ID=50028153

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2012/007454 WO2014021499A1 (en) 2012-07-30 2012-09-18 Apparatus and method for multi-touch recognition capable of discriminating touch on object

Country Status (2)

Country Link
KR (1) KR20140016655A (en)
WO (1) WO2014021499A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015178963A1 (en) * 2014-05-21 2015-11-26 Aniya's Production Company Device and method for transmitting information
CN110825304B (en) * 2015-03-19 2023-04-21 华为技术有限公司 Touch event processing method and device and terminal equipment

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100086316A (en) * 2009-01-22 2010-07-30 엘지전자 주식회사 Mobile terminal and operation method thereof
KR20110047409A (en) * 2009-10-30 2011-05-09 삼성전자주식회사 Operation Method for Portable Device including a touch lock state And Apparatus using the same
KR20120047753A (en) * 2010-11-03 2012-05-14 삼성전자주식회사 Touch control method and portable device supporting the same
KR20120077766A (en) * 2010-12-31 2012-07-10 (주)삼원에스티 Information input method of capacitve type keyboard

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100086316A (en) * 2009-01-22 2010-07-30 엘지전자 주식회사 Mobile terminal and operation method thereof
KR20110047409A (en) * 2009-10-30 2011-05-09 삼성전자주식회사 Operation Method for Portable Device including a touch lock state And Apparatus using the same
KR20120047753A (en) * 2010-11-03 2012-05-14 삼성전자주식회사 Touch control method and portable device supporting the same
KR20120077766A (en) * 2010-12-31 2012-07-10 (주)삼원에스티 Information input method of capacitve type keyboard

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015178963A1 (en) * 2014-05-21 2015-11-26 Aniya's Production Company Device and method for transmitting information
CN110825304B (en) * 2015-03-19 2023-04-21 华为技术有限公司 Touch event processing method and device and terminal equipment

Also Published As

Publication number Publication date
KR20140016655A (en) 2014-02-10

Similar Documents

Publication Publication Date Title
WO2012053801A2 (en) Method and apparatus for controlling touch screen in mobile terminal responsive to multi-touch inputs
WO2013125804A1 (en) Method and apparatus for moving contents in terminal
WO2013141464A1 (en) Method of controlling touch-based input
WO2014119886A1 (en) Method and apparatus for multitasking
WO2012108723A2 (en) Information display apparatus having at least two touch screens and information display method thereof
WO2014084633A1 (en) Method for displaying applications and electronic device thereof
WO2010114251A2 (en) Electronic device and method for gesture-based function control
WO2014030902A1 (en) Input method and apparatus of portable device
WO2012169784A2 (en) Apparatus and method for providing web browser interface using gesture in device
WO2013032234A1 (en) Method of providing of user interface in portable terminal and apparatus thereof
WO2012081901A2 (en) Method and apparatus for controlling touch screen using timeline bar, recording medium with program for the same recorded therein, and user terminal having the same
WO2011083975A2 (en) Mobile device and method for operating content displayed on transparent display panel
WO2012091289A1 (en) Method for moving object between pages and interface apparatus
WO2013115558A1 (en) Method of operating multi-touch panel and terminal supporting the same
WO2014107005A1 (en) Mouse function provision method and terminal implementing the same
AU2012214924A1 (en) Information display apparatus having at least two touch screens and information display method thereof
WO2010062062A2 (en) Terminal apparatus with pointing device and control method of screen
WO2012153914A1 (en) Method and apparatus for providing graphic user interface having item deleting function
WO2012153992A2 (en) Method and apparatus for controlling display of item
WO2014107026A1 (en) Electronic apparatus, and method for determining validity of touch key input used for the electronic apparatus
WO2012077986A2 (en) Method and apparatus for displaying screen of mobile terminal with touch screen
WO2014035041A1 (en) Interaction method and interaction device for integrating augmented reality technology and bulk data
WO2013125789A1 (en) Electronic apparatus, method for controlling the same, and computer-readable storage medium
WO2013151331A1 (en) Method and apparatus for controlling menus in media device
WO2014054861A1 (en) Terminal and method for processing multi-point input

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12882219

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12882219

Country of ref document: EP

Kind code of ref document: A1