KR102491207B1 - Apparatus and method for multi-touch recognition - Google Patents

Apparatus and method for multi-touch recognition Download PDF

Info

Publication number
KR102491207B1
KR102491207B1 KR1020180036903A KR20180036903A KR102491207B1 KR 102491207 B1 KR102491207 B1 KR 102491207B1 KR 1020180036903 A KR1020180036903 A KR 1020180036903A KR 20180036903 A KR20180036903 A KR 20180036903A KR 102491207 B1 KR102491207 B1 KR 102491207B1
Authority
KR
South Korea
Prior art keywords
touch
center
gravity
midpoint
distance
Prior art date
Application number
KR1020180036903A
Other languages
Korean (ko)
Other versions
KR20190114348A (en
Inventor
김기수
Original Assignee
주식회사 네틱스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 네틱스 filed Critical 주식회사 네틱스
Priority to KR1020180036903A priority Critical patent/KR102491207B1/en
Publication of KR20190114348A publication Critical patent/KR20190114348A/en
Application granted granted Critical
Publication of KR102491207B1 publication Critical patent/KR102491207B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Abstract

멀티 터치 인식 장치 및 방법이 개시된다. 멀티 터치 인식 방법은, 멀티 터치 인식 방법은, 터치 스크린을 통해 3점(point) 터치를 입력받는 단계, 3점의 중점 위치 및 무게중심 위치를 산출하는 단계, 중점 위치와 무게중심 위치 사이의 거리를 산출하는 단계 및 거리에 대응된 객체(Object)를 식별하고, 식별된 객체에 미리 설정된 실행 메뉴를 상기 터치 스크린에 표시하는 단계를 포함한다.A multi-touch recognition apparatus and method are disclosed. The multi-touch recognition method includes receiving a three-point touch input through a touch screen, calculating a midpoint position and a center of gravity position of the three points, and a distance between the midpoint position and the center of gravity position. and identifying an object corresponding to the distance and displaying an action menu preset for the identified object on the touch screen.

Description

멀티 터치 인식 장치 및 방법{Apparatus and method for multi-touch recognition}Apparatus and method for multi-touch recognition}

본 발명은 멀티 터치 인식 장치 및 방법에 관한 것이다.The present invention relates to a multi-touch recognition apparatus and method.

전자, 통신 공학 및 단말기 기술 등의 발전에 따라 휴대폰이나 노트북 PC(Notebook PC)와 같은 통신 단말기나, PMP(Portable Multimedia Player), MP3(MPEG Audio Layer-3) 플레이어 등과 같은 다양한 휴대용 전자기기가 널리 사용되고 있다. 휴대용 전자기기는 점점 소형화, 슬림화 되어 가고 있는 추세이다. 이에 따라, 휴대용 전자기기의 크기에 큰 영향을 미칠 수 있는 키패드의 크기도 함께 소형화되어 가고 있으나, 휴대용 전자기기(특히, 이동통신 단말기)의 기능 증가로 인하여 사용되는 키(Key)의 수는 점점 증가할 수 밖에 없다. 결과적으로, 증가하는 키의 수와 키패드의 크기의 감소를 모두 만족시키기 위하여 키의 면적이 작아지고 있다.With the development of electronics, communication engineering, and terminal technology, various portable electronic devices such as communication terminals such as mobile phones and notebook PCs, PMP (Portable Multimedia Player) and MP3 (MPEG Audio Layer-3) players are widely used. It is being used. Portable electronic devices are gradually becoming smaller and slimmer. Accordingly, the size of keypads, which can greatly affect the size of portable electronic devices, is also being miniaturized. can only increase As a result, the area of the keys is getting smaller to satisfy both the increasing number of keys and the decrease in the size of the keypad.

최근, 휴대용 전자기기는 터치 스크린을 구비하고, 사용자의 터치를 통하여 제어 명령을 입력하고 이를 인식하는 방법을 사용하고 있다. 터치 스크린이란 키보드와 마우스를 대체하는 입력 장치로써, 스크린상에 직접 손으로 터치하여 원하는 작업을 수행할 수 있어 키보드가 필요 없으므로, 크기의 제약이 많은 장치에서 사용하기 용이하다. 또한, 터치 스크린은 GUI(Graphic User Interface) 환경에서 직관적인 업무 수행이 가능한 이상적인 장치로써, 휴대용 장치(휴대폰, PDA, 스마트폰 등)에 적합하며, 컴퓨터 기반 훈련 및 시뮬레이션 응용 분야, 사무 자동화 응용 분야, 교육 응용 분야 및 게임 응용 분야 등에서 널리 사용될 수 있다.Recently, a portable electronic device has a touch screen and uses a method of inputting and recognizing a control command through a user's touch. A touch screen is an input device that replaces a keyboard and a mouse, and since a desired operation can be performed by directly touching the screen with a hand, there is no need for a keyboard, so it is easy to use in a device with many size restrictions. In addition, the touch screen is an ideal device that enables intuitive task execution in a GUI (Graphic User Interface) environment and is suitable for portable devices (cell phones, PDAs, smartphones, etc.), computer-based training and simulation applications, and office automation applications. , it can be widely used in educational applications and game applications.

터치 스크린이 입력장치로 포함된 시스템에서의 터치 인식은 사용자의 손 또는 펜이 터치스크린의 표면에 닿는 것을 인식하거나, 사용자가 손 또는 펜 등을 입력하여 터치 스크린상에 텍스트를 기입하는 것을 인식하는 방법을 통하여 이루어 질 수 있다. 일반적인 터치 스크린은 터치 및 필기체를 이용하여 제어 명령을 입력 받아 이들의 좌표 정보를 인식하여, 해당하는 제어 동작을 수행하게 된다.Touch recognition in a system including a touch screen as an input device recognizes that a user's hand or pen touches the surface of the touch screen, or recognizes that a user inputs a hand or pen and writes text on the touch screen. This can be done through methods. A general touch screen receives control commands using touch and handwriting, recognizes their coordinate information, and performs a corresponding control operation.

그러나, 이들의 궤적, 즉 좌표 정보만으로 제어 명령을 인식하고자 하는 경우, 그 동작의 수가 제한적이어서 터치 스크린을 통하여 단말로 입력할 수 있는 제어 명령의 수가 제한된다.However, when recognizing control commands only with their trajectories, that is, coordinate information, the number of operations is limited, and thus the number of control commands that can be input to the terminal through the touch screen is limited.

따라서, 다양한 기능을 구비하는 단말기기의 발전과 함께, 터치 입력 방식을 보다 다양하게 할 필요가 대두되고 있는 실정이다.Therefore, with the development of terminal devices having various functions, the need to diversify the touch input method is on the rise.

본 발명은 3점 터치 입력 패턴을 인식하고, 인식된 3점 터치 입력 패턴에 따라 객체를 식별하는 멀티 터치 인식 장치 및 방법을 제공하기 위한 것이다.An object of the present invention is to provide a multi-touch recognition apparatus and method for recognizing a 3-point touch input pattern and identifying an object according to the recognized 3-point touch input pattern.

본 발명의 일 측면에 따르면, 터치 스크린을 구비한 전자기기가 수행하는 멀티 터치 인식 방법이 개시된다.According to one aspect of the present invention, a multi-touch recognition method performed by an electronic device having a touch screen is disclosed.

본 발명의 실시예에 따른 멀티 터치 인식 방법은, 상기 터치 스크린을 통해 3점(point) 터치를 입력받는 단계, 상기 3점의 중점 위치 및 무게중심 위치를 산출하는 단계, 상기 중점 위치와 상기 무게중심 위치 사이의 거리를 산출하는 단계 및 상기 거리에 대응된 객체(Object)를 식별하고, 상기 식별된 객체에 미리 설정된 실행 메뉴를 상기 터치 스크린에 표시하는 단계를 포함한다.The multi-touch recognition method according to an embodiment of the present invention includes receiving a three-point touch input through the touch screen, calculating a midpoint position and a center of gravity position of the three points, the midpoint position and the weight The method includes calculating a distance between center positions, identifying an object corresponding to the distance, and displaying an execution menu preset for the identified object on the touch screen.

상기 3점 터치를 입력받는 단계 이전에, 상기 거리 별로 상기 객체를 매핑(mapping)하는 단계를 더 포함하되, 상기 객체를 매핑하는 단계는, 상기 중점 위치와 상기 무게중심 위치 사이의 최대 거리를 복수개의 구간으로 나누고, 각 구간에 상기 객체를 매핑한다.Prior to the step of receiving the three-point touch, the step of mapping the object for each distance is further included, wherein the step of mapping the object sets a plurality of maximum distances between the midpoint position and the center of gravity position. It is divided into two sections, and the object is mapped to each section.

상기 최대 거리는 상기 3점을 꼭지점으로 하는 삼각형의 외접원의 반지름으로 설정된다.The maximum distance is set to the radius of the circumscribed circle of a triangle having the three points as vertices.

상기 3점의 중점 위치 및 무게중심 위치를 산출하는 단계는, 상기 3점을 꼭지점으로 하는 삼각형을 이용하여 상기 중점 위치 및 상기 무게중심 위치를 산출한다.In the step of calculating the position of the midpoint and the position of the center of gravity of the three points, the position of the midpoint and the position of the center of gravity are calculated using a triangle having the three points as vertices.

상기 중점 위치는 상기 삼각형의 외접원의 중심이다.The midpoint position is the center of the circumscribed circle of the triangle.

상기 무게중심 위치는 상기 삼각형의 무게중심이다.The position of the center of gravity is the center of gravity of the triangle.

본 발명의 다른 측면에 따르면, 멀티 터치 인식 장치가 개시된다.According to another aspect of the present invention, a multi-touch recognition device is disclosed.

본 발명의 실시예에 따른 멀티 터치 인식 장치는, 터치 스크린, 명령어를 저장하는 메모리 및 상기 명령어를 실행하는 프로세서를 포함하되, 상기 명령어는, 상기 터치 스크린을 통해 3점(point) 터치를 입력받는 단계, 상기 3점의 중점 위치 및 무게중심 위치를 산출하는 단계, 상기 중점 위치와 상기 무게중심 위치 사이의 거리를 산출하는 단계 및 상기 거리에 대응된 객체(Object)를 식별하고, 상기 식별된 객체에 미리 설정된 실행 메뉴를 상기 터치 스크린에 표시하는 단계를 포함하는 멀티 터치 인식 방법을 수행한다.An apparatus for recognizing multi-touch according to an embodiment of the present invention includes a touch screen, a memory for storing a command, and a processor for executing the command, wherein the command receives a three-point touch through the touch screen. Step of calculating the midpoint position and the center of gravity position of the three points, calculating the distance between the midpoint position and the center of gravity position, and identifying an object corresponding to the distance, and identifying the identified object Performs a multi-touch recognition method comprising the step of displaying a preset execution menu on the touch screen.

본 발명의 실시예에 따른 멀티 터치 인식 장치 및 방법은, 3점 터치 입력 패턴을 인식하고, 인식된 3점 터치 입력 패턴에 따라 객체를 식별할 수 있다.The multi-touch recognition apparatus and method according to an embodiment of the present invention may recognize a 3-point touch input pattern and identify an object according to the recognized 3-point touch input pattern.

도 1은 본 발명의 실시예에 따른 멀티 터치 인식 방법을 나타낸 흐름도.
도 2 내지 도 5는 본 발명의 실시예에 따른 멀티 터치 인식 방법을 설명하기 위한 도면.
도 6은 본 발명의 실시예에 따른 멀티 터치 인식 장치의 구성을 개략적으로 예시한 도면.
1 is a flowchart illustrating a multi-touch recognition method according to an embodiment of the present invention;
2 to 5 are views for explaining a multi-touch recognition method according to an embodiment of the present invention.
6 is a diagram schematically illustrating the configuration of a multi-touch recognition device according to an embodiment of the present invention.

본 명세서에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "구성된다" 또는 "포함한다" 등의 용어는 명세서상에 기재된 여러 구성 요소들, 또는 여러 단계들을 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다. 또한, 명세서에 기재된 "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.Singular expressions used herein include plural expressions unless the context clearly dictates otherwise. In this specification, terms such as "consisting of" or "comprising" should not be construed as necessarily including all of the various components or steps described in the specification, and some of the components or some of the steps It should be construed that it may not be included, or may further include additional components or steps. In addition, terms such as "...unit" and "module" described in the specification mean a unit that processes at least one function or operation, which may be implemented as hardware or software or a combination of hardware and software. .

이하, 본 발명의 다양한 실시예들을 첨부된 도면을 참조하여 상술하겠다. Hereinafter, various embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 실시예에 따른 멀티 터치 인식 방법을 나타낸 흐름도이고, 도 2 내지 도 5는 본 발명의 실시예에 따른 멀티 터치 인식 방법을 설명하기 위한 도면이다.1 is a flowchart illustrating a multi-touch recognition method according to an embodiment of the present invention, and FIGS. 2 to 5 are diagrams for explaining the multi-touch recognition method according to an embodiment of the present invention.

본 발명의 실시예에 따른 멀티 터치 인식 방법은 멀티 터치를 인식하는 터치 스크린을 구비한 전자기기에서 수행될 수 있다. 이하에서는, 본 발명의 실시예에 따른 멀티 터치 인식 방법을 수행하는 전자기기를 멀티 터치 인식 장치로 칭하여 설명하기로 한다.The method for recognizing multi-touch according to an embodiment of the present invention can be performed in an electronic device having a touch screen recognizing multi-touch. Hereinafter, an electronic device that performs the multi-touch recognition method according to an embodiment of the present invention will be described as a multi-touch recognition device.

S110 단계에서, 멀티 터치 인식 장치는 구비된 터치 스크린을 통해 3점(point) 터치를 입력받는다. 이때, 멀치 터치 인식 장치는 터치된 각 점의 위치를 산출할 수 있다.In step S110, the multi-touch recognition device receives a 3-point touch through the provided touch screen. In this case, the multi-touch recognizing device may calculate the location of each touched point.

예를 들어, 본 발명의 실시예에 따른 멀티 터치 인식 장치는 정전용량 방식(capacitive type)의 터치 스크린을 구비할 수 있다. 정전용량 방식의 터치 센서는 감지 신호를 전달하는 복수의 터치 전극을 포함하며, 배열된 복수의 터치 전극을 통해 터치된 지점의 위치를 인식할 수 있다.For example, a multi-touch recognition device according to an embodiment of the present invention may include a capacitive type touch screen. A capacitive touch sensor includes a plurality of touch electrodes that transmit detection signals, and can recognize the location of a touched point through the plurality of arrayed touch electrodes.

S120 단계에서, 멀티 터치 인식 장치는 입력된 3점(10)의 중점 위치(20) 및 무게중심 위치(30)를 산출한다.In step S120, the multi-touch recognition device calculates the midpoint position 20 and the center of gravity position 30 of the input three points 10.

예를 들어, 도 2 또는 도 3을 참조하면, 멀티 터치 인식 장치는 터치 입력된 3점(10)을 꼭지점으로 하는 삼각형(1)을 이용하여 3점의 중점 위치(20) 및 무게중심 위치(30)를 산출할 수 있다.For example, referring to FIG. 2 or 3 , the multi-touch recognition device uses a triangle 1 having three points 10 as vertices of touch input to determine the midpoint position 20 and the center of gravity position of the three points ( 30) can be calculated.

즉, 3점의 중점 위치(20)는 도 2 및 도 3에 도시된 바와 같이, 삼각형(1)의 외접원(2)의 중심인 외심이 된다. 외심은 삼각형(1) 세변의 수직이등분선들의 교점이다.That is, the midpoint position 20 of the three points becomes the circumcenter, which is the center of the circumscribed circle 2 of the triangle 1, as shown in FIGS. 2 and 3 . The circumcentre is the point of intersection of the perpendicular bisectors of the three sides of triangle (1).

그리고, 3점(10)의 무게중심 위치(30)는 도 2 및 도 3에 도시된 바와 같이, 삼각형(1)의 무게중심이다. 삼각형(1)의 무게중심은 삼각형(1)의 각 꼭지점에서 대변의 중점까지 연결한 선인 중선들의 교점이다.And, the center of gravity position 30 of the three points 10 is the center of gravity of the triangle 1, as shown in FIGS. 2 and 3 . The center of gravity of triangle (1) is the point of intersection of the medians, which are lines connecting each vertex of triangle (1) to the midpoint of the opposite side.

S130 단계에서, 멀티 터치 인식 장치는 산출된 중점 위치(20)와 무게중심 위치(30) 사이의 거리를 산출한다.In step S130, the multi-touch recognition device calculates the distance between the calculated midpoint position 20 and the center of gravity position 30.

S140 단계에서, 멀티 터치 인식 장치는 산출된 중점 위치(20)와 무게중심 위치(30) 사이의 거리(3)에 대응된 객체(Object)를 식별하고, 식별된 객체에 미리 설정된 실행 메뉴를 터치 스크린에 표시한다.In step S140, the multi-touch recognition device identifies an object corresponding to the distance 3 between the calculated center of gravity position 20 and the center of gravity position 30, and touches an execution menu preset for the identified object. display on the screen

여기서, 거리(3)에 대응하는 객체는 사전에 매핑(mapping)된다. 즉, 미리 설정된 중점 위치(20)와 무게중심 위치(30) 사이의 최대 거리가 복수개의 구간으로 나뉘고, 각 구간에 객체가 매핑될 수 있다.Here, the object corresponding to the distance (3) is mapped in advance. That is, the maximum distance between the preset midpoint position 20 and the center of gravity position 30 may be divided into a plurality of sections, and an object may be mapped to each section.

예를 들어, 도 2 및 도 3을 참조하면, 3점의 중점 위치(20)와 무게중심 위치(30) 사이의 거리(3)는 터치된 3점(10)의 위치에 따라 변화한다.For example, referring to FIGS. 2 and 3 , the distance 3 between the midpoint position 20 of the three points and the center of gravity position 30 changes according to the position of the three points 10 touched.

즉, 도 2에 도시된 바와 같이, 3점(10) 간의 위치가 멀어질수록, 3점(10)을 꼭지점으로 하는 삼각형(1)이 예각 삼각형이 되거나 정삼각형에 가까워져 삼각형(1)의 무게중심은 삼각형(1)의 외심에 근접하게 된다. 그래서, 이 경우에는 3점의 중점 위치(20)와 무게중심 위치(30) 사이의 거리(3)가 짧아지게 된다.That is, as shown in FIG. 2, as the position between the three points 10 becomes farther away, the triangle 1 having the three points 10 as a vertex becomes an acute triangle or becomes closer to an equilateral triangle, so that the center of gravity of the triangle 1 is close to the circumcenter of the triangle (1). Therefore, in this case, the distance 3 between the midpoint position 20 of the three points and the center of gravity position 30 is shortened.

한편, 도 3에 도시된 바와 같이, 3점(10) 간의 위치가 가까워질수록, 3점(10)을 꼭지점으로 하는 삼각형(1)이 둔각 삼각형이 되어 삼각형(1)의 무게중심은 삼각형(1)의 외접원(2)의 원주에 근접하게 된다. 그래서, 이 경우에는 3점의 중점 위치(20)와 무게중심 위치(30) 사이의 거리(3)가 멀어지게 된다.On the other hand, as shown in FIG. 3, as the position between the three points 10 gets closer, the triangle 1 having the three points 10 as a vertex becomes an obtuse triangle, and the center of gravity of the triangle 1 is a triangle ( It approaches the circumference of the circumscribed circle (2) of 1). So, in this case, the distance 3 between the midpoint position 20 of the three points and the center of gravity position 30 becomes farther.

따라서, 중점 위치(20)와 무게중심 위치(30) 사이의 최대 거리는 3점(10)을 지나는 원의 반지름 즉, 3점(10)을 꼭지점으로 하는 삼각형(1)의 외접원의 반지름에 상응하므로, 삼각형(1)의 외접원의 반지름이 중점 위치(20)와 무게중심 위치(30) 사이의 최대 거리로 설정될 수 있다.Therefore, the maximum distance between the midpoint position 20 and the center of gravity position 30 corresponds to the radius of the circle passing through 3 points 10, that is, the radius of the circumscribed circle of the triangle 1 having 3 points 10 as its vertex. , the radius of the circumscribed circle of the triangle 1 may be set as the maximum distance between the midpoint position 20 and the center of gravity position 30.

그래서, 도 4에 도시된 바와 같이, 중점 위치(20)와 무게중심 위치(30) 사이의 최대 거리인 삼각형(1)의 외접원의 반지름을 10개의 구간으로 나눌 수 있다. 그리고, 나뉜 각 구간별로 대응하는 객체가 매핑될 수 있으며, 객체에는 실행 메뉴가 설정될 수 있다. 예를 들어, 각 구간별로 대응하는 객체에 설정되는 실행 메뉴는 그룹핑된 프로그램의 실행을 위한 아이콘들일 수 있다.Therefore, as shown in FIG. 4 , the radius of the circumscribed circle of the triangle 1, which is the maximum distance between the midpoint position 20 and the center of gravity position 30, can be divided into 10 sections. In addition, corresponding objects may be mapped for each divided section, and an execution menu may be set in the object. For example, an execution menu set to an object corresponding to each section may be icons for executing grouped programs.

도 5는 본 발명의 실시예에 따른 멀티 터치 인식 장치의 터치 스크린에 출력되는 화면 예시를 나타낸다. 도 5를 참조하면, 멀티 터치 인식 장치는 터치 가이드 영역(40), 뒤로 가기 버튼(50) 및 서브 실행 메뉴(60)를 터치 스크린에 출력할 수 있다.5 illustrates an example of a screen output on a touch screen of a multi-touch recognition device according to an embodiment of the present invention. Referring to FIG. 5 , the multi-touch recognition device may output a touch guide area 40, a back button 50, and a sub execution menu 60 on the touch screen.

터치 가이드 영역(40)은 3점 터치를 입력받기 위하여 원형의 영역으로 표시될 수 있고, 내부에 터치 지점을 가이드하는 동심원들이 표시될 수 있다. 사용자가 터치 가이드 영역(40)을 통해 3점 터치를 입력하면, 뒤로 가기 버튼(50) 및 서브 실행 메뉴(60)가 출력될 수 있다. 물론, 구현하기에 따라 터치 가이드 영역(40)은 터치 스크린에 출력되지 않을 수도 있으며, 이 경우 사용자는 터치 스크린의 임의의 위치에서 3점 터치를 입력하여 뒤로 가기 버튼(50) 및 서브 실행 메뉴(60)가 출력되게 할 수도 있다.The touch guide area 40 may be displayed as a circular area to receive a three-point touch, and concentric circles guiding a touch point may be displayed inside. When the user inputs a three-point touch through the touch guide area 40, a back button 50 and a sub execution menu 60 may be output. Of course, depending on the implementation, the touch guide area 40 may not be output on the touch screen. In this case, the user inputs a 3-point touch at an arbitrary location on the touch screen to activate the back button 50 and the sub-run menu ( 60) may be output.

뒤로 가기 버튼(50)은 뒤로 가기 버튼(50) 및 서브 실행 메뉴(60)가 출력되기 전단계로 이동하기 위하여 사용될 수 있다.The back button 50 may be used to move to a stage before the back button 50 and the sub-run menu 60 are output.

서브 실행 메뉴(60)는 3점 터치 입력에 따라 산출된 중점 위치(20)와 무게중심 위치(30) 사이의 거리(3)에 대응하는 객체에 설정된 것으로, 도 5에 도시된 바와 같이, 거리(3)에 대응된 객체에 설정된 프로그램 그룹의 실행용 개별 프로그램 아이콘으로 출력될 수 있다.The sub execution menu 60 is set to an object corresponding to the distance 3 between the midpoint position 20 and the center of gravity position 30 calculated according to the three-point touch input, and as shown in FIG. 5, the distance It can be output as an individual program icon for execution of the program group set in the object corresponding to (3).

도 6은 본 발명의 실시예에 따른 멀티 터치 인식 장치의 구성을 개략적으로 예시한 도면이다.6 is a diagram schematically illustrating the configuration of a multi-touch recognition device according to an embodiment of the present invention.

도 6을 참조하면, 본 발명의 실시예에 따른 멀티 터치 인식 장치는 프로세서(610), 메모리(620), 통신부(630) 및 인터페이스(640)를 포함한다.Referring to FIG. 6 , the multi-touch recognition device according to an embodiment of the present invention includes a processor 610, a memory 620, a communication unit 630, and an interface 640.

프로세서(610)는 메모리(620)에 저장된 처리 명령어를 실행시키는 CPU 또는 반도체 소자일 수 있다.The processor 610 may be a CPU or a semiconductor device that executes processing instructions stored in the memory 620 .

메모리(620)는 다양한 유형의 휘발성 또는 비휘발성 기억 매체를 포함할 수 있다. 예를 들어, 메모리(620)는 ROM, RAM 등을 포함할 수 있다.Memory 620 may include various types of volatile or non-volatile storage media. For example, memory 620 may include ROM, RAM, and the like.

예를 들어, 메모리(620)는 본 발명의 실시예에 따른 멀티 터치 인식 방법을 수행하는 명령어들을 저장할 수 있다.For example, the memory 620 may store instructions for performing a multi-touch recognition method according to an embodiment of the present invention.

통신부(630)는 통신망을 통해 다른 장치들과 데이터를 송수신하기 위한 수단이다.The communication unit 630 is a means for transmitting and receiving data with other devices through a communication network.

인터페이스부(640)는 네트워크에 접속하기 위한 네트워크 인터페이스 및 사용자 인터페이스를 포함할 수 있다.The interface unit 640 may include a network interface and a user interface for accessing a network.

예를 들어, 사용자 인터페이스는 사용자 입력 장치로서, 멀티 터치를 인식하는 터치 스크린을 포함할 수 있다.For example, the user interface may include a touch screen recognizing multi-touch as a user input device.

한편, 전술된 실시예의 구성 요소는 프로세스적인 관점에서 용이하게 파악될 수 있다. 즉, 각각의 구성 요소는 각각의 프로세스로 파악될 수 있다. 또한 전술된 실시예의 프로세스는 장치의 구성 요소 관점에서 용이하게 파악될 수 있다.On the other hand, the components of the above-described embodiment can be easily grasped from a process point of view. That is, each component can be identified as each process. In addition, the process of the above-described embodiment can be easily grasped from the viewpoint of components of the device.

또한 앞서 설명한 기술적 내용들은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예들을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 하드웨어 장치는 실시예들의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.In addition, the technical contents described above may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer readable medium. The computer readable medium may include program instructions, data files, data structures, etc. alone or in combination. Program commands recorded on the medium may be specially designed and configured for the embodiments or may be known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. - includes hardware devices specially configured to store and execute program instructions, such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of program instructions include high-level language codes that can be executed by a computer using an interpreter, as well as machine language codes such as those produced by a compiler. A hardware device may be configured to act as one or more software modules to perform the operations of the embodiments and vice versa.

상기한 본 발명의 실시예는 예시의 목적을 위해 개시된 것이고, 본 발명에 대한 통상의 지식을 가지는 당업자라면 본 발명의 사상과 범위 안에서 다양한 수정, 변경, 부가가 가능할 것이며, 이러한 수정, 변경 및 부가는 하기의 특허청구범위에 속하는 것으로 보아야 할 것이다.The embodiments of the present invention described above have been disclosed for illustrative purposes, and those skilled in the art having ordinary knowledge of the present invention will be able to make various modifications, changes, and additions within the spirit and scope of the present invention, and such modifications, changes, and additions will be considered to fall within the scope of the following claims.

610: 프로세서
620: 메모리
630: 통신부
640: 인터페이스
610: processor
620: memory
630: Ministry of Communications
640: interface

Claims (7)

터치 스크린을 구비한 전자기기가 수행하는 멀티 터치 인식 방법에 있어서,
상기 터치 스크린을 통해 3점(point) 터치를 입력받는 단계;
상기 3점의 중점 위치 및 무게중심 위치를 산출하는 단계;
상기 중점 위치와 상기 무게중심 위치 사이의 거리를 산출하는 단계; 및
상기 거리에 대응된 객체(Object)를 식별하고, 상기 식별된 객체에 미리 설정된 실행 메뉴를 상기 터치 스크린에 표시하는 단계를 포함하되,
상기 3점 터치를 입력받는 단계 이전에,
상기 거리 별로 상기 객체를 매핑(mapping)하는 단계를 더 포함하고,
상기 객체를 매핑하는 단계는,
상기 중점 위치와 상기 무게중심 위치 사이의 최대 거리를 복수개의 구간으로 나누고, 각 구간에 상기 객체를 매핑하는 것을 특징으로 하는 멀티 터치 인식 방법.
In the multi-touch recognition method performed by an electronic device having a touch screen,
receiving a three-point touch through the touch screen;
Calculating the position of the midpoint and the position of the center of gravity of the three points;
calculating a distance between the midpoint position and the center of gravity position; and
Identifying an object corresponding to the distance and displaying an execution menu preset for the identified object on the touch screen,
Before the step of receiving the three-point touch,
Further comprising mapping the object for each distance,
The step of mapping the object is,
Multi-touch recognition method, characterized in that by dividing the maximum distance between the midpoint position and the center of gravity position into a plurality of sections, and mapping the object to each section.
삭제delete 제1항에 있어서,
상기 최대 거리는 상기 3점을 꼭지점으로 하는 삼각형의 외접원의 반지름으로 설정되는 것을 특징으로 하는 멀티 터치 인식 방법.
According to claim 1,
The multi-touch recognition method, characterized in that the maximum distance is set to the radius of the circumscribed circle of the triangle having the three points as vertices.
제1항에 있어서,
상기 3점의 중점 위치 및 무게중심 위치를 산출하는 단계는,
상기 3점을 꼭지점으로 하는 삼각형을 이용하여 상기 중점 위치 및 상기 무게중심 위치를 산출하는 것을 특징으로 하는 멀티 터치 인식 방법.
According to claim 1,
Calculating the position of the midpoint and the position of the center of gravity of the three points,
The multi-touch recognition method, characterized in that for calculating the position of the midpoint and the position of the center of gravity using a triangle having the three points as vertices.
제4항에 있어서,
상기 중점 위치는 상기 삼각형의 외접원의 중심인 것을 특징으로 하는 멀티 터치 인식 방법.
According to claim 4,
The midpoint position is a multi-touch recognition method, characterized in that the center of the circumscribed circle of the triangle.
제4항에 있어서,
상기 무게중심 위치는 상기 삼각형의 무게중심인 것을 특징으로 하는 멀티 터치 인식 방법.
According to claim 4,
The center of gravity position is a multi-touch recognition method, characterized in that the center of gravity of the triangle.
멀티 터치 인식 장치에 있어서,
터치 스크린;
명령어를 저장하는 메모리; 및
상기 명령어를 실행하는 프로세서를 포함하되,
상기 명령어는,
상기 터치 스크린을 통해 3점(point) 터치를 입력받는 단계;
상기 3점의 중점 위치 및 무게중심 위치를 산출하는 단계;
상기 중점 위치와 상기 무게중심 위치 사이의 거리를 산출하는 단계; 및
상기 거리에 대응된 객체(Object)를 식별하고, 상기 식별된 객체에 미리 설정된 실행 메뉴를 상기 터치 스크린에 표시하는 단계를 포함하되,
상기 명령어는, 상기 3점 터치를 입력받는 단계 이전에,
상기 거리 별로 상기 객체를 매핑(mapping)하는 단계를 더 포함하고,
상기 객체를 매핑하는 단계는,
상기 중점 위치와 상기 무게중심 위치 사이의 최대 거리를 복수개의 구간으로 나누고, 각 구간에 상기 객체를 매핑하는 멀티 터치 인식 방법을 수행하는 것을 특징으로 하는 멀티 터치 인식 장치.


In the multi-touch recognition device,
touch screen;
memory for storing instructions; and
Including a processor that executes the instructions,
The command is
receiving a three-point touch through the touch screen;
Calculating the position of the midpoint and the position of the center of gravity of the three points;
calculating a distance between the midpoint position and the center of gravity position; and
Identifying an object corresponding to the distance and displaying an execution menu preset for the identified object on the touch screen,
The command, prior to the step of receiving the 3-point touch,
Further comprising mapping the object for each distance,
The step of mapping the object is,
The multi-touch recognition device characterized in that performing a multi-touch recognition method of dividing the maximum distance between the midpoint position and the center of gravity position into a plurality of sections and mapping the object to each section.


KR1020180036903A 2018-03-29 2018-03-29 Apparatus and method for multi-touch recognition KR102491207B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180036903A KR102491207B1 (en) 2018-03-29 2018-03-29 Apparatus and method for multi-touch recognition

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180036903A KR102491207B1 (en) 2018-03-29 2018-03-29 Apparatus and method for multi-touch recognition

Publications (2)

Publication Number Publication Date
KR20190114348A KR20190114348A (en) 2019-10-10
KR102491207B1 true KR102491207B1 (en) 2023-01-25

Family

ID=68206472

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180036903A KR102491207B1 (en) 2018-03-29 2018-03-29 Apparatus and method for multi-touch recognition

Country Status (1)

Country Link
KR (1) KR102491207B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113747216B (en) * 2020-05-29 2023-09-08 海信视像科技股份有限公司 Display device and touch menu interaction method
CN112558700A (en) * 2020-12-23 2021-03-26 苏州金螳螂文化发展股份有限公司 Exhibition hall touch screen object identification method based on multi-point touch

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100914438B1 (en) * 2008-05-20 2009-08-28 엘지전자 주식회사 Electronic device with touch device and method of executing functions thereof
JP5550124B2 (en) * 2012-08-17 2014-07-16 Necシステムテクノロジー株式会社 INPUT DEVICE, DEVICE, INPUT METHOD, AND PROGRAM
KR20170030246A (en) * 2015-09-09 2017-03-17 지멘스 메디컬 솔루션즈 유에스에이, 인크. Device, method, and ultrasound system for providing virtual key buttons
KR20170075999A (en) * 2015-12-24 2017-07-04 지멘스 메디컬 솔루션즈 유에스에이, 인크. Device, method, and ultrasound system for providing personalized user interface

Also Published As

Publication number Publication date
KR20190114348A (en) 2019-10-10

Similar Documents

Publication Publication Date Title
US9261995B2 (en) Apparatus, method, and computer readable recording medium for selecting object by using multi-touch with related reference point
CN104272240B (en) System and method for changing dummy keyboard on a user interface
US9665276B2 (en) Character deletion during keyboard gesture
EP2631766B1 (en) Method and apparatus for moving contents in terminal
KR102007651B1 (en) Touchscreen keyboard configuration method, apparatus, and computer-readable medium storing program
JP5905007B2 (en) Method and apparatus for interacting with electronic device applications by moving an object in the air above the electronic device display
US20140108992A1 (en) Partial gesture text entry
KR101770309B1 (en) Determining input received via tactile input device
US20140210742A1 (en) Emulating pressure sensitivity on multi-touch devices
US20150185850A1 (en) Input detection
CN103246382A (en) Control method and electronic equipment
US8994681B2 (en) Decoding imprecise gestures for gesture-keyboards
KR102491207B1 (en) Apparatus and method for multi-touch recognition
CN103207759A (en) Method And Apparatus For Keyboard Layout Using Touch
CN103019610A (en) Object selection method and terminal
CN105786373A (en) Touch track display method and electronic device
CN108780383B (en) Selecting a first numeric input action based on a second input
CN113031817B (en) Multi-touch gesture recognition method and false touch prevention method
KR101366170B1 (en) User Interface for controlling state of menu
CN104375659A (en) Information processing method and electronic equipment
US20190113999A1 (en) Touch motion tracking and reporting technique for slow touch movements
US9310997B2 (en) Method, touch device and computer program product for converting touch points into characters
US20160147381A1 (en) Electronic device and method of controlling display of information
KR101595229B1 (en) Apparatus for control object in cad application and computer recordable medium storing program performing the method thereof
KR101919515B1 (en) Method for inputting data in terminal having touchscreen and apparatus thereof

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant