KR101881383B1 - Touch-screen system with easy operation of one hand and providing method thereof - Google Patents

Touch-screen system with easy operation of one hand and providing method thereof Download PDF

Info

Publication number
KR101881383B1
KR101881383B1 KR1020170129667A KR20170129667A KR101881383B1 KR 101881383 B1 KR101881383 B1 KR 101881383B1 KR 1020170129667 A KR1020170129667 A KR 1020170129667A KR 20170129667 A KR20170129667 A KR 20170129667A KR 101881383 B1 KR101881383 B1 KR 101881383B1
Authority
KR
South Korea
Prior art keywords
drag
target point
touch
touch screen
interface
Prior art date
Application number
KR1020170129667A
Other languages
Korean (ko)
Inventor
안지홍
Original Assignee
안지홍
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 안지홍 filed Critical 안지홍
Priority to KR1020170129667A priority Critical patent/KR101881383B1/en
Application granted granted Critical
Publication of KR101881383B1 publication Critical patent/KR101881383B1/en
Priority to PCT/KR2018/011844 priority patent/WO2019074253A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04804Transparency, e.g. transparent or translucent windows

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Disclosed are a touch screen system and a providing method thereof. According to an embodiment of the present invention, the touch screen providing method includes: a step in which the touch screen system senses a touch signal, inputted through a touch screen of a user terminal while a predetermined webpage including multiple content is being displayed on the user terminal; a step in which the touch screen system determines a moving direction of the touch signal; and a step in which the touch screen system controls a screen displayed on the user terminal based on the moving direction of the touch signal. If the moving direction of the touch signal is a first direction, the touch screen system scrolls the screen displayed on the user terminal, and if the moving direction of the touch signal is a second direction which is different from the first direction, the touch screen system displays the most recently uploaded content on the user terminal.

Description

한 손 조작이 용이한 터치 스크린 시스템 및 그 제공방법{Touch-screen system with easy operation of one hand and providing method thereof}BACKGROUND OF THE INVENTION 1. Field of the Invention [0001] The present invention relates to a touch screen system,

본 발명은 한 손 조작이 용이한 터치 스크린 시스템 및 그 제공방법에 관한 것으로, 보다 상세하게는 사용자 단말기의 화면 내에 대칭 인터페이스를 설정하고, 사용자에 의해 상기 대칭 인터페이스가 터치되면 타겟 포인트를 생성하며, 상기 타겟 포인트가 사용자에 의해 드래그되는 드래그의 이동방향과 대칭되는 방향으로 이동하게 하여, 상기 타겟 포인트를 이용하여 사용자가 사용자 단말기를 한 손으로 조작할 때 터치가 어렵거나 불가능한 영역에 위치하는 오브젝트를 용이하게 활성화할 수 있도록 함으로써 한 손을 이용하여 사용자 단말기를 조작하는 사용자의 편의성을 크게 향상시킬 수 있는 기술적 사상을 제공하는 것이다.The present invention relates to a touch screen system and a method for providing the touch screen system. More particularly, the present invention relates to a touch screen system, The target point is moved in a direction symmetrical to the direction of movement of the drag dragged by the user so that when the user operates the user terminal with one hand using the target point, So that the convenience of the user operating the user terminal by using one hand can be greatly improved.

디지털 기술의 발달과 함께 많은 사용자 단말기들이 입력장치로 터치 스크린 시스템을 구비하고 있다. 터치 스크린 시스템은 사용자 단말기에 손가락 또는 스타일러스 펜 등의 입력도구를 접촉하는 것만으로 직관적이고 용이하게 사용자 단말기를 사용할 수 있어 입력작업이 간결해지고, 특히 휴대용 단말기의 경우 디스플레이 장치와 일체형으로 설치될 수 있어 키패드의 설치 공간을 절약할 수 있어 사용자에게 보다 넓은 화면을 제공할 수 있어 널리 사용되고 있다.With the development of digital technology, many user terminals are equipped with a touch screen system as an input device. The touch screen system can intuitively and easily use the user terminal by simply touching the user terminal with an input tool such as a finger or a stylus pen so that the input operation can be simplified and the portable terminal can be installed integrally with the display device The space for installing the keypad can be saved, and thus a wider screen can be provided to the user, which is widely used.

이러한 터치 스크린 시스템을 장착한 사용자 단말기들 중, 대다수 사용자들이 가장 많이 사용하는 스마트 폰의 경우 화면의 크기가 5인치 이상인 대형 디스플레이를 구비한 제품의 비율이 크게 증가하고 있다.Among the user terminals equipped with such a touch screen system, the ratio of products having a large-sized display having a screen size of 5 inches or more is greatly increased in the case of a smart phone which is used most by most users.

이러한 스마트 폰과 같은 사용자 단말기는 사용자들이 휴대하고 다니면서 사용하게 되는데, 사용자들은 이동중이나 버스, 지하철 등 대중교통을 이용하면서, 또는 특정 장소에 구애받지 않고 수시로 사용자 단말기를 손에 파지하여 조작하게 된다. 하지만 대형 디스플레이를 구비한 스마트 폰과 같은 사용자 단말기의 경우, 대부분의 사용자들이 한 손만을 이용하여 조작하기에는 어려움이 있다. 이러한 사용자 단말기의 일반적인 사용 예가 도 1에 도시된다.Such a user terminal such as a smart phone is used by users while they are carrying it. Users can grasp the user terminal in their hands at any time while traveling, using public transportation such as a bus, a subway, or a specific place. However, in the case of a user terminal such as a smart phone having a large display, it is difficult for most users to operate with only one hand. A typical use example of such a user terminal is shown in Fig.

도 1은 일반적으로 사용자들이 한 손으로 사용자 단말기를 조작하는 경우를 나타낸다.FIG. 1 generally shows a case where users operate a user terminal with one hand.

도 1을 참조하면, 사용자는 한 손(예컨대, 왼손)으로 사용자 단말기(1)를 파지한 채, 한 손가락(예컨대, 엄지 손가락)을 이용하여 상기 사용자 단말기(1)의 화면(2)을 터치하면서 상기 사용자 단말기(1)를 조작하게 된다.1, the user touches the screen 2 of the user terminal 1 using one finger (e.g., a thumb) while holding the user terminal 1 with one hand (e.g., left hand) The user terminal 1 is operated.

하지만 도면에 도시된 바와 같이, 한 손가락으로 터치가 가능한 영역(예컨대, A)은 한정적일 수밖에 없어 대형 디스플레이를 구비한 사용자 단말기(1)의 화면(2) 전체를 커버할 수 없으며, 사용자 단말기(1)를 고쳐 잡거나 나머지 한 손을 추가로 사용하지 않는 이상 화면(2)의 상단 등과 같은 위치에 위치한 오브젝트들(3, 예컨대, 링크, 아이콘, 콘텐츠, 애플리케이션 실행 아이콘 등)을 활성화(예컨대, 선택, 실행 등)할 수 없는 경우가 발생할 수 있다.However, as shown in the drawing, an area (for example, A) capable of being touched by one finger is limited and can not cover the entire screen 2 of the user terminal 1 having a large display, (E.g., link, icon, content, application execution icon, etc.) located at the same position as the top of the screen 2 or the like , Execution, etc.).

따라서 사용자가 한 손에 다른 물품(예컨대, 가방, 지갑, 음식물 등)을 들고 있는 경우에는 상기 오브젝트들(3)을 활성화하기 위해 불편한 자세를 감수하거나, 상기 물품들을 따로 내려놓아야 하는 등 상당한 번거로움이 존재할 수 있다.Therefore, when the user holds another item (e.g., a bag, a wallet, a food or the like) in one hand, it is necessary to take an uncomfortable posture for activating the objects 3, May exist.

종래에 사용자가 한 손으로도 사용자 단말기(1)를 용이하게 조작할 수 있도록 하는 기술적 사상이 한국등록특허(등록번호 10-1056088, "터치패널 입력장치, 방법 및 이를 이용한 모바일 기기", 이하 종래기술이라 함)에 개시되고 있다.Conventionally, a technical idea that enables a user to easily operate the user terminal 1 with one hand is disclosed in Korean Patent No. 10-1056088 entitled "Touch Panel Input Device, Method and Mobile Device Using the Same " Technology ").

상기 종래기술은 사용자가 한 손만 사용하여 사용자 단말기(1) 화면(2)의 줌 인/줌 아웃을 용이하게 수행할 수 있도록 하는 기술적 사상을 개시하고 있다. 하지만 상기 종래기술에 의하면 상기 화면(2)에 적어도 둘 이상의 멀티터치가 필요한 줌 인/줌 아웃을 한 손만으로도 편리하게 수행할 수는 있어도, 터치가 불가능하거나 어려운 영역을 해소할 수 있는 기술적 사상 예컨대, 전술한 바와 같이 한 손으로 터치가 불가능한 지점에 위치한 오브젝트들(3)을 활성화할 수 있도록 하는 기술적 사상은 전혀 포함하고 있지 않아 기존의 불편함과 번거로움을 해소할 수는 없다.The above-described prior art discloses a technical idea that allows a user to easily zoom in / out on the screen 2 of the user terminal 1 using only one hand. However, according to the above-described related art, it is possible to easily perform the zoom in / out operation requiring only two or more multi-touches on the screen 2, As described above, there is no technical idea for activating the objects 3 located at the points that can not be touched by one hand, so that the conventional inconvenience and hassle can not be solved.

따라서 사용자가 한 손으로만 사용자 단말기(1)를 조작하는 경우에도 터치가 불가능한 터치 사각 영역을 용이하게 해소할 수 있도록 하는 기술적 사상이 요구된다.Therefore, a technical idea is required to easily resolve a touch rectangular area that can not be touched even when the user operates the user terminal 1 with only one hand.

또한 오브젝트의 활성화뿐 아니라, 문자 입력에서도 쿼티(qwerty) 형식의 키패드를 포함한 모든 형식의 키패드를 한 손만으로 간편하게 수행할 수 있도록 하는 기술적 사상이 요구된다.In addition, not only the activation of the object, but also the character input, a technical idea is required so that the keypad of all the formats including the keypad of the qwerty type can be easily performed by one hand.

한국등록특허(등록번호 10-1056088, "터치패널 입력장치, 방법 및 이를 이용한 모바일 기기")Korean Registered Patent (Registration No. 10-1056088, "Touch panel input device, method and mobile device using the same")

따라서, 본 발명이 해결하고자 하는 기술적인 과제는 사용자 단말기의 화면 내에 대칭 인터페이스를 설정하고, 사용자에 의해 상기 대칭 인터페이스가 터치되면 타겟 포인트를 생성하며, 상기 타겟 포인트가 사용자에 의해 드래그되는 드래그의 이동방향과 대칭되는 방향으로 이동하게 하여, 상기 타겟 포인트를 이용하여 사용자가 사용자 단말기를 한 손으로 조작할 때 터치가 어렵거나 불가능한 영역에 위치하는 오브젝트를 용이하게 활성화할 수 있도록 하는 기술적 사상을 제공하는 것이다.SUMMARY OF THE INVENTION Accordingly, it is a technical object of the present invention to provide a method and apparatus for setting a symmetric interface in a screen of a user terminal, generating a target point when the symmetric interface is touched by a user, Direction and symmetric with respect to the direction of the target point so that the user can easily activate an object located in an area where touch is difficult or impossible when the user operates the user terminal with one hand will be.

또한, 상기 드래그와 상기 타겟 포인트의 이동거리 비율을 다르게 함으로써, 상기 대칭 인터페이스의 설정위치와 무관하게 터치 사각 영역을 해소할 수 있는 기술적 사상을 제공하는 것이다.Further, the present invention provides a technical idea capable of resolving a touch rectangular area irrespective of the setting position of the symmetric interface by making the ratio of the moving distance of the drag and the target point different.

또한, 사용자 단말기의 화면 모서리를 중심으로 사선형태인 키패드를 제공함으로써 쿼티(qwerty) 형식의 키패드도 한 손으로 편리하게 조작할 수 있도록 하는 기술적 사상을 제공하는 것이다.The present invention also provides a technical idea that allows a keypad of a qwerty type to be easily operated by one hand by providing a keypad having a slanting shape centered on a screen edge of the user terminal.

상기 기술적 과제를 해결하기 위한 본 발명의 실시 예에 따른 터치 스크린 시스템은, 사용자 단말기의 화면 내 소정의 위치에 대칭 인터페이스를 설정하는 인터페이스 모듈, 터치 및 드래그를 감지하는 감지모듈, 상기 감지모듈을 통해 상기 대칭 인터페이스에 터치가 감지되는 경우 타겟 포인트를 생성하고, 상기 드래그가 이동하는 경우 상기 드래그의 이동방향과 대칭되는 방향으로 상기 타겟 포인트를 이동시키는 제어모듈, 및 상기 타겟 포인트의 위치에 상응하는 오브젝트를 활성화하는 실행모듈을 포함할 수 있다.According to an aspect of the present invention, there is provided a touch screen system including an interface module for setting a symmetric interface at a predetermined position in a screen of a user terminal, a sensing module for sensing touch and drag, A control module that generates a target point when a touch is detected on the symmetric interface and moves the target point in a direction that is symmetric with a moving direction of the drag when the drag moves; Lt; RTI ID = 0.0 > a < / RTI >

또한, 상기 인터페이스 모듈은, 상기 대칭 인터페이스를 상기 화면에 투명하게 표시하는 것을 특징으로 할 수 있다.In addition, the interface module may display the symmetric interface on the screen in a transparent manner.

또한, 상기 인터페이스 모듈은, 상기 터치 스크린 시스템의 모드 변경에 기초하여 상기 대칭 인터페이스의 설정위치를 변경하는 것을 특징으로 할 수 있다.Further, the interface module may change the setting position of the symmetric interface based on a mode change of the touch screen system.

또한, 상기 감지모듈은, 터치해제를 더 감지하며, 상기 인터페이스 모듈은, 상기 감지모듈에 의해 상기 터치해제가 감지되는 경우 상기 화면 내의 소정의 위치에 실행 인터페이스를 디스플레이하고, 상기 실행모듈은, 상기 실행 인터페이스를 통해 상기 터치 또는 상기 터치해제가 감지되는 경우 상기 타겟 포인트의위치에 상응하는 오브젝트를 활성화하는 것을 특징으로 할 수 있다.In addition, the sensing module further senses a touch release, and the interface module displays an execution interface at a predetermined position in the screen when the touch release is detected by the sensing module, And activates the object corresponding to the position of the target point when the touch or the touch release is detected through the execution interface.

또한, 상기 제어모듈은, 상기 드래그 및 상기 타겟 포인트의 이동거리 비율이 서로 다르게 하는 것을 특징으로 할 수 있다.Further, the control module may be characterized in that the moving distance ratios of the drag and the target point are different from each other.

또한, 상기 제어모듈은, 상기 드래그 및 상기 타겟 포인트의 이동거리 비율이 1:1.5가 되도록 하는 것을 특징으로 할 수 있다.In addition, the control module may be configured such that a moving distance ratio of the drag and the target point is 1: 1.5.

또한, 상기 제어모듈은, 상기 드래그 및 상기 타겟 포인트의 이동거리 비율이 상기 드래그의 이동방향에 따라 달라질 수 있도록 하는 것을 특징으로 할 수 있다.The control module may be configured such that a ratio of the distance of movement of the drag and the target point can be changed according to a moving direction of the drag.

또한, 상기 제어모듈은, 상기 드래그 및 상기 타겟 포인트의 이동거리 비율이 상기 드래그의 이동가능거리 또는 상기 타겟 포인트의 이동가능거리 중 적어도 하나에 기초하여 달라질 수 있도록 하는 것을 특징으로 할 수 있다.The control module may be characterized in that the drag and the moving distance ratio of the target point can be changed based on at least one of the movable distance of the drag or the movable distance of the target point.

또한, 상기 터치 스크린 시스템은, 키패드를 생성하기 위한 키패드 모듈을 더 포함하며, 상기 인터페이스 모듈은, 상기 사용자 단말기의 화면을 터치가 용이한 제1영역, 터치가 가능한 제2영역, 및 터치가 불가능한 제3영역으로 구분하고, 상기 키패드 모듈은, 상기 제1영역, 또는 상기 제1영역 및 상기 제2영역을 포함하는 영역 내에 키패드를 생성하되, 상기 화면의 모서리를 중심으로 소정 각도만큼 사선으로 기울어진 형태의 키패드를 생성하는 것을 특징으로 할 수 있다.The touch screen system may further include a keypad module for generating a keypad. The interface module may include a first area where the user can easily touch the screen, a second area that can be touched, Wherein the keypad module generates a keypad in an area including the first area or the first area and the second area so that the keypad is inclined at a predetermined angle obliquely around the corner of the screen, And generates a keypad in a zigzag form.

또한, 상기 키패드 모듈은, 상기 터치 스크린 시스템의 모드 변경에 따라 상기 키패드의 위치를 다르게 생성하는 것을 특징으로 할 수 있다.In addition, the keypad module generates the position of the keypad differently according to the mode change of the touch screen system.

상기 기술적 과제를 해결하기 위한 본 발명의 실시 예에 따른 터치 스크린 스템은, 사용자 단말기의 화면을 터치가 용이한 제1영역, 터치가 가능한 제2영역, 및 터치가 불가능한 제3영역으로 구분하는 인터페이스 모듈, 및 키패드를 생성하기 위한 키패드 모듈을 포함하며, 상기 키패드 모듈은, 상기 제1영역, 또는 상기 제1영역 및 상기 제2영역을 포함하는 영역 내에 키패드를 생성하되, 상기 화면의 모서리를 중심으로 소정 각도만큼 사선으로 기울어진 형태의 키패드를 생성하는 것을 특징으로 할 수 있다.According to an aspect of the present invention, there is provided a touch screen system including a touch screen stem for dividing a screen of a user terminal into a first area that is easy to touch, a second area that can be touched, And a keypad module for creating a keypad, wherein the keypad module is configured to generate a keypad in the first area, or in an area including the first area and the second area, And a keypad slanted at an angle by a predetermined angle.

상기 기술적 과제를 해결하기 위한 본 발명의 실시 예에 따른 터치 스크린 시스템 제공방법은, 터치 스크린 시스템이 사용자 단말기의 화면 내 소정의 위치에 대칭 인터페이스를 설정하는 단계, 상기 터치 스크린 시스템이 터치 및 드래그를 감지하는 단계, 상기 대칭 인터페이스에 터치가 감지되는 경우 상기 터치 스크린 시스템이 타겟 포인트를 생성하는 단계, 상기 드래그가 이동하는 경우 상기 터치 스크린 시스템이 상기 드래그의 이동방향과 대칭되는 방향으로 상기 타겟 포인트를 이동시키는 단계, 및 상기 터치 스크린 시스템이 상기 타겟 포인트의 위치에 상응하는 오브젝트를 활성화하는 단계를 포함할 수 있다.According to another aspect of the present invention, there is provided a method of providing a touch screen system, the method comprising: setting a symmetric interface at a predetermined position in a screen of a user terminal; Wherein the touch screen system generates a target point when a touch is detected on the symmetric interface, and when the drag is moved, the touch screen system scans the target point in a direction that is symmetric with the direction of movement of the drag And activating an object corresponding to the location of the target point by the touch screen system.

또한, 상기 터치 스크린 시스템이 터치 및 드래그를 감지하는 단계는, 상기 터치 스크린 시스템이 터치해제를 감지하는 단계를 더 포함하며, 상기 터치 스크린 시스템이 상기 타겟 포인트의 위치에 상응하는 오브젝트를 활성화하는 단계는, 상기 터치 스크린 시스템이 상기 터치해제가 감지되는 경우 상기 화면 내의 소정의 위치에 실행 인터페이스를 디스플레이하는 단계, 및 상기 터치 스크린 시스템이 상기 실행 인터페이스를 통해 상기 터치 또는 상기 터치해제가 감지되는 경우 상기 타겟 포인트의위치에 상응하는 오브젝트를 활성화하는 단계를 포함할 수 있다.In addition, the step of the touch screen system detecting touch and drag may further include the step of the touch screen system detecting touch release, wherein the touch screen system activates an object corresponding to the position of the target point Displaying an execution interface at a predetermined position in the screen when the touch screen system detects the touch release; and when the touch screen system detects the touch or the touch release via the execution interface, And activating an object corresponding to the location of the target point.

또한, 상기 드래그가 이동하는 경우 상기 터치 스크린 시스템이 상기 드래그의 이동방향과 대칭되는 방향으로 상기 타겟 포인트를 이동시키는 단계는, 상기 터치 스크린 시스템이 상기 드래그 및 상기 타겟 포인트의 이동거리 비율이 서로 다르게 하는 단계를 포함할 수 있다.The step of moving the target point in a direction in which the touch screen system is symmetric with the direction of movement of the drag when the drag is moved may include moving the target point in a direction in which the drag and the target point move .

또한, 상기 터치 스크린 시스템이 상기 드래그 및 상기 타겟 포인트의 이동거리 비율이 서로 다르게 하는 단계는, 상기 터치 스크린 시스템이 상기 드래그 및 상기 타겟 포인트의 이동거리 비율이 상기 드래그의 이동방향에 따라 달라질 수 있도록 하는 단계를 포함할 수 있다.In addition, the step of causing the touch screen system to vary the moving distance ratios of the drag and the target point may be performed by the touch screen system such that the ratio of the moving distance of the drag and the target point varies according to the moving direction of the drag .

또한, 상기 터치 스크린 시스템이 상기 드래그 및 상기 타겟 포인트의 이동거리 비율이 서로 다르게 하는 단계는, 상기 터치 스크린 시스템이 상기 드래그 및 상기 타겟 포인트의 이동거리 비율이 상기 드래그의 이동가능거리 또는 상기 타겟 포인트의 이동가능거리 중 적어도 하나에 기초하여 달라질 수 있도록 하는 단계를 포함할 수 있다.In addition, the step of causing the touch screen system to make the ratio of the drag and the movement distance of the target point to be different from each other may be such that the touch screen system determines that the ratio of the distance of movement of the drag and the target point is larger than the movable distance of the drag, Based on at least one of a travelable distance of the mobile station.

또한, 상기 터치 스크린 시스템 제공방법은, 상기 터치 스크린 시스템이 키패드를 생성하는 단계를 더 포함하며, 상기 키패드는, 상기 사용자 단말기의 화면을 터치가 용이한 제1영역, 터치가 가능한 제2영역, 및 터치가 불가능한 제3영역 중 상기 제1영역, 또는 상기 제1영역 및 상기 제2영역을 포함하는 영역 내에서, 상기 화면의 모서리를 중심으로 소정 각도만큼 사선으로 기울어진 형태인 것을 특징으로 할 수 있다.The touch screen system may further include a step of generating a keypad, wherein the keypad includes a first area that is easy to touch, a second area that can be touched, And a shape which is inclined at an angle of a predetermined angle around the corner of the screen in the first region or the region including the first region and the second region out of the non-touchable third regions .

상기 터치 스크린 시스템 제공방법은 프로그램을 기록한 컴퓨터 판독 가능한 기록매체에 저장될 수 있다.The method of providing a touch screen system may be stored in a computer-readable recording medium having recorded thereon a program.

본 발명의 기술적 사상에 의하면, 사용자 단말기의 화면 내에 대칭 인터페이스를 설정하고, 사용자에 의해 상기 대칭 인터페이스가 터치되면 타겟 포인트를 생성하며, 상기 타겟 포인트가 사용자에 의해 드래그되는 드래그의 이동방향과 대칭되는 방향으로 이동하게 하여, 상기 타겟 포인트를 이용하여 사용자가 사용자 단말기를 한 손으로 조작할 때 터치가 어렵거나 불가능한 영역에 위치하는 오브젝트를 용이하게 활성화할 수 있도록 함으로써 한 손을 이용하여 사용자 단말기를 조작하는 사용자의 편의성을 크게 향상시킬 수 있는 효과가 있다.According to the technical idea of the present invention, a symmetric interface is set in a screen of a user terminal, a target point is generated when the symmetric interface is touched by a user, and the target point is symmetrical with a moving direction of a drag So that the user can easily activate an object located in an area where touch is difficult or impossible when the user operates the user terminal with one hand by using the target point, It is possible to greatly improve the convenience of the user.

또한 사용자 단말기의 화면 모서리를 중심으로 사선형태인 키패드를 제공함으로써 쿼티(qwerty) 형식의 키패드도 한 손으로 편리하게 조작할 수 있는 효과가 있다.Also, by providing a keypad having a slanting line shape around the screen edge of the user terminal, a keypad of a qwerty type can be easily operated with one hand.

본 발명의 상세한 설명에서 인용되는 도면을 보다 충분히 이해하기 위하여 각 도면의 간단한 설명이 제공된다.
도 1은 일반적으로 사용자들이 한 손으로 사용자 단말기를 조작하는 경우를 나타낸다.
도 2는 본 발명의 실시 예에 따른 한 손 조작이 용이한 터치 스크린 시스템의 개략적인 구성을 나타낸다.
도 3은 본 발명의 실시 예에 따른 한 손 조작이 용이한 터치 스크린 시스템에서 대칭 인터페이스를 나타낸다.
도 4는 본 발명의 실시 예에 따른 대칭 인터페이스의 조작 예를 나타낸다.
도 5는 본 발명의 실시 예에 따른 대칭 인터페이스를 이용한 오브젝트의 활성화 방식을 나타낸다.
도 6은 본 발명의 실시 예에 따른 대칭 인터페이스의 사용자 단말기 화면 내 설정 위치를 나타낸다.
도 7은 본 발명의 실시 예에 따른 한 손 조작이 용이한 터치 스크린 시스템의 드래그 및 타겟 포인트의 이동거리 비율과 터치 영역을 설명하기 위한 도면이다.
도 8은 본 발명의 실시 예에 따른 한 손 조작이 용이한 터치 스크린 시스템에서 드래그 및 타겟 포인트의 이동방향에 따른 이동거리 비율을 설명하기 위한 도면이다.
도 9 및 도 10은 본 발명의 실시 예에 따른 한 손 조작이 용이한 터치 스크린 시스템에서 제공되는 키패드를 나타낸다.
도 11은 본 발명의 실시 예에 따른 한 손 조작이 용이한 터치 스크린 시스템 제공방법의 개략적인 흐름을 나타낸다.
BRIEF DESCRIPTION OF THE DRAWINGS A brief description of each drawing is provided to more fully understand the drawings recited in the description of the invention.
FIG. 1 generally shows a case where users operate a user terminal with one hand.
Fig. 2 shows a schematic configuration of a touch screen system which is easy to operate by one hand according to the embodiment of the present invention.
Figure 3 shows a symmetrical interface in a touch screen system that is easy to manipulate in accordance with an embodiment of the present invention.
Fig. 4 shows an operation example of a symmetric interface according to an embodiment of the present invention.
5 illustrates an object activation method using a symmetric interface according to an embodiment of the present invention.
FIG. 6 shows a setting position in the screen of the user terminal of the symmetric interface according to the embodiment of the present invention.
FIG. 7 is a view for explaining a moving distance ratio and a touch area of a drag and a target point in a touch screen system that is easy to operate by hand according to an embodiment of the present invention.
FIG. 8 is a view for explaining a moving distance ratio according to a moving direction of a drag and a target point in a touch screen system which is easy to operate by one hand according to an embodiment of the present invention.
9 and 10 show a keypad provided in a touch-sensitive screen system which is easy to operate in accordance with an embodiment of the present invention.
11 shows a schematic flow of a method of providing a touch screen system that is easy to operate by one hand according to an embodiment of the present invention.

본 발명과 본 발명의 동작상의 이점 및 본 발명의 실시에 의하여 달성되는 목적을 충분히 이해하기 위해서는 본 발명의 바람직한 실시 예를 예시하는 첨부 도면 및 첨부 도면에 기재된 내용을 참조하여야만 한다.In order to fully understand the present invention, operational advantages of the present invention, and objects achieved by the practice of the present invention, reference should be made to the accompanying drawings and the accompanying drawings which illustrate preferred embodiments of the present invention.

또한, 본 명세서에 있어서는 어느 하나의 구성요소가 다른 구성요소로 데이터를 '전송'하는 경우에는 상기 구성요소는 상기 다른 구성요소로 직접 상기 데이터를 전송할 수도 있고, 적어도 하나의 또 다른 구성요소를 통하여 상기 데이터를 상기 다른 구성요소로 전송할 수도 있는 것을 의미한다.Also, in this specification, when any one element 'transmits' data to another element, the element may transmit the data directly to the other element, or may be transmitted through at least one other element And may transmit the data to the other component.

반대로 어느 하나의 구성요소가 다른 구성요소로 데이터를 '직접 전송'하는 경우에는 상기 구성요소에서 다른 구성요소를 통하지 않고 상기 다른 구성요소로 상기 데이터가 전송되는 것을 의미한다.Conversely, when one element 'directly transmits' data to another element, it means that the data is transmitted to the other element without passing through another element in the element.

이하, 첨부한 도면을 참조하여 본 발명의 바람직한 실시 예를 설명함으로써, 본 발명을 상세히 설명한다. 각 도면에 제시된 동일한 참조부호는 동일한 부재를 나타낸다.BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, the present invention will be described in detail with reference to the preferred embodiments of the present invention with reference to the accompanying drawings. Like reference symbols in the drawings denote like elements.

도 2는 본 발명의 실시 예에 따른 터치 스크린 시스템의 개략적인 구성을 나타낸다.2 shows a schematic configuration of a touch screen system according to an embodiment of the present invention.

도 2를 참조하면, 본 발명의 실시 예에 따른 터치 스크린 시스템(100)은 인터페이스 모듈(110), 감지모듈(120), 제어모듈(130), 및 실행모듈(140)을 포함할 수 있다. 구현 예에 따라, 상기 터치 스크린 시스템(100)은 키패드 모듈(150)을 더 포함할 수도 있다.2, a touch screen system 100 according to an exemplary embodiment of the present invention may include an interface module 110, a sensing module 120, a control module 130, and an execution module 140. According to an embodiment, the touch screen system 100 may further include a keypad module 150.

상기 터치 스크린 시스템(100)은 사용자 단말기에 설치되어 본 발명의 기술적 사상을 구현하기 위한 동작들을 수행할 수 있다. 예컨대, 상기 터치 스크린 시스템(100)은 소정의 애플리케이션 시스템의 형태로 구현되어 상기 사용자 단말기에 설치될 수 있으며, 상기 애플리케이션 시스템은 본 발명의 기술적 사상을 구현하기 위해 상기 사용자 단말기에 설치되는 소프트웨어 및 상기 사용자 단말기의 하드웨어와 유기적으로 결합 되어 본 발명의 기술적 사상을 구현할 수 있다.The touch screen system 100 may be installed in a user terminal to perform operations to implement the technical idea of the present invention. For example, the touch screen system 100 may be implemented in the form of a predetermined application system and installed in the user terminal. The application system may include software installed in the user terminal to implement the technical idea of the present invention, It is possible to implement the technical idea of the present invention by organically combining with the hardware of the user terminal.

또한 본 명세서에서 모듈이라 함은, 본 발명의 기술적 사상을 수행하기 위한 하드웨어 및 상기 하드웨어를 구동하기 위한 소프트웨어의 기능적, 구조적 결합을 의미할 수 있다. 예컨대, 상기 모듈은 소정의 코드와 상기 소정의 코드가 수행되기 위한 하드웨어의 리소스(resource)의 논리적인 단위를 의미할 수 있으며, 반드시 물리적으로 연결된 코드를 의미하거나, 한 종류의 하드웨어를 의미하는 것은 아님은 본 발명의 기술분야의 평균적 전문가에게는 용이하게 추론될 수 있다.In this specification, a module may mean a functional and structural combination of hardware for carrying out the technical idea of the present invention and software for driving the hardware. For example, the module may mean a logical unit of a predetermined code and a resource of hardware for executing the predetermined code, and may be a code physically connected to the module, or a type of hardware Or may be easily deduced to the average expert in the field of the present invention.

한편 상기 사용자 단말기는 터치 스크린이 구비된 모바일 단말기(예컨대, 스마트 폰, PDA, 태블릿(tablet) PC 등)로 구현될 수 있으며, 구현 예에 따라 입력장치로 터치 스크린을 구비한 컴퓨터 등 본 발명의 기술적 사상을 구현할 수 있는 모든 형태의 데이터 프로세싱 장치를 포함할 수 있다.Meanwhile, the user terminal may be implemented as a mobile terminal (e.g., a smart phone, a PDA, a tablet PC, etc.) having a touch screen, and a computer having a touch screen as an input device, And may include any type of data processing device capable of implementing technical thought.

상기 인터페이스 모듈(110)은 사용자 단말기의 화면 내 소정의 위치에 대칭 인터페이스를 설정할 수 있다.The interface module 110 may set a symmetric interface at a predetermined position in the screen of the user terminal.

상기 대칭 인터페이스는 사용자가 상기 사용자 단말기를 한 손으로 조작할 때, 사용자가 화면을 터치하는 손가락이 미치지 못하는 영역에 위치하는 오브젝트(예컨대, 링크, 아이콘, 콘텐츠, 애플리케이션 실행 아이콘 등)를 터치하여 활성화(선택 또는 실행)하기 위한 본 발명의 기술적 사상에 따른 인터페이스를 의미할 수 있다. 이하 본 명세서에서 오브젝트가 활성화 된다고 함은, 상기 오브젝트가 선택되거나, 상기 오브젝트가 실행되거나, 상기 오브젝트의 일부 기능이 활성화되는 경우를 모두 포함하는 의미일 수 있다. 이러한 대칭 인터페이스가 도 3에 도시된다.When the user operates the user terminal with one hand, the symmetrical interface touches an object (e.g., a link, an icon, a content, an application execution icon, etc.) located in an area where a finger (Selection or execution) of the present invention. Hereinafter, the term " activating an object " may include the case where the object is selected, the object is executed, or a part of the object is activated. This symmetric interface is shown in Fig.

도 3은 본 발명의 실시 예에 따른 한 손 조작이 용이한 터치 스크린 시스템에서 대칭 인터페이스를 나타낸다.Figure 3 shows a symmetrical interface in a touch screen system that is easy to manipulate in accordance with an embodiment of the present invention.

도 3을 참조하면, 사용자 단말기(1)의 화면(2) 내 소정의 위치에 대칭 인터페이스(10)가 설정되어 있을 수 있다.Referring to FIG. 3, the symmetric interface 10 may be set at a predetermined position in the screen 2 of the user terminal 1.

일 실시 예에 의하면, 상기 대칭 인터페이스(10)는 상기 화면(2)의 중앙부에 위치하도록 설정될 수 있지만 반드시 이에 한정되는 것은 아니며, 사용자가 오른손 또는 왼손만으로 상기 사용자 단말기(1)를 파지한 채 조작하는 경우, 사용자의 손가락(예컨대, 엄지 손가락)이 용이하게 터치될 수 있는 범위 내에서 어떠한 위치라도 설정되는 것이 가능할 수 있다. 상기 대칭 인터페이스(10)의 설정 위치를 도 6을 참조하여 설명하도록 한다.According to one embodiment, the symmetric interface 10 may be set to be located at the center of the screen 2, but the present invention is not limited thereto. For example, when the user holds the user terminal 1 with the right or left hand only When operating, it may be possible to set any position within a range where the user's finger (e.g., thumb) can be easily touched. The setting position of the symmetric interface 10 will be described with reference to FIG.

도 6은 본 발명의 실시 예에 따른 대칭 인터페이스의 사용자 단말기 화면 내 설정 위치를 나타낸다.FIG. 6 shows a setting position in the screen of the user terminal of the symmetric interface according to the embodiment of the present invention.

도 6을 참조하면, 설명의 편의를 위해 상기 사용자 단말기(1)의 화면(2)을 복수 개의 영역으로 분할해 볼 수 있다. 예컨대, 상기 화면(2)을 제1사분면(a), 제2사분면(b), 제3사분면(c) 및 제4사분면(d)으로 나누어 설명하도록 한다. 이는 상기 대칭 인터페이스(10)의 설정 위치를 용이하게 설명하기 위한 것으로, 본 발명의 기술적 사상이 상기 화면(2)의 분할에 의해 한정되는 것은 아니다.Referring to FIG. 6, for convenience of description, the screen 2 of the user terminal 1 may be divided into a plurality of areas. For example, the screen 2 is divided into a first quadrant (a), a second quadrant (b), a third quadrant (c), and a fourth quadrant (d). This is to easily explain the setting position of the symmetrical interface 10, and the technical idea of the present invention is not limited by the division of the screen 2.

본 발명의 일 실시 예에 의하면, 상기 화면(2)의 중앙부에 대칭 인터페이스(10-1)가 설정될 수 있다. 이처럼 상기 화면(2)의 중앙부에 설정된 대칭 인터페이스(10-1)의 경우, 사용자가 사용하는 손이 오른손이든 왼손이든 크게 구애받지 않고 후술할 본 발명의 기술적 사상에 따라 상기 대칭 인터페이스(10-1)를 이용하기 용이할 수 있다.According to an embodiment of the present invention, a symmetric interface 10-1 may be set at the center of the screen 2. [ In the case of the symmetrical interface 10-1 set at the center of the screen 2, the hand used by the user is not limited to the right hand or the left hand, and the symmetrical interface 10-1 ) Can be easily used.

다른 실시 예에 의하면, 사용자가 왼손을 이용하여 상기 사용자 단말기(1)를 조작하는 경우, 상기 화면(2)의 중앙부가 아닌 상기 화면(2)의 좌측 하단 즉, 상기 제3사분면(c) 상에 위치하도록 대칭 인터페이스(10-2)가 설정될 수 있다. 전술한 바와 같이 사용자 단말기(1)를 한 손으로 조작하는 일반적인 경우에, 화면(2)을 터치하는 손가락이 주로 엄지 손가락인 경우가 대다수이며, 상기 엄지 손가락은 상기 사용자 단말기(1)의 화면(2) 상단부보다는 하단부에 위치하게 되는 경우가 많다. 따라서 사용자가 왼손으로 상기 사용자 단말기(1)를 조작하는 경우 상기 제3사분면(c) 상에 상기 대칭 인터페이스(10-2)가 위치하게 되면, 사용자가 왼손 엄지 손가락으로 터치하기 보다 용이할 수 있다.According to another embodiment, when the user operates the user terminal 1 using the left hand, the left lower end of the screen 2, i.e., the third quadrant (c) The symmetric interface 10-2 can be set to be located at the same time. As described above, in a general case where the user terminal 1 is operated with one hand, a large number of fingers touching the screen 2 are mainly thumbs, and the thumb is a screen of the user terminal 1 2) It is often located at the lower end rather than the upper end. Accordingly, when the user operates the user terminal 1 with his or her left hand, if the symmetric interface 10-2 is located on the third quadrant c, it may be easier for the user to touch with the left thumb .

물론, 사용자가 오른손을 이용하여 상기 사용자 단말기(1)를 조작하는 경우, 상기 제4사분면(d) 상에 대칭 인터페이스(10-3)가 위치하도록 설정될 수도 있다.Of course, when the user operates the user terminal 1 using the right hand, the symmetric interface 10-3 may be set on the fourth quadrant d.

이러한 상기 대칭 인터페이스(10)의 설정 위치는 시스템에 의해 기본적으로 특정 위치(예컨대, 상기 화면(2)의 중앙부 등)에 설정되어 있을 수 있으며, 또는 사용자가 상기 터치 스크린 시스템(100)의 모드(예컨대, 오른손 모드 또는 왼손 모드 등)를 변경함에 따라 상기 대칭 인터페이스(10)의 설정 위치가 미리 정해진 위치들 중 어느 하나의 위치로 변경될 수도 있다. 즉, 본 발명의 기술적 사상에 따른 상기 터치 스크린 시스템(100)은 사용자가 사용하는 손에 따라 모드 변경(예컨대, 기본모드, 오른손 모드 또는 왼손 모드 등)이 가능할 수 있다. 예를 들어 기본모드인 경우 상기 대칭 인터페이스(10)의 설정위치는 화면(2)의 중앙부에 위치할 수 있으며, 오른손 모드인 경우 상기 대칭 인터페이스(10)의 설정위치가 상기 제4사분면, 왼손 모드인 경우 상기 대칭 인터페이스(10)의 설정위치가 상기 제3사분면으로 설정될 수 있다.The setting position of the symmetrical interface 10 may be set at a specific position basically by the system (for example, the center part of the screen 2) For example, the right-hand mode or the left-hand mode), the setting position of the symmetric interface 10 may be changed to any one of the predetermined positions. That is, the touch screen system 100 according to the technical idea of the present invention may be capable of changing a mode (for example, a basic mode, a right hand mode, a left hand mode, or the like) according to a hand used by a user. For example, in the basic mode, the setting position of the symmetrical interface 10 may be located at the center of the screen 2, and when the setting position of the symmetrical interface 10 in the right hand mode is the fourth quadrant, The setting position of the symmetric interface 10 may be set to the third quadrant.

구현 예에 따라서는, 상기 대칭 인터페이스(10)의 설정 위치가 특정 위치에 한정되지 않고, 사용자의 필요나 편의에 따라 상기 화면(2) 내에서 자유롭게 설정될 수도 있다.According to an embodiment, the setting position of the symmetric interface 10 is not limited to a specific position but may be freely set within the screen 2 according to the needs and convenience of the user.

한편 상기 인터페이스 모듈(110)은 상기 대칭 인터페이스(10)를 상기 화면(2) 상에서 특정한 형태를 가지도록 디스플레이할 수도 있지만, 구현 예에 따라 상기 대칭 인터페이스(10)를 투명하게 디스플레이할 수도 있다. 다시 말하면, 상기 대칭 인터페이스(10)가 이미 설정되어 있는 상태라도 상기 대칭 인터페이스(10)가 상기 화면(2) 상에 보이지 않도록 투명하게 디스플레이될 수도 있다.Meanwhile, the interface module 110 may display the symmetric interface 10 having a specific shape on the screen 2, but may also display the symmetric interface 10 transparently according to an embodiment. In other words, even if the symmetric interface 10 is already set, the symmetric interface 10 may be displayed transparently on the screen 2.

이는 사용자가 상기 사용자 단말기(1)를 사용하는 중 특정 위치에 디스플레이되고 있는 상기 대칭 인터페이스(10)에 의해 화면(2)의 일부가 가려질 수 있으며, 이로 인해 사용자 단말기(1)를 사용하는 사용자의 불편함을 유발할 수 있기 때문이다.This is because a part of the screen 2 may be hidden by the symmetric interface 10 displayed at a specific position while the user is using the user terminal 1 so that the user who uses the user terminal 1 Because of the inconvenience.

이처럼 상기 대칭 인터페이스(10)가 육안으로 구분될 수 있도록 상기 화면(2) 상에 디스플레이될 것인지, 또는 상기 대칭 인터페이스(10)가 투명하게 디스플레이될 것인지 여부는 사용자의 필요에 따라 선택적으로 결정될 수 있다.Whether to display the symmetric interface 10 on the screen 2 or the transparent interface 10 so that the symmetric interface 10 can be visually distinguished can be selectively determined according to the needs of the user .

구현 예에 따라, 상기 인터페이스 모듈(110)은 상기 대칭 인터페이스(10)의 투명도를 가변적으로 설정할 수 있도록 구현될 수도 있다. 예컨대, 상기 대칭 인터페이스(10)가 설정된 위치에서 상기 대칭 인터페이스(10)가 현재 디스플레이되고 있는 지점의 현재화면(예컨대, 배경화면, 재생 중인 콘텐츠 화면 등)을 완전히 가리도록 투명도가 0%로 설정될 수 있다. 또는 투명도를 100%로 설정하여 상기 화면(2) 상에서 상기 대칭 인터페이스(10)가 전혀 보이지 않도록 설정될 수도 있을 것이다.According to an embodiment, the interface module 110 may be configured to variably set the transparency of the symmetric interface 10. For example, if the transparency is set to 0% so that the symmetric interface 10 completely covers the current screen (e.g., background screen, content screen being reproduced, etc.) of the point where the symmetric interface 10 is currently displayed . Or the transparency may be set to 100% so that the symmetric interface 10 is not visible on the screen 2 at all.

아니면 상기 대칭 인터페이스(10)의 투명도가 50%로 설정되면, 상기 대칭 인터페이스(10)가 반투명 상태로 상기 화면(2) 상에 디스플레이되어 상기 현재화면과 상기 대칭 인터페이스(10)가 서로 겹쳐지도록 디스플레이될 수도 있다.Alternatively, if the transparency of the symmetric interface 10 is set to 50%, the symmetric interface 10 is displayed on the screen 2 in a translucent state so that the current screen and the symmetric interface 10 are overlapped with each other .

상기 대칭 인터페이스(10)가 완전히 투명하게 디스플레이(예컨대, 투명도 100%)되는 경우를 포함하여 어떠한 경우든, 상기 대칭 인터페이스(10)가 설정된 설정 위치에서 사용자가 터치 및 드래그를 이용하여 후술할 본 발명의 기술적 사상에 따른 행위를 수행할 경우, 본 발명의 기술적 사상에 따른 동작이 수행될 수 있음은 물론이다. In any case including the case where the symmetric interface 10 is completely transparent (e.g., 100% transparency), the symmetric interface 10 may be configured to allow the user to touch and drag The operation according to the technical idea of the present invention can be performed.

한편 상기 인터페이스 모듈(110)은 상기 대칭 인터페이스(10)의 모양과 크기(면적)를 다양하게 설정할 수 있다. 예를 들어, 상기 대칭 인터페이스(10)는 도면에 도시된 바와 같이 일정 지름을 가지는 원형의 포인트 형상으로 설정할 수도 있지만, 구현 예에 따라 다양한 도형이나 문양 등의 형상을 가지도록 설정할 수도 있다.Meanwhile, the interface module 110 can set various shapes and sizes (areas) of the symmetric interface 10. For example, the symmetrical interface 10 may be set to have a circular point shape having a predetermined diameter as shown in the figure, but it may be configured to have various shapes such as a figure or a pattern according to an embodiment.

그리고 상기 대칭 인터페이스(10)의 크기(면적)는 지름이 상대적으로 매우 작은 소정의 포인트와 같도록 설정될 수도 있고, 일정 영역 자체가 상기 대칭 인터페이스(10)가 되도록 일정 이상의 면적을 가지도록 설정될 수도 있다. 이러한 상기 대칭 인터페이스(10)의 모양이나 크기(면적)는 사용자의 필요에 따라 자유롭게 설정될 수도 있고, 상기 터치 스크린 시스템(100)에 의해 기본적으로 적어도 하나의 정형화된 규격이 존재할 수도 있다.The size (area) of the symmetric interface 10 may be set to be equal to a predetermined point having a relatively small diameter, or may be set to have a certain area or more such that the predetermined area itself becomes the symmetric interface 10 It is possible. The shape or size (area) of the symmetrical interface 10 may be freely set according to the needs of the user, and basically at least one formatted standard may exist by the touch screen system 100.

상기 대칭 인터페이스(10)를 이용하여 수행되는 본 발명의 기술적 사상에 대해서는 후술하도록 한다.The technical idea of the present invention, which is performed using the symmetric interface 10, will be described later.

다시 도 2를 참조하면, 상기 감지모듈(120)은 사용자 단말기에 구비된 터치 스크린을 통해 입력되는 터치 및 드래그를 감지할 수 있다. 구현 예에 따라, 상기 감지모듈(120)은 상기 터치, 또는 상기 드래그 이후 터치 해제를 더 감지할 수 있다. Referring again to FIG. 2, the sensing module 120 may sense a touch and a drag input through a touch screen provided in a user terminal. According to an embodiment, the sensing module 120 may further sense the touch or the touch release after the drag.

이하, 본 명세서에서 터치라 함은, 사용자가 손가락 또는 스타일러스 펜 등의 입력도구를 통해 상기 화면(2)(즉, 터치 스크린)을 터치한 시점에 감지되는 신호를 의미할 수 있다. 그리고 상기 드래그는, 상기 터치가 해제되기 전 까지, 즉, 상기 터치 스크린에 터치가 유지되고 있는 동안 소정의 궤적을 그리는 행위에 의한 신호를 의미할 수 있다. 또한 상기 터치 해제는, 상기 터치 및/또는 상기 드래그가 감지된 후 상기 화면(2) 상에서 더 이상 신호가 감지되지 않는 시점을 의미할 수 있다.In the present specification, the term 'touch' may refer to a signal sensed at a time when the user touches the screen 2 (i.e., the touch screen) through an input tool such as a finger or a stylus pen. The drag may be a signal by an action of drawing a predetermined locus until the touch is released, that is, while the touch is being held on the touch screen. Also, the touch release may mean a point in time when no further signal is sensed on the screen 2 after the touch and / or the drag is sensed.

본 발명의 실시 예에 따른 상기 터치 스크린 시스템(100)은, 이처럼 상기 감지모듈(120)에 의해 감지되는 터치, 드래그, 및/또는 터치 해제에 따라 정해진 동작을 수행하면서 본 발명의 기술적 사상을 구현할 수 있다. The touch screen system 100 according to the embodiment of the present invention implements the technical idea of the present invention while performing a predetermined operation according to touch, drag, and / or touch release sensed by the sensing module 120 .

한편 상기 제어모듈(130)은, 상기 감지모듈(120)을 통해 상기 대칭 인터페이스(10)에 터치가 감지되는 경우 타겟 포인트를 생성할 수 있으며, 이후 상기 대칭 인터페이스(10)로부터 감지되는 드래그의 이동방향과 대칭되는 방향으로 상기 타겟 포인트를 이동시킬 수 있다.Meanwhile, the control module 130 may generate a target point when a touch is sensed to the symmetric interface 10 through the sensing module 120, and then, The target point can be moved in a direction symmetrical to the direction of the target point.

상기 타겟 포인트는 상기 사용자 단말기(1)의 화면(2) 내에 위치하는 소정의 오브젝트들(예컨대, 링크, 아이콘, 콘텐츠, 애플리케이션 실행 아이콘 등)을 활성화(선택 또는 실행)하기 위한 것으로, 예를 들면 PC나 노트북 등에서 사용되는 마우스의 마우스 커서와 동일 또는 유사한 기능을 가질 수 있다.The target point is for activating (selecting or executing) predetermined objects (e.g., links, icons, contents, application execution icons, etc.) located in the screen 2 of the user terminal 1, And may have the same or similar function as a mouse cursor of a mouse used in a PC or a notebook computer.

그리고 상기 실행모듈(140)은 상기 타겟 포인트의 위치에 상응하는 오브젝트를 활성화할 수 있다.The execution module 140 may activate an object corresponding to the location of the target point.

이하 도 4 내지 도 5를 참조하여 상기 대칭 인터페이스(10)와 상기 타겟 포인트를 이용한 상기 터치 스크린 시스템(100)의 동작 및 기능들을 상세히 설명하도록 한다.Hereinafter, operations and functions of the symmetric interface 10 and the touch screen system 100 using the target point will be described in detail with reference to FIGS. 4 to 5. FIG.

도 4는 본 발명의 실시 예에 따른 대칭 인터페이스의 조작 예를 나타내며, 도 5는 본 발명의 실시 예에 따른 대칭 인터페이스를 이용한 오브젝트의 활성화 방식을 나타낸다.FIG. 4 illustrates an operation example of a symmetric interface according to an embodiment of the present invention, and FIG. 5 illustrates an object activation method using a symmetric interface according to an embodiment of the present invention.

우선 도 4를 참조하면, 사용자는 상기 사용자 단말기(1)의 화면(2) 내에 설정된 상기 대칭 인터페이스(10)를 터치하고, 소정의 방향으로 드래그(30)할 수 있다.Referring to FIG. 4, a user may touch the symmetric interface 10 set in the screen 2 of the user terminal 1 and drag (30) in a predetermined direction.

이때 전술한 바와 같이, 상기 감지모듈(120)에 의해 상기 대칭 인터페이스(10)의 터치가 감지되면, 상기 제어모듈(130)은 상기 타겟 포인트(20)를 생성할 수 있다. 그리고 사용자가 상기 터치를 유지한 채 드래그(30)를 수행하게 되면, 상기 제어모듈(130)은 상기 대칭 인터페이스(10) 또는 상기 터치가 처음 감지된 위치를 기준으로 상기 드래그(30)의 이동방향과 대칭되는 방향으로 상기 타겟 포인트(20)를 이동시킬 수 있다.The control module 130 may generate the target point 20 when a touch of the symmetric interface 10 is detected by the sensing module 120 as described above. When the user performs the drag 30 while maintaining the touch, the control module 130 controls the movement direction of the drag 30 based on the position where the symmetric interface 10 or the touch is first sensed The target point 20 can be moved in a direction symmetrical to the target point 20.

예를 들어, 사용자가 상기 드래그(30)를 상기 화면(2)의 하단방향으로 이동할 경우, 상기 타겟 포인트(20)는 이와 대칭인 상기 사용자 단말기(1)의 상단방향으로 이동할 수 있다. For example, when the user moves the drag 30 in the lower direction of the screen 2, the target point 20 can move in the upper direction of the user terminal 1 which is symmetrical with the drag.

또한 상기 드래그의 이동방향이 좌측(또는 우측)으로 이동하게 되면, 상기 제어모듈(130)은 상기 타겟 포인트(20)를 우측(또는 좌측)으로 이동시킬 수 있다.Also, when the moving direction of the drag is moved to the left (or right), the control module 130 can move the target point 20 to the right (or left) side.

이로 인해, 사용자는 자신의 손가락을 직접 상기 화면(2)의 상단부에 터치하지 않더라도, 움직임이 용이한 상기 화면(2)의 하단부에서 드래그(30)를 수행하는 것으로 상기 화면(2) 상단부에 위치하는 오브젝트들(예컨대, 링크, 아이콘, 콘텐츠, 애플리케이션 실행 아이콘 등)을 용이하게 활성화할 수 있게 된다.Therefore, even if the user does not touch his or her finger directly to the upper end of the screen 2, the user can perform the drag 30 at the lower end of the screen 2, (E.g., a link, an icon, a content, an application execution icon, etc.) to be activated.

이때 도면에 도시된 바와 같이 상기 드래그(30) 및/또는 상기 타겟 포인트(20)와 상기 대칭 인터페이스(10) 사이에 소정의 기준선이 표시될 수도 있지만, 구현 예에 따라서는 상기 기준선이 상기 화면(2)에 표시되지 않고 상기 드래그(30)의 움직임에 따른 상기 타겟 포인트(20)만 상기 화면(2)에 디스플레이될 수도 있다.At this time, a predetermined reference line may be displayed between the drag 30 and / or the target point 20 and the symmetrical interface 10 as shown in the drawing, but according to an embodiment, 2, and only the target point 20 corresponding to the movement of the drag 30 may be displayed on the screen 2. [

그리고 상기 드래그(30)는 도면 상에서 설명의 편의를 위해 소정의 형태를 가지는 것처럼 도시되어 있으나 반드시 이에 한정되는 것은 아니며, 상기 터치 스크린 시스템(100)의 구현시 상기 드래그(30)는 사용자가 터치한 지점을 의미할 뿐 실제 화면(2) 상에는 아이콘이나 기타 그래픽 객체 등 아무런 표시가 디스플레이되지 않을 수 있다.Although the drag 30 is illustrated as having a predetermined form for convenience of description in the drawings, the drag 30 is not necessarily limited to the drag 30, and in the implementation of the touch screen system 100, Only an indication such as an icon or other graphic object may not be displayed on the actual screen (2).

그리고 전술한 바와 같이 상기 실행모듈(140)은 상기 타겟 포인트(20)의 위치에 상응하는 오브젝트 즉, 상기 타겟 포인트(20)가 위치하고 있는 지점의 오브젝트를 활성화할 수 있는데, 이러한 활성화 방식은 다양하게 구현될 수 있다. 이를 도 5를 참조하여 설명하도록 한다.As described above, the execution module 140 can activate an object corresponding to the location of the target point 20, that is, an object at a location where the target point 20 is located. Can be implemented. This will be described with reference to FIG.

도 5를 참조하면, 사용자는 상기 대칭 인터페이스(10)를 이용하여 상기 타겟 포인트(20)를 자신이 활성화하기 원하는 오브젝트(3)가 위치하는 지점까지 이동시킬 수 있다.Referring to FIG. 5, the user can move the target point 20 to a point where the object 3 desired to be activated is located, using the symmetric interface 10.

일 실시 예에 의하면, 상기 실행모듈(140)은 상기 감지모듈(120)에 의해 상기 터치 해제가 감지되는 경우 예컨대, 사용자가 손가락으로 상기 대칭 인터페이스(10)를 터치한 후 드래그를 수행하다가 손가락을 뗀 경우, 해당 시점에 상기 타겟 포인트(20)의 위치에 상응하는 오브젝트(3)를 활성화할 수 있다. According to one embodiment, when the touch module is detected by the sensing module 120, for example, when the user touches the symmetric interface 10 with a finger and performs a drag operation, The object 3 corresponding to the position of the target point 20 can be activated at that point in time.

이러한 경우 사용자는 단순히 상기 대칭 인터페이스(10)를 이용하여 상기 타겟 포인트(20)를 자신이 원하는 오브젝트(3)까지 이동시킨후, 터치를 해제함으로써 간편하게 상기 오브젝트(3)를 활성화할 수 있다.In this case, the user can simply activate the object 3 by moving the target point 20 to the desired object 3 using the symmetric interface 10, and releasing the touch.

다른 실시 예에 의하면, 상기 감지모듈(120)에 의해 상기 터치해제가 감지되면, 상기 인터페이스 모듈(110)은 상기 화면(2) 내 소정의 위치에 실행 인터페이스(40)를 디스플레이할 수 있다. 그리고 상기 실행 인터페이스(40)를 통해 터치 또는 터치해제가 감지되는 경우에 비로소 상기 오브젝트(3)를 활성화할 수 있다.According to another embodiment, the interface module 110 may display the execution interface 40 at a predetermined position in the screen 2 when the touch module 120 detects the touch release. When the touch or touch release is detected through the execution interface 40, the object 3 can be activated.

즉, 전술한 실시 예와 같이 상기 터치해제가 감지되면서 해당 오브젝트(3)가 바로 활성화되는 것이 아니라, 사용자가 상기 실행 인터페이스(40)를 터치하거나 또는 상기 실행 인터페이스(40)를 터치하였다가 터치해제하는 경우에 상기 오브젝트(3)가 활성화될 수 있다.That is, instead of directly activating the object 3 when the touch release is detected as in the above-described embodiment, when the user touches the execution interface 40 or touches the execution interface 40, The object 3 can be activated.

이러한 경우, 사용자는 상기 타겟 포인트(20)의 위치가 자신이 원하는 오브젝트(3) 상에 제대로 위치하고 있는지 여부를 확인할 수 있다. 또한 상기 오브젝트(3)에 복수 번의 터치(예컨대, 더블터치)가 필요한 경우에도 상기 실행 인터페이스(40)를 필요한만큼 복수 번 터치할 수 있는 효과를 가질 수 있다.In this case, the user can confirm whether or not the position of the target point 20 is properly positioned on the desired object 3. Further, even when a plurality of touches (for example, a double touch) is required for the object 3, the execution interface 40 can be touched as many times as necessary.

도면에는 상기 실행 인터페이스(40)가 마우스 커서 형상을 포함하는 아이콘의 형태를 가지고, 상기 화면(2)의 하단부에 위치하는 것으로 도시되어 있지만 본 발명의 권리범위가 이에 한정되는 것은 아니며, 상기 실행 인터페이스(40)의 형태나 그 위치는 필요에 따라 자유롭게 설정, 변경이 가능할 수 있음은 본 발명이 속하는 기술분야의 평균적인 전문가에게는 용이하게 추론될 수 있을 것이다.Although the execution interface 40 is shown in the form of an icon including a mouse cursor shape and located at the lower end of the screen 2, the scope of the present invention is not limited thereto, It will be easily understood by those skilled in the art that the present invention can be set and changed freely in terms of the shape and position of the housing 40.

한편 본 발명의 기술적 사상에 의하면, 사용자에 의해 수행되는 드래그의 이동거리와 이에 따라 이동하는 상기 타겟 포인트(20)의 이동거리 비율은 반드시 동일하지 않을 수 있다. 즉, 상기 드래그 및 상기 타겟 포인트(20)의 이동거리 비율은 서로 다를 수 있다. 이에 대하여 도 7 및 도 8을 참조하여 설명하도록 한다.Meanwhile, according to the technical idea of the present invention, the moving distance of the drag performed by the user and the moving distance ratio of the moving target point 20 may not always be the same. That is, the drag and the moving distance ratios of the target point 20 may be different from each other. This will be described with reference to Figs. 7 and 8. Fig.

도 7은 본 발명의 실시 예에 따른 한 손 조작이 용이한 터치 스크린 시스템의 드래그 및 타겟 포인트의 이동거리 비율과 터치 영역을 설명하기 위한 도면이며, 도 8은 본 발명의 실시 예에 따른 한 손 조작이 용이한 터치 스크린 시스템에서 드래그 및 타겟 포인트의 이동방향에 따른 이동거리 비율을 설명하기 위한 도면이다.FIG. 7 is a view for explaining a moving distance ratio and a touch area of a drag and a target point in a touch screen system which is easy to operate by one hand according to an embodiment of the present invention. FIG. FIG. 3 is a view for explaining the ratio of movement distance according to the direction of movement of the drag and target point in a touch screen system that is easy to operate.

우선 도 7을 참조하면, 화면(2)의 중앙부에 상기 대칭 인터페이스(10)가 설정된 경우를 예로 들 수 있다. Referring to FIG. 7, the symmetric interface 10 is set at the center of the screen 2.

이때 7시 방향을 향해 도시된 라인은 사용자가 수행하는 드래그의 이동라인(D-line)을 의미할 수 있으며, 도시된 동심원들 중 내측의 원은 상기 드래그의 이동범위를 나타낼 수 있다.In this case, the line drawn toward the 7 o'clock direction may mean a D-line of the drag performed by the user, and the inner circle of the illustrated concentric circles may indicate the movement range of the drag.

그리고 1시 방향을 향해 도시된 라인은 상기 드래그의 이동에 따라 대칭으로 이동하는 상기 타겟 포인트(20)의 이동라인(T-line)을 의미할 수 있으며, 상기 내측의 원을 둘러싸는 원의 경우 상기 타겟 포인트(20)의 이동범위를 나타낼 수 있다.A line shown toward 1 o'clock direction may mean a movement line (T-line) of the target point 20 moving symmetrically with the movement of the drag, and in the case of a circle surrounding the inside circle And may indicate the movement range of the target point 20.

그리고 상기 화면(2)은 사용자의 손가락을 이용하여 용이하게 터치가 가능한 터치 가능 영역(Z1, 이하 제1영역), 사용자의 손 크기나 손가락 길이에 따라 터치가 용이할수도, 또는 터치가 가능하긴 하지만 다소 불편함이 있을 수 있는 중간 영역(Z2, 이하 제2영역), 및 사용자가 사용자 단말기(1)를 파지한 상태에서 하나의 손가락으로 터치가 사실상 불가능한 터치 사각 영역(Z3, 이하 제3영역)으로 구분될 수 있다.The screen 2 may include a touchable area Z1 (hereinafter, referred to as a first area) that can be easily touched by using a user's finger, a touch capable of being easily touched or touchable (Z2, hereinafter referred to as a second area), which may be somewhat inconvenient, and a touch rectangular area Z3 (hereinafter, referred to as a third area ).

도면에 도시된 바와 같이 구분된 영역은 상기 사용자 단말기(1)를 사용자가 오른손으로 파지하고 사용하는 경우를 예로 든 것으로, 사용자가 왼손으로 상기 사용자 단말기(1)를 사용할 경우에는 도면에 도시된 각 영역의 좌우가 바뀐 형태일 수 있다.As shown in the figure, the divided region is a case where the user grasps and uses the user terminal 1 with the right hand. When the user uses the user terminal 1 with his left hand, The left and right sides of the area may be changed.

본 발명의 기술적 사상에 따른 대칭 인터페이스(10)를 사용하는 사용자는 이러한 터치 사각 영역(Z3)에 위치하는 오브젝트들을 활성화하고자 하기 위함인데, 이에 따라 상대적으로 먼 거리에 위치하는 상기 터치 사각 영역(Z3) 내의 오브젝트에 상기 타겟 포인트(20)를 보다 빠르고 편리하게 이동시키기 위해 상기 드래그의 이동거리에 비해 상기 타겟 포인트(20)의 이동거리가 길게 설정되는 것이 효과적일 수 있다.The user using the symmetric interface 10 according to the technical idea of the present invention is intended to activate the objects located in the touch rectangular area Z3 and accordingly the touch rectangular area Z3 It may be effective that the moving distance of the target point 20 is set to be longer than the moving distance of the drag in order to move the target point 20 more quickly and conveniently to the object within the target point 20.

일 실시 예에 의하면, 상기 제어모듈(130)은 상기 드래그 및 상기 타겟 포인트(20)가 1:1.5의 이동거리 비율을 가지도록 설정할 수 있다. 예컨대, 사용자가 상기 드래그를 수행하며 손가락을 상기 화면(2) 상에서 1cm 이동하는 경우, 상기 타겟 포인트(20)의 이동거리는 상기 드래그의 이동방향과 대칭되는 방향으로 1.5cm일 수 있다.According to one embodiment, the control module 130 may set the drag and the target point 20 to have a moving distance ratio of 1: 1.5. For example, when the user performs the drag and moves the finger 1 cm on the screen 2, the moving distance of the target point 20 may be 1.5 cm in a direction symmetrical with the moving direction of the drag.

이처럼 상기 드래그 및 상기 타겟 포인트(20)의 이동거리 비율이 서로 다른 경우 특히, 상기 드래그에 비해 상기 타겟 포인트(20)의 이동거리가 상대적으로 큰 경우는 상기 대칭 인터페이스(10)의 설정위치가 상기 화면(2)의 하단부 쪽에 치우칠수록 효과적일 수 있다.When the moving distance of the target point 20 is different from that of the drag, the setting position of the symmetric interface 10 is set to be smaller than the moving distance of the target point 20, And may be more effective as it is offset toward the lower end of the screen 2.

예를 들어, 도 6에 도시된 바와 같이 상기 대칭 인터페이스(10)의 설정위치가 제3사분면(c) 내에 위치하며, 사용자가 활성화를 원하는 오브젝트가 제2사분면(b)의 상단에 위치할 경우, 사용자가 드래그할 수 있는 범위에 비해 상기 타겟 포인트(20)를 상기 오브젝트까지 이동시키기 위한 거리가 상대적으로 길어 상기 타겟 포인트(20)를 원활하게 이동시키지 못하는 경우가 발생할 수 있다.For example, as shown in FIG. 6, when the setting position of the symmetrical interface 10 is located in the third quadrant c and the object desired by the user is positioned at the top of the second quadrant b , It may happen that the distance to move the target point 20 to the object is relatively longer than the range that the user can drag, so that the target point 20 can not be moved smoothly.

따라서 사용자에 의해 수행되는 드래그의 이동거리에 비해, 상기 타겟 포인트(20)의 이동거리를 일정 비율만큼 길게 설정함으로써 상기 대칭 인터페이스(10)의 설정위치에 구애받지 않고 상기 타겟 포인트(20)를 사용자가 원하는 지점까지 용이하게 이동시킬 수 있다.Therefore, by setting the moving distance of the target point 20 to be longer than a moving distance of the drag performed by the user, the target point 20 can be moved to the target position 20 regardless of the setting position of the symmetric interface 10 Can be easily moved to a desired point.

한편 상기 제어모듈(130)은 상기 드래그 및 상기 타겟 포인트(20)의 이동거리 비율을 일정하게 고정시켜둘 수도 있지만, 구현 예에 따라 상기 제어모듈(130)은 상기 드래그 및 상기 타겟 포인트(20)의 이동거리 비율이 상기 드래그의 이동방향에 따라 각각 다르도록 설정할 수도 있다. 이러한 예가 도 8에 도시된다.Meanwhile, the control module 130 may control the drag and the target point 20 in accordance with the embodiment. Alternatively, May be set to be different according to the moving direction of the drag. An example of this is shown in FIG.

도 8을 참조하면, 상기 제어모듈(130)은 상기 드래그 및 상기 타겟 포인트(20)의 이동거리 비율이 상기 드래그의 이동방향에 따라 서로 다르도록 할 수 있다.Referring to FIG. 8, the control module 130 may make the ratio of the drag and the movement distance of the target point 20 different according to the moving direction of the drag.

일반적으로 널리 이용되는 대부분의 사용자 단말기(1)들은 직사각형 형상의 화면(2)을 가지고 있다. 따라서 상기 화면(2)의 중심을 기준으로 한다고 하더라도 화면(2) 내 위치에 따라 그 거리가 각각 달라지게 된다.Most commonly used user terminals 1 have a screen 2 of rectangular shape. Therefore, even if the center of the screen 2 is referred to, the distance varies depending on the position in the screen 2.

예를 들어 도면에 도시된 바와 같이, 화면(2)의 좌우기준 중앙부분에 상기 대칭 인터페이스(10)가 위치하는 경우, 화면(2)의 모서리 부분으로 이동하는 타겟 포인트(20-1)의 이동거리(d1)에 비해 화면의 중앙 상단으로 이동하는 타겟 포인트(20-2)의 이동거리(d2)가 상대적으로 짧을 수 있음을 쉽게 알 수 있다.For example, as shown in the figure, when the symmetrical interface 10 is located at the left and right reference center portions of the screen 2, the movement of the target point 20-1 moving to the corner portion of the screen 2 It can be easily seen that the moving distance d2 of the target point 20-2 moving to the upper center of the screen can be relatively short as compared with the distance d1.

즉, 상기 대칭 인터페이스(10)의 설정위치에 따라, 사용자가 가능한 범위 내에서 드래그를 최대한 이동시킨다 하더라도 상기 타겟 포인트(20)와의 이동거리 비율이 일정하다면 사용자가 원하는 지점까지 상기 타겟 포인트(20)가 이동하지 못하는 경우가 발생할 수도 있다.That is, according to the setting position of the symmetrical interface 10, even if the user moves the drag as much as possible, if the moving distance ratio with the target point 20 is constant, May not be able to move.

따라서, 상기 제어모듈(130)은 상기 대칭 인터페이스(10)의 위치를 고려하여, 상기 드래그의 이동방향에 따라 상기 드래그 및 상기 타겟 포인트(20)의 이동거리 비율을 다르게 설정할 수 있다.Therefore, the control module 130 may set the distance of the drag and the moving distance of the target point 20 differently in accordance with the direction of the drag in consideration of the position of the symmetric interface 10.

예컨대 도면에 도시된 타겟 포인트(20-2)와 드래그의 이동거리 비율이 1:1.5라면, 상대적으로 이동거리가 긴 타겟 포인트(20-1)와 드래그의 이동거리 비율은 1:2가 되도록 설정될 수 있다.For example, if the ratio of the moving distance of the drag to the target point 20-2 shown in the figure is 1: 1.5, the ratio of the moving distance of the drag to the target point 20-1 having the relatively long moving distance is set to be 1: .

한편 다른 실시 예에 의하면, 상기 제어모듈(130)은 상기 드래그의 이동방향이 아니라, 상기 드래그의 이동가능거리와 상기 드래그의 이동에 따른 상기 타겟 포인트(20)의 이동가능거리에 따라 상기 드래그 및 상기 타겟 포인트(20)의 이동거리 비율을 다르게 설정할 수도 있다. 이는 널리 사용되고 있는 사용자 단말기들의 대부분이 정사각형이 아닌 다양한 가로세로 비율을 가지는 직사각형 형태로 형성되고 있어서, 동일한 위치의 대칭 인터페이스(10)로부터 사용자가 드래그할 수 있는 범위에 차이가 발생할 수 있기 때문이다.According to another embodiment of the present invention, the control module 130 controls the drag and / or drag operation according to the movable distance of the drag and the movable distance of the target point 20 according to the movement of the drag, The moving distance ratio of the target point 20 may be set differently. This is because most of the widely used user terminals are formed in a rectangular shape having various aspect ratios rather than a square, so that a difference in range that the user can drag from the symmetric interface 10 at the same position may occur.

여기서 상기 이동가능거리라 함은, 사용자가 상기 사용자 단말기(1)의 화면(2) 내에서 일정한 방향으로 드래그를 이동시킬 때 상기 드래그 및/또는 상기 타겟 포인트(20)가 실제 이동할 수 있는 거리를 의미할 수 있다. 예컨대, 사용자가 상기 대칭 인터페이스(10)로부터 드래그가 어느 한 방향으로 이동하다보면 상기 사용자 단말기(1)의 화면(2) 끝에 도달하여 더 이상 동일한 방향으로 드래그를 이동할 수 없게 된다. 이는 상기 타겟 포인트(20)의 경우에도 마찬가지로 적용될 수 있다. 이러한 이동가능거리는 상기 대칭 인터페이스(10)가 생성된 위치를 기준으로 상기 제어모듈(130)에 의해 산출될 수 있다.Here, the movable distance refers to the distance that the drag and / or the target point 20 can actually move when the user moves the drag in a certain direction within the screen 2 of the user terminal 1 It can mean. For example, if the user moves the drag from the symmetric interface 10 in one direction, the user can not move the drag in the same direction by reaching the end of the screen 2 of the user terminal 1. This can be applied to the target point 20 as well. This movable distance can be calculated by the control module 130 based on the position where the symmetric interface 10 is generated.

도면에 도시된 상기 대칭 인터페이스(10)로부터 사용자가 상기 사용자 단말기(1)의 오른쪽 아래 모서리를 향하여 드래그를 이동시키는 경우 드래그가 이동가능한 이동가능거리와, 상기 사용자 단말기(1)의 중앙 하단을 향하여 드래그를 이동시키는 경우 상기 드래그가 이동가능한 이동가능거리는 각각 소정의 차이가 발생하게 된다.A movable distance at which a drag can be moved when the user moves the drag from the symmetrical interface 10 shown in the figure toward the lower right corner of the user terminal 1, When the drag is moved, a predetermined difference is generated in each of the movable distances at which the drag can be moved.

따라서 상기 제어모듈(130)은 사용자가 상기 대칭 인터페이스(10)로부터 드래그를 시작할 때, 상기 드래그의 이동방향에 따른 이동가능거리, 및/또는 이와 대칭되게 이동하는 상기 타겟 포인트(20)의 이동가능거리에 따라 상기 드래그 및 상기 타겟 포인트(20)의 이동거리 비율을 다르게 설정할 수 있다. 구현 예에 따라, 상기 제어모듈(130)은 상기 드래그의 이동에 따른 이동가능거리만으로 상기 이동거리 비율을 다르게 설정할 수도 있고, 상기 드래그의 이동가능거리 및 상기 드래그의 이동방향에 따라 대칭되는 방향으로 이동하는 상기 타겟 포인트(20)의 이동가능거리까지 고려하여 상기 이동거리 비율을 다르게 설정할 수도 있다.Accordingly, when the user starts dragging from the symmetric interface 10, the control module 130 determines whether or not the movable distance along the dragging direction and / or the movable distance of the target point 20 symmetrically moving The distance between the drag and the target point 20 can be set differently according to the distance. According to an embodiment, the control module 130 may set the moving distance ratio differently only by the movable distance according to the movement of the drag, and may set the moving distance ratio in a direction symmetrical with the movable distance of the drag and the moving direction of the drag The moving distance ratio may be set differently considering the movable distance of the moving target point 20.

결국 본 발명의 기술적 사상에 의하면, 사용자가 한 손으로 사용자 단말기(1)를 파지하여 하나의 손가락(예컨대, 엄지 손가락)을 이용해 사용자 단말기(1)를 조작(화면(2)을 터치)하는 경우, 사용자가 나머지 한 손을 추가로 이용하거나 사용자 단말기(1)를 고쳐잡는 등의 번거로움 없이도 터치 사각 영역을 해소하여 편의성을 크게 향상시킬 수 있는 효과가 있다.As a result, according to the technical idea of the present invention, when the user grasps the user terminal 1 with one hand and operates the user terminal 1 (touches the screen 2) using one finger (e.g., a thumb) It is possible to solve the touch rectangular area without the hassle of the user further using one hand or fixing the user terminal 1, thereby greatly improving convenience.

한편, 다시 도 2를 참조하면 전술한 바와 같이 상기 터치 스크린 시스템(100)은 키패드 모듈(150)을 더 포함할 수 있다. 상기 키패드 모듈(150)은 문자의 입력 또한 한 손으로 편리하게 조작이 가능할 수 있는 캐패드를 제공할 수 있다. 이러한 본 발명의 기술적 사상에 따른 키패드를 도 9 및 도 10을 참조하여 설명하도록 한다.Referring again to FIG. 2, the touch screen system 100 may further include a keypad module 150, as described above. The keypad module 150 can also provide a pad for inputting characters, which can be conveniently operated with one hand. The keypad according to the technical idea of the present invention will be described with reference to Figs. 9 and 10. Fig.

도 9 및 도 10은 본 발명의 실시 예에 따른 한 손 조작이 용이한 터치 스크린 시스템에서 제공되는 키패드를 나타낸다.9 and 10 show a keypad provided in a touch-sensitive screen system which is easy to operate in accordance with an embodiment of the present invention.

도 9 및 도 10을 참조하면, 상기 키패드 모듈(150)은 상기 사용자 단말기(1)의 화면(2) 하단 모서리를 중심으로 사선형태의 키패드(50)를 제공할 수 있다.9 and 10, the keypad module 150 may provide an angled keypad 50 around the bottom edge of the screen 2 of the user terminal 1.

도 7에서 전술한 바와 같이, 일반적인 사용자 단말기(1)의 화면(2)은 터치가 용이한 제1영역과 터치가 가능하긴 하지만 다소 불편함이 있는 제2영역, 및 터치가 사실상 불가능한 제3영역으로 구분될 수 있다.7, the screen 2 of the general user terminal 1 is divided into a first area that is easy to touch with, a second area that is touchable but somewhat inconvenient, and a third area that is substantially impossible to touch .

사용자가 오른손을 사용하는 경우 즉, 상기 터치 스크린 시스템(100)이 오른손 모드로 설정된 경우에는, 도 9에 도시된 바와 같이 상기 키패드(50)가 우측 하단 모서리를 중심으로 제공될 수 있다. 또한 상기 터치 스크린 시스템(100)이 왼손 모드로 설정된 경우, 상기 키패드(50)는 도 10에 도시된 바와 같이 상기 화면(2)의 좌측 하단 모서리를 중심으로 제공될 수 있다.When the user uses the right hand, that is, when the touch screen system 100 is set in the right hand mode, the keypad 50 may be provided around the lower right corner as shown in FIG. When the touch screen system 100 is set in the left-hand mode, the keypad 50 may be provided around the lower left corner of the screen 2 as shown in FIG.

이러한 본 발명의 기술적 사상에 따른 키패드(50)는 상기 제1영역 즉, 사용자의 터치가 용이한 영역 내에서 제공되는 것이 바람직할 수 있다. 물론 구현 예에 따라 상기 키패드(50)가 디스플레이되는 영역은 상기 제1영역은 물론 상기 제2영역의 일부까지 가능할 수도 있지만, 바람직하게는 상기 키패드(50)가 상기 제3영역에까지 디스플레이되지 않을 수 있다.It is preferable that the keypad 50 according to the technical idea of the present invention is provided in the first area, that is, the area where the user can easily touch. Of course, according to an embodiment, the area where the keypad 50 is displayed may be up to a part of the second area as well as the first area, but it is preferable that the keypad 50 is not displayed up to the third area have.

이처럼 본 발명의 기술적 사상에 따른 키패드(50)가 좌측 또는 우측 모서리를 중심으로 사선형태로 제공되는 이유는, 도 1에서 설명한 바와 같이 사용자가 사용자 단말기(1)를 파지하고 손가락(예컨대, 엄지 손가락)을 움직이는 범위가 상기 모서리를 중심으로 부채꼴 호 형상을 그리는 범위를 가지기 때문이다.The reason why the keypad 50 according to the technical idea of the present invention is provided in an oblique shape around the left or right corner is that the user grasps the user terminal 1 and fingers ) Has a range in which a fan-shaped arc shape is drawn around the corner.

즉, 사용자가 한 손으로 사용자 단말기(1)를 조작하는 경우, 키패드가 종래와 같이 화면(2)의 하단부와 평행하게 디스플레이되는 것은 오히려 조작에 불편함을 야기할 수 있다.That is, when the user operates the user terminal 1 with one hand, the display of the keypad in parallel with the lower end of the screen 2 as in the conventional case may cause inconvenience to the operation.

또한 종래의 한손 키패드가 기존의 키패드의 크기를 작게 하여 어느 한 측면 방향으로 치우치게 제공되는데, 이는 쿼티(qwerty) 방식의 키패드의 제공이 사실상 불가능하게 되어 사용자가 한 손을 이용할 때에는 자신이 원하지 않는 방식의 키패드를 강제로 사용하게 되는 문제점이 있다.In addition, the conventional one-handed keypad is provided to be biased in one lateral direction by reducing the size of a conventional keypad. This makes it impossible to provide a keypad of a qwerty type. Thus, when a user uses one hand, There is a problem in that the keypad of the keypad is forcibly used.

하지만 본 발명의 기술적 사상에 의하면, 상기 키패드 모듈(150)에 의해 제공되는 키패드(50)는 모서리를 중심으로 상기 제1영역 및/또는 상기 제2영역 내에서 사선형태로 제공되면서 사용자의 한 손가락이 미치는 범위 내에서도 충분한 면적을 확보하는 것이 가능하고, 이에 따라 쿼티 형식의 키패드를 한 손으로 용이하게 조작할 수 있게 되는 유리한 효과를 가질 수 있다.However, according to the technical idea of the present invention, the keypad 50 provided by the keypad module 150 is provided in a diagonal shape in the first area and / or the second area around an edge, It is possible to secure a sufficient area even within such a range, and accordingly, it is possible to have an advantageous effect that the keypad of the QWERTY type can be easily operated by one hand.

또한 도면에는 상기 키패드(50)가 쿼티 방식의 키패드인 경우가 도시되어 있으나 본 발명의 권리범위가 반드시 이에 한정되는 것은 아니며, 전술한 바와 같이 상기 화면(2)의 모서리를 중심으로 사선형태로 제공되는 것이 가능하기만 하면 키패드의 입력방식은 어떠한 것이라도 무방할 수 있다.Although the keypad 50 is a keypad of a QWERTY type, the scope of the present invention is not necessarily limited thereto. As described above, the keypad 50 may be provided in a diagonal shape around the corner of the screen 2 The input method of the keypad may be any method as long as it is possible to do so.

도 11은 본 발명의 실시 예에 따른 한 손 조작이 용이한 터치 스크린 시스템 제공방법의 개략적인 흐름을 나타낸다.11 shows a schematic flow of a method of providing a touch screen system that is easy to operate by one hand according to an embodiment of the present invention.

도 11을 참조하면, 본 발명의 실시 예에 따른 터치 스크린 시스템(100)은 사용자 단말기(1)의 화면(2) 내 소정의 위치에 대칭 인터페이스(10)를 설정(s100)할 수 있다.11, the touch screen system 100 according to the embodiment of the present invention may set the symmetric interface 10 at a predetermined position in the screen 2 of the user terminal 1 (s100).

그리고 상기 터치 스크린 시스템(100)은 상기 대칭 인터페이스(10)로부터 터치 및 드래그를 감지(s110)할 수 있다. 구현 예에 따라, 상기 터치 스크린 시스템(100)은 터치해제를 더 감지할 수 있음은 전술한 바와 같다.The touch screen system 100 may detect (S110) touch and drag from the symmetric interface 10. According to an embodiment, the touch screen system 100 may further sense touch release as described above.

상기 터치 스크린 시스템(100)은 상기 대칭 인터페이스(10)를 통해 터치가 감지되는 경우, 타겟 포인트(20)를 생성(s120)할 수 있다. 그리고 상기 터치 스크린 시스템(100)은 감지되는 드래그의 이동방향과 대칭되는 방향으로 상기 타겟 포인트(20)를 이동(s130)시킬 수 있다. 이때 상기 드래그 및 상기 타겟 포인트(20)의 이동거리 비율은 서로 다를 수 있음은 전술한 바와 같다.The touch screen system 100 may generate a target point 20 when a touch is sensed through the symmetric interface 10 (S120). The touch screen system 100 may move (S130) the target point 20 in a direction that is symmetric with the direction of movement of the detected drag. At this time, the drag ratio and the moving distance ratio of the target point 20 may be different from each other as described above.

이후 상기 터치 스크린 시스템(100)은 상기 타겟 포인트(20)의 위치에 상응하는 오브젝트를 활성화(s160)할 수 있는데, 일 실시 예에 의하면 상기 터치 스크린 시스템(100)은 드래그 이후 터치해제가 감지되는 경우 상기 오브젝트를 활성화할 수 있다.Then, the touch screen system 100 may activate (S160) an object corresponding to the position of the target point 20, according to an embodiment of the present invention. The object can be activated.

또는, 상기 터치 스크린 시스템(100)은 상기 터치해제가 감지되는 경우, 상기 화면(2) 상의 소정의 위치에 실행 인터페이스(40)를 생성(s150)하고, 상기 실행 인터페이스(40)에 터치 또는 터치해제가 감지되는 경우 상기 오브젝트를 활성화(s160)할 수도 있다.Alternatively, the touch screen system 100 may generate (S150) the execution interface 40 at a predetermined position on the screen 2 when the touch release is detected, If the release is detected, the object may be activated (S160).

본 발명의 실시 예에 따른 터치 스크린 시스템 제공방법은 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로써 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 하드 디스크, 플로피 디스크, 광 데이터 저장장치 등이 있을 수 있다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고 본 발명을 구현하기 위한 기능적인(functional) 프로그램, 코드 및 세그먼트들은 본 발명이 속하는 기술분야의 프로그래머들에 의해 용이하게 추론될 수 있다.A method of providing a touch screen system according to an embodiment of the present invention can be implemented as a computer-readable code on a computer-readable recording medium. Examples of the computer-readable recording medium include ROM, RAM, CD-ROM, magnetic tape, hard disk, floppy disk, optical data storage, and the like. The computer readable recording medium may also be distributed over a networked computer system so that computer readable code can be stored and executed in a distributed manner. And functional programs, codes, and segments for implementing the present invention can be easily inferred by programmers skilled in the art to which the present invention pertains.

본 발명은 도면에 도시된 일 실시 예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시 예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 등록청구범위의 기술적 사상에 의해 정해져야 할 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, is intended to cover various modifications and equivalent arrangements included within the spirit and scope of the appended claims. Accordingly, the true scope of the present invention should be determined by the technical idea of the appended claims.

Claims (18)

터치 스크린 시스템에 있어서,
사용자 단말기의 화면 내 소정의 위치에 대칭 인터페이스를 설정하는 인터페이스 모듈;
터치, 터치해제 및 드래그를 감지하는 감지모듈;
상기 감지모듈을 통해 상기 대칭 인터페이스에 터치가 감지되는 경우 타겟 포인트를 생성하고, 상기 드래그가 이동하는 경우 상기 드래그의 이동방향과 대칭되는 방향으로 상기 타겟 포인트를 이동시키는 제어모듈; 및
상기 타겟 포인트가 이동된 후 상기 터치해제가 감지되는 경우 상기 타겟 포인트의 위치에 상응하는 오브젝트를 활성화하는 실행모듈을 포함하며,
상기 인터페이스 모듈은,
상기 터치 스크린 시스템의 모드 변경-상기 모드는 기본모드, 왼손모드, 오른손모드를 포함함-에 기초하여 상기 대칭 인터페이스의 설정위치를 변경하되,
상기 사용자 단말기의 화면을 우측 상단부로부터 순차적으로 제1사분면 내지 제4사분면으로 구분하고,
상기 기본모드인 경우 상기 대칭 인터페이스를 상기 사용자 단말기의 화면의 중앙부에 위치하도록 설정하며,
상기 왼손모드인 경우 상기 대칭 인터페이스를 상기 사용자 단말기의 회면의 제3사분면 내에 위치하도록 설정하고,
상기 오른손모드인 경우 상기 대칭 인터페이스를 상기 사용자 단말기의 화면의 제4사분면 내에 위치하도록 설정하는 것을 특징으로 하며,
상기 제어모듈은,
상기 대칭 인터페이스가 생성된 위치를 기준으로, 상기 드래그 및 상기 타겟 포인트의 이동방향-상기 드래그의 이동방향은 상기 감지모듈에 의해 감지될 수 있으며, 상기 타겟 포인트의 이동방향은 상기 드래그의 이동방향에 대칭되는 방향으로 정해질 수 있음-에 따른 상기 드래그 및 상기 타겟 포인트의 이동가능거리-상기 이동가능거리는 상기 대칭 인터페이스가 생성된 위치로부터 사용자 단말기의 화면 내에서 드래그 또는 타겟 포인트가 실제 이동할 수 있는 거리를 의미함-를 산출하되,
상기 대칭 인터페이스가 생성된 위치, 상기 감지모듈에 의해 감지되는 제1드래그의 제1드래그 이동방향에 따라 산출되는 제1드래그 이동가능거리, 및 상기 제1드래그 이동방향에 의해 정해지는 제1타겟 포인트 이동방향에 따른 제1타겟 포인트 이동가능거리에 기초하여 상기 드래그 및 타겟 포인트의 제1이동거리 비율을 산출하고,
상기 대칭 인터페이스가 생성된 위치, 상기 감지모듈에 의해 감지되는 제2드래그의 제2드래그 이동방향에 따라 산출되는 제2드래그 이동가능거리, 및 상기 제2드래그 이동방향에 의해 정해지는 제2타겟 포인트 이동방향에 따른 제2타겟 포인트 이동가능거리에 기초하여 상기 드래그 및 타겟 포인트의 제2이동거리 비율을 산출하는 것을 특징으로 하는 한 손 조작이 용이한 터치 스크린 시스템.
In a touch screen system,
An interface module for setting a symmetric interface at a predetermined position in a screen of the user terminal;
A sensing module for sensing a touch, a touch release, and a drag;
A control module for generating a target point when a touch is sensed to the symmetric interface through the sensing module and moving the target point in a direction symmetrical to the moving direction of the drag when the drag is moved; And
And an execution module for activating an object corresponding to the position of the target point when the touch release is detected after the target point is moved,
Wherein the interface module comprises:
Changing a mode of the touch screen system, the mode changing a setting position of the symmetric interface based on a basic mode, a left hand mode, and a right hand mode,
A screen of the user terminal is sequentially divided into first to fourth quadrants,
Wherein the symmetric interface is located at a central portion of a screen of the user terminal in the basic mode,
And setting the symmetric interface to be located in the third quadrant of the face of the user terminal in the left hand mode,
And the symmetric interface is set to be located in the fourth quadrant of the screen of the user terminal in the right hand mode,
The control module includes:
The direction of movement of the drag and the target point and the direction of movement of the drag may be sensed by the sensing module based on a position where the symmetric interface is generated, The movable distance of the drag and the target point according to the distance that the drag or target point can actually move within the screen of the user terminal from the position where the symmetric interface was created, , Which means that,
A first drag movement distance calculated in accordance with a first drag movement direction of a first drag sensed by the sensing module, and a first drag movement distance calculated by a first drag movement direction determined by the first drag movement direction, Calculating a first moving distance ratio of the drag and the target point based on a first target point movable distance along the moving direction,
A second drag movement distance calculated in accordance with a second drag movement direction of a second drag sensed by the sensing module, and a second drag movement distance calculated by a second drag point movement direction determined by the second drag movement direction, And calculates a second moving distance ratio of the drag and the target point based on a second target point movable distance along the moving direction.
삭제delete 삭제delete 제1항에 있어서, 상기 인터페이스 모듈은,
상기 감지모듈에 의해 상기 터치해제가 감지되는 경우 상기 화면 내의 소정의 위치에 실행 인터페이스를 디스플레이하고,
상기 실행모듈은,
상기 실행 인터페이스를 통해 상기 터치 또는 상기 터치해제가 감지되는 경우 상기 타겟 포인트의위치에 상응하는 오브젝트를 활성화하는 것을 특징으로 하는 한 손 조작이 용이한 터치 스크린 시스템.
The apparatus of claim 1, wherein the interface module comprises:
And displays an execution interface at a predetermined position in the screen when the touch release is detected by the detection module,
Wherein the execution module comprises:
And activates an object corresponding to the position of the target point when the touch or the touch release is detected through the execution interface.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 터치 스크린 시스템 제공방법에 있어서,
터치 스크린 시스템이 사용자 단말기의 화면 내 소정의 위치에 대칭 인터페이스를 설정하는 단계;
상기 터치 스크린 시스템이 터치, 터치해제 및 드래그를 감지하는 단계;
상기 대칭 인터페이스에 터치가 감지되는 경우 상기 터치 스크린 시스템이 타겟 포인트를 생성하는 단계;
상기 드래그가 이동하는 경우 상기 터치 스크린 시스템이 상기 드래그의 이동방향과 대칭되는 방향으로 상기 타겟 포인트를 이동시키는 단계; 및
상기 터치 스크린 시스템이 상기 타겟 포인트가 이동된 후 상기 터치해제가 감지되는 경우 상기 타겟 포인트의 위치에 상응하는 오브젝트를 활성화하는 단계를 포함하며,
상기 터치 스크린 시스템이 사용자 단말기의 화면 내 소정의 위치에 대칭 인터페이스를 설정하는 단계는,
상기 터치 스크린 시스템의 모드 변경-상기 모드는 기본모드, 왼손모드, 오른손모드를 포함함-에 기초하여 상기 대칭 인터페이스의 설정위치를 변경하는 단계를 포함하며,
상기 터치 스크린 시스템의 모드 변경에 기초하여 상기 대칭 인터페이스의 설정위치를 변경하는 단계는,
상기 터치 스크린 시스템이 상기 사용자 단말기의 화면을 우측 상단부로부터 순차적으로 제1사분면 내지 제4사분면으로 구분하는 단계;
상기 기본모드인 경우, 상기 터치 스크린 시스템이 상기 대칭 인터페이스를 상기 사용자 단말기의 화면의 중앙부에 위치하도록 설정하는 단계;
상기 왼손모드인 경우, 상기 터치 스크린 시스템이 상기 대칭 인터페이스를 상기 사용자 단말기의 회면의 제3사분면 내에 위치하도록 설정하는 단계; 및
상기 오른손모드인 경우, 상기 터치 스크린 시스템이 상기 대칭 인터페이스를 상기 사용자 단말기의 화면의 제4사분면 내에 위치하도록 설정하는 단계를 포함하고,
상기 드래그가 이동하는 경우 상기 터치 스크린 시스템이 상기 드래그의 이동방향과 대칭되는 방향으로 상기 타겟 포인트를 이동시키는 단계는,
상기 터치 스크린 시스템이 상기 대칭 인터페이스가 생성된 위치를 기준으로, 상기 드래그 및 상기 타겟 포인트의 이동방향-상기 드래그의 이동방향은 상기 터치 스크린 시스템에 의해 감지될 수 있으며, 상기 타겟 포인트의 이동방향은 상기 드래그의 이동방향에 대칭되는 방향으로 정해질 수 있음-에 따른 상기 드래그 및 상기 타겟 포인트의 이동가능거리-상기 이동가능거리는 상기 대칭 인터페이스가 생성된 위치로부터 사용자 단말기의 화면 내에서 드래그 또는 타겟 포인트가 실제 이동할 수 있는 거리를 의미함-를 산출하는 단계를 포함하며,
상기 터치 스크린 시스템이 상기 대칭 인터페이스가 생성된 위치를 기준으로, 상기 드래그 및 상기 타겟 포인트의 이동방향에 따른 상기 드래그 및 상기 타겟 포인트의 이동가능거리를 산출하는 단계는,
상기 터치 스크린 시스템이 상기 대칭 인터페이스가 생성된 위치, 감지되는 제1드래그의 제1드래그 이동방향에 따라 산출되는 제1드래그 이동가능거리, 및 상기 제1드래그 이동방향에 의해 정해지는 제1타겟 포인트 이동방향에 따른 제1타겟 포인트 이동가능거리에 기초하여 상기 드래그 및 타겟 포인트의 제1이동거리 비율을 산출하는 단계; 및
상기 터치 스크린 시스템이 상기 대칭 인터페이스가 생성된 위치, 감지되는 제2드래그의 제2드래그 이동방향에 따라 산출되는 제2드래그 이동가능거리, 및 상기 제2드래그 이동방향에 의해 정해지는 제2타겟 포인트 이동방향에 따른 제2타겟 포인트 이동가능거리에 기초하여 상기 드래그 및 타겟 포인트의 제2이동거리 비율을 산출하는 단계를 포함하는 한 손 조작이 용이한 터치 스크린 시스템 제공방법.
A method for providing a touch screen system,
The touch screen system setting a symmetric interface at a predetermined position in a screen of the user terminal;
Sensing a touch, a touch release, and a drag by the touch screen system;
Generating a target point by the touch screen system when a touch is detected on the symmetric interface;
Moving the target point in a direction in which the touch screen system is symmetric with a direction of movement of the drag when the drag moves; And
And activating an object corresponding to the position of the target point when the touch screen system detects the touch release after the target point is moved,
The step of the touch screen system setting a symmetric interface at a predetermined position in a screen of the user terminal comprises:
Changing a mode of the touch screen system, the mode including changing a setting position of the symmetric interface based on a basic mode, a left hand mode, and a right hand mode,
Wherein the step of changing the setting position of the symmetric interface based on the mode change of the touch screen system comprises:
The touch screen system sequentially dividing a screen of the user terminal into a first quadrant to a fourth quadrant from a right upper end;
Setting the symmetric interface so that the touch screen system is positioned at the center of the screen of the user terminal when the basic mode is selected;
Setting the symmetric interface to be located within a third quadrant of the face of the user terminal when the touch screen system is in the left hand mode; And
And setting the symmetric interface to be located within a fourth quadrant of the screen of the user terminal when the touch screen system is in the right hand mode,
Moving the target point in a direction in which the touch screen system is symmetric with a direction of movement of the drag when the drag moves,
The direction of movement of the drag and the target point, i.e., the direction of movement of the drag, may be sensed by the touch screen system, and the movement direction of the target point may be detected by the touch screen system, The drag and the movable distance of the target point according to the direction of movement of the drag; the movable distance is a distance from the position where the symmetric interface is created to a drag or target point - the actual distance traveled by the vehicle,
Wherein the step of calculating the movable distance of the drag and the target point according to the direction of movement of the drag and the target point, based on the position where the symmetric interface is generated,
The touch screen system according to claim 1, wherein the touch screen system includes a first drag moveable distance calculated in accordance with a position where the symmetric interface is generated, a first drag movement direction of a first drag sensed, Calculating a first moving distance ratio of the drag and target point based on a first target point movable distance along the moving direction; And
The touch screen system according to claim 1, wherein the touch screen system further comprises: a second drag moveable distance calculated based on a position where the symmetric interface is generated, a second drag movement direction of a second drag detected, And calculating a second moving distance ratio of the drag and target point based on a second target point movable distance along the moving direction.
제12항에 있어서, 상기 터치 스크린 시스템이 상기 타겟 포인트가 이동된 후 상기 터치해제가 감지되는 경우 상기 타겟 포인트의 위치에 상응하는 오브젝트를 활성화하는 단계는,
상기 터치 스크린 시스템이 상기 터치해제가 감지되는 경우 상기 화면 내의 소정의 위치에 실행 인터페이스를 디스플레이하는 단계; 및
상기 터치 스크린 시스템이 상기 실행 인터페이스를 통해 상기 터치 또는 상기 터치해제가 감지되는 경우 상기 타겟 포인트의위치에 상응하는 오브젝트를 활성화하는 단계를 포함하는 한 손 조작이 용이한 터치 스크린 시스템 제공방법.
13. The method of claim 12, wherein when the touch screen system detects the touch release after the target point is moved, activating an object corresponding to the position of the target point comprises:
Displaying an execution interface at a predetermined position in the screen when the touch screen system detects the touch release; And
And activating an object corresponding to the position of the target point when the touch screen system detects the touch or the touch release through the execution interface.
삭제delete 삭제delete 삭제delete 삭제delete 데이터 처리장치에 설치되며 제12항 또는 제13항 중 어느 한 항에 기재된 방법을 수행하기 위한 기록매체에 저장된 컴퓨터 프로그램.
A computer program installed in a data processing apparatus and stored in a recording medium for performing the method according to any one of claims 12 to 13.
KR1020170129667A 2017-10-11 2017-10-11 Touch-screen system with easy operation of one hand and providing method thereof KR101881383B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020170129667A KR101881383B1 (en) 2017-10-11 2017-10-11 Touch-screen system with easy operation of one hand and providing method thereof
PCT/KR2018/011844 WO2019074253A1 (en) 2017-10-11 2018-10-08 Touch screen system that can be easily manipulated by single hand and method for providing same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170129667A KR101881383B1 (en) 2017-10-11 2017-10-11 Touch-screen system with easy operation of one hand and providing method thereof

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020170177679A Division KR20190040868A (en) 2017-12-22 2017-12-22 Touch-screen system with easy operation of one hand and providing method thereof

Publications (1)

Publication Number Publication Date
KR101881383B1 true KR101881383B1 (en) 2018-07-24

Family

ID=63059220

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170129667A KR101881383B1 (en) 2017-10-11 2017-10-11 Touch-screen system with easy operation of one hand and providing method thereof

Country Status (2)

Country Link
KR (1) KR101881383B1 (en)
WO (1) WO2019074253A1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100121785A (en) * 2009-05-11 2010-11-19 한국과학기술원 Tools for touch panel, and mobile devices using the same
KR101056088B1 (en) 2009-04-20 2011-08-10 (주)빅트론닉스 Touch panel input device, method and mobile device using same
KR20120016087A (en) * 2009-06-16 2012-02-22 인텔 코오퍼레이션 Adaptive virtual keyboard for handheld device
KR20140100791A (en) * 2013-02-07 2014-08-18 (주)아토미디어 User terminal and interfacing method of the same

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009163278A (en) * 2007-12-21 2009-07-23 Toshiba Corp Portable device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101056088B1 (en) 2009-04-20 2011-08-10 (주)빅트론닉스 Touch panel input device, method and mobile device using same
KR20100121785A (en) * 2009-05-11 2010-11-19 한국과학기술원 Tools for touch panel, and mobile devices using the same
KR20120016087A (en) * 2009-06-16 2012-02-22 인텔 코오퍼레이션 Adaptive virtual keyboard for handheld device
KR20140100791A (en) * 2013-02-07 2014-08-18 (주)아토미디어 User terminal and interfacing method of the same

Also Published As

Publication number Publication date
WO2019074253A1 (en) 2019-04-18

Similar Documents

Publication Publication Date Title
US10949082B2 (en) Processing capacitive touch gestures implemented on an electronic device
EP1674976B1 (en) Improving touch screen accuracy
JP5731466B2 (en) Selective rejection of touch contact in the edge region of the touch surface
KR101361214B1 (en) Interface Apparatus and Method for setting scope of control area of touch screen
KR101137154B1 (en) Systems, methods, and computer-readable media for invoking an electronic ink or handwriting interface
TWI552040B (en) Multi-region touchpad
KR100636184B1 (en) Location control method and apparatus therefor of display window displayed in display screen of information processing device
US20110047459A1 (en) User interface
EP2472384A1 (en) Touch event model
JP2011028524A (en) Information processing apparatus, program and pointing method
JP5664147B2 (en) Information processing apparatus, information processing method, and program
JP2016529640A (en) Multi-touch virtual mouse
JP2006500676A (en) Graphical user interface navigation method and apparatus.
JP2009258896A (en) Cursor control system and method thereof
US10073617B2 (en) Touchscreen precise pointing gesture
JP5275429B2 (en) Information processing apparatus, program, and pointing method
KR20190040868A (en) Touch-screen system with easy operation of one hand and providing method thereof
JP2004038503A (en) Information processor and computer-readable storage medium
KR101881383B1 (en) Touch-screen system with easy operation of one hand and providing method thereof
TWI515642B (en) Portable electronic apparatus and method for controlling the same
TWI439922B (en) Handheld electronic apparatus and control method thereof
US20150091831A1 (en) Display device and display control method
KR20070079858A (en) Method for implementing drag operation using touchpad
US20140327620A1 (en) Computer input device
JP2016018453A (en) Information display device and program

Legal Events

Date Code Title Description
AMND Amendment
AMND Amendment
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant