KR101881383B1 - Touch-screen system with easy operation of one hand and providing method thereof - Google Patents
Touch-screen system with easy operation of one hand and providing method thereof Download PDFInfo
- Publication number
- KR101881383B1 KR101881383B1 KR1020170129667A KR20170129667A KR101881383B1 KR 101881383 B1 KR101881383 B1 KR 101881383B1 KR 1020170129667 A KR1020170129667 A KR 1020170129667A KR 20170129667 A KR20170129667 A KR 20170129667A KR 101881383 B1 KR101881383 B1 KR 101881383B1
- Authority
- KR
- South Korea
- Prior art keywords
- drag
- target point
- touch
- touch screen
- interface
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/0486—Drag-and-drop
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04886—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04804—Transparency, e.g. transparent or translucent windows
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
본 발명은 한 손 조작이 용이한 터치 스크린 시스템 및 그 제공방법에 관한 것으로, 보다 상세하게는 사용자 단말기의 화면 내에 대칭 인터페이스를 설정하고, 사용자에 의해 상기 대칭 인터페이스가 터치되면 타겟 포인트를 생성하며, 상기 타겟 포인트가 사용자에 의해 드래그되는 드래그의 이동방향과 대칭되는 방향으로 이동하게 하여, 상기 타겟 포인트를 이용하여 사용자가 사용자 단말기를 한 손으로 조작할 때 터치가 어렵거나 불가능한 영역에 위치하는 오브젝트를 용이하게 활성화할 수 있도록 함으로써 한 손을 이용하여 사용자 단말기를 조작하는 사용자의 편의성을 크게 향상시킬 수 있는 기술적 사상을 제공하는 것이다.The present invention relates to a touch screen system and a method for providing the touch screen system. More particularly, the present invention relates to a touch screen system, The target point is moved in a direction symmetrical to the direction of movement of the drag dragged by the user so that when the user operates the user terminal with one hand using the target point, So that the convenience of the user operating the user terminal by using one hand can be greatly improved.
디지털 기술의 발달과 함께 많은 사용자 단말기들이 입력장치로 터치 스크린 시스템을 구비하고 있다. 터치 스크린 시스템은 사용자 단말기에 손가락 또는 스타일러스 펜 등의 입력도구를 접촉하는 것만으로 직관적이고 용이하게 사용자 단말기를 사용할 수 있어 입력작업이 간결해지고, 특히 휴대용 단말기의 경우 디스플레이 장치와 일체형으로 설치될 수 있어 키패드의 설치 공간을 절약할 수 있어 사용자에게 보다 넓은 화면을 제공할 수 있어 널리 사용되고 있다.With the development of digital technology, many user terminals are equipped with a touch screen system as an input device. The touch screen system can intuitively and easily use the user terminal by simply touching the user terminal with an input tool such as a finger or a stylus pen so that the input operation can be simplified and the portable terminal can be installed integrally with the display device The space for installing the keypad can be saved, and thus a wider screen can be provided to the user, which is widely used.
이러한 터치 스크린 시스템을 장착한 사용자 단말기들 중, 대다수 사용자들이 가장 많이 사용하는 스마트 폰의 경우 화면의 크기가 5인치 이상인 대형 디스플레이를 구비한 제품의 비율이 크게 증가하고 있다.Among the user terminals equipped with such a touch screen system, the ratio of products having a large-sized display having a screen size of 5 inches or more is greatly increased in the case of a smart phone which is used most by most users.
이러한 스마트 폰과 같은 사용자 단말기는 사용자들이 휴대하고 다니면서 사용하게 되는데, 사용자들은 이동중이나 버스, 지하철 등 대중교통을 이용하면서, 또는 특정 장소에 구애받지 않고 수시로 사용자 단말기를 손에 파지하여 조작하게 된다. 하지만 대형 디스플레이를 구비한 스마트 폰과 같은 사용자 단말기의 경우, 대부분의 사용자들이 한 손만을 이용하여 조작하기에는 어려움이 있다. 이러한 사용자 단말기의 일반적인 사용 예가 도 1에 도시된다.Such a user terminal such as a smart phone is used by users while they are carrying it. Users can grasp the user terminal in their hands at any time while traveling, using public transportation such as a bus, a subway, or a specific place. However, in the case of a user terminal such as a smart phone having a large display, it is difficult for most users to operate with only one hand. A typical use example of such a user terminal is shown in Fig.
도 1은 일반적으로 사용자들이 한 손으로 사용자 단말기를 조작하는 경우를 나타낸다.FIG. 1 generally shows a case where users operate a user terminal with one hand.
도 1을 참조하면, 사용자는 한 손(예컨대, 왼손)으로 사용자 단말기(1)를 파지한 채, 한 손가락(예컨대, 엄지 손가락)을 이용하여 상기 사용자 단말기(1)의 화면(2)을 터치하면서 상기 사용자 단말기(1)를 조작하게 된다.1, the user touches the
하지만 도면에 도시된 바와 같이, 한 손가락으로 터치가 가능한 영역(예컨대, A)은 한정적일 수밖에 없어 대형 디스플레이를 구비한 사용자 단말기(1)의 화면(2) 전체를 커버할 수 없으며, 사용자 단말기(1)를 고쳐 잡거나 나머지 한 손을 추가로 사용하지 않는 이상 화면(2)의 상단 등과 같은 위치에 위치한 오브젝트들(3, 예컨대, 링크, 아이콘, 콘텐츠, 애플리케이션 실행 아이콘 등)을 활성화(예컨대, 선택, 실행 등)할 수 없는 경우가 발생할 수 있다.However, as shown in the drawing, an area (for example, A) capable of being touched by one finger is limited and can not cover the
따라서 사용자가 한 손에 다른 물품(예컨대, 가방, 지갑, 음식물 등)을 들고 있는 경우에는 상기 오브젝트들(3)을 활성화하기 위해 불편한 자세를 감수하거나, 상기 물품들을 따로 내려놓아야 하는 등 상당한 번거로움이 존재할 수 있다.Therefore, when the user holds another item (e.g., a bag, a wallet, a food or the like) in one hand, it is necessary to take an uncomfortable posture for activating the
종래에 사용자가 한 손으로도 사용자 단말기(1)를 용이하게 조작할 수 있도록 하는 기술적 사상이 한국등록특허(등록번호 10-1056088, "터치패널 입력장치, 방법 및 이를 이용한 모바일 기기", 이하 종래기술이라 함)에 개시되고 있다.Conventionally, a technical idea that enables a user to easily operate the
상기 종래기술은 사용자가 한 손만 사용하여 사용자 단말기(1) 화면(2)의 줌 인/줌 아웃을 용이하게 수행할 수 있도록 하는 기술적 사상을 개시하고 있다. 하지만 상기 종래기술에 의하면 상기 화면(2)에 적어도 둘 이상의 멀티터치가 필요한 줌 인/줌 아웃을 한 손만으로도 편리하게 수행할 수는 있어도, 터치가 불가능하거나 어려운 영역을 해소할 수 있는 기술적 사상 예컨대, 전술한 바와 같이 한 손으로 터치가 불가능한 지점에 위치한 오브젝트들(3)을 활성화할 수 있도록 하는 기술적 사상은 전혀 포함하고 있지 않아 기존의 불편함과 번거로움을 해소할 수는 없다.The above-described prior art discloses a technical idea that allows a user to easily zoom in / out on the
따라서 사용자가 한 손으로만 사용자 단말기(1)를 조작하는 경우에도 터치가 불가능한 터치 사각 영역을 용이하게 해소할 수 있도록 하는 기술적 사상이 요구된다.Therefore, a technical idea is required to easily resolve a touch rectangular area that can not be touched even when the user operates the
또한 오브젝트의 활성화뿐 아니라, 문자 입력에서도 쿼티(qwerty) 형식의 키패드를 포함한 모든 형식의 키패드를 한 손만으로 간편하게 수행할 수 있도록 하는 기술적 사상이 요구된다.In addition, not only the activation of the object, but also the character input, a technical idea is required so that the keypad of all the formats including the keypad of the qwerty type can be easily performed by one hand.
따라서, 본 발명이 해결하고자 하는 기술적인 과제는 사용자 단말기의 화면 내에 대칭 인터페이스를 설정하고, 사용자에 의해 상기 대칭 인터페이스가 터치되면 타겟 포인트를 생성하며, 상기 타겟 포인트가 사용자에 의해 드래그되는 드래그의 이동방향과 대칭되는 방향으로 이동하게 하여, 상기 타겟 포인트를 이용하여 사용자가 사용자 단말기를 한 손으로 조작할 때 터치가 어렵거나 불가능한 영역에 위치하는 오브젝트를 용이하게 활성화할 수 있도록 하는 기술적 사상을 제공하는 것이다.SUMMARY OF THE INVENTION Accordingly, it is a technical object of the present invention to provide a method and apparatus for setting a symmetric interface in a screen of a user terminal, generating a target point when the symmetric interface is touched by a user, Direction and symmetric with respect to the direction of the target point so that the user can easily activate an object located in an area where touch is difficult or impossible when the user operates the user terminal with one hand will be.
또한, 상기 드래그와 상기 타겟 포인트의 이동거리 비율을 다르게 함으로써, 상기 대칭 인터페이스의 설정위치와 무관하게 터치 사각 영역을 해소할 수 있는 기술적 사상을 제공하는 것이다.Further, the present invention provides a technical idea capable of resolving a touch rectangular area irrespective of the setting position of the symmetric interface by making the ratio of the moving distance of the drag and the target point different.
또한, 사용자 단말기의 화면 모서리를 중심으로 사선형태인 키패드를 제공함으로써 쿼티(qwerty) 형식의 키패드도 한 손으로 편리하게 조작할 수 있도록 하는 기술적 사상을 제공하는 것이다.The present invention also provides a technical idea that allows a keypad of a qwerty type to be easily operated by one hand by providing a keypad having a slanting shape centered on a screen edge of the user terminal.
상기 기술적 과제를 해결하기 위한 본 발명의 실시 예에 따른 터치 스크린 시스템은, 사용자 단말기의 화면 내 소정의 위치에 대칭 인터페이스를 설정하는 인터페이스 모듈, 터치 및 드래그를 감지하는 감지모듈, 상기 감지모듈을 통해 상기 대칭 인터페이스에 터치가 감지되는 경우 타겟 포인트를 생성하고, 상기 드래그가 이동하는 경우 상기 드래그의 이동방향과 대칭되는 방향으로 상기 타겟 포인트를 이동시키는 제어모듈, 및 상기 타겟 포인트의 위치에 상응하는 오브젝트를 활성화하는 실행모듈을 포함할 수 있다.According to an aspect of the present invention, there is provided a touch screen system including an interface module for setting a symmetric interface at a predetermined position in a screen of a user terminal, a sensing module for sensing touch and drag, A control module that generates a target point when a touch is detected on the symmetric interface and moves the target point in a direction that is symmetric with a moving direction of the drag when the drag moves; Lt; RTI ID = 0.0 > a < / RTI >
또한, 상기 인터페이스 모듈은, 상기 대칭 인터페이스를 상기 화면에 투명하게 표시하는 것을 특징으로 할 수 있다.In addition, the interface module may display the symmetric interface on the screen in a transparent manner.
또한, 상기 인터페이스 모듈은, 상기 터치 스크린 시스템의 모드 변경에 기초하여 상기 대칭 인터페이스의 설정위치를 변경하는 것을 특징으로 할 수 있다.Further, the interface module may change the setting position of the symmetric interface based on a mode change of the touch screen system.
또한, 상기 감지모듈은, 터치해제를 더 감지하며, 상기 인터페이스 모듈은, 상기 감지모듈에 의해 상기 터치해제가 감지되는 경우 상기 화면 내의 소정의 위치에 실행 인터페이스를 디스플레이하고, 상기 실행모듈은, 상기 실행 인터페이스를 통해 상기 터치 또는 상기 터치해제가 감지되는 경우 상기 타겟 포인트의위치에 상응하는 오브젝트를 활성화하는 것을 특징으로 할 수 있다.In addition, the sensing module further senses a touch release, and the interface module displays an execution interface at a predetermined position in the screen when the touch release is detected by the sensing module, And activates the object corresponding to the position of the target point when the touch or the touch release is detected through the execution interface.
또한, 상기 제어모듈은, 상기 드래그 및 상기 타겟 포인트의 이동거리 비율이 서로 다르게 하는 것을 특징으로 할 수 있다.Further, the control module may be characterized in that the moving distance ratios of the drag and the target point are different from each other.
또한, 상기 제어모듈은, 상기 드래그 및 상기 타겟 포인트의 이동거리 비율이 1:1.5가 되도록 하는 것을 특징으로 할 수 있다.In addition, the control module may be configured such that a moving distance ratio of the drag and the target point is 1: 1.5.
또한, 상기 제어모듈은, 상기 드래그 및 상기 타겟 포인트의 이동거리 비율이 상기 드래그의 이동방향에 따라 달라질 수 있도록 하는 것을 특징으로 할 수 있다.The control module may be configured such that a ratio of the distance of movement of the drag and the target point can be changed according to a moving direction of the drag.
또한, 상기 제어모듈은, 상기 드래그 및 상기 타겟 포인트의 이동거리 비율이 상기 드래그의 이동가능거리 또는 상기 타겟 포인트의 이동가능거리 중 적어도 하나에 기초하여 달라질 수 있도록 하는 것을 특징으로 할 수 있다.The control module may be characterized in that the drag and the moving distance ratio of the target point can be changed based on at least one of the movable distance of the drag or the movable distance of the target point.
또한, 상기 터치 스크린 시스템은, 키패드를 생성하기 위한 키패드 모듈을 더 포함하며, 상기 인터페이스 모듈은, 상기 사용자 단말기의 화면을 터치가 용이한 제1영역, 터치가 가능한 제2영역, 및 터치가 불가능한 제3영역으로 구분하고, 상기 키패드 모듈은, 상기 제1영역, 또는 상기 제1영역 및 상기 제2영역을 포함하는 영역 내에 키패드를 생성하되, 상기 화면의 모서리를 중심으로 소정 각도만큼 사선으로 기울어진 형태의 키패드를 생성하는 것을 특징으로 할 수 있다.The touch screen system may further include a keypad module for generating a keypad. The interface module may include a first area where the user can easily touch the screen, a second area that can be touched, Wherein the keypad module generates a keypad in an area including the first area or the first area and the second area so that the keypad is inclined at a predetermined angle obliquely around the corner of the screen, And generates a keypad in a zigzag form.
또한, 상기 키패드 모듈은, 상기 터치 스크린 시스템의 모드 변경에 따라 상기 키패드의 위치를 다르게 생성하는 것을 특징으로 할 수 있다.In addition, the keypad module generates the position of the keypad differently according to the mode change of the touch screen system.
상기 기술적 과제를 해결하기 위한 본 발명의 실시 예에 따른 터치 스크린 스템은, 사용자 단말기의 화면을 터치가 용이한 제1영역, 터치가 가능한 제2영역, 및 터치가 불가능한 제3영역으로 구분하는 인터페이스 모듈, 및 키패드를 생성하기 위한 키패드 모듈을 포함하며, 상기 키패드 모듈은, 상기 제1영역, 또는 상기 제1영역 및 상기 제2영역을 포함하는 영역 내에 키패드를 생성하되, 상기 화면의 모서리를 중심으로 소정 각도만큼 사선으로 기울어진 형태의 키패드를 생성하는 것을 특징으로 할 수 있다.According to an aspect of the present invention, there is provided a touch screen system including a touch screen stem for dividing a screen of a user terminal into a first area that is easy to touch, a second area that can be touched, And a keypad module for creating a keypad, wherein the keypad module is configured to generate a keypad in the first area, or in an area including the first area and the second area, And a keypad slanted at an angle by a predetermined angle.
상기 기술적 과제를 해결하기 위한 본 발명의 실시 예에 따른 터치 스크린 시스템 제공방법은, 터치 스크린 시스템이 사용자 단말기의 화면 내 소정의 위치에 대칭 인터페이스를 설정하는 단계, 상기 터치 스크린 시스템이 터치 및 드래그를 감지하는 단계, 상기 대칭 인터페이스에 터치가 감지되는 경우 상기 터치 스크린 시스템이 타겟 포인트를 생성하는 단계, 상기 드래그가 이동하는 경우 상기 터치 스크린 시스템이 상기 드래그의 이동방향과 대칭되는 방향으로 상기 타겟 포인트를 이동시키는 단계, 및 상기 터치 스크린 시스템이 상기 타겟 포인트의 위치에 상응하는 오브젝트를 활성화하는 단계를 포함할 수 있다.According to another aspect of the present invention, there is provided a method of providing a touch screen system, the method comprising: setting a symmetric interface at a predetermined position in a screen of a user terminal; Wherein the touch screen system generates a target point when a touch is detected on the symmetric interface, and when the drag is moved, the touch screen system scans the target point in a direction that is symmetric with the direction of movement of the drag And activating an object corresponding to the location of the target point by the touch screen system.
또한, 상기 터치 스크린 시스템이 터치 및 드래그를 감지하는 단계는, 상기 터치 스크린 시스템이 터치해제를 감지하는 단계를 더 포함하며, 상기 터치 스크린 시스템이 상기 타겟 포인트의 위치에 상응하는 오브젝트를 활성화하는 단계는, 상기 터치 스크린 시스템이 상기 터치해제가 감지되는 경우 상기 화면 내의 소정의 위치에 실행 인터페이스를 디스플레이하는 단계, 및 상기 터치 스크린 시스템이 상기 실행 인터페이스를 통해 상기 터치 또는 상기 터치해제가 감지되는 경우 상기 타겟 포인트의위치에 상응하는 오브젝트를 활성화하는 단계를 포함할 수 있다.In addition, the step of the touch screen system detecting touch and drag may further include the step of the touch screen system detecting touch release, wherein the touch screen system activates an object corresponding to the position of the target point Displaying an execution interface at a predetermined position in the screen when the touch screen system detects the touch release; and when the touch screen system detects the touch or the touch release via the execution interface, And activating an object corresponding to the location of the target point.
또한, 상기 드래그가 이동하는 경우 상기 터치 스크린 시스템이 상기 드래그의 이동방향과 대칭되는 방향으로 상기 타겟 포인트를 이동시키는 단계는, 상기 터치 스크린 시스템이 상기 드래그 및 상기 타겟 포인트의 이동거리 비율이 서로 다르게 하는 단계를 포함할 수 있다.The step of moving the target point in a direction in which the touch screen system is symmetric with the direction of movement of the drag when the drag is moved may include moving the target point in a direction in which the drag and the target point move .
또한, 상기 터치 스크린 시스템이 상기 드래그 및 상기 타겟 포인트의 이동거리 비율이 서로 다르게 하는 단계는, 상기 터치 스크린 시스템이 상기 드래그 및 상기 타겟 포인트의 이동거리 비율이 상기 드래그의 이동방향에 따라 달라질 수 있도록 하는 단계를 포함할 수 있다.In addition, the step of causing the touch screen system to vary the moving distance ratios of the drag and the target point may be performed by the touch screen system such that the ratio of the moving distance of the drag and the target point varies according to the moving direction of the drag .
또한, 상기 터치 스크린 시스템이 상기 드래그 및 상기 타겟 포인트의 이동거리 비율이 서로 다르게 하는 단계는, 상기 터치 스크린 시스템이 상기 드래그 및 상기 타겟 포인트의 이동거리 비율이 상기 드래그의 이동가능거리 또는 상기 타겟 포인트의 이동가능거리 중 적어도 하나에 기초하여 달라질 수 있도록 하는 단계를 포함할 수 있다.In addition, the step of causing the touch screen system to make the ratio of the drag and the movement distance of the target point to be different from each other may be such that the touch screen system determines that the ratio of the distance of movement of the drag and the target point is larger than the movable distance of the drag, Based on at least one of a travelable distance of the mobile station.
또한, 상기 터치 스크린 시스템 제공방법은, 상기 터치 스크린 시스템이 키패드를 생성하는 단계를 더 포함하며, 상기 키패드는, 상기 사용자 단말기의 화면을 터치가 용이한 제1영역, 터치가 가능한 제2영역, 및 터치가 불가능한 제3영역 중 상기 제1영역, 또는 상기 제1영역 및 상기 제2영역을 포함하는 영역 내에서, 상기 화면의 모서리를 중심으로 소정 각도만큼 사선으로 기울어진 형태인 것을 특징으로 할 수 있다.The touch screen system may further include a step of generating a keypad, wherein the keypad includes a first area that is easy to touch, a second area that can be touched, And a shape which is inclined at an angle of a predetermined angle around the corner of the screen in the first region or the region including the first region and the second region out of the non-touchable third regions .
상기 터치 스크린 시스템 제공방법은 프로그램을 기록한 컴퓨터 판독 가능한 기록매체에 저장될 수 있다.The method of providing a touch screen system may be stored in a computer-readable recording medium having recorded thereon a program.
본 발명의 기술적 사상에 의하면, 사용자 단말기의 화면 내에 대칭 인터페이스를 설정하고, 사용자에 의해 상기 대칭 인터페이스가 터치되면 타겟 포인트를 생성하며, 상기 타겟 포인트가 사용자에 의해 드래그되는 드래그의 이동방향과 대칭되는 방향으로 이동하게 하여, 상기 타겟 포인트를 이용하여 사용자가 사용자 단말기를 한 손으로 조작할 때 터치가 어렵거나 불가능한 영역에 위치하는 오브젝트를 용이하게 활성화할 수 있도록 함으로써 한 손을 이용하여 사용자 단말기를 조작하는 사용자의 편의성을 크게 향상시킬 수 있는 효과가 있다.According to the technical idea of the present invention, a symmetric interface is set in a screen of a user terminal, a target point is generated when the symmetric interface is touched by a user, and the target point is symmetrical with a moving direction of a drag So that the user can easily activate an object located in an area where touch is difficult or impossible when the user operates the user terminal with one hand by using the target point, It is possible to greatly improve the convenience of the user.
또한 사용자 단말기의 화면 모서리를 중심으로 사선형태인 키패드를 제공함으로써 쿼티(qwerty) 형식의 키패드도 한 손으로 편리하게 조작할 수 있는 효과가 있다.Also, by providing a keypad having a slanting line shape around the screen edge of the user terminal, a keypad of a qwerty type can be easily operated with one hand.
본 발명의 상세한 설명에서 인용되는 도면을 보다 충분히 이해하기 위하여 각 도면의 간단한 설명이 제공된다.
도 1은 일반적으로 사용자들이 한 손으로 사용자 단말기를 조작하는 경우를 나타낸다.
도 2는 본 발명의 실시 예에 따른 한 손 조작이 용이한 터치 스크린 시스템의 개략적인 구성을 나타낸다.
도 3은 본 발명의 실시 예에 따른 한 손 조작이 용이한 터치 스크린 시스템에서 대칭 인터페이스를 나타낸다.
도 4는 본 발명의 실시 예에 따른 대칭 인터페이스의 조작 예를 나타낸다.
도 5는 본 발명의 실시 예에 따른 대칭 인터페이스를 이용한 오브젝트의 활성화 방식을 나타낸다.
도 6은 본 발명의 실시 예에 따른 대칭 인터페이스의 사용자 단말기 화면 내 설정 위치를 나타낸다.
도 7은 본 발명의 실시 예에 따른 한 손 조작이 용이한 터치 스크린 시스템의 드래그 및 타겟 포인트의 이동거리 비율과 터치 영역을 설명하기 위한 도면이다.
도 8은 본 발명의 실시 예에 따른 한 손 조작이 용이한 터치 스크린 시스템에서 드래그 및 타겟 포인트의 이동방향에 따른 이동거리 비율을 설명하기 위한 도면이다.
도 9 및 도 10은 본 발명의 실시 예에 따른 한 손 조작이 용이한 터치 스크린 시스템에서 제공되는 키패드를 나타낸다.
도 11은 본 발명의 실시 예에 따른 한 손 조작이 용이한 터치 스크린 시스템 제공방법의 개략적인 흐름을 나타낸다.BRIEF DESCRIPTION OF THE DRAWINGS A brief description of each drawing is provided to more fully understand the drawings recited in the description of the invention.
FIG. 1 generally shows a case where users operate a user terminal with one hand.
Fig. 2 shows a schematic configuration of a touch screen system which is easy to operate by one hand according to the embodiment of the present invention.
Figure 3 shows a symmetrical interface in a touch screen system that is easy to manipulate in accordance with an embodiment of the present invention.
Fig. 4 shows an operation example of a symmetric interface according to an embodiment of the present invention.
5 illustrates an object activation method using a symmetric interface according to an embodiment of the present invention.
FIG. 6 shows a setting position in the screen of the user terminal of the symmetric interface according to the embodiment of the present invention.
FIG. 7 is a view for explaining a moving distance ratio and a touch area of a drag and a target point in a touch screen system that is easy to operate by hand according to an embodiment of the present invention.
FIG. 8 is a view for explaining a moving distance ratio according to a moving direction of a drag and a target point in a touch screen system which is easy to operate by one hand according to an embodiment of the present invention.
9 and 10 show a keypad provided in a touch-sensitive screen system which is easy to operate in accordance with an embodiment of the present invention.
11 shows a schematic flow of a method of providing a touch screen system that is easy to operate by one hand according to an embodiment of the present invention.
본 발명과 본 발명의 동작상의 이점 및 본 발명의 실시에 의하여 달성되는 목적을 충분히 이해하기 위해서는 본 발명의 바람직한 실시 예를 예시하는 첨부 도면 및 첨부 도면에 기재된 내용을 참조하여야만 한다.In order to fully understand the present invention, operational advantages of the present invention, and objects achieved by the practice of the present invention, reference should be made to the accompanying drawings and the accompanying drawings which illustrate preferred embodiments of the present invention.
또한, 본 명세서에 있어서는 어느 하나의 구성요소가 다른 구성요소로 데이터를 '전송'하는 경우에는 상기 구성요소는 상기 다른 구성요소로 직접 상기 데이터를 전송할 수도 있고, 적어도 하나의 또 다른 구성요소를 통하여 상기 데이터를 상기 다른 구성요소로 전송할 수도 있는 것을 의미한다.Also, in this specification, when any one element 'transmits' data to another element, the element may transmit the data directly to the other element, or may be transmitted through at least one other element And may transmit the data to the other component.
반대로 어느 하나의 구성요소가 다른 구성요소로 데이터를 '직접 전송'하는 경우에는 상기 구성요소에서 다른 구성요소를 통하지 않고 상기 다른 구성요소로 상기 데이터가 전송되는 것을 의미한다.Conversely, when one element 'directly transmits' data to another element, it means that the data is transmitted to the other element without passing through another element in the element.
이하, 첨부한 도면을 참조하여 본 발명의 바람직한 실시 예를 설명함으로써, 본 발명을 상세히 설명한다. 각 도면에 제시된 동일한 참조부호는 동일한 부재를 나타낸다.BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, the present invention will be described in detail with reference to the preferred embodiments of the present invention with reference to the accompanying drawings. Like reference symbols in the drawings denote like elements.
도 2는 본 발명의 실시 예에 따른 터치 스크린 시스템의 개략적인 구성을 나타낸다.2 shows a schematic configuration of a touch screen system according to an embodiment of the present invention.
도 2를 참조하면, 본 발명의 실시 예에 따른 터치 스크린 시스템(100)은 인터페이스 모듈(110), 감지모듈(120), 제어모듈(130), 및 실행모듈(140)을 포함할 수 있다. 구현 예에 따라, 상기 터치 스크린 시스템(100)은 키패드 모듈(150)을 더 포함할 수도 있다.2, a
상기 터치 스크린 시스템(100)은 사용자 단말기에 설치되어 본 발명의 기술적 사상을 구현하기 위한 동작들을 수행할 수 있다. 예컨대, 상기 터치 스크린 시스템(100)은 소정의 애플리케이션 시스템의 형태로 구현되어 상기 사용자 단말기에 설치될 수 있으며, 상기 애플리케이션 시스템은 본 발명의 기술적 사상을 구현하기 위해 상기 사용자 단말기에 설치되는 소프트웨어 및 상기 사용자 단말기의 하드웨어와 유기적으로 결합 되어 본 발명의 기술적 사상을 구현할 수 있다.The
또한 본 명세서에서 모듈이라 함은, 본 발명의 기술적 사상을 수행하기 위한 하드웨어 및 상기 하드웨어를 구동하기 위한 소프트웨어의 기능적, 구조적 결합을 의미할 수 있다. 예컨대, 상기 모듈은 소정의 코드와 상기 소정의 코드가 수행되기 위한 하드웨어의 리소스(resource)의 논리적인 단위를 의미할 수 있으며, 반드시 물리적으로 연결된 코드를 의미하거나, 한 종류의 하드웨어를 의미하는 것은 아님은 본 발명의 기술분야의 평균적 전문가에게는 용이하게 추론될 수 있다.In this specification, a module may mean a functional and structural combination of hardware for carrying out the technical idea of the present invention and software for driving the hardware. For example, the module may mean a logical unit of a predetermined code and a resource of hardware for executing the predetermined code, and may be a code physically connected to the module, or a type of hardware Or may be easily deduced to the average expert in the field of the present invention.
한편 상기 사용자 단말기는 터치 스크린이 구비된 모바일 단말기(예컨대, 스마트 폰, PDA, 태블릿(tablet) PC 등)로 구현될 수 있으며, 구현 예에 따라 입력장치로 터치 스크린을 구비한 컴퓨터 등 본 발명의 기술적 사상을 구현할 수 있는 모든 형태의 데이터 프로세싱 장치를 포함할 수 있다.Meanwhile, the user terminal may be implemented as a mobile terminal (e.g., a smart phone, a PDA, a tablet PC, etc.) having a touch screen, and a computer having a touch screen as an input device, And may include any type of data processing device capable of implementing technical thought.
상기 인터페이스 모듈(110)은 사용자 단말기의 화면 내 소정의 위치에 대칭 인터페이스를 설정할 수 있다.The
상기 대칭 인터페이스는 사용자가 상기 사용자 단말기를 한 손으로 조작할 때, 사용자가 화면을 터치하는 손가락이 미치지 못하는 영역에 위치하는 오브젝트(예컨대, 링크, 아이콘, 콘텐츠, 애플리케이션 실행 아이콘 등)를 터치하여 활성화(선택 또는 실행)하기 위한 본 발명의 기술적 사상에 따른 인터페이스를 의미할 수 있다. 이하 본 명세서에서 오브젝트가 활성화 된다고 함은, 상기 오브젝트가 선택되거나, 상기 오브젝트가 실행되거나, 상기 오브젝트의 일부 기능이 활성화되는 경우를 모두 포함하는 의미일 수 있다. 이러한 대칭 인터페이스가 도 3에 도시된다.When the user operates the user terminal with one hand, the symmetrical interface touches an object (e.g., a link, an icon, a content, an application execution icon, etc.) located in an area where a finger (Selection or execution) of the present invention. Hereinafter, the term " activating an object " may include the case where the object is selected, the object is executed, or a part of the object is activated. This symmetric interface is shown in Fig.
도 3은 본 발명의 실시 예에 따른 한 손 조작이 용이한 터치 스크린 시스템에서 대칭 인터페이스를 나타낸다.Figure 3 shows a symmetrical interface in a touch screen system that is easy to manipulate in accordance with an embodiment of the present invention.
도 3을 참조하면, 사용자 단말기(1)의 화면(2) 내 소정의 위치에 대칭 인터페이스(10)가 설정되어 있을 수 있다.Referring to FIG. 3, the
일 실시 예에 의하면, 상기 대칭 인터페이스(10)는 상기 화면(2)의 중앙부에 위치하도록 설정될 수 있지만 반드시 이에 한정되는 것은 아니며, 사용자가 오른손 또는 왼손만으로 상기 사용자 단말기(1)를 파지한 채 조작하는 경우, 사용자의 손가락(예컨대, 엄지 손가락)이 용이하게 터치될 수 있는 범위 내에서 어떠한 위치라도 설정되는 것이 가능할 수 있다. 상기 대칭 인터페이스(10)의 설정 위치를 도 6을 참조하여 설명하도록 한다.According to one embodiment, the
도 6은 본 발명의 실시 예에 따른 대칭 인터페이스의 사용자 단말기 화면 내 설정 위치를 나타낸다.FIG. 6 shows a setting position in the screen of the user terminal of the symmetric interface according to the embodiment of the present invention.
도 6을 참조하면, 설명의 편의를 위해 상기 사용자 단말기(1)의 화면(2)을 복수 개의 영역으로 분할해 볼 수 있다. 예컨대, 상기 화면(2)을 제1사분면(a), 제2사분면(b), 제3사분면(c) 및 제4사분면(d)으로 나누어 설명하도록 한다. 이는 상기 대칭 인터페이스(10)의 설정 위치를 용이하게 설명하기 위한 것으로, 본 발명의 기술적 사상이 상기 화면(2)의 분할에 의해 한정되는 것은 아니다.Referring to FIG. 6, for convenience of description, the
본 발명의 일 실시 예에 의하면, 상기 화면(2)의 중앙부에 대칭 인터페이스(10-1)가 설정될 수 있다. 이처럼 상기 화면(2)의 중앙부에 설정된 대칭 인터페이스(10-1)의 경우, 사용자가 사용하는 손이 오른손이든 왼손이든 크게 구애받지 않고 후술할 본 발명의 기술적 사상에 따라 상기 대칭 인터페이스(10-1)를 이용하기 용이할 수 있다.According to an embodiment of the present invention, a symmetric interface 10-1 may be set at the center of the
다른 실시 예에 의하면, 사용자가 왼손을 이용하여 상기 사용자 단말기(1)를 조작하는 경우, 상기 화면(2)의 중앙부가 아닌 상기 화면(2)의 좌측 하단 즉, 상기 제3사분면(c) 상에 위치하도록 대칭 인터페이스(10-2)가 설정될 수 있다. 전술한 바와 같이 사용자 단말기(1)를 한 손으로 조작하는 일반적인 경우에, 화면(2)을 터치하는 손가락이 주로 엄지 손가락인 경우가 대다수이며, 상기 엄지 손가락은 상기 사용자 단말기(1)의 화면(2) 상단부보다는 하단부에 위치하게 되는 경우가 많다. 따라서 사용자가 왼손으로 상기 사용자 단말기(1)를 조작하는 경우 상기 제3사분면(c) 상에 상기 대칭 인터페이스(10-2)가 위치하게 되면, 사용자가 왼손 엄지 손가락으로 터치하기 보다 용이할 수 있다.According to another embodiment, when the user operates the
물론, 사용자가 오른손을 이용하여 상기 사용자 단말기(1)를 조작하는 경우, 상기 제4사분면(d) 상에 대칭 인터페이스(10-3)가 위치하도록 설정될 수도 있다.Of course, when the user operates the
이러한 상기 대칭 인터페이스(10)의 설정 위치는 시스템에 의해 기본적으로 특정 위치(예컨대, 상기 화면(2)의 중앙부 등)에 설정되어 있을 수 있으며, 또는 사용자가 상기 터치 스크린 시스템(100)의 모드(예컨대, 오른손 모드 또는 왼손 모드 등)를 변경함에 따라 상기 대칭 인터페이스(10)의 설정 위치가 미리 정해진 위치들 중 어느 하나의 위치로 변경될 수도 있다. 즉, 본 발명의 기술적 사상에 따른 상기 터치 스크린 시스템(100)은 사용자가 사용하는 손에 따라 모드 변경(예컨대, 기본모드, 오른손 모드 또는 왼손 모드 등)이 가능할 수 있다. 예를 들어 기본모드인 경우 상기 대칭 인터페이스(10)의 설정위치는 화면(2)의 중앙부에 위치할 수 있으며, 오른손 모드인 경우 상기 대칭 인터페이스(10)의 설정위치가 상기 제4사분면, 왼손 모드인 경우 상기 대칭 인터페이스(10)의 설정위치가 상기 제3사분면으로 설정될 수 있다.The setting position of the
구현 예에 따라서는, 상기 대칭 인터페이스(10)의 설정 위치가 특정 위치에 한정되지 않고, 사용자의 필요나 편의에 따라 상기 화면(2) 내에서 자유롭게 설정될 수도 있다.According to an embodiment, the setting position of the
한편 상기 인터페이스 모듈(110)은 상기 대칭 인터페이스(10)를 상기 화면(2) 상에서 특정한 형태를 가지도록 디스플레이할 수도 있지만, 구현 예에 따라 상기 대칭 인터페이스(10)를 투명하게 디스플레이할 수도 있다. 다시 말하면, 상기 대칭 인터페이스(10)가 이미 설정되어 있는 상태라도 상기 대칭 인터페이스(10)가 상기 화면(2) 상에 보이지 않도록 투명하게 디스플레이될 수도 있다.Meanwhile, the
이는 사용자가 상기 사용자 단말기(1)를 사용하는 중 특정 위치에 디스플레이되고 있는 상기 대칭 인터페이스(10)에 의해 화면(2)의 일부가 가려질 수 있으며, 이로 인해 사용자 단말기(1)를 사용하는 사용자의 불편함을 유발할 수 있기 때문이다.This is because a part of the
이처럼 상기 대칭 인터페이스(10)가 육안으로 구분될 수 있도록 상기 화면(2) 상에 디스플레이될 것인지, 또는 상기 대칭 인터페이스(10)가 투명하게 디스플레이될 것인지 여부는 사용자의 필요에 따라 선택적으로 결정될 수 있다.Whether to display the
구현 예에 따라, 상기 인터페이스 모듈(110)은 상기 대칭 인터페이스(10)의 투명도를 가변적으로 설정할 수 있도록 구현될 수도 있다. 예컨대, 상기 대칭 인터페이스(10)가 설정된 위치에서 상기 대칭 인터페이스(10)가 현재 디스플레이되고 있는 지점의 현재화면(예컨대, 배경화면, 재생 중인 콘텐츠 화면 등)을 완전히 가리도록 투명도가 0%로 설정될 수 있다. 또는 투명도를 100%로 설정하여 상기 화면(2) 상에서 상기 대칭 인터페이스(10)가 전혀 보이지 않도록 설정될 수도 있을 것이다.According to an embodiment, the
아니면 상기 대칭 인터페이스(10)의 투명도가 50%로 설정되면, 상기 대칭 인터페이스(10)가 반투명 상태로 상기 화면(2) 상에 디스플레이되어 상기 현재화면과 상기 대칭 인터페이스(10)가 서로 겹쳐지도록 디스플레이될 수도 있다.Alternatively, if the transparency of the
상기 대칭 인터페이스(10)가 완전히 투명하게 디스플레이(예컨대, 투명도 100%)되는 경우를 포함하여 어떠한 경우든, 상기 대칭 인터페이스(10)가 설정된 설정 위치에서 사용자가 터치 및 드래그를 이용하여 후술할 본 발명의 기술적 사상에 따른 행위를 수행할 경우, 본 발명의 기술적 사상에 따른 동작이 수행될 수 있음은 물론이다. In any case including the case where the
한편 상기 인터페이스 모듈(110)은 상기 대칭 인터페이스(10)의 모양과 크기(면적)를 다양하게 설정할 수 있다. 예를 들어, 상기 대칭 인터페이스(10)는 도면에 도시된 바와 같이 일정 지름을 가지는 원형의 포인트 형상으로 설정할 수도 있지만, 구현 예에 따라 다양한 도형이나 문양 등의 형상을 가지도록 설정할 수도 있다.Meanwhile, the
그리고 상기 대칭 인터페이스(10)의 크기(면적)는 지름이 상대적으로 매우 작은 소정의 포인트와 같도록 설정될 수도 있고, 일정 영역 자체가 상기 대칭 인터페이스(10)가 되도록 일정 이상의 면적을 가지도록 설정될 수도 있다. 이러한 상기 대칭 인터페이스(10)의 모양이나 크기(면적)는 사용자의 필요에 따라 자유롭게 설정될 수도 있고, 상기 터치 스크린 시스템(100)에 의해 기본적으로 적어도 하나의 정형화된 규격이 존재할 수도 있다.The size (area) of the
상기 대칭 인터페이스(10)를 이용하여 수행되는 본 발명의 기술적 사상에 대해서는 후술하도록 한다.The technical idea of the present invention, which is performed using the
다시 도 2를 참조하면, 상기 감지모듈(120)은 사용자 단말기에 구비된 터치 스크린을 통해 입력되는 터치 및 드래그를 감지할 수 있다. 구현 예에 따라, 상기 감지모듈(120)은 상기 터치, 또는 상기 드래그 이후 터치 해제를 더 감지할 수 있다. Referring again to FIG. 2, the
이하, 본 명세서에서 터치라 함은, 사용자가 손가락 또는 스타일러스 펜 등의 입력도구를 통해 상기 화면(2)(즉, 터치 스크린)을 터치한 시점에 감지되는 신호를 의미할 수 있다. 그리고 상기 드래그는, 상기 터치가 해제되기 전 까지, 즉, 상기 터치 스크린에 터치가 유지되고 있는 동안 소정의 궤적을 그리는 행위에 의한 신호를 의미할 수 있다. 또한 상기 터치 해제는, 상기 터치 및/또는 상기 드래그가 감지된 후 상기 화면(2) 상에서 더 이상 신호가 감지되지 않는 시점을 의미할 수 있다.In the present specification, the term 'touch' may refer to a signal sensed at a time when the user touches the screen 2 (i.e., the touch screen) through an input tool such as a finger or a stylus pen. The drag may be a signal by an action of drawing a predetermined locus until the touch is released, that is, while the touch is being held on the touch screen. Also, the touch release may mean a point in time when no further signal is sensed on the
본 발명의 실시 예에 따른 상기 터치 스크린 시스템(100)은, 이처럼 상기 감지모듈(120)에 의해 감지되는 터치, 드래그, 및/또는 터치 해제에 따라 정해진 동작을 수행하면서 본 발명의 기술적 사상을 구현할 수 있다. The
한편 상기 제어모듈(130)은, 상기 감지모듈(120)을 통해 상기 대칭 인터페이스(10)에 터치가 감지되는 경우 타겟 포인트를 생성할 수 있으며, 이후 상기 대칭 인터페이스(10)로부터 감지되는 드래그의 이동방향과 대칭되는 방향으로 상기 타겟 포인트를 이동시킬 수 있다.Meanwhile, the
상기 타겟 포인트는 상기 사용자 단말기(1)의 화면(2) 내에 위치하는 소정의 오브젝트들(예컨대, 링크, 아이콘, 콘텐츠, 애플리케이션 실행 아이콘 등)을 활성화(선택 또는 실행)하기 위한 것으로, 예를 들면 PC나 노트북 등에서 사용되는 마우스의 마우스 커서와 동일 또는 유사한 기능을 가질 수 있다.The target point is for activating (selecting or executing) predetermined objects (e.g., links, icons, contents, application execution icons, etc.) located in the
그리고 상기 실행모듈(140)은 상기 타겟 포인트의 위치에 상응하는 오브젝트를 활성화할 수 있다.The
이하 도 4 내지 도 5를 참조하여 상기 대칭 인터페이스(10)와 상기 타겟 포인트를 이용한 상기 터치 스크린 시스템(100)의 동작 및 기능들을 상세히 설명하도록 한다.Hereinafter, operations and functions of the
도 4는 본 발명의 실시 예에 따른 대칭 인터페이스의 조작 예를 나타내며, 도 5는 본 발명의 실시 예에 따른 대칭 인터페이스를 이용한 오브젝트의 활성화 방식을 나타낸다.FIG. 4 illustrates an operation example of a symmetric interface according to an embodiment of the present invention, and FIG. 5 illustrates an object activation method using a symmetric interface according to an embodiment of the present invention.
우선 도 4를 참조하면, 사용자는 상기 사용자 단말기(1)의 화면(2) 내에 설정된 상기 대칭 인터페이스(10)를 터치하고, 소정의 방향으로 드래그(30)할 수 있다.Referring to FIG. 4, a user may touch the
이때 전술한 바와 같이, 상기 감지모듈(120)에 의해 상기 대칭 인터페이스(10)의 터치가 감지되면, 상기 제어모듈(130)은 상기 타겟 포인트(20)를 생성할 수 있다. 그리고 사용자가 상기 터치를 유지한 채 드래그(30)를 수행하게 되면, 상기 제어모듈(130)은 상기 대칭 인터페이스(10) 또는 상기 터치가 처음 감지된 위치를 기준으로 상기 드래그(30)의 이동방향과 대칭되는 방향으로 상기 타겟 포인트(20)를 이동시킬 수 있다.The
예를 들어, 사용자가 상기 드래그(30)를 상기 화면(2)의 하단방향으로 이동할 경우, 상기 타겟 포인트(20)는 이와 대칭인 상기 사용자 단말기(1)의 상단방향으로 이동할 수 있다. For example, when the user moves the
또한 상기 드래그의 이동방향이 좌측(또는 우측)으로 이동하게 되면, 상기 제어모듈(130)은 상기 타겟 포인트(20)를 우측(또는 좌측)으로 이동시킬 수 있다.Also, when the moving direction of the drag is moved to the left (or right), the
이로 인해, 사용자는 자신의 손가락을 직접 상기 화면(2)의 상단부에 터치하지 않더라도, 움직임이 용이한 상기 화면(2)의 하단부에서 드래그(30)를 수행하는 것으로 상기 화면(2) 상단부에 위치하는 오브젝트들(예컨대, 링크, 아이콘, 콘텐츠, 애플리케이션 실행 아이콘 등)을 용이하게 활성화할 수 있게 된다.Therefore, even if the user does not touch his or her finger directly to the upper end of the
이때 도면에 도시된 바와 같이 상기 드래그(30) 및/또는 상기 타겟 포인트(20)와 상기 대칭 인터페이스(10) 사이에 소정의 기준선이 표시될 수도 있지만, 구현 예에 따라서는 상기 기준선이 상기 화면(2)에 표시되지 않고 상기 드래그(30)의 움직임에 따른 상기 타겟 포인트(20)만 상기 화면(2)에 디스플레이될 수도 있다.At this time, a predetermined reference line may be displayed between the
그리고 상기 드래그(30)는 도면 상에서 설명의 편의를 위해 소정의 형태를 가지는 것처럼 도시되어 있으나 반드시 이에 한정되는 것은 아니며, 상기 터치 스크린 시스템(100)의 구현시 상기 드래그(30)는 사용자가 터치한 지점을 의미할 뿐 실제 화면(2) 상에는 아이콘이나 기타 그래픽 객체 등 아무런 표시가 디스플레이되지 않을 수 있다.Although the
그리고 전술한 바와 같이 상기 실행모듈(140)은 상기 타겟 포인트(20)의 위치에 상응하는 오브젝트 즉, 상기 타겟 포인트(20)가 위치하고 있는 지점의 오브젝트를 활성화할 수 있는데, 이러한 활성화 방식은 다양하게 구현될 수 있다. 이를 도 5를 참조하여 설명하도록 한다.As described above, the
도 5를 참조하면, 사용자는 상기 대칭 인터페이스(10)를 이용하여 상기 타겟 포인트(20)를 자신이 활성화하기 원하는 오브젝트(3)가 위치하는 지점까지 이동시킬 수 있다.Referring to FIG. 5, the user can move the
일 실시 예에 의하면, 상기 실행모듈(140)은 상기 감지모듈(120)에 의해 상기 터치 해제가 감지되는 경우 예컨대, 사용자가 손가락으로 상기 대칭 인터페이스(10)를 터치한 후 드래그를 수행하다가 손가락을 뗀 경우, 해당 시점에 상기 타겟 포인트(20)의 위치에 상응하는 오브젝트(3)를 활성화할 수 있다. According to one embodiment, when the touch module is detected by the
이러한 경우 사용자는 단순히 상기 대칭 인터페이스(10)를 이용하여 상기 타겟 포인트(20)를 자신이 원하는 오브젝트(3)까지 이동시킨후, 터치를 해제함으로써 간편하게 상기 오브젝트(3)를 활성화할 수 있다.In this case, the user can simply activate the
다른 실시 예에 의하면, 상기 감지모듈(120)에 의해 상기 터치해제가 감지되면, 상기 인터페이스 모듈(110)은 상기 화면(2) 내 소정의 위치에 실행 인터페이스(40)를 디스플레이할 수 있다. 그리고 상기 실행 인터페이스(40)를 통해 터치 또는 터치해제가 감지되는 경우에 비로소 상기 오브젝트(3)를 활성화할 수 있다.According to another embodiment, the
즉, 전술한 실시 예와 같이 상기 터치해제가 감지되면서 해당 오브젝트(3)가 바로 활성화되는 것이 아니라, 사용자가 상기 실행 인터페이스(40)를 터치하거나 또는 상기 실행 인터페이스(40)를 터치하였다가 터치해제하는 경우에 상기 오브젝트(3)가 활성화될 수 있다.That is, instead of directly activating the
이러한 경우, 사용자는 상기 타겟 포인트(20)의 위치가 자신이 원하는 오브젝트(3) 상에 제대로 위치하고 있는지 여부를 확인할 수 있다. 또한 상기 오브젝트(3)에 복수 번의 터치(예컨대, 더블터치)가 필요한 경우에도 상기 실행 인터페이스(40)를 필요한만큼 복수 번 터치할 수 있는 효과를 가질 수 있다.In this case, the user can confirm whether or not the position of the
도면에는 상기 실행 인터페이스(40)가 마우스 커서 형상을 포함하는 아이콘의 형태를 가지고, 상기 화면(2)의 하단부에 위치하는 것으로 도시되어 있지만 본 발명의 권리범위가 이에 한정되는 것은 아니며, 상기 실행 인터페이스(40)의 형태나 그 위치는 필요에 따라 자유롭게 설정, 변경이 가능할 수 있음은 본 발명이 속하는 기술분야의 평균적인 전문가에게는 용이하게 추론될 수 있을 것이다.Although the
한편 본 발명의 기술적 사상에 의하면, 사용자에 의해 수행되는 드래그의 이동거리와 이에 따라 이동하는 상기 타겟 포인트(20)의 이동거리 비율은 반드시 동일하지 않을 수 있다. 즉, 상기 드래그 및 상기 타겟 포인트(20)의 이동거리 비율은 서로 다를 수 있다. 이에 대하여 도 7 및 도 8을 참조하여 설명하도록 한다.Meanwhile, according to the technical idea of the present invention, the moving distance of the drag performed by the user and the moving distance ratio of the moving
도 7은 본 발명의 실시 예에 따른 한 손 조작이 용이한 터치 스크린 시스템의 드래그 및 타겟 포인트의 이동거리 비율과 터치 영역을 설명하기 위한 도면이며, 도 8은 본 발명의 실시 예에 따른 한 손 조작이 용이한 터치 스크린 시스템에서 드래그 및 타겟 포인트의 이동방향에 따른 이동거리 비율을 설명하기 위한 도면이다.FIG. 7 is a view for explaining a moving distance ratio and a touch area of a drag and a target point in a touch screen system which is easy to operate by one hand according to an embodiment of the present invention. FIG. FIG. 3 is a view for explaining the ratio of movement distance according to the direction of movement of the drag and target point in a touch screen system that is easy to operate.
우선 도 7을 참조하면, 화면(2)의 중앙부에 상기 대칭 인터페이스(10)가 설정된 경우를 예로 들 수 있다. Referring to FIG. 7, the
이때 7시 방향을 향해 도시된 라인은 사용자가 수행하는 드래그의 이동라인(D-line)을 의미할 수 있으며, 도시된 동심원들 중 내측의 원은 상기 드래그의 이동범위를 나타낼 수 있다.In this case, the line drawn toward the 7 o'clock direction may mean a D-line of the drag performed by the user, and the inner circle of the illustrated concentric circles may indicate the movement range of the drag.
그리고 1시 방향을 향해 도시된 라인은 상기 드래그의 이동에 따라 대칭으로 이동하는 상기 타겟 포인트(20)의 이동라인(T-line)을 의미할 수 있으며, 상기 내측의 원을 둘러싸는 원의 경우 상기 타겟 포인트(20)의 이동범위를 나타낼 수 있다.A line shown toward 1 o'clock direction may mean a movement line (T-line) of the
그리고 상기 화면(2)은 사용자의 손가락을 이용하여 용이하게 터치가 가능한 터치 가능 영역(Z1, 이하 제1영역), 사용자의 손 크기나 손가락 길이에 따라 터치가 용이할수도, 또는 터치가 가능하긴 하지만 다소 불편함이 있을 수 있는 중간 영역(Z2, 이하 제2영역), 및 사용자가 사용자 단말기(1)를 파지한 상태에서 하나의 손가락으로 터치가 사실상 불가능한 터치 사각 영역(Z3, 이하 제3영역)으로 구분될 수 있다.The
도면에 도시된 바와 같이 구분된 영역은 상기 사용자 단말기(1)를 사용자가 오른손으로 파지하고 사용하는 경우를 예로 든 것으로, 사용자가 왼손으로 상기 사용자 단말기(1)를 사용할 경우에는 도면에 도시된 각 영역의 좌우가 바뀐 형태일 수 있다.As shown in the figure, the divided region is a case where the user grasps and uses the
본 발명의 기술적 사상에 따른 대칭 인터페이스(10)를 사용하는 사용자는 이러한 터치 사각 영역(Z3)에 위치하는 오브젝트들을 활성화하고자 하기 위함인데, 이에 따라 상대적으로 먼 거리에 위치하는 상기 터치 사각 영역(Z3) 내의 오브젝트에 상기 타겟 포인트(20)를 보다 빠르고 편리하게 이동시키기 위해 상기 드래그의 이동거리에 비해 상기 타겟 포인트(20)의 이동거리가 길게 설정되는 것이 효과적일 수 있다.The user using the
일 실시 예에 의하면, 상기 제어모듈(130)은 상기 드래그 및 상기 타겟 포인트(20)가 1:1.5의 이동거리 비율을 가지도록 설정할 수 있다. 예컨대, 사용자가 상기 드래그를 수행하며 손가락을 상기 화면(2) 상에서 1cm 이동하는 경우, 상기 타겟 포인트(20)의 이동거리는 상기 드래그의 이동방향과 대칭되는 방향으로 1.5cm일 수 있다.According to one embodiment, the
이처럼 상기 드래그 및 상기 타겟 포인트(20)의 이동거리 비율이 서로 다른 경우 특히, 상기 드래그에 비해 상기 타겟 포인트(20)의 이동거리가 상대적으로 큰 경우는 상기 대칭 인터페이스(10)의 설정위치가 상기 화면(2)의 하단부 쪽에 치우칠수록 효과적일 수 있다.When the moving distance of the
예를 들어, 도 6에 도시된 바와 같이 상기 대칭 인터페이스(10)의 설정위치가 제3사분면(c) 내에 위치하며, 사용자가 활성화를 원하는 오브젝트가 제2사분면(b)의 상단에 위치할 경우, 사용자가 드래그할 수 있는 범위에 비해 상기 타겟 포인트(20)를 상기 오브젝트까지 이동시키기 위한 거리가 상대적으로 길어 상기 타겟 포인트(20)를 원활하게 이동시키지 못하는 경우가 발생할 수 있다.For example, as shown in FIG. 6, when the setting position of the
따라서 사용자에 의해 수행되는 드래그의 이동거리에 비해, 상기 타겟 포인트(20)의 이동거리를 일정 비율만큼 길게 설정함으로써 상기 대칭 인터페이스(10)의 설정위치에 구애받지 않고 상기 타겟 포인트(20)를 사용자가 원하는 지점까지 용이하게 이동시킬 수 있다.Therefore, by setting the moving distance of the
한편 상기 제어모듈(130)은 상기 드래그 및 상기 타겟 포인트(20)의 이동거리 비율을 일정하게 고정시켜둘 수도 있지만, 구현 예에 따라 상기 제어모듈(130)은 상기 드래그 및 상기 타겟 포인트(20)의 이동거리 비율이 상기 드래그의 이동방향에 따라 각각 다르도록 설정할 수도 있다. 이러한 예가 도 8에 도시된다.Meanwhile, the
도 8을 참조하면, 상기 제어모듈(130)은 상기 드래그 및 상기 타겟 포인트(20)의 이동거리 비율이 상기 드래그의 이동방향에 따라 서로 다르도록 할 수 있다.Referring to FIG. 8, the
일반적으로 널리 이용되는 대부분의 사용자 단말기(1)들은 직사각형 형상의 화면(2)을 가지고 있다. 따라서 상기 화면(2)의 중심을 기준으로 한다고 하더라도 화면(2) 내 위치에 따라 그 거리가 각각 달라지게 된다.Most commonly used
예를 들어 도면에 도시된 바와 같이, 화면(2)의 좌우기준 중앙부분에 상기 대칭 인터페이스(10)가 위치하는 경우, 화면(2)의 모서리 부분으로 이동하는 타겟 포인트(20-1)의 이동거리(d1)에 비해 화면의 중앙 상단으로 이동하는 타겟 포인트(20-2)의 이동거리(d2)가 상대적으로 짧을 수 있음을 쉽게 알 수 있다.For example, as shown in the figure, when the
즉, 상기 대칭 인터페이스(10)의 설정위치에 따라, 사용자가 가능한 범위 내에서 드래그를 최대한 이동시킨다 하더라도 상기 타겟 포인트(20)와의 이동거리 비율이 일정하다면 사용자가 원하는 지점까지 상기 타겟 포인트(20)가 이동하지 못하는 경우가 발생할 수도 있다.That is, according to the setting position of the
따라서, 상기 제어모듈(130)은 상기 대칭 인터페이스(10)의 위치를 고려하여, 상기 드래그의 이동방향에 따라 상기 드래그 및 상기 타겟 포인트(20)의 이동거리 비율을 다르게 설정할 수 있다.Therefore, the
예컨대 도면에 도시된 타겟 포인트(20-2)와 드래그의 이동거리 비율이 1:1.5라면, 상대적으로 이동거리가 긴 타겟 포인트(20-1)와 드래그의 이동거리 비율은 1:2가 되도록 설정될 수 있다.For example, if the ratio of the moving distance of the drag to the target point 20-2 shown in the figure is 1: 1.5, the ratio of the moving distance of the drag to the target point 20-1 having the relatively long moving distance is set to be 1: .
한편 다른 실시 예에 의하면, 상기 제어모듈(130)은 상기 드래그의 이동방향이 아니라, 상기 드래그의 이동가능거리와 상기 드래그의 이동에 따른 상기 타겟 포인트(20)의 이동가능거리에 따라 상기 드래그 및 상기 타겟 포인트(20)의 이동거리 비율을 다르게 설정할 수도 있다. 이는 널리 사용되고 있는 사용자 단말기들의 대부분이 정사각형이 아닌 다양한 가로세로 비율을 가지는 직사각형 형태로 형성되고 있어서, 동일한 위치의 대칭 인터페이스(10)로부터 사용자가 드래그할 수 있는 범위에 차이가 발생할 수 있기 때문이다.According to another embodiment of the present invention, the
여기서 상기 이동가능거리라 함은, 사용자가 상기 사용자 단말기(1)의 화면(2) 내에서 일정한 방향으로 드래그를 이동시킬 때 상기 드래그 및/또는 상기 타겟 포인트(20)가 실제 이동할 수 있는 거리를 의미할 수 있다. 예컨대, 사용자가 상기 대칭 인터페이스(10)로부터 드래그가 어느 한 방향으로 이동하다보면 상기 사용자 단말기(1)의 화면(2) 끝에 도달하여 더 이상 동일한 방향으로 드래그를 이동할 수 없게 된다. 이는 상기 타겟 포인트(20)의 경우에도 마찬가지로 적용될 수 있다. 이러한 이동가능거리는 상기 대칭 인터페이스(10)가 생성된 위치를 기준으로 상기 제어모듈(130)에 의해 산출될 수 있다.Here, the movable distance refers to the distance that the drag and / or the
도면에 도시된 상기 대칭 인터페이스(10)로부터 사용자가 상기 사용자 단말기(1)의 오른쪽 아래 모서리를 향하여 드래그를 이동시키는 경우 드래그가 이동가능한 이동가능거리와, 상기 사용자 단말기(1)의 중앙 하단을 향하여 드래그를 이동시키는 경우 상기 드래그가 이동가능한 이동가능거리는 각각 소정의 차이가 발생하게 된다.A movable distance at which a drag can be moved when the user moves the drag from the
따라서 상기 제어모듈(130)은 사용자가 상기 대칭 인터페이스(10)로부터 드래그를 시작할 때, 상기 드래그의 이동방향에 따른 이동가능거리, 및/또는 이와 대칭되게 이동하는 상기 타겟 포인트(20)의 이동가능거리에 따라 상기 드래그 및 상기 타겟 포인트(20)의 이동거리 비율을 다르게 설정할 수 있다. 구현 예에 따라, 상기 제어모듈(130)은 상기 드래그의 이동에 따른 이동가능거리만으로 상기 이동거리 비율을 다르게 설정할 수도 있고, 상기 드래그의 이동가능거리 및 상기 드래그의 이동방향에 따라 대칭되는 방향으로 이동하는 상기 타겟 포인트(20)의 이동가능거리까지 고려하여 상기 이동거리 비율을 다르게 설정할 수도 있다.Accordingly, when the user starts dragging from the
결국 본 발명의 기술적 사상에 의하면, 사용자가 한 손으로 사용자 단말기(1)를 파지하여 하나의 손가락(예컨대, 엄지 손가락)을 이용해 사용자 단말기(1)를 조작(화면(2)을 터치)하는 경우, 사용자가 나머지 한 손을 추가로 이용하거나 사용자 단말기(1)를 고쳐잡는 등의 번거로움 없이도 터치 사각 영역을 해소하여 편의성을 크게 향상시킬 수 있는 효과가 있다.As a result, according to the technical idea of the present invention, when the user grasps the
한편, 다시 도 2를 참조하면 전술한 바와 같이 상기 터치 스크린 시스템(100)은 키패드 모듈(150)을 더 포함할 수 있다. 상기 키패드 모듈(150)은 문자의 입력 또한 한 손으로 편리하게 조작이 가능할 수 있는 캐패드를 제공할 수 있다. 이러한 본 발명의 기술적 사상에 따른 키패드를 도 9 및 도 10을 참조하여 설명하도록 한다.Referring again to FIG. 2, the
도 9 및 도 10은 본 발명의 실시 예에 따른 한 손 조작이 용이한 터치 스크린 시스템에서 제공되는 키패드를 나타낸다.9 and 10 show a keypad provided in a touch-sensitive screen system which is easy to operate in accordance with an embodiment of the present invention.
도 9 및 도 10을 참조하면, 상기 키패드 모듈(150)은 상기 사용자 단말기(1)의 화면(2) 하단 모서리를 중심으로 사선형태의 키패드(50)를 제공할 수 있다.9 and 10, the
도 7에서 전술한 바와 같이, 일반적인 사용자 단말기(1)의 화면(2)은 터치가 용이한 제1영역과 터치가 가능하긴 하지만 다소 불편함이 있는 제2영역, 및 터치가 사실상 불가능한 제3영역으로 구분될 수 있다.7, the
사용자가 오른손을 사용하는 경우 즉, 상기 터치 스크린 시스템(100)이 오른손 모드로 설정된 경우에는, 도 9에 도시된 바와 같이 상기 키패드(50)가 우측 하단 모서리를 중심으로 제공될 수 있다. 또한 상기 터치 스크린 시스템(100)이 왼손 모드로 설정된 경우, 상기 키패드(50)는 도 10에 도시된 바와 같이 상기 화면(2)의 좌측 하단 모서리를 중심으로 제공될 수 있다.When the user uses the right hand, that is, when the
이러한 본 발명의 기술적 사상에 따른 키패드(50)는 상기 제1영역 즉, 사용자의 터치가 용이한 영역 내에서 제공되는 것이 바람직할 수 있다. 물론 구현 예에 따라 상기 키패드(50)가 디스플레이되는 영역은 상기 제1영역은 물론 상기 제2영역의 일부까지 가능할 수도 있지만, 바람직하게는 상기 키패드(50)가 상기 제3영역에까지 디스플레이되지 않을 수 있다.It is preferable that the
이처럼 본 발명의 기술적 사상에 따른 키패드(50)가 좌측 또는 우측 모서리를 중심으로 사선형태로 제공되는 이유는, 도 1에서 설명한 바와 같이 사용자가 사용자 단말기(1)를 파지하고 손가락(예컨대, 엄지 손가락)을 움직이는 범위가 상기 모서리를 중심으로 부채꼴 호 형상을 그리는 범위를 가지기 때문이다.The reason why the
즉, 사용자가 한 손으로 사용자 단말기(1)를 조작하는 경우, 키패드가 종래와 같이 화면(2)의 하단부와 평행하게 디스플레이되는 것은 오히려 조작에 불편함을 야기할 수 있다.That is, when the user operates the
또한 종래의 한손 키패드가 기존의 키패드의 크기를 작게 하여 어느 한 측면 방향으로 치우치게 제공되는데, 이는 쿼티(qwerty) 방식의 키패드의 제공이 사실상 불가능하게 되어 사용자가 한 손을 이용할 때에는 자신이 원하지 않는 방식의 키패드를 강제로 사용하게 되는 문제점이 있다.In addition, the conventional one-handed keypad is provided to be biased in one lateral direction by reducing the size of a conventional keypad. This makes it impossible to provide a keypad of a qwerty type. Thus, when a user uses one hand, There is a problem in that the keypad of the keypad is forcibly used.
하지만 본 발명의 기술적 사상에 의하면, 상기 키패드 모듈(150)에 의해 제공되는 키패드(50)는 모서리를 중심으로 상기 제1영역 및/또는 상기 제2영역 내에서 사선형태로 제공되면서 사용자의 한 손가락이 미치는 범위 내에서도 충분한 면적을 확보하는 것이 가능하고, 이에 따라 쿼티 형식의 키패드를 한 손으로 용이하게 조작할 수 있게 되는 유리한 효과를 가질 수 있다.However, according to the technical idea of the present invention, the
또한 도면에는 상기 키패드(50)가 쿼티 방식의 키패드인 경우가 도시되어 있으나 본 발명의 권리범위가 반드시 이에 한정되는 것은 아니며, 전술한 바와 같이 상기 화면(2)의 모서리를 중심으로 사선형태로 제공되는 것이 가능하기만 하면 키패드의 입력방식은 어떠한 것이라도 무방할 수 있다.Although the
도 11은 본 발명의 실시 예에 따른 한 손 조작이 용이한 터치 스크린 시스템 제공방법의 개략적인 흐름을 나타낸다.11 shows a schematic flow of a method of providing a touch screen system that is easy to operate by one hand according to an embodiment of the present invention.
도 11을 참조하면, 본 발명의 실시 예에 따른 터치 스크린 시스템(100)은 사용자 단말기(1)의 화면(2) 내 소정의 위치에 대칭 인터페이스(10)를 설정(s100)할 수 있다.11, the
그리고 상기 터치 스크린 시스템(100)은 상기 대칭 인터페이스(10)로부터 터치 및 드래그를 감지(s110)할 수 있다. 구현 예에 따라, 상기 터치 스크린 시스템(100)은 터치해제를 더 감지할 수 있음은 전술한 바와 같다.The
상기 터치 스크린 시스템(100)은 상기 대칭 인터페이스(10)를 통해 터치가 감지되는 경우, 타겟 포인트(20)를 생성(s120)할 수 있다. 그리고 상기 터치 스크린 시스템(100)은 감지되는 드래그의 이동방향과 대칭되는 방향으로 상기 타겟 포인트(20)를 이동(s130)시킬 수 있다. 이때 상기 드래그 및 상기 타겟 포인트(20)의 이동거리 비율은 서로 다를 수 있음은 전술한 바와 같다.The
이후 상기 터치 스크린 시스템(100)은 상기 타겟 포인트(20)의 위치에 상응하는 오브젝트를 활성화(s160)할 수 있는데, 일 실시 예에 의하면 상기 터치 스크린 시스템(100)은 드래그 이후 터치해제가 감지되는 경우 상기 오브젝트를 활성화할 수 있다.Then, the
또는, 상기 터치 스크린 시스템(100)은 상기 터치해제가 감지되는 경우, 상기 화면(2) 상의 소정의 위치에 실행 인터페이스(40)를 생성(s150)하고, 상기 실행 인터페이스(40)에 터치 또는 터치해제가 감지되는 경우 상기 오브젝트를 활성화(s160)할 수도 있다.Alternatively, the
본 발명의 실시 예에 따른 터치 스크린 시스템 제공방법은 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로써 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 하드 디스크, 플로피 디스크, 광 데이터 저장장치 등이 있을 수 있다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고 본 발명을 구현하기 위한 기능적인(functional) 프로그램, 코드 및 세그먼트들은 본 발명이 속하는 기술분야의 프로그래머들에 의해 용이하게 추론될 수 있다.A method of providing a touch screen system according to an embodiment of the present invention can be implemented as a computer-readable code on a computer-readable recording medium. Examples of the computer-readable recording medium include ROM, RAM, CD-ROM, magnetic tape, hard disk, floppy disk, optical data storage, and the like. The computer readable recording medium may also be distributed over a networked computer system so that computer readable code can be stored and executed in a distributed manner. And functional programs, codes, and segments for implementing the present invention can be easily inferred by programmers skilled in the art to which the present invention pertains.
본 발명은 도면에 도시된 일 실시 예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시 예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 등록청구범위의 기술적 사상에 의해 정해져야 할 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, is intended to cover various modifications and equivalent arrangements included within the spirit and scope of the appended claims. Accordingly, the true scope of the present invention should be determined by the technical idea of the appended claims.
Claims (18)
사용자 단말기의 화면 내 소정의 위치에 대칭 인터페이스를 설정하는 인터페이스 모듈;
터치, 터치해제 및 드래그를 감지하는 감지모듈;
상기 감지모듈을 통해 상기 대칭 인터페이스에 터치가 감지되는 경우 타겟 포인트를 생성하고, 상기 드래그가 이동하는 경우 상기 드래그의 이동방향과 대칭되는 방향으로 상기 타겟 포인트를 이동시키는 제어모듈; 및
상기 타겟 포인트가 이동된 후 상기 터치해제가 감지되는 경우 상기 타겟 포인트의 위치에 상응하는 오브젝트를 활성화하는 실행모듈을 포함하며,
상기 인터페이스 모듈은,
상기 터치 스크린 시스템의 모드 변경-상기 모드는 기본모드, 왼손모드, 오른손모드를 포함함-에 기초하여 상기 대칭 인터페이스의 설정위치를 변경하되,
상기 사용자 단말기의 화면을 우측 상단부로부터 순차적으로 제1사분면 내지 제4사분면으로 구분하고,
상기 기본모드인 경우 상기 대칭 인터페이스를 상기 사용자 단말기의 화면의 중앙부에 위치하도록 설정하며,
상기 왼손모드인 경우 상기 대칭 인터페이스를 상기 사용자 단말기의 회면의 제3사분면 내에 위치하도록 설정하고,
상기 오른손모드인 경우 상기 대칭 인터페이스를 상기 사용자 단말기의 화면의 제4사분면 내에 위치하도록 설정하는 것을 특징으로 하며,
상기 제어모듈은,
상기 대칭 인터페이스가 생성된 위치를 기준으로, 상기 드래그 및 상기 타겟 포인트의 이동방향-상기 드래그의 이동방향은 상기 감지모듈에 의해 감지될 수 있으며, 상기 타겟 포인트의 이동방향은 상기 드래그의 이동방향에 대칭되는 방향으로 정해질 수 있음-에 따른 상기 드래그 및 상기 타겟 포인트의 이동가능거리-상기 이동가능거리는 상기 대칭 인터페이스가 생성된 위치로부터 사용자 단말기의 화면 내에서 드래그 또는 타겟 포인트가 실제 이동할 수 있는 거리를 의미함-를 산출하되,
상기 대칭 인터페이스가 생성된 위치, 상기 감지모듈에 의해 감지되는 제1드래그의 제1드래그 이동방향에 따라 산출되는 제1드래그 이동가능거리, 및 상기 제1드래그 이동방향에 의해 정해지는 제1타겟 포인트 이동방향에 따른 제1타겟 포인트 이동가능거리에 기초하여 상기 드래그 및 타겟 포인트의 제1이동거리 비율을 산출하고,
상기 대칭 인터페이스가 생성된 위치, 상기 감지모듈에 의해 감지되는 제2드래그의 제2드래그 이동방향에 따라 산출되는 제2드래그 이동가능거리, 및 상기 제2드래그 이동방향에 의해 정해지는 제2타겟 포인트 이동방향에 따른 제2타겟 포인트 이동가능거리에 기초하여 상기 드래그 및 타겟 포인트의 제2이동거리 비율을 산출하는 것을 특징으로 하는 한 손 조작이 용이한 터치 스크린 시스템.
In a touch screen system,
An interface module for setting a symmetric interface at a predetermined position in a screen of the user terminal;
A sensing module for sensing a touch, a touch release, and a drag;
A control module for generating a target point when a touch is sensed to the symmetric interface through the sensing module and moving the target point in a direction symmetrical to the moving direction of the drag when the drag is moved; And
And an execution module for activating an object corresponding to the position of the target point when the touch release is detected after the target point is moved,
Wherein the interface module comprises:
Changing a mode of the touch screen system, the mode changing a setting position of the symmetric interface based on a basic mode, a left hand mode, and a right hand mode,
A screen of the user terminal is sequentially divided into first to fourth quadrants,
Wherein the symmetric interface is located at a central portion of a screen of the user terminal in the basic mode,
And setting the symmetric interface to be located in the third quadrant of the face of the user terminal in the left hand mode,
And the symmetric interface is set to be located in the fourth quadrant of the screen of the user terminal in the right hand mode,
The control module includes:
The direction of movement of the drag and the target point and the direction of movement of the drag may be sensed by the sensing module based on a position where the symmetric interface is generated, The movable distance of the drag and the target point according to the distance that the drag or target point can actually move within the screen of the user terminal from the position where the symmetric interface was created, , Which means that,
A first drag movement distance calculated in accordance with a first drag movement direction of a first drag sensed by the sensing module, and a first drag movement distance calculated by a first drag movement direction determined by the first drag movement direction, Calculating a first moving distance ratio of the drag and the target point based on a first target point movable distance along the moving direction,
A second drag movement distance calculated in accordance with a second drag movement direction of a second drag sensed by the sensing module, and a second drag movement distance calculated by a second drag point movement direction determined by the second drag movement direction, And calculates a second moving distance ratio of the drag and the target point based on a second target point movable distance along the moving direction.
상기 감지모듈에 의해 상기 터치해제가 감지되는 경우 상기 화면 내의 소정의 위치에 실행 인터페이스를 디스플레이하고,
상기 실행모듈은,
상기 실행 인터페이스를 통해 상기 터치 또는 상기 터치해제가 감지되는 경우 상기 타겟 포인트의위치에 상응하는 오브젝트를 활성화하는 것을 특징으로 하는 한 손 조작이 용이한 터치 스크린 시스템.
The apparatus of claim 1, wherein the interface module comprises:
And displays an execution interface at a predetermined position in the screen when the touch release is detected by the detection module,
Wherein the execution module comprises:
And activates an object corresponding to the position of the target point when the touch or the touch release is detected through the execution interface.
터치 스크린 시스템이 사용자 단말기의 화면 내 소정의 위치에 대칭 인터페이스를 설정하는 단계;
상기 터치 스크린 시스템이 터치, 터치해제 및 드래그를 감지하는 단계;
상기 대칭 인터페이스에 터치가 감지되는 경우 상기 터치 스크린 시스템이 타겟 포인트를 생성하는 단계;
상기 드래그가 이동하는 경우 상기 터치 스크린 시스템이 상기 드래그의 이동방향과 대칭되는 방향으로 상기 타겟 포인트를 이동시키는 단계; 및
상기 터치 스크린 시스템이 상기 타겟 포인트가 이동된 후 상기 터치해제가 감지되는 경우 상기 타겟 포인트의 위치에 상응하는 오브젝트를 활성화하는 단계를 포함하며,
상기 터치 스크린 시스템이 사용자 단말기의 화면 내 소정의 위치에 대칭 인터페이스를 설정하는 단계는,
상기 터치 스크린 시스템의 모드 변경-상기 모드는 기본모드, 왼손모드, 오른손모드를 포함함-에 기초하여 상기 대칭 인터페이스의 설정위치를 변경하는 단계를 포함하며,
상기 터치 스크린 시스템의 모드 변경에 기초하여 상기 대칭 인터페이스의 설정위치를 변경하는 단계는,
상기 터치 스크린 시스템이 상기 사용자 단말기의 화면을 우측 상단부로부터 순차적으로 제1사분면 내지 제4사분면으로 구분하는 단계;
상기 기본모드인 경우, 상기 터치 스크린 시스템이 상기 대칭 인터페이스를 상기 사용자 단말기의 화면의 중앙부에 위치하도록 설정하는 단계;
상기 왼손모드인 경우, 상기 터치 스크린 시스템이 상기 대칭 인터페이스를 상기 사용자 단말기의 회면의 제3사분면 내에 위치하도록 설정하는 단계; 및
상기 오른손모드인 경우, 상기 터치 스크린 시스템이 상기 대칭 인터페이스를 상기 사용자 단말기의 화면의 제4사분면 내에 위치하도록 설정하는 단계를 포함하고,
상기 드래그가 이동하는 경우 상기 터치 스크린 시스템이 상기 드래그의 이동방향과 대칭되는 방향으로 상기 타겟 포인트를 이동시키는 단계는,
상기 터치 스크린 시스템이 상기 대칭 인터페이스가 생성된 위치를 기준으로, 상기 드래그 및 상기 타겟 포인트의 이동방향-상기 드래그의 이동방향은 상기 터치 스크린 시스템에 의해 감지될 수 있으며, 상기 타겟 포인트의 이동방향은 상기 드래그의 이동방향에 대칭되는 방향으로 정해질 수 있음-에 따른 상기 드래그 및 상기 타겟 포인트의 이동가능거리-상기 이동가능거리는 상기 대칭 인터페이스가 생성된 위치로부터 사용자 단말기의 화면 내에서 드래그 또는 타겟 포인트가 실제 이동할 수 있는 거리를 의미함-를 산출하는 단계를 포함하며,
상기 터치 스크린 시스템이 상기 대칭 인터페이스가 생성된 위치를 기준으로, 상기 드래그 및 상기 타겟 포인트의 이동방향에 따른 상기 드래그 및 상기 타겟 포인트의 이동가능거리를 산출하는 단계는,
상기 터치 스크린 시스템이 상기 대칭 인터페이스가 생성된 위치, 감지되는 제1드래그의 제1드래그 이동방향에 따라 산출되는 제1드래그 이동가능거리, 및 상기 제1드래그 이동방향에 의해 정해지는 제1타겟 포인트 이동방향에 따른 제1타겟 포인트 이동가능거리에 기초하여 상기 드래그 및 타겟 포인트의 제1이동거리 비율을 산출하는 단계; 및
상기 터치 스크린 시스템이 상기 대칭 인터페이스가 생성된 위치, 감지되는 제2드래그의 제2드래그 이동방향에 따라 산출되는 제2드래그 이동가능거리, 및 상기 제2드래그 이동방향에 의해 정해지는 제2타겟 포인트 이동방향에 따른 제2타겟 포인트 이동가능거리에 기초하여 상기 드래그 및 타겟 포인트의 제2이동거리 비율을 산출하는 단계를 포함하는 한 손 조작이 용이한 터치 스크린 시스템 제공방법.
A method for providing a touch screen system,
The touch screen system setting a symmetric interface at a predetermined position in a screen of the user terminal;
Sensing a touch, a touch release, and a drag by the touch screen system;
Generating a target point by the touch screen system when a touch is detected on the symmetric interface;
Moving the target point in a direction in which the touch screen system is symmetric with a direction of movement of the drag when the drag moves; And
And activating an object corresponding to the position of the target point when the touch screen system detects the touch release after the target point is moved,
The step of the touch screen system setting a symmetric interface at a predetermined position in a screen of the user terminal comprises:
Changing a mode of the touch screen system, the mode including changing a setting position of the symmetric interface based on a basic mode, a left hand mode, and a right hand mode,
Wherein the step of changing the setting position of the symmetric interface based on the mode change of the touch screen system comprises:
The touch screen system sequentially dividing a screen of the user terminal into a first quadrant to a fourth quadrant from a right upper end;
Setting the symmetric interface so that the touch screen system is positioned at the center of the screen of the user terminal when the basic mode is selected;
Setting the symmetric interface to be located within a third quadrant of the face of the user terminal when the touch screen system is in the left hand mode; And
And setting the symmetric interface to be located within a fourth quadrant of the screen of the user terminal when the touch screen system is in the right hand mode,
Moving the target point in a direction in which the touch screen system is symmetric with a direction of movement of the drag when the drag moves,
The direction of movement of the drag and the target point, i.e., the direction of movement of the drag, may be sensed by the touch screen system, and the movement direction of the target point may be detected by the touch screen system, The drag and the movable distance of the target point according to the direction of movement of the drag; the movable distance is a distance from the position where the symmetric interface is created to a drag or target point - the actual distance traveled by the vehicle,
Wherein the step of calculating the movable distance of the drag and the target point according to the direction of movement of the drag and the target point, based on the position where the symmetric interface is generated,
The touch screen system according to claim 1, wherein the touch screen system includes a first drag moveable distance calculated in accordance with a position where the symmetric interface is generated, a first drag movement direction of a first drag sensed, Calculating a first moving distance ratio of the drag and target point based on a first target point movable distance along the moving direction; And
The touch screen system according to claim 1, wherein the touch screen system further comprises: a second drag moveable distance calculated based on a position where the symmetric interface is generated, a second drag movement direction of a second drag detected, And calculating a second moving distance ratio of the drag and target point based on a second target point movable distance along the moving direction.
상기 터치 스크린 시스템이 상기 터치해제가 감지되는 경우 상기 화면 내의 소정의 위치에 실행 인터페이스를 디스플레이하는 단계; 및
상기 터치 스크린 시스템이 상기 실행 인터페이스를 통해 상기 터치 또는 상기 터치해제가 감지되는 경우 상기 타겟 포인트의위치에 상응하는 오브젝트를 활성화하는 단계를 포함하는 한 손 조작이 용이한 터치 스크린 시스템 제공방법.
13. The method of claim 12, wherein when the touch screen system detects the touch release after the target point is moved, activating an object corresponding to the position of the target point comprises:
Displaying an execution interface at a predetermined position in the screen when the touch screen system detects the touch release; And
And activating an object corresponding to the position of the target point when the touch screen system detects the touch or the touch release through the execution interface.
A computer program installed in a data processing apparatus and stored in a recording medium for performing the method according to any one of claims 12 to 13.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170129667A KR101881383B1 (en) | 2017-10-11 | 2017-10-11 | Touch-screen system with easy operation of one hand and providing method thereof |
PCT/KR2018/011844 WO2019074253A1 (en) | 2017-10-11 | 2018-10-08 | Touch screen system that can be easily manipulated by single hand and method for providing same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170129667A KR101881383B1 (en) | 2017-10-11 | 2017-10-11 | Touch-screen system with easy operation of one hand and providing method thereof |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170177679A Division KR20190040868A (en) | 2017-12-22 | 2017-12-22 | Touch-screen system with easy operation of one hand and providing method thereof |
Publications (1)
Publication Number | Publication Date |
---|---|
KR101881383B1 true KR101881383B1 (en) | 2018-07-24 |
Family
ID=63059220
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170129667A KR101881383B1 (en) | 2017-10-11 | 2017-10-11 | Touch-screen system with easy operation of one hand and providing method thereof |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR101881383B1 (en) |
WO (1) | WO2019074253A1 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20100121785A (en) * | 2009-05-11 | 2010-11-19 | 한국과학기술원 | Tools for touch panel, and mobile devices using the same |
KR101056088B1 (en) | 2009-04-20 | 2011-08-10 | (주)빅트론닉스 | Touch panel input device, method and mobile device using same |
KR20120016087A (en) * | 2009-06-16 | 2012-02-22 | 인텔 코오퍼레이션 | Adaptive virtual keyboard for handheld device |
KR20140100791A (en) * | 2013-02-07 | 2014-08-18 | (주)아토미디어 | User terminal and interfacing method of the same |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009163278A (en) * | 2007-12-21 | 2009-07-23 | Toshiba Corp | Portable device |
-
2017
- 2017-10-11 KR KR1020170129667A patent/KR101881383B1/en active IP Right Grant
-
2018
- 2018-10-08 WO PCT/KR2018/011844 patent/WO2019074253A1/en active Application Filing
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101056088B1 (en) | 2009-04-20 | 2011-08-10 | (주)빅트론닉스 | Touch panel input device, method and mobile device using same |
KR20100121785A (en) * | 2009-05-11 | 2010-11-19 | 한국과학기술원 | Tools for touch panel, and mobile devices using the same |
KR20120016087A (en) * | 2009-06-16 | 2012-02-22 | 인텔 코오퍼레이션 | Adaptive virtual keyboard for handheld device |
KR20140100791A (en) * | 2013-02-07 | 2014-08-18 | (주)아토미디어 | User terminal and interfacing method of the same |
Also Published As
Publication number | Publication date |
---|---|
WO2019074253A1 (en) | 2019-04-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10949082B2 (en) | Processing capacitive touch gestures implemented on an electronic device | |
EP1674976B1 (en) | Improving touch screen accuracy | |
JP5731466B2 (en) | Selective rejection of touch contact in the edge region of the touch surface | |
KR101361214B1 (en) | Interface Apparatus and Method for setting scope of control area of touch screen | |
KR101137154B1 (en) | Systems, methods, and computer-readable media for invoking an electronic ink or handwriting interface | |
TWI552040B (en) | Multi-region touchpad | |
KR100636184B1 (en) | Location control method and apparatus therefor of display window displayed in display screen of information processing device | |
US20110047459A1 (en) | User interface | |
EP2472384A1 (en) | Touch event model | |
JP2011028524A (en) | Information processing apparatus, program and pointing method | |
JP5664147B2 (en) | Information processing apparatus, information processing method, and program | |
JP2016529640A (en) | Multi-touch virtual mouse | |
JP2006500676A (en) | Graphical user interface navigation method and apparatus. | |
JP2009258896A (en) | Cursor control system and method thereof | |
US10073617B2 (en) | Touchscreen precise pointing gesture | |
JP5275429B2 (en) | Information processing apparatus, program, and pointing method | |
KR20190040868A (en) | Touch-screen system with easy operation of one hand and providing method thereof | |
JP2004038503A (en) | Information processor and computer-readable storage medium | |
KR101881383B1 (en) | Touch-screen system with easy operation of one hand and providing method thereof | |
TWI515642B (en) | Portable electronic apparatus and method for controlling the same | |
TWI439922B (en) | Handheld electronic apparatus and control method thereof | |
US20150091831A1 (en) | Display device and display control method | |
KR20070079858A (en) | Method for implementing drag operation using touchpad | |
US20140327620A1 (en) | Computer input device | |
JP2016018453A (en) | Information display device and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
AMND | Amendment | ||
AMND | Amendment | ||
AMND | Amendment | ||
X701 | Decision to grant (after re-examination) | ||
GRNT | Written decision to grant |