KR101482867B1 - 테두리 터치를 이용하는 입력 및 포인팅을 위한 방법 및 장치 - Google Patents

테두리 터치를 이용하는 입력 및 포인팅을 위한 방법 및 장치 Download PDF

Info

Publication number
KR101482867B1
KR101482867B1 KR1020130086798A KR20130086798A KR101482867B1 KR 101482867 B1 KR101482867 B1 KR 101482867B1 KR 1020130086798 A KR1020130086798 A KR 1020130086798A KR 20130086798 A KR20130086798 A KR 20130086798A KR 101482867 B1 KR101482867 B1 KR 101482867B1
Authority
KR
South Korea
Prior art keywords
posture
predetermined
terminal
touch
gui
Prior art date
Application number
KR1020130086798A
Other languages
English (en)
Inventor
박관수
원혁
주혜선
Original Assignee
원혁
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 원혁 filed Critical 원혁
Priority to KR1020130086798A priority Critical patent/KR101482867B1/ko
Priority to US14/907,271 priority patent/US20160187993A1/en
Priority to EP14828807.9A priority patent/EP3026527A1/en
Priority to PCT/KR2014/004126 priority patent/WO2015012478A1/ko
Application granted granted Critical
Publication of KR101482867B1 publication Critical patent/KR101482867B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1643Details related to the display arrangement, including those related to the mounting of the display in the housing the display being associated to a digitizer, e.g. laptops that can be used as penpads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/169Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated pointing device, e.g. trackball in the palm rest area, mini-joystick integrated between keyboard keys, touch pads or touch stripes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/11Hand-related biometrics; Hand pose recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72448User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
    • H04M1/72454User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions according to context-related or environment-related conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0381Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/22Details of telephonic subscriber devices including a touch pad, a touch sensor or a touch detector

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Environmental & Geological Engineering (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

사용자가 단말기를 파지하는 자세가 소정의 제1 자세임을 검출하고, 소정의 제1 자세가 검출된 경우 GUI 객체를 단말기의 터치스크린에 표시하기 위한 방법 및 장치가 제공된다. 또한, 사용자가 단말기를 파지하는 자세가 소정의 제1 자세임을 검출하고, 소정의 제1 자세가 검출된 경우 터치스크린이 사용자의 터치를 수신하고 이를 포인팅하기 위한 방법 및 장치가 제공된다.

Description

테두리 터치를 이용하는 입력 및 포인팅을 위한 방법 및 장치{METHOD AND APPARATUS FOR INPUT AND POINTING USING EDGE TOUCH}
기술 분야는 입력 및 포인팅을 제공하는 기술에 관한 것으로, 특히 단말기의 입력 및 포인팅을 제공하는 장치 및 방법에 관한 것이다.
휴대용 단말기의 자판의 배치는 일반적인 키보드 자판의 배치와 유사할 수 있다. 유사한 배치를 통해, 휴대용 단말기는 편리한 입력 기능을 제공할 수 있다. 그러나 자판의 버튼의 작은 크기로 인해, 잘못된 터치가 자주 발생할 수 있다.
전술된 배치를 개선하기 위해 다양한 대체적인 입력 방식이 있다. 입력 방식 중 하나인, 천지인 입력 방식은 다른 입력 방식에 비해 더 큰 버튼들을 제공할 수 있다. 따라서, 천지인 입력 방식이 사용될 경우, 잘못된 터치가 발생할 가능성이 감소될 수 있다. 또한, 사용자는 짧은 학습만을 거친 후 천지인 키보드 입력 방식을 편리하게 이용할 수 있다. 그러나, 천지인 입력 방식은 한글을 제외한 다른 문자에 있어서는 적용되기 어려울 수 있다.
스마트폰을 비롯한 현재의 휴대용 단말기는 일반적으로 입력을 위해 터치 스크린을 사용한다. 터치 스크린을 사용하는 휴대용 단말기에서는 일반 컴퓨터의 마우스의 좌측 버튼 클릭 및 우측 버튼 클릭에 대응하는 기능이 구현되기 어렵다. 말하자면, 휴대용 단말기는 포인터의 움직임(moving), 드래그(drag) 및 클릭(click) 기능을 제공함에 있어서 한계를 갖는다. 따라서 사용자의 편리함 및 휴대용 단말기의 유용성을 증대하기 위해, 휴대용 단말기에 마우스의 좌측 버튼 클릭 및 우측 버튼 클릭이 각각 구현될 필요가 있다.
한국공개특허 제10-2006-0128223호(공개일 2006년 12월 14일)에는 방향키들을 이용하여 다수의 문자들 중 하나를 선택하도록 하는 문자 입력 장치 및 방법에 관한 발명이 개시되어 있다. 공개된 발명에 의하면 다수의 문자들이 소정 개수의 그룹으로 구분되어 각 그룹은 하나의 방향키에 할당되고, 사용자가 어느 하나의 방향키를 입력하면 그 입력 회수에 따라 상기 방향키에 할당된 문자 그룹에 속하는 문자들이 순차적으로 선택되도록 함으로써 문자 입력을 위한 키 입력 회수를 최소화할 수 있다.
상기에서 설명된 정보는 단지 이해를 돕기 위한 것이며, 종래 기술의 일부를 형성하지 않는 내용을 포함할 수 있으며, 종래 기술이 통상의 기술자에게 제시할 수 있는 것을 포함하지 않을 수 있다.
일 실시예는 단말기의 테두리를 파지하는 자세를 검출하고, 검출된 자세에 기반하여 단말기의 터치스크린에 표시되는 GUI 객체를 표시하는 장치 및 방법을 제공할 수 있다.
일 실시예는 단말기의 테두리를 파지하는 자세를 검출하고, 단말기의 터치스크린 상의 터치를 인식하고, 검출된 자세 및 인식된 터치에 기반하여 포인터를 제어하는 장치 및 방법을 제공할 수 있다.
일 측면에 있어서, 단말기의 터치 입력을 제공하는 방법에 있어서, 상기 단말기의 사용자가 상기 단말기의 테두리를 파지하는 자세가 소정의 제1 자세임을 검출하는 단계 및 상기 소정의 제1 자세가 검출된 경우 GUI 객체를 상기 단말기의 터치스크린에 표시하는 단계를 포함하는 터치 입력을 제공하는 방법이 제공된다.
상기 GUI 객체는 수문자판일 수 있다.
상기 소정의 제1 자세는 상기 단말기의 사용자의 한 손의 다섯 손가락들이 상기 테두리에 모두 접촉되는 자세일 수 있다.
상기 터치 입력을 제공하는 방법은 상기 사용자가 상기 단말기의 테두리를 파지하는 자세가 소정의 제2 자세임을 검출하는 단계를 더 포함할 수 있다.
상기 터치 입력을 제공하는 방법은 상기 소정의 제2 자세가 검출된 경우 상기 터치스크린에 표시된 상기 GUI 객체를 변경하는 단계를 더 포함할 수 있다.
상기 제2 자세는 상기 제1 자세에서 상기 사용자의 한 손의 다섯 손가락들 중 한 손가락의 자세가 변형된 자세일 수 있다.
상기 변형은 상기 한 손가락을 상기 테두리에서 떼는 것일 수 있다.
다른 일 측면에 있어서, 단말기에 있어서, 사용자의 터치 입력을 수신하는 터치스크린 및 상기 사용자가 상기 단말기의 테두리를 파지하는 자세가 소정의 제1 자세임을 검출하고, 상기 소정의 제1 자세가 검출된 경우 상기 터치스크린에 GUI 객체를 표시하는 프로세서를 포함하는 터치 입력을 제공하는 단말기가 제공된다.
또 다른 일 측면에 있어서, 단말기의 터치 입력을 제공하는 방법에 있어서, 상기 단말기의 사용자가 상기 단말기의 테두리를 파지하는 자세가 소정의 제1 자세임을 검출하는 단계, 상기 소정의 제1 자세로 상기 테두리가 파지된 상태에서 상기 단말기의 터치스크린 상의 터치를 인식하는 단계 및 상기 터치스크린 중 상기 터치의 위치에 포인터를 표시하는 단계를 포함하는 터치 입력을 제공하는 방법이 제공된다.
상기 소정의 제1 자세는 한 손의 다섯 손가락들이 상기 테두리에 모두 접촉되는 자세일 수 있다.
상기 터치 입력을 제공하는 방법은 상기 터치가 유지된 채 상기 사용자가 상기 단말기의 테두리를 파지하는 자세가 소정의 제2 자세임을 검출하는 단계를 더 포함할 수 있다.
상기 터치 입력을 제공하는 방법은 제1 GUI 이벤트를 생성하는 단계를 더 포함할 수 있다.
상기 생성된 제1 GUI 이벤트는 상기 검출된 소정의 제2 자세에 기반하여 결정될 수 있다.
상기 제1 GUI 이벤트를 생성하는 단계는 상기 포인터가 가리키는 GUI 객체에 대해 상기 검출된 소정의 제2 자세에 대응하는 상기 제1 GUI 이벤트를 발생시킬 수 있다.
상기 소정의 제2 자세 및 상기 제1 GUI 이벤트는 각각 복수이고, 상기 복수의 소정의 제2 자세들 및 상기 복수의 제1 GUI 이벤트들은 각각 대응할 수 있다.
상기 터치 입력을 제공하는 방법은 상기 소정의 제2 자세로 상기 테두리가 파지된 상태에서 상기 터치의 드래그를 인식하는 단계를 더 포함할 수 있다.
상기 터치 입력을 제공하는 방법은 상기 인식된 드래그에 대응하는 제2 GUI 이벤트를 생성하는 단계를 더 포함할 수 있다.
상기 터치 입력을 제공하는 방법은 상기 소정의 제2 자세의 검출 이후, 상기 소정의 제1 자세를 재검출하는 단계를 더 포함할 수 있다.
상기 GUI 이벤트를 생성하는 단계는 상기 재검출하는 단계의 이후에 수행될 수 있다.
또 다른 일 측면에 있어서, 단말기에 있어서, 사용자의 터치 입력을 수신하는 터치스크린 및 상기 사용자가 상기 단말기의 테두리를 파지하는 자세가 소정의 제1 자세임을 검출하고, 상기 소정의 제1 자세로 상기 테두리가 파지된 상태에서 상기 터치스크린 상의 터치를 인식하고, 상기 터치스크린 중 상기 터치의 위치에 포인터를 표시하는 프로세서를 포함하는 터치 입력을 제공하는 단말기가 제공된다.
테두리 터치를 이용하여 자판의 배열을 조절함으로써 자판 입력의 오류가 감소될 수 있으며, 직관적인 자판의 배치로 인해 사용자의 편리함이 증대될 수 있다.
테두리 터치를 이용하여 컴퓨터의 마우스의 좌측 버튼 및 우측 버튼들의 기능이 제공되고, 포인터의 움직임, 드래그 및 클릭 기능이 제공된다.
도 1은 일 예에 따른 단말기의 테두리를 나타낸다.
도 2는 일 예에 따른 플렉서블 터치스크린을 갖는 단말기의 테두리를 나타낸다.
도 3은 실시예들에 의해 제공되는 기능들을 예시적으로 나타낸다.
도 4는 일 예에 따른 사용자가 단말기의 테두리를 파지하는 자세들을 나타낸다.
도 5는 일 실시예에 따른 터치 입력을 제공하는 장치의 구성도이다.
도 6은 일 실시예에 따른 터치 입력을 제공하는 방법의 흐름도이다.
도 7은 일 실시예에 따른 소정의 제1 자세가 검출된 경우 터치스크린에 표시되는 GUI 객체를 나타낸다.
도 8은 일 실시예에 따른 소정의 제2 자세가 검출된 경우 터치스크린에 표시되는 변형된 GUI 객체를 나타낸다.
도 9는 일 예에 따른 터치스크린에 표시되는 GUI 객체 및 변경된 GUI 객체를 나타낸다.
도 10은 일 실시예에 따른 터치 입력을 제공하는 방법의 흐름도이다.
도 11은 일 예에 따른 마우스의 좌측 버튼 클릭 또는 우측 버튼 클릭에 대응하는 스마트폰 내에서의 이벤트를 생성하기 위해 변형되는 손가락들을 나타낸다.
도 12는 일 실시예에 따른 소정의 제1 자세임이 검출된 상태에서 터치의 위치에 포인터를 표시하는 방법을 나타낸다.
도 13은 일 실시예에 따른 포인터가 가리키는 GUI 객체에 대해 마우스의 좌측 버튼 클릭에 대응하는 제1 GUI 이벤트를 발생시키는 방법을 나타낸다.
도 14는 일 실시예에 따른 포인터가 가리키는 GUI 객체에 대해 마우스의 우측 버튼 클릭에 대응하는 제1 GUI 이벤트를 발생시키는 방법을 나타낸다.
도 15는 일 실시예에 따른 마우스의 좌측 버튼 드래그에 대응하는 포인터의 제2 GUI 이벤트를 발생시키는 방법을 나타낸다.
도 16은 일 실시예에 따른 마우스의 우측 버튼 드래그에 대응하는 포인터의 제2 GUI 이벤트를 발생시키는 방법을 나타낸다.
이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.
실시예에는 다양한 변경이 가해질 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 실시예를 실시 형태에 대해 한정하려는 것이 아니며, 실시예는 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
실시예에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 실시예를 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
도 1은 일 예에 따른 단말기의 테두리를 나타낸다.
예시적인 실시예들에서 사용되는 용어인 테두리는, 단말기의 측면의 가장자리 및 가장자리의 주변을 의미할 수 있다. 테두리는 단말기의 터치스크린과 연결되는 부분일 수 있다.
도 1에서 단말기(110)의 옆면 및 후면이 도시되어 있다. 단말기(110)에서, 테두리는 후면을 제외한 측면(120)일 수 있다. 또한 단말기의, 테두리는 전면 또는 후면의 일부를 포함할 수 있다. 말하자면, 테두리는 터치스크린의 모서리들의 전부 또는 일부일 수 있다.
도 2는 일 예에 따른 플렉서블 터치스크린을 갖는 단말기의 테두리를 나타낸다.
플렉서블(flexable) 터치스크린을 갖는 단말기에서, 플렉서블 터치스크린의 연장된 부분이 단말기의 테두리가 될 수 있다.
도 2에서, 단일한 플렉서블 터치스크린이 단말기의 전면 및 옆면을 이룬다. 상기의 단말기의 테두리(210)는 플렉서블 터치스크린의 일부일 수 있다. 플렉서블 터치스크린은 점선으로 표시된 부분을 경계로, 터치스크린 부분 및 테두리로 구분될 수 있다. 상기의 점선은 단말기의 외관으로서 드러나지 않을 수 있다.
상기의 점선은 플렉서블 터치스크린이 굽어지는 부분 또는 플렉서블 터치스크린의 곡률이 변하는 부분일 수 있다. 예를 들어, 점선은 단말기의 평평한 디스플레이 부분 및 휘어진 디스플레이 부분이 연결되는 부분을 나타낼 수 있다. 플렉서블 터치스크린에서 점선에 대응하는 부분, 즉 테두리로서 구성되는 부분은 단말기의 사용자에 의해 설정될 수 있다. 테두리(210)는 단말기의 좌측 및 우측을 모두 포함할 수 있다.
버튼들(220 및 230)은 물리적인 버튼들이 아닌, 플렉서블 터치스크린 상에 표시된 그래픽 유저 인터페이스(Graphical User Interface; GUI) 객체(object)들 일 수 있다.
도 3은 실시예들에 의해 제공되는 기능들을 예시적으로 나타낸다.
도시된 포인팅 시스템에 따르면, 단말기의 터치스크린 상에 포인터, 마우스의 좌측 버튼 및 우측 버튼이 구현될 수 있다. 그리고, 도시된 포인팅 시스템에서는 컴퓨터의 마우스의 포인터 움직임, 마우스의 좌측 버튼 클릭, 좌측 버튼 드래그, 우측 버튼 클릭 또는 우측 버튼 드래그에 대응하는 이벤트가 스마트폰과 같은 단말기에서 생성될 수 있다.
도시된 포인팅 시스템에서는 사용자가 왼손으로 단말기를 파지한 상태에서, 왼손의 손가락들의 테두리의 터치 유무에 따라 GUI 객체 또는 포인터가 제어된다.
이하, 도 4 내지 도 16을 참조하여 본 발명에 의해 구현되는 다양한 실시예들이 설명된다.
도 4는 일 예에 따른 사용자가 단말기의 테두리를 파지하는 자세들을 나타낸다.
도 4의 제1 자세(410)는 사용자가 단말기의 테두리를 사용자의 왼손 또는 오른손의 다섯 손가락들을 이용함으로써 파지하는 자세이다. 제1 자세(410)는 사용자의 다섯 손가락들이 단말기의 테두리와 접촉하고 있는 자세일 수 있다. 예를 들어, 사용자가 왼손을 이용하는 경우 제1 자세(410)는 왼손의 엄지 손가락이 테두리의 왼편과 접촉하고, 왼손의 다른 네 손가락들이 테두리의 오른편과 접촉하는 자세일 수 있다.
제2 자세(420)는 제1 자세(410)에서 변형된 자세일 수 있다.
제2 자세(420)는 복수 개일 수 있다. 예를 들어, 제2 자세(420)는 제1 자세(410)에서 접촉되어 있는 손가락들 중 적어도 하나 이상을 테두리에서 뗀 자세일 수 있다.
예를 들면, 도 4에서 도시된 것과 같이, 제2 자세(420)는 제1 자세(410)에서 검지 손가락을 테두리에서 뗀 자세일 수 있다. 즉, 제2 자세(420)는 검지 손가락을 제외한 사용자의 나머지 네 손가락들이 단말기의 테두리를 파지하고 있는 자세일 수 있다. 대안적인 제2 자세(430)는 제1 자세(410)에서 중지 손가락을 테두리에서 뗀 자세일 수 있다. 즉, 대안적인 제2 자세(430)는 중지 손가락을 제외한 사용자의 나머지 네 손가락들이 단말기의 테두리를 파지하고 있는 자세일 수 있다.
도 5는 일 실시예에 따른 터치 입력을 제공하는 장치의 구성도이다.
단말기(500)는 스마트폰(smartphone), 태블릿(tablet), 노트북(notebook), 컴퓨터 및 피디에이(PDA)를 포함할 수 있다. 단말기(500)는 이동형 단말기일 수 있다.
단말기(500)는 테두리(510), 터치스크린(520) 및 프로세서(530)를 포함할 수 있다.
테두리(510)는 단말기(500)의 외장, 케이스(case) 또는 하우징(housing)의 일부일 수 있다. 테두리(510)는 단말기(500)의 부품 중 하나일 수 있고, 단말기(500)의 측면으로 구분되는 부분일 수 있다.
프로세서(530) 또는 테두리(510)는 테두리(510)에 대한 사용자의 터치를 인식 및 검출할 수 있다. 프로세서(530) 또는 테두리(510)는 테두리(510)의 전 범위에 걸쳐 손가락들의 접촉을 인식 및 검출할 수 있다. 예를 들어, 프로세서(530) 또는 테두리(510)는 테두리(510)와 접촉된 손가락들의 개수 및 접촉된 위치들을 인식 및 검출할 수 있다.
또한, 프로세서(530) 또는 테두리(510)는, 단말기(500)의 사용자가 단말기의 테두리(510)를 파지하는 자세가 소정의 자세임을 검출할 수 있다. 소정의 자세는 손가락들에 의해 터치되는 테두리(510)의 위치 및 터치되는 손가락들의 개수에 기반하여 설정될 수 있다.
터치스크린(520)은 사용자의 터치 입력을 수신할 수 있다.
프로세서(530)는 터치스크린(520)에 GUI를 표시할 수 있다. 프로세서(530)는 소정의 자세가 검출된 경우 터치스크린(520)에 GUI 객체를 표시할 수 있다. 프로세서(530)는 소정의 자세로 테두리(510)가 파지된 상태에서 터치스크린(520) 상의 터치가 인식되면, 터치스크린(520) 중 터치의 위치에 포인터를 표시할 수 있다.
도 6은 일 실시예에 따른 터치 입력을 제공하는 방법의 흐름도이다.
단계(610)에서, 프로세서(530) 또는 테두리(510)는 단말기(500)의 사용자가 단말기의 테두리(510)를 파지하는 자세가 소정의 제1 자세임을 검출할 수 있다. 예를 들어, 소정의 제1 자세는 단말기(500)의 사용자의 한 손의 다섯 손가락들이 테두리(510)에 모두 접촉되는 자세일 수 있다. 예를 들어, 소정의 제1 자세는 도 4를 참조하여 설명된 제1 자세(410)일 수 있다.
단계(620)에서, 프로세서(530)는 소정의 제1 자세가 프로세서(530) 또는 테두리(510)에 의해 검출된 경우 GUI 객체를 단말기의 터치스크린(520)에 표시할 수 있다. 예를 들어, 표시되는 GUI 객체는 수문자판일 수 있다.
단계(630)에서, 프로세서(530) 또는 테두리(510)는 단말기(500)의 사용자가 단말기의 테두리(510)를 파지하는 자세가 소정의 제2 자세임을 검출할 수 있다. 예를 들어, 소정의 제2 자세는 소정의 제1 자세에서 사용자의 한 손의 다섯 손가락들 중 한 손가락의 자세가 변형된 자세일 수 있다. 상기의 한 손가락은 검지 손가락 또는 중지 손가락일 수 있다. 예를 들어, 변형된 자세는 테두리(510)에 접촉된 한 손가락을 테두리(510)에서 떼는 것일 수 있다. 예를 들어, 제2 자세는 도 4를 참조하여 설명된 제2 자세(420) 또는 대안적인 제2 자세(430)일 수 있다.
또 다른 예로, 변형된 자세는 테두리(510)에 접촉된 한 손가락의 위치를 테두리(510)의 다른 위치로 테두리(510)를 문지르며 이동하는 것일 수 있다.
단계(640)에서, 프로세서(530)는 소정의 제2 자세가 프로세서(530) 또는 테두리(510)에 의해 검출된 경우 터치스크린(520)에 표시된 GUI 객체를 변경 또는 변형할 수 있다.
여기서, GUI 객체의 변형은 GUI 객체의 외형 또는 기능 중 일부를 변경하는 것일 수 있다. GUI 객체의 변경은 표시된 GUI 객체를 하나의 GUI 객체에서 다른 GUI 객체로 변경될 수 있다. 여기서, 변경 또는 변형 전후의 객체들은 서로 간에 외형, 기능, 용도 또는 목적 등에 있어서 서로 간에 관련된 객체들일 수 있다.
상기의 GUI 객체의 변경 또는 변형에 관하여 하기의 도 7 내지 도 9를 참조하여 상세히 설명된다.
도 7은 일 실시예에 따른 소정의 제1 자세가 검출된 경우 터치스크린에 표시되는 GUI 객체를 나타낸다.
도 7에서 단말기(500)의 사용자는 도 4를 참조하여 설명된 제1 자세(410)로 단말기의 테두리(510)를 파지하고 있다.
단말기(500)에 미리 설정된 제1 자세가 상기의 제1 자세(410)인 경우, 프로세서(530) 또는 테두리(510)는 단말기(500)의 사용자가 단말기의 테두리(510)를 파지하는 자세가 소정의 제1 자세임을 검출할 수 있다.
소정의 제1 자세가 프로세서(530) 또는 테두리(510)에 의해 검출된 경우, 프로세서(530)는 GUI 객체(710)를 단말기의 터치스크린(520)에 표시할 수 있다. 도 7에서 GUI 객체(710)는 한글 자음자판이다.
도 8은 일 실시예에 따른 소정의 제2 자세가 검출된 경우 터치스크린에 표시되는 변형된 GUI 객체를 나타낸다.
도 8에서, 단말기(500)의 사용자는 도 4를 참조하여 설명된 제2 자세(420)로 단말기의 테두리(510)를 파지하고 있다.
소정의 제1 자세의 검출에 따라 GUI 객체(710)가 표시된 후, 단말기(500)에 미리 설정된 소정의 제2 자세가 상기의 제2 자세(420)인 경우, 프로세서(530) 또는 테두리(510)는 단말기(500)의 사용자가 단말기의 테두리(510)를 파지하는 자세가 소정의 제2 자세임을 검출할 수 있다.
소정의 제2 자세가 프로세서(530) 또는 테두리(510)에 의해 검출된 경우, 프로세서(530)는 터치스크린(530)에 표시된 GUI 객체(710)를 GUI 객체(810)로 변경할 수 있다. 도 8에서 변경된 GUI 객체(810)는 한글 모음자판이다.
도 8에서 도시된 제2 자세(420) 이외에 다른 제2 자세가 사용될 수 있다. 예를 들어, 다른 제2 자세는 도 4를 참조하여 설명된 대안적인 제2 자세(430)일 수 있다.
상기의 도 7 및 도 8을 참조하여 설명된 일 실시예는 프로세서(530) 또는 테두리(510)가 사용자가 단말기의 테두리(510)를 파지하는 자세를 검출함으로써 조절되는 한글자판을 통해 자판 입력의 오류를 감소시킬 수 있다. 또한, 일 실시예는 직관적인 자판의 배치를 이용함으로써 사용자의 편리함을 증대할 수 있다.
도 9는 일 예에 따른 터치스크린에 표시되는 GUI 객체 및 변경된 GUI 객체를 나타낸다.
일 예에 따른 도 8의 GUI 객체(710) 및 변경된 GUI 객체(810) 이외에도 다양한 GUI 객체들이 표시될 수 있고, 다른 GUI 객체들로 변경될 수 있다. 예를 들어, GUI 객체(710)는 한글 자판이고, 변경된 GUI 객체(810)는 영문 자판일 수 있다. 변경된 GUI 객체(810)는 GUI 객체(710)가 변경된 객체일 수 있다.
다른 일 예로, 도 9에서는 GUI 객체로서 영문자판을 도시되었다.
도 9에서, 프로세서(530) 또는 테두리(510)가 소정의 제1 자세를 검출하면, 프로세서(530)는 터치스크린(520)에 제1 영문자판 GUI 객체(910)를 표시한다. 그리고, 소정의 제1 자세 검출 뒤, 프로세서(530) 또는 테두리(510)가 소정의 제2 자세를 검출하면, 프로세서(530)는 제2 영문자판 GUI 객체(920)를 표시할 수 있다. 여기서 제1 영문자판 GUI 객체(910)는 소문자 a 내지 소문자 n을 표시하는 문자판이고, 제2 영문자판 GUI 객체(920)는 소문자 o 내지 소문자 z을 표시하는 문자판일 수 있다.
도 10은 일 실시예에 따른 터치 입력을 제공하는 방법의 흐름도이다.
도 10을 참조하여 설명되는 일 실시예는 프로세서(530) 또는 테두리(510)가 사용자의 단말기(500) 파지 자세를 검출함으로써 포인터의 움직임, 드래그 및 클릭의 기능을 제공할 수 있다.
단계(1010)에서, 프로세서(530) 또는 테두리(510)는 단말기(500)의 사용자가 단말기의 테두리(510)를 파지하는 자세가 소정의 제1 자세임을 검출할 수 있다. 예를 들어, 소정의 제1 자세는 단말기(500)의 사용자의 한 손의 다섯 손가락들이 테두리(510)에 모두 접촉되는 자세일 수 있다. 즉, 소정의 제1 자세는 도 4를 참조하여 설명된 제1 자세(410)일 수 있다.
단계(1020)에서, 소정의 제1 자세로 테두리(510)가 파지된 상태에서, 터치스크린(520)은 단말기(500)의 터치스크린(520) 상의 사용자의 터치를 인식할 수 있다.
단계(1030)에서, 프로세서(530)는 터치스크린(520) 중 상기의 터치의 위치에 포인터를 표시할 수 있다. 예를 들어, 포인터는 커서(cursor) 또는 빔(beam)일 수 있다.
단계(1040)에서, 단계(1030)의 상기의 터치가 유지된 채, 프로세서(530) 또는 테두리(510)는 사용자가 단말기의 테두리(510)를 파지하는 자세가 소정의 제2 자세임을 검출할 수 있다. 소정의 제2 자세는 복수 개일 수 있다. 예를 들어, 소정의 제2 자세는 도 4를 참조하여 설명된 제2 자세(420) 및 대안적인 제2 자세(430)를 포함할 수 있다.
단계(1040)의 수행 후에는, 단계(1050) 또는 단계(1070)가 수행될 수 있다.
단계(1050)에서, 단계(1040)의 소정의 제2 자세의 검출 후, 프로세서(530) 또는 테두리(510)는 소정의 제1 자세를 재검출할 수 있다.
단계(1060)에서, 프로세서(530)는 제1 GUI 이벤트를 생성할 수 있다. 제1 GUI 이벤트를 생성하는 단계(1060)는 소정의 제1 자세를 재검출하는 단계(1050) 이후에 수행될 수 있다.
생성된 제1 GUI 이벤트는 단계(1040)에서 검출된 소정의 제2 자세에 기반하여 결정될 수 있다. 말하자면, 프로세서(530)는 검출된 소정의 제2 자세가 어떤 자세인가에 따라 검출된 소정의 제2 자세에 대응하는 제1 GUI 이벤트를 발생시킬 수 있다.
제1 GUI 이벤트는 복수 개일 수 있다. 복수의 소정의 제2 자세들 및 복수의 제1 GUI 이벤트들은 각각 대응할 수 있다. 예를 들면, 소정의 제2 자세가 제2 자세(420)인 경우, 생성되는 제1 GUI 이벤트는 마우스의 좌측 버튼 클릭에 대응하는 이벤트일 수 있다. 다른 예로, 소정의 제2 자세가 대안적인 제2 자세(430)인 경우, 생성되는 제1 GUI 이벤트는 마우스의 우측 버튼 클릭에 대응하는 이벤트일 수 있다.
제1 GUI 이벤트의 생성은 포인터가 가리키는 GUI 객체에 대해 발생할 수 있다. 말하자면, 다수의 GUI 객체들은 각각 이벤트를 수신할 수 있고, 프로세서(530)는 특정한 GUI 객체에 대해 이벤트를 발생시킬 수 있다. 프로세서(530)는 GUI 객체에 대해 검출된 소정의 제2 자세에 대응하는 제1 GUI 이벤트를 발생시킬 수 있다.
단계(1070)에서, 터치스크린(520)은 단계(1040)의 소정의 제2 자세로 테두리(510)가 파지된 상태에서, 상기의 터치의 드래그를 인식할 수 있다. 여기에서, 터치의 드래그는 터치가 유지된 상태에서 터치의 위치가 이동하는 것을 의미할 수 있다.
단계(1080)에서, 프로세서(530)는 단계(1070)에서 인식된 드래그에 대응하는 제2 GUI 이벤트를 생성할 수 있다. 생성된 제2 GUI 이벤트는 단계(1040)에서 검출된 소정의 제2 자세에 기반하여 결정될 수 있다. 즉, 프로세서(530)는 GUI 객체에 대해 검출된 소정의 제2 자세에 대응하는 제2 GUI 이벤트를 발생시킬 수 있다.
제2 GUI 이벤트는 복수 개일 수 있다. 복수의 소정의 제2 자세들 및 복수의 제2 GUI 이벤트들은 각각 대응할 수 있다. 예를 들면, 소정의 제2 자세가 제2 자세(420)인 경우, 생성되는 제2 GUI 이벤트는 마우스의 좌측 버튼 드래그에 대응하는 이벤트일 수 있다. 다른 예로, 소정의 제2 자세가 대안적인 제2 자세(430)인 경우, 생성되는 제2 GUI 이벤트는 마우스의 우측 버튼 드래그에 대응하는 이벤트일 수 있다.
하기의 도 15 내지 도 16을 참조하는 설명에서 제2 GUI 이벤트에 관하여 상세히 설명된다.
도 11은 일 예에 따른 마우스의 좌측 버튼 클릭 또는 우측 버튼 클릭에 대응하는 스마트폰 내에서의 이벤트를 생성하기 위해 변형되는 손가락들을 나타낸다.
도 4를 참조하여 설명된 제1 자세(410)가 기본 자세로 설정될 수 있다. 기본 자세에서 다른 자세로의 변형은 마우스의 동작에 대응할 수 있다. 예를 들어, 기본 자세에서 검지 손가락을 변형하는 자세들은 마우스의 좌측 버튼에 관련된 동작들에 대응할 수 있다. 다른 예로, 기본 자세에서 중지 손가락을 변형하는 자세들은 마우스의 우측 버튼에 관련된 동작들에 대응할 수 있다. 마우스의 버튼들에 관련된 동작들은 버튼의 클릭 및 버튼이 눌린 상태에서의 드래그를 포함할 수 있다.
도 12는 일 실시예에 따른 소정의 제1 자세임이 검출된 상태에서 터치의 위치에 포인터를 표시하는 방법을 나타낸다.
단계(1210)에서, 프로세서(530) 또는 테두리(510)는 사용자가 단말기(500)를 파지하는 자세가 소정의 제1 자세임을 검출할 수 있다. 예를 들어, 소정의 제1 자세는 도 4를 참조하여 설명된 제1 자세(410)일 수 있다.
단계(1220)에서, 소정의 제1 자세로 테두리(510)가 파지된 상태에서, 터치스크린(520)은 터치스크린(520) 상의 터치 입력을 수신할 수 있다. 터치스크린(520)이 터치 입력이 수신하면, 프로세서(530)는 상기의 터치의 위치(1222)에 포인터(1224)를 표시할 수 있다.
소정의 제1 자세로 테두리(510)가 파지된 상태에서, 상기의 터치가 드래그된 경우, 프로세서(530)는 드래그의 위치를 따라서 포인터(1224)를 움직일 수 있다.
도 12에서, 포인터(1224)가 표시된 위치는 손가락 끝부분에서 시작되도록 도시되었다. 반면, 프로세서(530)는 포인터(1224)의 끝부분이 상기 터치된 위치를 가리키도록 포인터(1224)를 표시할 수 있다.
도 13은 일 실시예에 따른 포인터가 가리키는 GUI 객체에 대해 마우스의 좌측 버튼 클릭에 대응하는 제1 GUI 이벤트를 발생시키는 방법을 나타낸다.
단계(1310)는 도 12를 참조하여 설명된 단계(1224)에 대응할 수 있다.
단계(1310)에서, GUI 객체(1312)는 포인터(1224)가 가리키는 GUI 객체일 수 있다. 말하자면, GUI 객체(1312)는 포인터(1224)가 놓인 GUI 객체 또는 포인터(1224)의 아래에 위치한 GUI 객체일 수 있다.
단계(1320)에서, 프로세서(530) 또는 테두리(510)는 터치가 유지된 채 사용자가 단말기(500)의 테두리(510)를 파지하는 자세가 소정의 제2 자세임을 검출할 수 있다. 도 13의 제2 자세는 도 4를 참조하여 설명된 제2 자세(420)일 수 있다. 즉, 소정의 제2 자세는 소정의 제1 자세에서 검지 손가락을 테두리(510)에서 뗀 자세일 수 있다.
단계(1330)에서, 소정의 제2 자세의 검출 이후, 프로세서(530) 또는 테두리(510)는 소정의 제1 자세를 재검출할 수 있다. 즉, 재검출된 소정의 제1 자세는 테두리(510)에서 떼어진 검지 손가락을 다시 테두리(510)에 접촉하는 자세일 수 있다.
단계(1330)에서, 테두리(510)가 소정의 제1 자세를 재검출한 경우, 프로세서(530)는 소정의 제2 자세 및 재검출된 소정의 제1 자세에 대응하는 GUI 객체(1312)에 대한 제1 GUI 이벤트를 생성할 수 있다. 예를 들어, 생성되는 제1 GUI 이벤트는 마우스의 좌측 버튼 클릭에 대응하는 이벤트일 수 있다. 즉, 제1 GUI 이벤트는 포인터(1224)가 놓인 GUI 객체(1312)에 대한 마우스의 좌측 버튼 클릭을 나타낼 수 있다.
도 14는 일 실시예에 따른 포인터가 가리키는 GUI 객체에 대해 마우스의 우측 버튼 클릭에 대응하는 제1 GUI 이벤트를 발생시키는 방법을 나타낸다.
단계(1410)는 도 12를 참조하여 설명된 단계(1224)에 대응할 수 있다.
단계(1410)에서, GUI 객체(1412)는 포인터(1224)가 가리키는 GUI 객체일 수 있다.
단계(1420)에서, 프로세서(530) 또는 테두리(510)는 상기의 터치가 유지된 채 사용자가 단말기(500)의 테두리(510)를 파지하는 자세가 소정의 제2 자세임을 검출할 수 있다. 도 14의 소정의 제2 자세는 도 4를 참조하여 설명된 대안적인 제2 자세(430)이다. 즉, 소정의 제2 자세는 소정의 제1 자세에서 중지 손가락을 테두리(510)에서 뗀 자세일 수 있다.
단계(1430)에서, 소정의 제2 자세의 검출 이후, 프로세서(530) 또는 테두리(510)는 소정의 제1 자세를 재검출할 수 있다. 즉, 재검출된 소정의 제1 자세는 테두리(510)에서 떼어진 중지 손가락을 다시 테두리(510)에 접촉하는 자세일 수 있다.
단계(1430)에서, 프로세서(530) 또는 테두리(510)가 소정의 제1 자세를 재검출한 경우, 프로세서(530)는 소정의 제2 자세 및 검출된 소정의 제1 자세에 대응하는 GUI 객체(1412)에 대한 제1 GUI 이벤트를 생성할 수 있다. 예를 들어, 생성되는 제1 GUI 이벤트는 마우스의 우측 버튼 클릭에 대응하는 이벤트일 수 있다. 즉, 제1 GUI 이벤트는 포인터(1224)가 놓인 GUI 객체(1412)에 대한 마우스의 우측 버튼 클릭을 나타낼 수 있다.
도 15는 일 실시예에 따른 마우스의 좌측 버튼 드래그에 대응하는 포인터의 제2 GUI 이벤트를 발생시키는 방법을 나타낸다.
단계(1510)는 도 12를 참조하여 설명된 단계(1224)에 대응할 수 있다.
단계(1520)에서, 프로세서(530) 또는 테두리(510)는 터치가 유지된 채 사용자가 단말기의 테두리(510)를 파지하는 자세가 소정의 제2 자세임을 검출할 수 있다. 도 15의 소정의 제2 자세는 도 4를 참조하여 설명된 제2 자세(420)일 수 있다. 즉, 소정의 제2 자세는 소정의 제1 자세에서 검지 손가락을 테두리(510)에서 뗀 자세일 수 있다.
프로세서(530)는 프로세서(530) 또는 테두리(510)가 소정의 제2 자세를 검출했을 때 포인터(1224)가 표시된 제1 위치(1522)를 인식할 수 있다.
단계(1530)에서, 소정의 제2 자세의 검출 이후, 터치스크린(520)은 상기 터치가 드래그된 위치를 수신할 수 있다. 터치스크린(520)이 드래그된 위치를 수신하면, 프로세서(530)는 상기의 드래그된 위치에 포인터(1224)를 위치시킬 수 있다. 프로세서(530)는 드래그된 위치를 따라 포인터(1224)를 이동시킬 수 있다. 프로세서(530)는 드래그 후 터치가 된 위치를 제2 위치(1532)로 인식할 수 있다.
프로세서(530)가 제1 위치(1522) 및 제2 위치(1532)를 인식하면, 프로세서(530)는 제1 위치(1522) 및 제2 위치(1532)에 기반하여 영역을 설정할 수 있다. 예를 들면, 프로세서(530)는 제1 위치(1522) 및 제2 위치(1532)를 마주보는 꼭지점으로 하는 사각형의 영역(1534)을 설정할 수 있다.
단계(1530)에서, 사각형의 영역(1534)이 설정된 경우, 프로세서(530)는 소정의 제2 자세 및 사각형의 영역(1534)에 대응하는 제2 GUI 이벤트를 생성할 수 있다. 예를 들어, 생성되는 제2 GUI 이벤트는 마우스의 좌측 버튼 드래그에 대응하는 이벤트일 수 있다. 예를 들어, 좌측 버튼 드래그에 대응하는 이벤트는 사각형의 영역(1534) 내에 있는 GUI 객체들을 선택하는 것일 수 있다. 다른 예로, 좌측 버튼 드래그에 대응하는 이벤트는 사각형의 영역(1534) 내의 화면을 선택하는 것일 수 있다.
도 16은 일 실시예에 따른 마우스의 우측 버튼 드래그에 대응하는 포인터의 제2 GUI 이벤트를 발생시키는 방법을 나타낸다.
단계(1610)는 도 12를 참조하여 설명된 단계(1224)에 대응할 수 있다.
단계(1620)에서, 프로세서(530) 또는 테두리(510)는 터치가 유지된 채 사용자가 단말기의 테두리(510)를 파지하는 자세가 소정의 제2 자세임을 검출할 수 있다. 도 16의 제2 자세는 도 4를 참조하여 설명된 대안적인 제2 자세(430)일 수 있다. 즉, 소정의 제2 자세는 소정의 제1 자세에서 중지 손가락을 테두리(510)에서 뗀 자세일 수 있다.
프로세서(530)는 프로세서(530) 또는 테두리(510)가 소정의 제2 자세를 검출했을 때 포인터(1224)가 표시된 제1 위치(1622)를 인식할 수 있다.
단계(1630)에서, 소정의 제2 자세의 검출 이후, 터치스크린(520)은 상기 터치가 드래그된 위치를 수신할 수 있다. 터치스크린(520)이 드래그된 위치를 수신하면, 프로세서(530)는 상기의 드래그된 위치에 포인터(1224)를 위치시킬 수 있다. 프로세서(530)는 드래그된 위치를 따라 포인터(1224)를 이동시킬 수 있다. 프로세서(530)는 드래그 후 터치가 된 위치를 제2 위치(1632)로 인식할 수 있다.
프로세서(530)가 제1 위치(1622) 및 제2 위치(1632)를 인식하면, 프로세서(530)는 제1 위치(1522) 및 제2 위치(1532)에 기반하여 영역을 설정할 수 있다. 예를 들면, 프로세서(530)는 제1 위치(1622) 및 제2 위치(1632)를 마주보는 꼭지점으로 하는 사각형의 영역(1634)을 설정할 수 있다.
단계(1630)에서, 사각형의 영역(1634)이 설정된 경우, 프로세서(530)는 소정의 제2 자세 및 사각형의 영역(1634)에 대응하는 제2 GUI 이벤트를 생성할 수 있다. 예를 들어, 생성되는 제2 GUI 이벤트는 마우스의 우측 버튼 드래그에 대응하는 이벤트일 수 있다. 예를 들어, 우측 버튼 드래그에 대응하는 이벤트는 사각형의 영역(1534) 내에 있는 GUI 객체들에 대한 제어 메뉴를 표시하는 것일 수 있다.
앞서 도 1 내지 도 15를 참조하여 설명된 기술적 내용들이 그대로 적용될 수 있으므로, 보다 상세한 설명은 이하 생략하기로 한다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.
500: 단말기
510: 테두리
520: 터치스크린
530: 프로세서

Claims (15)

  1. 단말기의 터치 입력을 제공하는 방법에 있어서,
    상기 단말기의 사용자가 상기 단말기의 테두리를 파지하는 자세가 소정의 제1 자세임을 검출하는 단계;
    상기 소정의 제1 자세가 검출된 경우 GUI 객체를 상기 단말기의 터치스크린에 표시하는 단계;
    상기 사용자가 상기 단말기의 테두리를 파지하는 자세가 소정의 제2 자세임을 검출하는 단계 - 상기 소정의 제2 자세는 상기 소정의 제1 자세로부터 변형된 자세임 -; 및
    상기 소정의 제2 자세가 검출된 경우 상기 터치스크린에 표시된 상기 GUI 객체를 변경하는 단계
    를 포함하고,
    상기 GUI 객체 및 변경된 GUI 객체는 기능, 용도 또는 목적에 있어서 서로 간에 관련된 객체들인 터치 입력을 제공하는 방법.
  2. 제1항에 있어서,
    상기 GUI 객체는 수문자판인 터치 입력을 제공하는 방법.
  3. 제1항에 있어서,
    상기 소정의 제1 자세는 상기 단말기의 사용자의 한 손의 다섯 손가락들이 상기 테두리에 모두 접촉되는 자세인 터치 입력을 제공하는 방법.
  4. 삭제
  5. 제1항에 있어서
    상기 제2 자세는 상기 제1 자세에서 상기 사용자의 한 손의 다섯 손가락들 중 한 손가락의 자세가 변형된 자세인 터치 입력을 제공하는 방법.
  6. 제5항에 있어서,
    상기 변형은 상기 한 손가락을 상기 테두리에서 떼는 것인 터치 입력을 제공하는 방법.
  7. 단말기에 있어서,
    사용자의 터치 입력을 수신하는 터치스크린; 및
    상기 사용자가 상기 단말기의 테두리를 파지하는 자세가 소정의 제1 자세임을 검출하고, 상기 소정의 제1 자세가 검출된 경우 상기 터치스크린에 GUI 객체를 표시하고, 상기 사용자가 상기 단말기의 테두리를 파지하는 자세가 소정의 제2 자세임을 검출하고, 상기 소정의 제2 자세가 검출된 경우 상기 터치스크린에 표시된 상기 제1 객체를 변경하는 프로세서
    를 포함하고,
    상기 소정의 제2 자세는 상기 소정의 제1 자세로부터 변형된 자세이고,
    상기 GUI 객체 및 변경된 GUI 객체는 기능, 용도 또는 목적에 있어서 서로 간에 관련된 객체들인 터치 입력을 제공하는 단말기.
  8. 단말기의 터치 입력을 제공하는 방법에 있어서,
    상기 단말기의 사용자가 상기 단말기의 테두리를 파지하는 자세가 소정의 제1 자세임을 검출하는 단계;
    상기 소정의 제1 자세로 상기 테두리가 파지된 상태에서 상기 단말기의 터치스크린 상의 터치를 인식하는 단계;
    상기 터치스크린 중 상기 터치의 위치에 포인터를 표시하는 단계;
    상기 터치가 유지된 채 상기 사용자가 상기 단말기의 테두리를 파지하는 자세가 소정의 제2 자세임을 검출하는 단계 - 상기 소정의 제2 자세는 상기 소정의 제1 자세로부터 변형된 자세임 -; 및
    상기 소정의 제2 자세가 검출된 경우 제1 GUI 이벤트를 생성하는 단계
    를 포함하고,
    상기 생성된 제1 GUI 이벤트는 상기 소정의 제2 자세에 기반하여 결정되는 터치 입력을 제공하는 방법.
  9. 제8항에 있어서
    상기 소정의 제1 자세는 한 손의 다섯 손가락들이 상기 테두리에 모두 접촉되는 자세인 터치 입력을 제공하는 방법.
  10. 삭제
  11. 제8항에 있어서,
    상기 제1 GUI 이벤트를 생성하는 단계는 상기 포인터가 가리키는 GUI 객체에 대해 상기 검출된 소정의 제2 자세에 대응하는 상기 제1 GUI 이벤트를 발생시키는 터치 입력을 제공하는 방법.
  12. 제8항에 있어서,
    상기 소정의 제2 자세 및 상기 제1 GUI 이벤트는 각각 복수이고, 상기 복수의 소정의 제2 자세들 및 상기 복수의 제1 GUI 이벤트들은 각각 대응하는 터치 입력을 제공하는 방법.
  13. 제8항에 있어서,
    상기 소정의 제2 자세로 상기 테두리가 파지된 상태에서 상기 터치의 드래그를 인식하는 단계; 및
    상기 인식된 드래그에 대응하는 제2 GUI 이벤트를 생성하는 단계
    를 더 포함하는 터치 입력을 제공하는 방법.
  14. 제8항에 있어서,
    상기 소정의 제2 자세의 검출 이후, 상기 소정의 제1 자세를 재검출하는 단계
    를 더 포함하고,
    상기 제1 GUI 이벤트를 생성하는 단계는 상기 재검출하는 단계의 이후에 수행되는 터치 입력을 제공하는 방법.
  15. 단말기에 있어서,
    사용자의 터치 입력을 수신하는 터치스크린; 및
    상기 사용자가 상기 단말기의 테두리를 파지하는 자세가 소정의 제1 자세임을 검출하고, 상기 소정의 제1 자세로 상기 테두리가 파지된 상태에서 상기 터치스크린 상의 터치를 인식하고, 상기 터치스크린 중 상기 터치의 위치에 포인터를 표시하고, 상기 터치가 유지된 채 상기 사용자가 상기 단말기의 테두리를 파지하는 자세가 소정의 제2 자세임을 검출하고, 상기 소정의 제2 자세가 검출된 경우 제1 GUI 이벤트를 생성하는 프로세서
    를 포함하고,
    상기 소정의 제2 자세는 상기 소정의 제1 자세로부터 변형된 자세이고,
    상기 생성된 제1 GUI 이벤트는 상기 소정의 제2 자세에 기반하여 결정되는 터치 입력을 제공하는 단말기.
KR1020130086798A 2013-07-23 2013-07-23 테두리 터치를 이용하는 입력 및 포인팅을 위한 방법 및 장치 KR101482867B1 (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020130086798A KR101482867B1 (ko) 2013-07-23 2013-07-23 테두리 터치를 이용하는 입력 및 포인팅을 위한 방법 및 장치
US14/907,271 US20160187993A1 (en) 2013-07-23 2014-05-09 Method and apparatus for input and pointer using border touch
EP14828807.9A EP3026527A1 (en) 2013-07-23 2014-05-09 Method and apparatus for input and pointer using border touch
PCT/KR2014/004126 WO2015012478A1 (ko) 2013-07-23 2014-05-09 테두리 터치를 이용하는 입력 및 포인팅을 위한 방법 및 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130086798A KR101482867B1 (ko) 2013-07-23 2013-07-23 테두리 터치를 이용하는 입력 및 포인팅을 위한 방법 및 장치

Publications (1)

Publication Number Publication Date
KR101482867B1 true KR101482867B1 (ko) 2015-01-15

Family

ID=52393481

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130086798A KR101482867B1 (ko) 2013-07-23 2013-07-23 테두리 터치를 이용하는 입력 및 포인팅을 위한 방법 및 장치

Country Status (4)

Country Link
US (1) US20160187993A1 (ko)
EP (1) EP3026527A1 (ko)
KR (1) KR101482867B1 (ko)
WO (1) WO2015012478A1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113535051A (zh) * 2020-04-14 2021-10-22 深圳市万普拉斯科技有限公司 移动终端屏幕旋转控制方法、装置及计算机设备
KR20230022201A (ko) * 2020-07-22 2023-02-14 주식회사 넥슨코리아 오브젝트배치장치 및 오브젝트배치방법

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100006219A (ko) * 2008-07-09 2010-01-19 삼성전자주식회사 사용자 인터페이스 방법 및 장치
KR20100080303A (ko) * 2008-12-29 2010-07-08 황재엽 터치스크린용 가상마우스 구현방법
KR20100121183A (ko) * 2009-05-08 2010-11-17 엘지전자 주식회사 휴대용 단말기 및 그 사용자 인터페이스 제어 방법
KR20110090447A (ko) * 2010-02-04 2011-08-10 에스케이텔레콤 주식회사 단말기의 파지형태에 따른 사용자 인터페이스 제공 방법 및 장치

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7800592B2 (en) * 2005-03-04 2010-09-21 Apple Inc. Hand held electronic device with multiple touch sensing devices
KR100750120B1 (ko) 2005-06-09 2007-08-21 삼성전자주식회사 원형 자판 배열을 이용한 문자 입력 방법 및 문자 입력장치
JP2010154090A (ja) * 2008-12-24 2010-07-08 Toshiba Corp 携帯端末
EP2649505B1 (en) * 2010-12-08 2019-06-05 Nokia Technologies Oy User interface
US9658767B2 (en) * 2011-10-17 2017-05-23 Sony Corporation Information processing device
JP2014044605A (ja) * 2012-08-28 2014-03-13 Fujifilm Corp タッチ検知ディスプレイにおける入力制御装置および方法並びにプログラム
DE102013007250A1 (de) * 2013-04-26 2014-10-30 Inodyn Newmedia Gmbh Verfahren zur Gestensteuerung

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100006219A (ko) * 2008-07-09 2010-01-19 삼성전자주식회사 사용자 인터페이스 방법 및 장치
KR20100080303A (ko) * 2008-12-29 2010-07-08 황재엽 터치스크린용 가상마우스 구현방법
KR20100121183A (ko) * 2009-05-08 2010-11-17 엘지전자 주식회사 휴대용 단말기 및 그 사용자 인터페이스 제어 방법
KR20110090447A (ko) * 2010-02-04 2011-08-10 에스케이텔레콤 주식회사 단말기의 파지형태에 따른 사용자 인터페이스 제공 방법 및 장치

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113535051A (zh) * 2020-04-14 2021-10-22 深圳市万普拉斯科技有限公司 移动终端屏幕旋转控制方法、装置及计算机设备
KR20230022201A (ko) * 2020-07-22 2023-02-14 주식회사 넥슨코리아 오브젝트배치장치 및 오브젝트배치방법
KR102668453B1 (ko) * 2020-07-22 2024-05-22 주식회사 넥슨코리아 오브젝트배치장치 및 오브젝트배치방법

Also Published As

Publication number Publication date
EP3026527A1 (en) 2016-06-01
US20160187993A1 (en) 2016-06-30
WO2015012478A1 (ko) 2015-01-29

Similar Documents

Publication Publication Date Title
US9035883B2 (en) Systems and methods for modifying virtual keyboards on a user interface
US10061510B2 (en) Gesture multi-function on a physical keyboard
JP6115867B2 (ja) 1つ以上の多方向ボタンを介して電子機器と相互作用できるようにする方法およびコンピューティングデバイス
US10203869B2 (en) Information processing apparatus, and input control method and program of information processing apparatus
US20100287486A1 (en) Correction of typographical errors on touch displays
US8456433B2 (en) Signal processing apparatus, signal processing method and selection method of user interface icon for multi-touch panel
JP2013527539A5 (ko)
US10416868B2 (en) Method and system for character insertion in a character string
JP5801348B2 (ja) 入力システム、入力方法およびスマートフォン
JP2006524955A (ja) タッチスクリーン及び縮小型キーボードのための曖昧でないテキスト入力方法
US20150100911A1 (en) Gesture responsive keyboard and interface
WO2013130682A1 (en) Date entry system controllers for receiving user input line traces relative to user interfaces to determine ordered actions, and related systems and methods
KR20080029028A (ko) 터치 스크린을 갖는 단말기의 문자 입력 방법
US20140317564A1 (en) Navigation and language input using multi-function key
US20110302534A1 (en) Information processing apparatus, information processing method, and program
US20170192465A1 (en) Apparatus and method for disambiguating information input to a portable electronic device
CA2837752A1 (en) Graphic object selection by way of directional swipe gestures
KR101482867B1 (ko) 테두리 터치를 이용하는 입력 및 포인팅을 위한 방법 및 장치
US20150103010A1 (en) Keyboard with Integrated Pointing Functionality
US20130021242A1 (en) Advanced handwriting system with multi-touch features
JP6057441B2 (ja) 携帯装置およびその入力方法
CN103809794A (zh) 一种信息处理方法以及电子设备
KR20110080841A (ko) 터치와 드래그를 이용하여 한글을 입력하는 방법, 단말 장치 및 컴퓨터 판독 가능한 기록 매체
CN103809869A (zh) 一种信息处理方法及电子设备
CN104375659A (zh) 一种信息处理方法及电子设备

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
N231 Notification of change of applicant
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20171120

Year of fee payment: 4

LAPS Lapse due to unpaid annual fee