WO2015012478A1 - 테두리 터치를 이용하는 입력 및 포인팅을 위한 방법 및 장치 - Google Patents

테두리 터치를 이용하는 입력 및 포인팅을 위한 방법 및 장치 Download PDF

Info

Publication number
WO2015012478A1
WO2015012478A1 PCT/KR2014/004126 KR2014004126W WO2015012478A1 WO 2015012478 A1 WO2015012478 A1 WO 2015012478A1 KR 2014004126 W KR2014004126 W KR 2014004126W WO 2015012478 A1 WO2015012478 A1 WO 2015012478A1
Authority
WO
WIPO (PCT)
Prior art keywords
posture
predetermined
terminal
edge
touch
Prior art date
Application number
PCT/KR2014/004126
Other languages
English (en)
French (fr)
Inventor
원혁
박관수
주혜선
Original Assignee
Won Hyuk
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Won Hyuk filed Critical Won Hyuk
Priority to US14/907,271 priority Critical patent/US20160187993A1/en
Priority to EP14828807.9A priority patent/EP3026527A1/en
Publication of WO2015012478A1 publication Critical patent/WO2015012478A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1643Details related to the display arrangement, including those related to the mounting of the display in the housing the display being associated to a digitizer, e.g. laptops that can be used as penpads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/169Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated pointing device, e.g. trackball in the palm rest area, mini-joystick integrated between keyboard keys, touch pads or touch stripes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • G06V40/11Hand-related biometrics; Hand pose recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72448User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
    • H04M1/72454User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions according to context-related or environment-related conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0381Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/22Details of telephonic subscriber devices including a touch pad, a touch sensor or a touch detector

Definitions

  • the technical field relates to a technique for providing input and pointing, and more particularly, to an apparatus and a method for providing input and pointing of a terminal.
  • the layout of the keyboard of the portable terminal may be similar to that of a general keyboard keyboard. Through a similar arrangement, the portable terminal can provide a convenient input function. However, due to the small size of the buttons on the keyboard, false touches can often occur.
  • the heavenly input method may provide larger buttons than other input methods. Therefore, when a celestial input method is used, the possibility of an erroneous touch may be reduced.
  • the user may conveniently use a keyboard input method that is heaven and earth after only a short learning.
  • the Cheonjiin input method may be difficult to apply to other characters except Korean.
  • Korean Laid-Open Patent Publication No. 10-2006-0128223 discloses a character input apparatus and method for selecting one of a plurality of characters using direction keys.
  • a plurality of characters are divided into a predetermined number of groups, and each group is assigned to one direction key, and when a user inputs any one direction key, a character belonging to the character group assigned to the direction key according to the number of inputs thereof. By allowing them to be selected sequentially, the number of key inputs for character entry can be minimized.
  • An embodiment may provide an apparatus and method for detecting a posture of gripping an edge of a terminal and displaying a GUI object displayed on a touch screen of the terminal based on the detected posture.
  • An embodiment may provide an apparatus and a method for detecting a posture of gripping an edge of a terminal, recognizing a touch on a touch screen of the terminal, and controlling a pointer based on the detected posture and the recognized touch.
  • a method of providing a touch input of a terminal comprising: detecting that the posture of the user gripping the edge of the terminal is a predetermined first posture and the predetermined first posture is detected
  • a method for providing a touch input comprising displaying a GUI object on a touch screen of the terminal.
  • the GUI object may be a number plate.
  • the predetermined first posture may be a posture in which five fingers of one hand of the user of the terminal are all in contact with the edge.
  • the method for providing a touch input may further include detecting that the posture at which the user grips the edge of the terminal is a second predetermined posture.
  • the method for providing a touch input may further include changing the GUI object displayed on the touch screen when the second predetermined posture is detected.
  • the second posture may be a posture in which a posture of one finger among the five fingers of the one hand of the user is changed in the first posture.
  • the deformation may be to remove the one finger from the border.
  • the terminal for receiving the user's touch input and the posture of the user gripping the edge of the terminal is a predetermined first posture, the predetermined first posture is detected
  • a terminal for providing a touch input including a processor for displaying a GUI object on the touch screen is provided.
  • the method for providing a touch input of the terminal detecting that the posture of the user gripping the edge of the terminal is a predetermined first posture, the first posture Recognizing a touch on the touch screen of the terminal in the state that the edge is gripped and providing a touch input comprising the step of displaying a pointer at the position of the touch of the touch screen.
  • the predetermined first posture may be a posture in which all five fingers of one hand touch the edge.
  • the method for providing a touch input may further include detecting that the posture at which the user grips the edge of the terminal is a second posture while the touch is maintained.
  • the method for providing a touch input may further include generating a first GUI event.
  • the generated first GUI event may be determined based on the detected second posture.
  • the generating of the first GUI event may generate the first GUI event corresponding to the detected second posture with respect to the GUI object indicated by the pointer.
  • the predetermined second posture and the first GUI events may be respectively plural, and the plurality of predetermined second postures and the plurality of first GUI events may respectively correspond.
  • the method for providing a touch input may further include recognizing a drag of the touch in a state in which the edge is gripped in the second predetermined posture.
  • the method for providing a touch input may further include generating a second GUI event corresponding to the recognized drag.
  • the method for providing a touch input may further include re-detecting the predetermined first posture after detecting the predetermined second posture.
  • the generating of the GUI event may be performed after the redetecting.
  • the terminal for receiving a user's touch input and the posture of the user gripping the edge of the terminal is a predetermined first posture, the predetermined first posture
  • a terminal is provided for providing a touch input including a processor for recognizing a touch on the touch screen in a state where an edge is gripped and displaying a pointer at a position of the touch on the touch screen.
  • FIG. 1 illustrates an edge of a terminal according to an example.
  • FIG. 2 illustrates an edge of a terminal having a flexible touch screen according to an embodiment.
  • FIG. 4 illustrates postures in which a user grips an edge of a terminal according to an example.
  • FIG. 5 is a block diagram illustrating an apparatus for providing a touch input according to an embodiment.
  • FIG. 6 is a flowchart of a method of providing a touch input according to an embodiment.
  • FIG. 7 illustrates a GUI object displayed on a touch screen when a predetermined first posture is detected, according to an exemplary embodiment.
  • FIG. 8 illustrates a modified GUI object displayed on a touch screen when a second predetermined posture is detected, according to an exemplary embodiment.
  • FIG 9 illustrates a GUI object and a changed GUI object displayed on a touch screen according to an embodiment.
  • FIG. 10 is a flowchart of a method of providing a touch input according to an embodiment.
  • FIG. 11 illustrates fingers that are modified to generate an event in a smartphone corresponding to a left button click or a right button click of a mouse according to an example.
  • FIG. 12 illustrates a method of displaying a pointer at a position of a touch in a state in which a predetermined first posture is detected according to an embodiment.
  • FIG. 13 illustrates a method of generating a first GUI event corresponding to a left click of a mouse on a GUI object pointed to by a pointer, according to an exemplary embodiment.
  • FIG. 14 illustrates a method of generating a first GUI event corresponding to a right click of a mouse on a GUI object pointed to by a pointer, according to an exemplary embodiment.
  • FIG. 15 illustrates a method of generating a second GUI event of a pointer corresponding to a left button drag of a mouse, according to an exemplary embodiment.
  • FIG. 16 illustrates a method of generating a second GUI event of a pointer corresponding to dragging of a right button of a mouse, according to an exemplary embodiment.
  • FIG. 1 illustrates an edge of a terminal according to an example.
  • rim used in the exemplary embodiments may mean the edge of the side of the terminal and the periphery of the edge.
  • the edge may be a part connected to the touch screen of the terminal.
  • the edge may be the side surface 120 except for the rear surface.
  • the edge of the terminal may include a portion of the front or rear.
  • the border may be all or part of the corners of the touch screen.
  • FIG. 2 illustrates an edge of a terminal having a flexible touch screen according to an embodiment.
  • an extended portion of the flexible touch screen may be an edge of the terminal.
  • a single flexible touch screen forms the front and side surfaces of the terminal.
  • the edge 210 of the terminal may be part of the flexible touch screen.
  • the flexible touch screen may be divided into a touch screen portion and an edge with a boundary indicated by a dotted line. The dotted line may not appear as the appearance of the terminal.
  • the dotted line may be a portion where the flexible touch screen is bent or a portion where the curvature of the flexible touch screen is changed.
  • the dotted line may indicate a portion where the flat display portion and the curved display portion of the terminal are connected.
  • the portion corresponding to the dotted line, that is, the portion configured as the edge of the flexible touch screen may be set by the user of the terminal.
  • the edge 210 may include both left and right sides of the terminal.
  • buttons 220 and 230 may be graphical user interface (GUI) objects displayed on the flexible touch screen, rather than physical buttons.
  • GUI graphical user interface
  • a pointer, a left button and a right button of a mouse may be implemented on the touch screen of the terminal.
  • an event corresponding to a mouse pointer movement, a left button click, a left button drag, a right button click or a right button drag of a computer may be generated in a terminal such as a smartphone.
  • a GUI object or a pointer is controlled according to whether the edge of the fingers of the left hand is touched while the user holds the terminal with his left hand.
  • FIG. 4 illustrates postures in which a user grips an edge of a terminal according to an example.
  • the first posture 410 of FIG. 4 is a posture in which the user grips the edge of the terminal by using five fingers of the user's left or right hand.
  • the first posture 410 may be a posture in which five fingers of the user are in contact with the edge of the terminal.
  • the first posture 410 may be a posture in which the thumb of the left hand contacts the left side of the rim and the other four fingers of the left hand contact the right side of the rim.
  • the second posture 420 may be a posture deformed from the first posture 410.
  • the second posture 420 may be a posture in which at least one or more of the fingers in contact with the first posture 410 are removed from the edge.
  • the second posture 420 may be a posture in which the index finger is removed from the edge in the first posture 410. That is, the second posture 420 may be a posture in which the remaining four fingers of the user, except the index finger, grip the edge of the terminal.
  • the alternative second posture 430 may be a posture with the middle finger removed from the rim in the first posture 410. That is, the alternative second posture 430 may be a posture in which the remaining four fingers of the user except the middle finger hold the edge of the terminal.
  • FIG. 5 is a block diagram illustrating an apparatus for providing a touch input according to an embodiment.
  • the terminal 500 may include a smartphone, a tablet, a notebook, a computer, and a PDA.
  • the terminal 500 may be a mobile terminal.
  • the terminal 500 may include an edge 510, a touch screen 520, and a processor 530.
  • the edge 510 may be part of an exterior, a case, or a housing of the terminal 500.
  • the edge 510 may be one of the components of the terminal 500, and may be a portion divided by the side of the terminal 500.
  • the processor 530 or the edge 510 may recognize and detect a user's touch on the edge 510.
  • the processor 530 or the edge 510 may recognize and detect the contact of the fingers over the entire range of the edge 510.
  • the processor 530 or the edge 510 may recognize and detect the number of the fingers in contact with the edge 510 and the contacted positions.
  • the processor 530 or the edge 510 may detect that a posture at which the user of the terminal 500 grips the edge 510 of the terminal is a predetermined posture.
  • the predetermined posture may be set based on the position of the edge 510 touched by the fingers and the number of touched fingers.
  • the touch screen 520 may receive a user's touch input.
  • the processor 530 may display a GUI on the touch screen 520.
  • the processor 530 may display the GUI object on the touch screen 520 when a predetermined posture is detected.
  • the processor 530 may display a pointer at the touch position of the touch screen 520.
  • FIG. 6 is a flowchart of a method of providing a touch input according to an embodiment.
  • the processor 530 or the edge 510 may detect that a posture at which the user of the terminal 500 grips the edge 510 of the terminal is a first predetermined posture.
  • the predetermined first posture may be a posture in which all five fingers of one hand of the user of the terminal 500 touch the edge 510.
  • the predetermined first posture may be the first posture 410 described with reference to FIG. 4.
  • the processor 530 may display the GUI object on the touch screen 520 of the terminal when a predetermined first posture is detected by the processor 530 or the edge 510.
  • the displayed GUI object may be a number plate.
  • the processor 530 or the edge 510 may detect that a posture at which the user of the terminal 500 grips the edge 510 of the terminal is a second predetermined posture.
  • the second predetermined posture may be a posture in which a posture of one of the five fingers of the one hand of the user is modified in the first predetermined posture.
  • One finger may be an index finger or a middle finger.
  • the deformed posture may be to lift one finger in contact with the edge 510 from the edge 510.
  • the second posture may be the second posture 420 or alternative second posture 430 described with reference to FIG. 4.
  • the modified posture may be to move the position of one finger in contact with the edge 510 by rubbing the edge 510 to another position of the edge 510.
  • the processor 530 may change or modify the GUI object displayed on the touch screen 520 when the second predetermined posture is detected by the processor 530 or the edge 510.
  • the deformation of the GUI object may be to change some of the appearance or function of the GUI object.
  • Changing the GUI object can change the displayed GUI object from one GUI object to another.
  • the objects before and after the change or modification may be objects related to each other in appearance, function, use, or purpose.
  • FIG. 7 illustrates a GUI object displayed on a touch screen when a predetermined first posture is detected, according to an exemplary embodiment.
  • the user of the terminal 500 grips the edge 510 of the terminal in the first posture 410 described with reference to FIG. 4.
  • the processor 530 or the edge 510 may have a posture in which the user of the terminal 500 grips the edge 510 of the terminal. It can be detected that the predetermined first posture.
  • the processor 530 may display the GUI object 710 on the touch screen 520 of the terminal.
  • the GUI object 710 is a Korean consonant keyboard.
  • FIG. 8 illustrates a modified GUI object displayed on a touch screen when a second predetermined posture is detected, according to an exemplary embodiment.
  • the user of the terminal 500 grips the edge 510 of the terminal in the second posture 420 described with reference to FIG. 4.
  • the processor 530 or the edge 510 May detect that the posture at which the user of the terminal 500 grips the edge 510 of the terminal is a predetermined second posture.
  • the processor 530 may change the GUI object 710 displayed on the touch screen 530 into the GUI object 810.
  • the GUI object 810 changed in FIG. 8 is a Korean vowel keyboard.
  • another second posture may be used.
  • another second pose may be an alternative second pose 430 described with reference to FIG. 4.
  • the processor 530 or the edge 510 detects a posture at which the user grips the edge 510 of the terminal.
  • the error can be reduced.
  • one embodiment may increase the convenience of the user by using an intuitive layout of the keyboard.
  • FIG 9 illustrates a GUI object and a changed GUI object displayed on a touch screen according to an embodiment.
  • GUI objects may be displayed and may be changed to other GUI objects.
  • the GUI object 710 may be a Korean keyboard
  • the changed GUI object 810 may be an English keyboard.
  • the changed GUI object 810 may be an object whose GUI object 710 has been changed.
  • FIG. 9 illustrates an English keyboard as a GUI object.
  • the processor 530 displays the first English keyboard GUI object 910 on the touch screen 520.
  • the processor 530 or the edge 510 detects the second predetermined posture after detecting the first predetermined posture
  • the processor 530 may display the second English keyboard GUI object 920.
  • the first English keyboard GUI object 910 may be a letter board displaying a lowercase letter a to a lowercase letter n
  • the second English keyboard GUI object 920 may be a letter board displaying a lowercase letter o to a lowercase letter z.
  • FIG. 10 is a flowchart of a method of providing a touch input according to an embodiment.
  • the processor 530 or the edge 510 may detect a grip position of the terminal 500 of the user, thereby providing a function of moving, dragging, and clicking the pointer.
  • the processor 530 or the edge 510 may detect that a posture at which the user of the terminal 500 grips the edge 510 of the terminal is a first predetermined posture.
  • the predetermined first posture may be a posture in which all five fingers of one hand of the user of the terminal 500 touch the edge 510. That is, the predetermined first posture may be the first posture 410 described with reference to FIG. 4.
  • the touch screen 520 may recognize a user's touch on the touch screen 520 of the terminal 500 while the edge 510 is gripped in a predetermined first posture.
  • the processor 530 may display a pointer at a location of the touch on the touch screen 520.
  • the pointer may be a cursor or a beam.
  • step 1040 while the touch of step 1030 is maintained, the processor 530 or the edge 510 may detect that the posture at which the user grips the edge 510 of the terminal is a second predetermined posture.
  • a second predetermined posture can be.
  • the predetermined second posture may include the second posture 420 and the alternative second posture 430 described with reference to FIG. 4.
  • step 1040 After performing step 1040, step 1050 or step 1070 may be performed.
  • step 1050 after the detection of the predetermined second posture of step 1040, the processor 530 or the edge 510 may redetect the predetermined first posture.
  • the processor 530 may generate a first GUI event.
  • the generating 1060 of the first GUI event may be performed after the step 1050 of redetecting the predetermined first posture.
  • the generated first GUI event may be determined based on the predetermined second posture detected in step 1040.
  • the processor 530 may generate a first GUI event corresponding to the detected second posture according to the detected posture.
  • the plurality of predetermined second postures and the plurality of first GUI events may respectively correspond.
  • the generated first GUI event may be an event corresponding to a left button click of the mouse.
  • the predetermined second posture is the alternative second posture 430
  • the generated first GUI event may be an event corresponding to the right button click of the mouse.
  • Generation of the first GUI event may occur for a GUI object pointed to by the pointer.
  • multiple GUI objects may each receive an event, and the processor 530 may generate an event for a particular GUI object.
  • the processor 530 may generate a first GUI event corresponding to the predetermined second posture detected with respect to the GUI object.
  • the touch screen 520 may recognize the drag of the touch while the edge 510 is gripped in the predetermined second posture of operation 1040.
  • dragging of the touch may mean that the position of the touch moves while the touch is maintained.
  • the processor 530 may generate a second GUI event corresponding to the drag recognized in operation 1070.
  • the generated second GUI event may be determined based on the predetermined second posture detected in step 1040. That is, the processor 530 may generate a second GUI event corresponding to the predetermined second posture detected with respect to the GUI object.
  • the plurality of predetermined second postures and the plurality of second GUI events may respectively correspond.
  • the generated second GUI event may be an event corresponding to dragging the left button of the mouse.
  • the predetermined second posture is the alternative second posture 430
  • the generated second GUI event may be an event corresponding to dragging the right button of the mouse.
  • FIG. 11 illustrates fingers that are modified to generate an event in a smartphone corresponding to a left button click or a right button click of a mouse according to an example.
  • the first posture 410 described with reference to FIG. 4 may be set as the default posture.
  • the transformation from the basic posture to another posture may correspond to the movement of the mouse.
  • the postures in which the index finger is deformed in the basic posture may correspond to actions related to the left button of the mouse.
  • the postures of deforming the middle finger in the basic posture may correspond to operations related to the right button of the mouse. Operations related to the buttons of the mouse may include clicking the button and dragging while the button is pressed.
  • FIG. 12 illustrates a method of displaying a pointer at a position of a touch in a state in which a predetermined first posture is detected according to an embodiment.
  • the processor 530 or the edge 510 may detect that a posture at which the user grips the terminal 500 is a predetermined first posture.
  • the predetermined first posture may be the first posture 410 described with reference to FIG. 4.
  • the touch screen 520 may receive a touch input on the touch screen 520 while the edge 510 is gripped in a predetermined first posture.
  • the processor 530 may display the pointer 1224 at the position 1222 of the touch.
  • the processor 530 may move the pointer 1224 along the position of the drag.
  • the position where the pointer 1224 is marked is shown to start at the fingertip.
  • the processor 530 may display the pointer 1224 so that the end portion of the pointer 1224 indicates the touched position.
  • FIG. 13 illustrates a method of generating a first GUI event corresponding to a left click of a mouse on a GUI object pointed to by a pointer, according to an exemplary embodiment.
  • Step 1310 may correspond to step 1224 described with reference to FIG. 12.
  • the GUI object 1312 may be a GUI object pointed to by the pointer 1224.
  • the GUI object 1312 may be a GUI object on which the pointer 1224 is placed or a GUI object located below the pointer 1224.
  • the processor 530 or the edge 510 may detect that the posture at which the user grips the edge 510 of the terminal 500 is a second predetermined posture while the touch is maintained.
  • the second posture of FIG. 13 may be the second posture 420 described with reference to FIG. 4. That is, the predetermined second posture may be a posture in which the index finger is removed from the edge 510 in the predetermined first posture.
  • the processor 530 or the edge 510 may redetect the predetermined first posture. That is, the predetermined first posture detected again may be a posture in which the index finger removed from the edge 510 contacts the edge 510 again.
  • the processor 530 may be configured to the GUI object 1312 corresponding to the predetermined second posture and the redetected predetermined first posture. It may generate a first GUI event for.
  • the generated first GUI event may be an event corresponding to a left button click of the mouse. That is, the first GUI event may indicate a left click of the mouse on the GUI object 1312 on which the pointer 1224 is placed.
  • FIG. 14 illustrates a method of generating a first GUI event corresponding to a right click of a mouse on a GUI object pointed to by a pointer, according to an exemplary embodiment.
  • Step 1410 may correspond to step 1224 described with reference to FIG. 12.
  • the GUI object 1412 may be a GUI object pointed to by the pointer 1224.
  • the processor 530 or the edge 510 may detect that the posture at which the user grips the edge 510 of the terminal 500 is a second predetermined posture while the touch is maintained.
  • the predetermined second pose of FIG. 14 is an alternative second pose 430 described with reference to FIG. 4. That is, the predetermined second posture may be a posture in which the middle finger is lifted from the edge 510 in the predetermined first posture.
  • the processor 530 or the edge 510 may redetect the predetermined first posture. That is, the predetermined first posture detected again may be a position in which the middle finger removed from the edge 510 contacts the edge 510 again.
  • the processor 530 may identify the GUI object corresponding to the predetermined second posture and the detected first posture.
  • a first GUI event for 1414 may be generated.
  • the generated first GUI event may be an event corresponding to a right click of a mouse. That is, the first GUI event may indicate a right button click of the mouse on the GUI object 1412 on which the pointer 1224 is placed.
  • FIG. 15 illustrates a method of generating a second GUI event of a pointer corresponding to a left button drag of a mouse, according to an exemplary embodiment.
  • Step 1510 may correspond to step 1224 described with reference to FIG. 12.
  • the processor 530 or the edge 510 may detect that the posture at which the user grips the edge 510 of the terminal is a second predetermined posture while the touch is maintained.
  • the predetermined second posture of FIG. 15 may be the second posture 420 described with reference to FIG. 4. That is, the predetermined second posture may be a posture in which the index finger is removed from the edge 510 in the predetermined first posture.
  • the processor 530 may recognize the first position 1522 on which the pointer 1224 is displayed when the processor 530 or the edge 510 detects the second predetermined posture.
  • the touch screen 520 may receive a position where the touch is dragged.
  • the processor 530 may position the pointer 1224 at the dragged position.
  • the processor 530 may move the pointer 1224 along the dragged position.
  • the processor 530 may recognize the touched position as the second position 1532.
  • the processor 530 may set an area based on the first position 1522 and the second position 1532. For example, the processor 530 may set a rectangular region 1534 as a vertex facing the first position 1522 and the second position 1532.
  • the processor 530 may generate a second GUI event corresponding to the predetermined second posture and the rectangular region 1534.
  • the generated second GUI event may be an event corresponding to dragging the left button of the mouse.
  • the event corresponding to the left button drag may be to select GUI objects within the rectangular area 1534.
  • the event corresponding to the left button drag may be to select a screen in the rectangular area 1534.
  • FIG. 16 illustrates a method of generating a second GUI event of a pointer corresponding to dragging of a right button of a mouse, according to an exemplary embodiment.
  • Step 1610 may correspond to step 1224 described with reference to FIG. 12.
  • the processor 530 or the edge 510 may detect that the posture at which the user grips the edge 510 of the terminal is a second predetermined posture while the touch is maintained.
  • the second pose of FIG. 16 may be an alternative second pose 430 described with reference to FIG. 4. That is, the predetermined second posture may be a posture in which the middle finger is lifted from the edge 510 in the predetermined first posture.
  • the processor 530 may recognize the first position 1622 where the pointer 1224 is displayed when the processor 530 or the edge 510 detects the predetermined second posture.
  • the touch screen 520 may receive a position where the touch is dragged.
  • the processor 530 may position the pointer 1224 at the dragged position.
  • the processor 530 may move the pointer 1224 along the dragged position.
  • the processor 530 may recognize the touched position as the second position 1632.
  • the processor 530 may set an area based on the first location 1522 and the second location 1532. For example, the processor 530 may set a rectangular area 1634 having vertices facing the first position 1622 and the second position 1632.
  • the processor 530 may generate a second GUI event corresponding to the predetermined second posture and the rectangular region 1634.
  • the generated second GUI event may be an event corresponding to dragging the right button of the mouse.
  • the event corresponding to the right button drag may be to display a control menu for GUI objects in the rectangular area 1534.
  • the method according to the embodiment may be embodied in the form of program instructions that can be executed by various computer means and recorded in a computer readable medium.
  • the computer readable medium may include program instructions, data files, data structures, etc. alone or in combination.
  • the program instructions recorded on the media may be those specially designed and constructed for the purposes of the embodiments, or they may be of the kind well-known and available to those having skill in the computer software arts.
  • Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tape, optical media such as CD-ROMs, DVDs, and magnetic disks, such as floppy disks.
  • Examples of program instructions include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like.
  • the hardware device described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Environmental & Geological Engineering (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

사용자가 단말기를 파지하는 자세가 소정의 제1 자세임을 검출하고, 소정의 제1 자세가 검출된 경우 GUI 객체를 단말기의 터치스크린에 표시하기 위한 방법 및 장치가 제공된다. 또한, 사용자가 단말기를 파지하는 자세가 소정의 제1 자세임을 검출하고, 소정의 제1 자세가 검출된 경우 터치스크린이 사용자의 터치를 수신하고 이를 포인팅하기 위한 방법 및 장치가 제공된다.

Description

테두리 터치를 이용하는 입력 및 포인팅을 위한 방법 및 장치
기술 분야는 입력 및 포인팅을 제공하는 기술에 관한 것으로, 특히 단말기의 입력 및 포인팅을 제공하는 장치 및 방법에 관한 것이다.
휴대용 단말기의 자판의 배치는 일반적인 키보드 자판의 배치와 유사할 수 있다. 유사한 배치를 통해, 휴대용 단말기는 편리한 입력 기능을 제공할 수 있다. 그러나 자판의 버튼의 작은 크기로 인해, 잘못된 터치가 자주 발생할 수 있다.
전술된 배치를 개선하기 위해 다양한 대체적인 입력 방식이 있다. 입력 방식 중 하나인, 천지인 입력 방식은 다른 입력 방식에 비해 더 큰 버튼들을 제공할 수 있다. 따라서, 천지인 입력 방식이 사용될 경우, 잘못된 터치가 발생할 가능성이 감소될 수 있다. 또한, 사용자는 짧은 학습만을 거친 후 천지인 키보드 입력 방식을 편리하게 이용할 수 있다. 그러나, 천지인 입력 방식은 한글을 제외한 다른 문자에 있어서는 적용되기 어려울 수 있다.
스마트폰을 비롯한 현재의 휴대용 단말기는 일반적으로 입력을 위해 터치 스크린을 사용한다. 터치 스크린을 사용하는 휴대용 단말기에서는 일반 컴퓨터의 마우스의 좌측 버튼 클릭 및 우측 버튼 클릭에 대응하는 기능이 구현되기 어렵다. 말하자면, 휴대용 단말기는 포인터의 움직임(moving), 드래그(drag) 및 클릭(click) 기능을 제공함에 있어서 한계를 갖는다. 따라서 사용자의 편리함 및 휴대용 단말기의 유용성을 증대하기 위해, 휴대용 단말기에 마우스의 좌측 버튼 클릭 및 우측 버튼 클릭이 각각 구현될 필요가 있다.
한국공개특허 제10-2006-0128223호(공개일 2006년 12월 14일)에는 방향키들을 이용하여 다수의 문자들 중 하나를 선택하도록 하는 문자 입력 장치 및 방법에 관한 발명이 개시되어 있다. 공개된 발명에 의하면 다수의 문자들이 소정 개수의 그룹으로 구분되어 각 그룹은 하나의 방향키에 할당되고, 사용자가 어느 하나의 방향키를 입력하면 그 입력 회수에 따라 상기 방향키에 할당된 문자 그룹에 속하는 문자들이 순차적으로 선택되도록 함으로써 문자 입력을 위한 키 입력 회수를 최소화할 수 있다.
상기에서 설명된 정보는 단지 이해를 돕기 위한 것이며, 종래 기술의 일부를 형성하지 않는 내용을 포함할 수 있으며, 종래 기술이 통상의 기술자에게 제시할 수 있는 것을 포함하지 않을 수 있다.
일 실시예는 단말기의 테두리를 파지하는 자세를 검출하고, 검출된 자세에 기반하여 단말기의 터치스크린에 표시되는 GUI 객체를 표시하는 장치 및 방법을 제공할 수 있다.
일 실시예는 단말기의 테두리를 파지하는 자세를 검출하고, 단말기의 터치스크린 상의 터치를 인식하고, 검출된 자세 및 인식된 터치에 기반하여 포인터를 제어하는 장치 및 방법을 제공할 수 있다.
일 측면에 있어서, 단말기의 터치 입력을 제공하는 방법에 있어서, 상기 단말기의 사용자가 상기 단말기의 테두리를 파지하는 자세가 소정의 제1 자세임을 검출하는 단계 및 상기 소정의 제1 자세가 검출된 경우 GUI 객체를 상기 단말기의 터치스크린에 표시하는 단계를 포함하는 터치 입력을 제공하는 방법이 제공된다.
상기 GUI 객체는 수문자판일 수 있다.
상기 소정의 제1 자세는 상기 단말기의 사용자의 한 손의 다섯 손가락들이 상기 테두리에 모두 접촉되는 자세일 수 있다.
상기 터치 입력을 제공하는 방법은 상기 사용자가 상기 단말기의 테두리를 파지하는 자세가 소정의 제2 자세임을 검출하는 단계를 더 포함할 수 있다.
상기 터치 입력을 제공하는 방법은 상기 소정의 제2 자세가 검출된 경우 상기 터치스크린에 표시된 상기 GUI 객체를 변경하는 단계를 더 포함할 수 있다.
상기 제2 자세는 상기 제1 자세에서 상기 사용자의 한 손의 다섯 손가락들 중 한 손가락의 자세가 변형된 자세일 수 있다.
상기 변형은 상기 한 손가락을 상기 테두리에서 떼는 것일 수 있다.
다른 일 측면에 있어서, 단말기에 있어서, 사용자의 터치 입력을 수신하는 터치스크린 및 상기 사용자가 상기 단말기의 테두리를 파지하는 자세가 소정의 제1 자세임을 검출하고, 상기 소정의 제1 자세가 검출된 경우 상기 터치스크린에 GUI 객체를 표시하는 프로세서를 포함하는 터치 입력을 제공하는 단말기가 제공된다.
또 다른 일 측면에 있어서, 단말기의 터치 입력을 제공하는 방법에 있어서, 상기 단말기의 사용자가 상기 단말기의 테두리를 파지하는 자세가 소정의 제1 자세임을 검출하는 단계, 상기 소정의 제1 자세로 상기 테두리가 파지된 상태에서 상기 단말기의 터치스크린 상의 터치를 인식하는 단계 및 상기 터치스크린 중 상기 터치의 위치에 포인터를 표시하는 단계를 포함하는 터치 입력을 제공하는 방법이 제공된다.
상기 소정의 제1 자세는 한 손의 다섯 손가락들이 상기 테두리에 모두 접촉되는 자세일 수 있다.
상기 터치 입력을 제공하는 방법은 상기 터치가 유지된 채 상기 사용자가 상기 단말기의 테두리를 파지하는 자세가 소정의 제2 자세임을 검출하는 단계를 더 포함할 수 있다.
상기 터치 입력을 제공하는 방법은 제1 GUI 이벤트를 생성하는 단계를 더 포함할 수 있다.
상기 생성된 제1 GUI 이벤트는 상기 검출된 소정의 제2 자세에 기반하여 결정될 수 있다.
상기 제1 GUI 이벤트를 생성하는 단계는 상기 포인터가 가리키는 GUI 객체에 대해 상기 검출된 소정의 제2 자세에 대응하는 상기 제1 GUI 이벤트를 발생시킬 수 있다.
상기 소정의 제2 자세 및 상기 제1 GUI 이벤트는 각각 복수이고, 상기 복수의 소정의 제2 자세들 및 상기 복수의 제1 GUI 이벤트들은 각각 대응할 수 있다.
상기 터치 입력을 제공하는 방법은 상기 소정의 제2 자세로 상기 테두리가 파지된 상태에서 상기 터치의 드래그를 인식하는 단계를 더 포함할 수 있다.
상기 터치 입력을 제공하는 방법은 상기 인식된 드래그에 대응하는 제2 GUI 이벤트를 생성하는 단계를 더 포함할 수 있다.
상기 터치 입력을 제공하는 방법은 상기 소정의 제2 자세의 검출 이후, 상기 소정의 제1 자세를 재검출하는 단계를 더 포함할 수 있다.
상기 GUI 이벤트를 생성하는 단계는 상기 재검출하는 단계의 이후에 수행될 수 있다.
또 다른 일 측면에 있어서, 단말기에 있어서, 사용자의 터치 입력을 수신하는 터치스크린 및 상기 사용자가 상기 단말기의 테두리를 파지하는 자세가 소정의 제1 자세임을 검출하고, 상기 소정의 제1 자세로 상기 테두리가 파지된 상태에서 상기 터치스크린 상의 터치를 인식하고, 상기 터치스크린 중 상기 터치의 위치에 포인터를 표시하는 프로세서를 포함하는 터치 입력을 제공하는 단말기가 제공된다.
테두리 터치를 이용하여 자판의 배열을 조절함으로써 자판 입력의 오류가 감소될 수 있으며, 직관적인 자판의 배치로 인해 사용자의 편리함이 증대될 수 있다.
테두리 터치를 이용하여 컴퓨터의 마우스의 좌측 버튼 및 우측 버튼들의 기능이 제공되고, 포인터의 움직임, 드래그 및 클릭 기능이 제공된다.
도 1은 일 예에 따른 단말기의 테두리를 나타낸다.
도 2는 일 예에 따른 플렉서블 터치스크린을 갖는 단말기의 테두리를 나타낸다.
도 3은 실시예들에 의해 제공되는 기능들을 예시적으로 나타낸다.
도 4는 일 예에 따른 사용자가 단말기의 테두리를 파지하는 자세들을 나타낸다.
도 5는 일 실시예에 따른 터치 입력을 제공하는 장치의 구성도이다.
도 6은 일 실시예에 따른 터치 입력을 제공하는 방법의 흐름도이다.
도 7은 일 실시예에 따른 소정의 제1 자세가 검출된 경우 터치스크린에 표시되는 GUI 객체를 나타낸다.
도 8은 일 실시예에 따른 소정의 제2 자세가 검출된 경우 터치스크린에 표시되는 변형된 GUI 객체를 나타낸다.
도 9는 일 예에 따른 터치스크린에 표시되는 GUI 객체 및 변경된 GUI 객체를 나타낸다.
도 10은 일 실시예에 따른 터치 입력을 제공하는 방법의 흐름도이다.
도 11은 일 예에 따른 마우스의 좌측 버튼 클릭 또는 우측 버튼 클릭에 대응하는 스마트폰 내에서의 이벤트를 생성하기 위해 변형되는 손가락들을 나타낸다.
도 12는 일 실시예에 따른 소정의 제1 자세임이 검출된 상태에서 터치의 위치에 포인터를 표시하는 방법을 나타낸다.
도 13은 일 실시예에 따른 포인터가 가리키는 GUI 객체에 대해 마우스의 좌측 버튼 클릭에 대응하는 제1 GUI 이벤트를 발생시키는 방법을 나타낸다.
도 14는 일 실시예에 따른 포인터가 가리키는 GUI 객체에 대해 마우스의 우측 버튼 클릭에 대응하는 제1 GUI 이벤트를 발생시키는 방법을 나타낸다.
도 15는 일 실시예에 따른 마우스의 좌측 버튼 드래그에 대응하는 포인터의 제2 GUI 이벤트를 발생시키는 방법을 나타낸다.
도 16은 일 실시예에 따른 마우스의 우측 버튼 드래그에 대응하는 포인터의 제2 GUI 이벤트를 발생시키는 방법을 나타낸다.
이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.
실시예에는 다양한 변경이 가해질 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 실시예를 실시 형태에 대해 한정하려는 것이 아니며, 실시예는 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
실시예에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 실시예를 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
도 1은 일 예에 따른 단말기의 테두리를 나타낸다.
예시적인 실시예들에서 사용되는 용어인 테두리는, 단말기의 측면의 가장자리 및 가장자리의 주변을 의미할 수 있다. 테두리는 단말기의 터치스크린과 연결되는 부분일 수 있다.
도 1에서 단말기(110)의 옆면 및 후면이 도시되어 있다. 단말기(110)에서, 테두리는 후면을 제외한 측면(120)일 수 있다. 또한 단말기의, 테두리는 전면 또는 후면의 일부를 포함할 수 있다. 말하자면, 테두리는 터치스크린의 모서리들의 전부 또는 일부일 수 있다.
도 2는 일 예에 따른 플렉서블 터치스크린을 갖는 단말기의 테두리를 나타낸다.
플렉서블(flexable) 터치스크린을 갖는 단말기에서, 플렉서블 터치스크린의 연장된 부분이 단말기의 테두리가 될 수 있다.
도 2에서, 단일한 플렉서블 터치스크린이 단말기의 전면 및 옆면을 이룬다. 상기의 단말기의 테두리(210)는 플렉서블 터치스크린의 일부일 수 있다. 플렉서블 터치스크린은 점선으로 표시된 부분을 경계로, 터치스크린 부분 및 테두리로 구분될 수 있다. 상기의 점선은 단말기의 외관으로서 드러나지 않을 수 있다.
상기의 점선은 플렉서블 터치스크린이 굽어지는 부분 또는 플렉서블 터치스크린의 곡률이 변하는 부분일 수 있다. 예를 들어, 점선은 단말기의 평평한 디스플레이 부분 및 휘어진 디스플레이 부분이 연결되는 부분을 나타낼 수 있다. 플렉서블 터치스크린에서 점선에 대응하는 부분, 즉 테두리로서 구성되는 부분은 단말기의 사용자에 의해 설정될 수 있다. 테두리(210)는 단말기의 좌측 및 우측을 모두 포함할 수 있다.
버튼들(220 및 230)은 물리적인 버튼들이 아닌, 플렉서블 터치스크린 상에 표시된 그래픽 유저 인터페이스(Graphical User Interface; GUI) 객체(object)들 일 수 있다.
도 3은 실시예들에 의해 제공되는 기능들을 예시적으로 나타낸다.
도시된 포인팅 시스템에 따르면, 단말기의 터치스크린 상에 포인터, 마우스의 좌측 버튼 및 우측 버튼이 구현될 수 있다. 그리고, 도시된 포인팅 시스템에서는 컴퓨터의 마우스의 포인터 움직임, 마우스의 좌측 버튼 클릭, 좌측 버튼 드래그, 우측 버튼 클릭 또는 우측 버튼 드래그에 대응하는 이벤트가 스마트폰과 같은 단말기에서 생성될 수 있다.
도시된 포인팅 시스템에서는 사용자가 왼손으로 단말기를 파지한 상태에서, 왼손의 손가락들의 테두리의 터치 유무에 따라 GUI 객체 또는 포인터가 제어된다.
이하, 도 4 내지 도 16을 참조하여 본 발명에 의해 구현되는 다양한 실시예들이 설명된다.
도 4는 일 예에 따른 사용자가 단말기의 테두리를 파지하는 자세들을 나타낸다.
도 4의 제1 자세(410)는 사용자가 단말기의 테두리를 사용자의 왼손 또는 오른손의 다섯 손가락들을 이용함으로써 파지하는 자세이다. 제1 자세(410)는 사용자의 다섯 손가락들이 단말기의 테두리와 접촉하고 있는 자세일 수 있다. 예를 들어, 사용자가 왼손을 이용하는 경우 제1 자세(410)는 왼손의 엄지 손가락이 테두리의 왼편과 접촉하고, 왼손의 다른 네 손가락들이 테두리의 오른편과 접촉하는 자세일 수 있다.
제2 자세(420)는 제1 자세(410)에서 변형된 자세일 수 있다.
제2 자세(420)는 복수 개일 수 있다. 예를 들어, 제2 자세(420)는 제1 자세(410)에서 접촉되어 있는 손가락들 중 적어도 하나 이상을 테두리에서 뗀 자세일 수 있다.
예를 들면, 도 4에서 도시된 것과 같이, 제2 자세(420)는 제1 자세(410)에서 검지 손가락을 테두리에서 뗀 자세일 수 있다. 즉, 제2 자세(420)는 검지 손가락을 제외한 사용자의 나머지 네 손가락들이 단말기의 테두리를 파지하고 있는 자세일 수 있다. 대안적인 제2 자세(430)는 제1 자세(410)에서 중지 손가락을 테두리에서 뗀 자세일 수 있다. 즉, 대안적인 제2 자세(430)는 중지 손가락을 제외한 사용자의 나머지 네 손가락들이 단말기의 테두리를 파지하고 있는 자세일 수 있다.
도 5는 일 실시예에 따른 터치 입력을 제공하는 장치의 구성도이다.
단말기(500)는 스마트폰(smartphone), 태블릿(tablet), 노트북(notebook), 컴퓨터 및 피디에이(PDA)를 포함할 수 있다. 단말기(500)는 이동형 단말기일 수 있다.
단말기(500)는 테두리(510), 터치스크린(520) 및 프로세서(530)를 포함할 수 있다.
테두리(510)는 단말기(500)의 외장, 케이스(case) 또는 하우징(housing)의 일부일 수 있다. 테두리(510)는 단말기(500)의 부품 중 하나일 수 있고, 단말기(500)의 측면으로 구분되는 부분일 수 있다.
프로세서(530) 또는 테두리(510)는 테두리(510)에 대한 사용자의 터치를 인식 및 검출할 수 있다. 프로세서(530) 또는 테두리(510)는 테두리(510)의 전 범위에 걸쳐 손가락들의 접촉을 인식 및 검출할 수 있다. 예를 들어, 프로세서(530) 또는 테두리(510)는 테두리(510)와 접촉된 손가락들의 개수 및 접촉된 위치들을 인식 및 검출할 수 있다.
또한, 프로세서(530) 또는 테두리(510)는, 단말기(500)의 사용자가 단말기의 테두리(510)를 파지하는 자세가 소정의 자세임을 검출할 수 있다. 소정의 자세는 손가락들에 의해 터치되는 테두리(510)의 위치 및 터치되는 손가락들의 개수에 기반하여 설정될 수 있다.
터치스크린(520)은 사용자의 터치 입력을 수신할 수 있다.
프로세서(530)는 터치스크린(520)에 GUI를 표시할 수 있다. 프로세서(530)는 소정의 자세가 검출된 경우 터치스크린(520)에 GUI 객체를 표시할 수 있다. 프로세서(530)는 소정의 자세로 테두리(510)가 파지된 상태에서 터치스크린(520) 상의 터치가 인식되면, 터치스크린(520) 중 터치의 위치에 포인터를 표시할 수 있다.
도 6은 일 실시예에 따른 터치 입력을 제공하는 방법의 흐름도이다.
단계(610)에서, 프로세서(530) 또는 테두리(510)는 단말기(500)의 사용자가 단말기의 테두리(510)를 파지하는 자세가 소정의 제1 자세임을 검출할 수 있다. 예를 들어, 소정의 제1 자세는 단말기(500)의 사용자의 한 손의 다섯 손가락들이 테두리(510)에 모두 접촉되는 자세일 수 있다. 예를 들어, 소정의 제1 자세는 도 4를 참조하여 설명된 제1 자세(410)일 수 있다.
단계(620)에서, 프로세서(530)는 소정의 제1 자세가 프로세서(530) 또는 테두리(510)에 의해 검출된 경우 GUI 객체를 단말기의 터치스크린(520)에 표시할 수 있다. 예를 들어, 표시되는 GUI 객체는 수문자판일 수 있다.
단계(630)에서, 프로세서(530) 또는 테두리(510)는 단말기(500)의 사용자가 단말기의 테두리(510)를 파지하는 자세가 소정의 제2 자세임을 검출할 수 있다. 예를 들어, 소정의 제2 자세는 소정의 제1 자세에서 사용자의 한 손의 다섯 손가락들 중 한 손가락의 자세가 변형된 자세일 수 있다. 상기의 한 손가락은 검지 손가락 또는 중지 손가락일 수 있다. 예를 들어, 변형된 자세는 테두리(510)에 접촉된 한 손가락을 테두리(510)에서 떼는 것일 수 있다. 예를 들어, 제2 자세는 도 4를 참조하여 설명된 제2 자세(420) 또는 대안적인 제2 자세(430)일 수 있다.
또 다른 예로, 변형된 자세는 테두리(510)에 접촉된 한 손가락의 위치를 테두리(510)의 다른 위치로 테두리(510)를 문지르며 이동하는 것일 수 있다.
단계(640)에서, 프로세서(530)는 소정의 제2 자세가 프로세서(530) 또는 테두리(510)에 의해 검출된 경우 터치스크린(520)에 표시된 GUI 객체를 변경 또는 변형할 수 있다.
여기서, GUI 객체의 변형은 GUI 객체의 외형 또는 기능 중 일부를 변경하는 것일 수 있다. GUI 객체의 변경은 표시된 GUI 객체를 하나의 GUI 객체에서 다른 GUI 객체로 변경될 수 있다. 여기서, 변경 또는 변형 전후의 객체들은 서로 간에 외형, 기능, 용도 또는 목적 등에 있어서 서로 간에 관련된 객체들일 수 있다.
상기의 GUI 객체의 변경 또는 변형에 관하여 하기의 도 7 내지 도 9를 참조하여 상세히 설명된다.
도 7은 일 실시예에 따른 소정의 제1 자세가 검출된 경우 터치스크린에 표시되는 GUI 객체를 나타낸다.
도 7에서 단말기(500)의 사용자는 도 4를 참조하여 설명된 제1 자세(410)로 단말기의 테두리(510)를 파지하고 있다.
단말기(500)에 미리 설정된 제1 자세가 상기의 제1 자세(410)인 경우, 프로세서(530) 또는 테두리(510)는 단말기(500)의 사용자가 단말기의 테두리(510)를 파지하는 자세가 소정의 제1 자세임을 검출할 수 있다.
소정의 제1 자세가 프로세서(530) 또는 테두리(510)에 의해 검출된 경우, 프로세서(530)는 GUI 객체(710)를 단말기의 터치스크린(520)에 표시할 수 있다. 도 7에서 GUI 객체(710)는 한글 자음자판이다.
도 8은 일 실시예에 따른 소정의 제2 자세가 검출된 경우 터치스크린에 표시되는 변형된 GUI 객체를 나타낸다.
도 8에서, 단말기(500)의 사용자는 도 4를 참조하여 설명된 제2 자세(420)로 단말기의 테두리(510)를 파지하고 있다.
소정의 제1 자세의 검출에 따라 GUI 객체(710)가 표시된 후, 단말기(500)에 미리 설정된 소정의 제2 자세가 상기의 제2 자세(420)인 경우, 프로세서(530) 또는 테두리(510)는 단말기(500)의 사용자가 단말기의 테두리(510)를 파지하는 자세가 소정의 제2 자세임을 검출할 수 있다.
소정의 제2 자세가 프로세서(530) 또는 테두리(510)에 의해 검출된 경우, 프로세서(530)는 터치스크린(530)에 표시된 GUI 객체(710)를 GUI 객체(810)로 변경할 수 있다. 도 8에서 변경된 GUI 객체(810)는 한글 모음자판이다.
도 8에서 도시된 제2 자세(420) 이외에 다른 제2 자세가 사용될 수 있다. 예를 들어, 다른 제2 자세는 도 4를 참조하여 설명된 대안적인 제2 자세(430)일 수 있다.
상기의 도 7 및 도 8을 참조하여 설명된 일 실시예는 프로세서(530) 또는 테두리(510)가 사용자가 단말기의 테두리(510)를 파지하는 자세를 검출함으로써 조절되는 한글자판을 통해 자판 입력의 오류를 감소시킬 수 있다. 또한, 일 실시예는 직관적인 자판의 배치를 이용함으로써 사용자의 편리함을 증대할 수 있다.
도 9는 일 예에 따른 터치스크린에 표시되는 GUI 객체 및 변경된 GUI 객체를 나타낸다.
일 예에 따른 도 8의 GUI 객체(710) 및 변경된 GUI 객체(810) 이외에도 다양한 GUI 객체들이 표시될 수 있고, 다른 GUI 객체들로 변경될 수 있다. 예를 들어, GUI 객체(710)는 한글 자판이고, 변경된 GUI 객체(810)는 영문 자판일 수 있다. 변경된 GUI 객체(810)는 GUI 객체(710)가 변경된 객체일 수 있다.
다른 일 예로, 도 9에서는 GUI 객체로서 영문자판을 도시되었다.
도 9에서, 프로세서(530) 또는 테두리(510)가 소정의 제1 자세를 검출하면, 프로세서(530)는 터치스크린(520)에 제1 영문자판 GUI 객체(910)를 표시한다. 그리고, 소정의 제1 자세 검출 뒤, 프로세서(530) 또는 테두리(510)가 소정의 제2 자세를 검출하면, 프로세서(530)는 제2 영문자판 GUI 객체(920)를 표시할 수 있다. 여기서 제1 영문자판 GUI 객체(910)는 소문자 a 내지 소문자 n을 표시하는 문자판이고, 제2 영문자판 GUI 객체(920)는 소문자 o 내지 소문자 z을 표시하는 문자판일 수 있다.
도 10은 일 실시예에 따른 터치 입력을 제공하는 방법의 흐름도이다.
도 10을 참조하여 설명되는 일 실시예는 프로세서(530) 또는 테두리(510)가 사용자의 단말기(500) 파지 자세를 검출함으로써 포인터의 움직임, 드래그 및 클릭의 기능을 제공할 수 있다.
단계(1010)에서, 프로세서(530) 또는 테두리(510)는 단말기(500)의 사용자가 단말기의 테두리(510)를 파지하는 자세가 소정의 제1 자세임을 검출할 수 있다. 예를 들어, 소정의 제1 자세는 단말기(500)의 사용자의 한 손의 다섯 손가락들이 테두리(510)에 모두 접촉되는 자세일 수 있다. 즉, 소정의 제1 자세는 도 4를 참조하여 설명된 제1 자세(410)일 수 있다.
단계(1020)에서, 소정의 제1 자세로 테두리(510)가 파지된 상태에서, 터치스크린(520)은 단말기(500)의 터치스크린(520) 상의 사용자의 터치를 인식할 수 있다.
단계(1030)에서, 프로세서(530)는 터치스크린(520) 중 상기의 터치의 위치에 포인터를 표시할 수 있다. 예를 들어, 포인터는 커서(cursor) 또는 빔(beam)일 수 있다.
단계(1040)에서, 단계(1030)의 상기의 터치가 유지된 채, 프로세서(530) 또는 테두리(510)는 사용자가 단말기의 테두리(510)를 파지하는 자세가 소정의 제2 자세임을 검출할 수 있다. 소정의 제2 자세는 복수 개일 수 있다. 예를 들어, 소정의 제2 자세는 도 4를 참조하여 설명된 제2 자세(420) 및 대안적인 제2 자세(430)를 포함할 수 있다.
단계(1040)의 수행 후에는, 단계(1050) 또는 단계(1070)가 수행될 수 있다.
단계(1050)에서, 단계(1040)의 소정의 제2 자세의 검출 후, 프로세서(530) 또는 테두리(510)는 소정의 제1 자세를 재검출할 수 있다.
단계(1060)에서, 프로세서(530)는 제1 GUI 이벤트를 생성할 수 있다. 제1 GUI 이벤트를 생성하는 단계(1060)는 소정의 제1 자세를 재검출하는 단계(1050) 이후에 수행될 수 있다.
생성된 제1 GUI 이벤트는 단계(1040)에서 검출된 소정의 제2 자세에 기반하여 결정될 수 있다. 말하자면, 프로세서(530)는 검출된 소정의 제2 자세가 어떤 자세인가에 따라 검출된 소정의 제2 자세에 대응하는 제1 GUI 이벤트를 발생시킬 수 있다.
제1 GUI 이벤트는 복수 개일 수 있다. 복수의 소정의 제2 자세들 및 복수의 제1 GUI 이벤트들은 각각 대응할 수 있다. 예를 들면, 소정의 제2 자세가 제2 자세(420)인 경우, 생성되는 제1 GUI 이벤트는 마우스의 좌측 버튼 클릭에 대응하는 이벤트일 수 있다. 다른 예로, 소정의 제2 자세가 대안적인 제2 자세(430)인 경우, 생성되는 제1 GUI 이벤트는 마우스의 우측 버튼 클릭에 대응하는 이벤트일 수 있다.
제1 GUI 이벤트의 생성은 포인터가 가리키는 GUI 객체에 대해 발생할 수 있다. 말하자면, 다수의 GUI 객체들은 각각 이벤트를 수신할 수 있고, 프로세서(530)는 특정한 GUI 객체에 대해 이벤트를 발생시킬 수 있다. 프로세서(530)는 GUI 객체에 대해 검출된 소정의 제2 자세에 대응하는 제1 GUI 이벤트를 발생시킬 수 있다.
단계(1070)에서, 터치스크린(520)은 단계(1040)의 소정의 제2 자세로 테두리(510)가 파지된 상태에서, 상기의 터치의 드래그를 인식할 수 있다. 여기에서, 터치의 드래그는 터치가 유지된 상태에서 터치의 위치가 이동하는 것을 의미할 수 있다.
단계(1080)에서, 프로세서(530)는 단계(1070)에서 인식된 드래그에 대응하는 제2 GUI 이벤트를 생성할 수 있다. 생성된 제2 GUI 이벤트는 단계(1040)에서 검출된 소정의 제2 자세에 기반하여 결정될 수 있다. 즉, 프로세서(530)는 GUI 객체에 대해 검출된 소정의 제2 자세에 대응하는 제2 GUI 이벤트를 발생시킬 수 있다.
제2 GUI 이벤트는 복수 개일 수 있다. 복수의 소정의 제2 자세들 및 복수의 제2 GUI 이벤트들은 각각 대응할 수 있다. 예를 들면, 소정의 제2 자세가 제2 자세(420)인 경우, 생성되는 제2 GUI 이벤트는 마우스의 좌측 버튼 드래그에 대응하는 이벤트일 수 있다. 다른 예로, 소정의 제2 자세가 대안적인 제2 자세(430)인 경우, 생성되는 제2 GUI 이벤트는 마우스의 우측 버튼 드래그에 대응하는 이벤트일 수 있다.
하기의 도 15 내지 도 16을 참조하는 설명에서 제2 GUI 이벤트에 관하여 상세히 설명된다.
도 11은 일 예에 따른 마우스의 좌측 버튼 클릭 또는 우측 버튼 클릭에 대응하는 스마트폰 내에서의 이벤트를 생성하기 위해 변형되는 손가락들을 나타낸다.
도 4를 참조하여 설명된 제1 자세(410)가 기본 자세로 설정될 수 있다. 기본 자세에서 다른 자세로의 변형은 마우스의 동작에 대응할 수 있다. 예를 들어, 기본 자세에서 검지 손가락을 변형하는 자세들은 마우스의 좌측 버튼에 관련된 동작들에 대응할 수 있다. 다른 예로, 기본 자세에서 중지 손가락을 변형하는 자세들은 마우스의 우측 버튼에 관련된 동작들에 대응할 수 있다. 마우스의 버튼들에 관련된 동작들은 버튼의 클릭 및 버튼이 눌린 상태에서의 드래그를 포함할 수 있다.
도 12는 일 실시예에 따른 소정의 제1 자세임이 검출된 상태에서 터치의 위치에 포인터를 표시하는 방법을 나타낸다.
단계(1210)에서, 프로세서(530) 또는 테두리(510)는 사용자가 단말기(500)를 파지하는 자세가 소정의 제1 자세임을 검출할 수 있다. 예를 들어, 소정의 제1 자세는 도 4를 참조하여 설명된 제1 자세(410)일 수 있다.
단계(1220)에서, 소정의 제1 자세로 테두리(510)가 파지된 상태에서, 터치스크린(520)은 터치스크린(520) 상의 터치 입력을 수신할 수 있다. 터치스크린(520)이 터치 입력이 수신하면, 프로세서(530)는 상기의 터치의 위치(1222)에 포인터(1224)를 표시할 수 있다.
소정의 제1 자세로 테두리(510)가 파지된 상태에서, 상기의 터치가 드래그된 경우, 프로세서(530)는 드래그의 위치를 따라서 포인터(1224)를 움직일 수 있다.
도 12에서, 포인터(1224)가 표시된 위치는 손가락 끝부분에서 시작되도록 도시되었다. 반면, 프로세서(530)는 포인터(1224)의 끝부분이 상기 터치된 위치를 가리키도록 포인터(1224)를 표시할 수 있다.
도 13은 일 실시예에 따른 포인터가 가리키는 GUI 객체에 대해 마우스의 좌측 버튼 클릭에 대응하는 제1 GUI 이벤트를 발생시키는 방법을 나타낸다.
단계(1310)는 도 12를 참조하여 설명된 단계(1224)에 대응할 수 있다.
단계(1310)에서, GUI 객체(1312)는 포인터(1224)가 가리키는 GUI 객체일 수 있다. 말하자면, GUI 객체(1312)는 포인터(1224)가 놓인 GUI 객체 또는 포인터(1224)의 아래에 위치한 GUI 객체일 수 있다.
단계(1320)에서, 프로세서(530) 또는 테두리(510)는 터치가 유지된 채 사용자가 단말기(500)의 테두리(510)를 파지하는 자세가 소정의 제2 자세임을 검출할 수 있다. 도 13의 제2 자세는 도 4를 참조하여 설명된 제2 자세(420)일 수 있다. 즉, 소정의 제2 자세는 소정의 제1 자세에서 검지 손가락을 테두리(510)에서 뗀 자세일 수 있다.
단계(1330)에서, 소정의 제2 자세의 검출 이후, 프로세서(530) 또는 테두리(510)는 소정의 제1 자세를 재검출할 수 있다. 즉, 재검출된 소정의 제1 자세는 테두리(510)에서 떼어진 검지 손가락을 다시 테두리(510)에 접촉하는 자세일 수 있다.
단계(1330)에서, 테두리(510)가 소정의 제1 자세를 재검출한 경우, 프로세서(530)는 소정의 제2 자세 및 재검출된 소정의 제1 자세에 대응하는 GUI 객체(1312)에 대한 제1 GUI 이벤트를 생성할 수 있다. 예를 들어, 생성되는 제1 GUI 이벤트는 마우스의 좌측 버튼 클릭에 대응하는 이벤트일 수 있다. 즉, 제1 GUI 이벤트는 포인터(1224)가 놓인 GUI 객체(1312)에 대한 마우스의 좌측 버튼 클릭을 나타낼 수 있다.
도 14는 일 실시예에 따른 포인터가 가리키는 GUI 객체에 대해 마우스의 우측 버튼 클릭에 대응하는 제1 GUI 이벤트를 발생시키는 방법을 나타낸다.
단계(1410)는 도 12를 참조하여 설명된 단계(1224)에 대응할 수 있다.
단계(1410)에서, GUI 객체(1412)는 포인터(1224)가 가리키는 GUI 객체일 수 있다.
단계(1420)에서, 프로세서(530) 또는 테두리(510)는 상기의 터치가 유지된 채 사용자가 단말기(500)의 테두리(510)를 파지하는 자세가 소정의 제2 자세임을 검출할 수 있다. 도 14의 소정의 제2 자세는 도 4를 참조하여 설명된 대안적인 제2 자세(430)이다. 즉, 소정의 제2 자세는 소정의 제1 자세에서 중지 손가락을 테두리(510)에서 뗀 자세일 수 있다.
단계(1430)에서, 소정의 제2 자세의 검출 이후, 프로세서(530) 또는 테두리(510)는 소정의 제1 자세를 재검출할 수 있다. 즉, 재검출된 소정의 제1 자세는 테두리(510)에서 떼어진 중지 손가락을 다시 테두리(510)에 접촉하는 자세일 수 있다.
단계(1430)에서, 프로세서(530) 또는 테두리(510)가 소정의 제1 자세를 재검출한 경우, 프로세서(530)는 소정의 제2 자세 및 검출된 소정의 제1 자세에 대응하는 GUI 객체(1412)에 대한 제1 GUI 이벤트를 생성할 수 있다. 예를 들어, 생성되는 제1 GUI 이벤트는 마우스의 우측 버튼 클릭에 대응하는 이벤트일 수 있다. 즉, 제1 GUI 이벤트는 포인터(1224)가 놓인 GUI 객체(1412)에 대한 마우스의 우측 버튼 클릭을 나타낼 수 있다.
도 15는 일 실시예에 따른 마우스의 좌측 버튼 드래그에 대응하는 포인터의 제2 GUI 이벤트를 발생시키는 방법을 나타낸다.
단계(1510)는 도 12를 참조하여 설명된 단계(1224)에 대응할 수 있다.
단계(1520)에서, 프로세서(530) 또는 테두리(510)는 터치가 유지된 채 사용자가 단말기의 테두리(510)를 파지하는 자세가 소정의 제2 자세임을 검출할 수 있다. 도 15의 소정의 제2 자세는 도 4를 참조하여 설명된 제2 자세(420)일 수 있다. 즉, 소정의 제2 자세는 소정의 제1 자세에서 검지 손가락을 테두리(510)에서 뗀 자세일 수 있다.
프로세서(530)는 프로세서(530) 또는 테두리(510)가 소정의 제2 자세를 검출했을 때 포인터(1224)가 표시된 제1 위치(1522)를 인식할 수 있다.
단계(1530)에서, 소정의 제2 자세의 검출 이후, 터치스크린(520)은 상기 터치가 드래그된 위치를 수신할 수 있다. 터치스크린(520)이 드래그된 위치를 수신하면, 프로세서(530)는 상기의 드래그된 위치에 포인터(1224)를 위치시킬 수 있다. 프로세서(530)는 드래그된 위치를 따라 포인터(1224)를 이동시킬 수 있다. 프로세서(530)는 드래그 후 터치가 된 위치를 제2 위치(1532)로 인식할 수 있다.
프로세서(530)가 제1 위치(1522) 및 제2 위치(1532)를 인식하면, 프로세서(530)는 제1 위치(1522) 및 제2 위치(1532)에 기반하여 영역을 설정할 수 있다. 예를 들면, 프로세서(530)는 제1 위치(1522) 및 제2 위치(1532)를 마주보는 꼭지점으로 하는 사각형의 영역(1534)을 설정할 수 있다.
단계(1530)에서, 사각형의 영역(1534)이 설정된 경우, 프로세서(530)는 소정의 제2 자세 및 사각형의 영역(1534)에 대응하는 제2 GUI 이벤트를 생성할 수 있다. 예를 들어, 생성되는 제2 GUI 이벤트는 마우스의 좌측 버튼 드래그에 대응하는 이벤트일 수 있다. 예를 들어, 좌측 버튼 드래그에 대응하는 이벤트는 사각형의 영역(1534) 내에 있는 GUI 객체들을 선택하는 것일 수 있다. 다른 예로, 좌측 버튼 드래그에 대응하는 이벤트는 사각형의 영역(1534) 내의 화면을 선택하는 것일 수 있다.
도 16은 일 실시예에 따른 마우스의 우측 버튼 드래그에 대응하는 포인터의 제2 GUI 이벤트를 발생시키는 방법을 나타낸다.
단계(1610)는 도 12를 참조하여 설명된 단계(1224)에 대응할 수 있다.
단계(1620)에서, 프로세서(530) 또는 테두리(510)는 터치가 유지된 채 사용자가 단말기의 테두리(510)를 파지하는 자세가 소정의 제2 자세임을 검출할 수 있다. 도 16의 제2 자세는 도 4를 참조하여 설명된 대안적인 제2 자세(430)일 수 있다. 즉, 소정의 제2 자세는 소정의 제1 자세에서 중지 손가락을 테두리(510)에서 뗀 자세일 수 있다.
프로세서(530)는 프로세서(530) 또는 테두리(510)가 소정의 제2 자세를 검출했을 때 포인터(1224)가 표시된 제1 위치(1622)를 인식할 수 있다.
단계(1630)에서, 소정의 제2 자세의 검출 이후, 터치스크린(520)은 상기 터치가 드래그된 위치를 수신할 수 있다. 터치스크린(520)이 드래그된 위치를 수신하면, 프로세서(530)는 상기의 드래그된 위치에 포인터(1224)를 위치시킬 수 있다. 프로세서(530)는 드래그된 위치를 따라 포인터(1224)를 이동시킬 수 있다. 프로세서(530)는 드래그 후 터치가 된 위치를 제2 위치(1632)로 인식할 수 있다.
프로세서(530)가 제1 위치(1622) 및 제2 위치(1632)를 인식하면, 프로세서(530)는 제1 위치(1522) 및 제2 위치(1532)에 기반하여 영역을 설정할 수 있다. 예를 들면, 프로세서(530)는 제1 위치(1622) 및 제2 위치(1632)를 마주보는 꼭지점으로 하는 사각형의 영역(1634)을 설정할 수 있다.
단계(1630)에서, 사각형의 영역(1634)이 설정된 경우, 프로세서(530)는 소정의 제2 자세 및 사각형의 영역(1634)에 대응하는 제2 GUI 이벤트를 생성할 수 있다. 예를 들어, 생성되는 제2 GUI 이벤트는 마우스의 우측 버튼 드래그에 대응하는 이벤트일 수 있다. 예를 들어, 우측 버튼 드래그에 대응하는 이벤트는 사각형의 영역(1534) 내에 있는 GUI 객체들에 대한 제어 메뉴를 표시하는 것일 수 있다.
앞서 도 1 내지 도 15를 참조하여 설명된 기술적 내용들이 그대로 적용될 수 있으므로, 보다 상세한 설명은 이하 생략하기로 한다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.

Claims (15)

  1. 단말기의 터치 입력을 제공하는 방법에 있어서,
    상기 단말기의 사용자가 상기 단말기의 테두리를 파지하는 자세가 소정의 제1 자세임을 검출하는 단계; 및
    상기 소정의 제1 자세가 검출된 경우 GUI 객체를 상기 단말기의 터치스크린에 표시하는 단계
    를 포함하는 터치 입력을 제공하는 방법.
  2. 제1항에 있어서,
    상기 GUI 객체는 수문자판인 터치 입력을 제공하는 방법.
  3. 제1항에 있어서,
    상기 소정의 제1 자세는 상기 단말기의 사용자의 한 손의 다섯 손가락들이 상기 테두리에 모두 접촉되는 자세인 터치 입력을 제공하는 방법.
  4. 제1항에 있어서,
    상기 사용자가 상기 단말기의 테두리를 파지하는 자세가 소정의 제2 자세임을 검출하는 단계; 및
    상기 소정의 제2 자세가 검출된 경우 상기 터치스크린에 표시된 상기 GUI 객체를 변경하는 단계
    를 더 포함하는 터치 입력을 제공하는 방법.
  5. 제4항에 있어서
    상기 제2 자세는 상기 제1 자세에서 상기 사용자의 한 손의 다섯 손가락들 중 한 손가락의 자세가 변형된 자세인 터치 입력을 제공하는 방법.
  6. 제5항에 있어서,
    상기 변형은 상기 한 손가락을 상기 테두리에서 떼는 것인 터치 입력을 제공하는 방법.
  7. 단말기에 있어서,
    사용자의 터치 입력을 수신하는 터치스크린; 및
    상기 사용자가 상기 단말기의 테두리를 파지하는 자세가 소정의 제1 자세임을 검출하고, 상기 소정의 제1 자세가 검출된 경우 상기 터치스크린에 GUI 객체를 표시하는 프로세서
    를 포함하는 터치 입력을 제공하는 단말기.
  8. 단말기의 터치 입력을 제공하는 방법에 있어서,
    상기 단말기의 사용자가 상기 단말기의 테두리를 파지하는 자세가 소정의 제1 자세임을 검출하는 단계;
    상기 소정의 제1 자세로 상기 테두리가 파지된 상태에서 상기 단말기의 터치스크린 상의 터치를 인식하는 단계; 및
    상기 터치스크린 중 상기 터치의 위치에 포인터를 표시하는 단계
    를 포함하는 터치 입력을 제공하는 방법.
  9. 제8항에 있어서
    상기 소정의 제1 자세는 한 손의 다섯 손가락들이 상기 테두리에 모두 접촉되는 자세인 터치 입력을 제공하는 방법.
  10. 제8항에 있어서,
    상기 터치가 유지된 채 상기 사용자가 상기 단말기의 테두리를 파지하는 자세가 소정의 제2 자세임을 검출하는 단계; 및
    제1 GUI 이벤트를 생성하는 단계
    를 더 포함하고,
    상기 생성된 제1 GUI 이벤트는 상기 검출된 소정의 제2 자세에 기반하여 결정되는 터치 입력을 제공하는 방법.
  11. 제10항에 있어서,
    상기 제1 GUI 이벤트를 생성하는 단계는 상기 포인터가 가리키는 GUI 객체에 대해 상기 검출된 소정의 제2 자세에 대응하는 상기 제1 GUI 이벤트를 발생시키는 터치 입력을 제공하는 방법.
  12. 제10항에 있어서,
    상기 소정의 제2 자세 및 상기 제1 GUI 이벤트는 각각 복수이고, 상기 복수의 소정의 제2 자세들 및 상기 복수의 제1 GUI 이벤트들은 각각 대응하는 터치 입력을 제공하는 방법.
  13. 제10항에 있어서,
    상기 소정의 제2 자세로 상기 테두리가 파지된 상태에서 상기 터치의 드래그를 인식하는 단계; 및
    상기 인식된 드래그에 대응하는 제2 GUI 이벤트를 생성하는 단계
    를 더 포함하는 터치 입력을 제공하는 방법.
  14. 제10항에 있어서,
    상기 소정의 제2 자세의 검출 이후, 상기 소정의 제1 자세를 재검출하는 단계
    를 더 포함하고,
    상기 제1 GUI 이벤트를 생성하는 단계는 상기 재검출하는 단계의 이후에 수행되는 터치 입력을 제공하는 방법.
  15. 단말기에 있어서,
    사용자의 터치 입력을 수신하는 터치스크린; 및
    상기 사용자가 상기 단말기의 테두리를 파지하는 자세가 소정의 제1 자세임을 검출하고, 상기 소정의 제1 자세로 상기 테두리가 파지된 상태에서 상기 터치스크린 상의 터치를 인식하고, 상기 터치스크린 중 상기 터치의 위치에 포인터를 표시하는 프로세서
    를 포함하는 터치 입력을 제공하는 단말기.
PCT/KR2014/004126 2013-07-23 2014-05-09 테두리 터치를 이용하는 입력 및 포인팅을 위한 방법 및 장치 WO2015012478A1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US14/907,271 US20160187993A1 (en) 2013-07-23 2014-05-09 Method and apparatus for input and pointer using border touch
EP14828807.9A EP3026527A1 (en) 2013-07-23 2014-05-09 Method and apparatus for input and pointer using border touch

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020130086798A KR101482867B1 (ko) 2013-07-23 2013-07-23 테두리 터치를 이용하는 입력 및 포인팅을 위한 방법 및 장치
KR10-2013-0086798 2013-07-23

Publications (1)

Publication Number Publication Date
WO2015012478A1 true WO2015012478A1 (ko) 2015-01-29

Family

ID=52393481

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2014/004126 WO2015012478A1 (ko) 2013-07-23 2014-05-09 테두리 터치를 이용하는 입력 및 포인팅을 위한 방법 및 장치

Country Status (4)

Country Link
US (1) US20160187993A1 (ko)
EP (1) EP3026527A1 (ko)
KR (1) KR101482867B1 (ko)
WO (1) WO2015012478A1 (ko)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113535051A (zh) * 2020-04-14 2021-10-22 深圳市万普拉斯科技有限公司 移动终端屏幕旋转控制方法、装置及计算机设备
KR20220012140A (ko) * 2020-07-22 2022-02-03 주식회사 넥슨코리아 오브젝트배치장치 및 오브젝트배치방법

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060128223A (ko) 2005-06-09 2006-12-14 삼성전자주식회사 원형 자판 배열을 이용한 문자 입력 방법 및 문자 입력장치
KR20100006219A (ko) * 2008-07-09 2010-01-19 삼성전자주식회사 사용자 인터페이스 방법 및 장치
KR20100080303A (ko) * 2008-12-29 2010-07-08 황재엽 터치스크린용 가상마우스 구현방법
JP2010154090A (ja) * 2008-12-24 2010-07-08 Toshiba Corp 携帯端末
KR20100121183A (ko) * 2009-05-08 2010-11-17 엘지전자 주식회사 휴대용 단말기 및 그 사용자 인터페이스 제어 방법
KR20110090447A (ko) * 2010-02-04 2011-08-10 에스케이텔레콤 주식회사 단말기의 파지형태에 따른 사용자 인터페이스 제공 방법 및 장치

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7800592B2 (en) * 2005-03-04 2010-09-21 Apple Inc. Hand held electronic device with multiple touch sensing devices
EP2649505B1 (en) * 2010-12-08 2019-06-05 Nokia Technologies Oy User interface
US9658767B2 (en) * 2011-10-17 2017-05-23 Sony Corporation Information processing device
JP2014044605A (ja) * 2012-08-28 2014-03-13 Fujifilm Corp タッチ検知ディスプレイにおける入力制御装置および方法並びにプログラム
DE102013007250A1 (de) * 2013-04-26 2014-10-30 Inodyn Newmedia Gmbh Verfahren zur Gestensteuerung

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060128223A (ko) 2005-06-09 2006-12-14 삼성전자주식회사 원형 자판 배열을 이용한 문자 입력 방법 및 문자 입력장치
KR20100006219A (ko) * 2008-07-09 2010-01-19 삼성전자주식회사 사용자 인터페이스 방법 및 장치
JP2010154090A (ja) * 2008-12-24 2010-07-08 Toshiba Corp 携帯端末
KR20100080303A (ko) * 2008-12-29 2010-07-08 황재엽 터치스크린용 가상마우스 구현방법
KR20100121183A (ko) * 2009-05-08 2010-11-17 엘지전자 주식회사 휴대용 단말기 및 그 사용자 인터페이스 제어 방법
KR20110090447A (ko) * 2010-02-04 2011-08-10 에스케이텔레콤 주식회사 단말기의 파지형태에 따른 사용자 인터페이스 제공 방법 및 장치

Also Published As

Publication number Publication date
EP3026527A1 (en) 2016-06-01
US20160187993A1 (en) 2016-06-30
KR101482867B1 (ko) 2015-01-15

Similar Documents

Publication Publication Date Title
WO2017095040A1 (en) User terminal device and displaying method thereof
WO2013151347A1 (ko) 입력 장치 및 문자 입력 방법
WO2011096702A2 (ko) 문자 입력 장치 및 방법
WO2010137859A2 (en) Apparatus and method for unlocking a locking mode of portable terminal
WO2015023136A1 (ko) 전자장치에서 그립상태를 인지하기 위한 방법 및 장치
WO2011046270A1 (ko) 멀티터치 방식 입력제어 시스템
WO2011102689A2 (en) Multilingual key input apparatus and method thereof
WO2011053058A2 (en) Mobile device and method for providing user interface (ui) thereof
WO2016186463A1 (en) Method for launching a second application using a first application icon in an electronic device
WO2011004960A2 (ko) 멀티터치 방식 문자입력 방법
WO2013141464A1 (ko) 터치 기반의 입력제어 방법
WO2015102227A1 (en) Mobile terminal and method of controlling the same
WO2014029170A1 (zh) 电容和电磁双模触摸屏的触控方法及手持式电子设备
WO2014137176A1 (en) Input apparatus, display apparatus, and control methods thereof
WO2012064128A2 (ko) 터치스크린장치 및 그 제어방법
WO2018056642A2 (en) Electronic device and method thereof for managing applications
WO2012173378A2 (ko) 키보드 레이아웃을 제공하는 유저 인터페이스 제공 장치 및 방법
WO2015012629A1 (en) Method of processing input and electronic device thereof
WO2016089074A1 (en) Device and method for receiving character input through the same
WO2017078314A1 (en) Electronic device for displaying multiple screens and control method therefor
WO2017003068A1 (en) Electronic device for displaying keypad and keypad displaying method thereof
EP3087752A1 (en) User terminal apparatus, electronic apparatus, system, and control method thereof
WO2010005159A1 (ko) 키 입력 유닛 및 키 입력 방법
WO2013191408A1 (en) Method for improving touch recognition and electronic device thereof
WO2015012478A1 (ko) 테두리 터치를 이용하는 입력 및 포인팅을 위한 방법 및 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14828807

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 14907271

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

REEP Request for entry into the european phase

Ref document number: 2014828807

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2014828807

Country of ref document: EP