WO2018236047A1 - 터치 감지 및 터치압력 감지가 가능한 장치 및 제어방법 - Google Patents

터치 감지 및 터치압력 감지가 가능한 장치 및 제어방법 Download PDF

Info

Publication number
WO2018236047A1
WO2018236047A1 PCT/KR2018/005191 KR2018005191W WO2018236047A1 WO 2018236047 A1 WO2018236047 A1 WO 2018236047A1 KR 2018005191 W KR2018005191 W KR 2018005191W WO 2018236047 A1 WO2018236047 A1 WO 2018236047A1
Authority
WO
WIPO (PCT)
Prior art keywords
touch
swipe gesture
pressure
swipe
control operation
Prior art date
Application number
PCT/KR2018/005191
Other languages
English (en)
French (fr)
Inventor
최성하
김세엽
Original Assignee
주식회사 하이딥
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 하이딥 filed Critical 주식회사 하이딥
Priority to JP2019559061A priority Critical patent/JP2020518914A/ja
Priority to US16/610,022 priority patent/US20200089362A1/en
Publication of WO2018236047A1 publication Critical patent/WO2018236047A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0414Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using force sensing means to determine a position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation

Definitions

  • the present invention relates to an apparatus and a control method capable of performing touch sensing and touch pressure sensing, and more particularly, to an apparatus having a touch sensing means and a touch pressure sensing means, To an apparatus and a control method for improving operability of the apparatus.
  • Various types of input devices have been used for the manipulation of computing systems such as smart phones, tablet PCs, notebook computers, navigation devices, kiosks (KIOSK), and the like.
  • touch screens touch-sensitive displays
  • a notebook computer is configured to control the execution of a screen or a program displayed on a monitor by using a touch panel. The use of such touch sensing means simplifies the user interface.
  • an intuitive interface using touch sensing means is used to enlarge or reduce a screen on a touch screen.
  • a zoom-in gesture for enlarging the screen is generally performed by using two fingers to contact two contact points P1 and P2 on the screen (in the beginning of the zoom-in gesture) And the operation of releasing the finger from the screen after the finger is opened, and the apparatus enlarges and displays the screen according to the zoom-in gesture. That is, from the beginning of the zoom-in gesture, the screen is displayed while increasing the enlargement ratio of the screen according to the degree of fingering until the fingers are opened and stopped.
  • Korean Patent Laid-Open Publication No. 10-2015-0068957 discloses a method of loading a map image by rendering a zoom level for a geographical origin and a geographical destination and reducing a zoom level for another part according to the intensity of a user's touch pressure The time required for the operation is shortened.
  • An object of an embodiment of the present invention is to improve operability of a device capable of touch sensing and touch pressure sensing.
  • Another object of an embodiment of the present invention is to provide a user interface capable of easily terminating a running application without using a separate home button in a device capable of touch sensing and touch pressure sensing.
  • Another object of an embodiment of the present invention is to provide a user interface that can be easily changed to a one-hand input mode in which key input can be performed with one hand.
  • Another object of an embodiment of the present invention is to provide a user interface capable of easily performing an operation related to an object such as movement, rotation, transmission, deletion, and object information display of an object with one hand.
  • a control method in a device capable of touch sensing and touch pressure sensing including: a pressure touch sensing step of sensing a pressure touch; a swipe a swipe detection step of detecting a swipe gesture, and a control operation step of performing a control operation when the swipe gesture ends.
  • a method includes the steps of sensing a swipe gesture in which a touch point is moved from a first point of contact to a second point of contact, A pressure touch sensing step of sensing a pressure touch at a point and a control operation step of performing a control operation when a pressure touch is sensed.
  • An apparatus includes a display, a touch sensing unit, a pressure sensing unit capable of sensing a magnitude of pressure at a touched place, and a control unit.
  • the control unit performs a control operation when the swipe gesture is terminated after a sweep gesture is detected in which a pressure touch is detected and then a touch point is moved.
  • an apparatus includes a display, a touch sensing unit, a pressure sensing unit capable of sensing a magnitude of pressure at a touched place, and a control unit.
  • the control unit performs a control operation when a pressure touch is sensed at the second touch point following the swipe gesture in which the touch point is moved from the first touch point to the second touch point.
  • the control action may be one of a default value setting of the control amount such as the end of a running application, a one-handed keyboard mode change, an object deletion, transmission, movement, rotation, object information display, screen brightness, volume, playback speed, .
  • the home button may be removed from the device depending on the design.
  • the change to the one-handed keyboard mode in which the key input can be performed with one hand can be easily performed with one hand.
  • operations such as deletion, transmission, movement, rotation, and object information display of an object can be easily performed with one hand.
  • setting of the default value of the control amount such as the screen brightness, the volume, the reproduction speed, the zoom level and the like can be easily performed with one hand.
  • FIG. 1 is a functional block diagram of an apparatus having a touch screen according to an embodiment of the present invention.
  • FIG. 2 is a flow chart for explaining the operation of the apparatus according to the force and swipe gesture
  • 3 is a view for explaining the upper and lower components and the left and right components in the swipe direction.
  • FIG. 4 shows an example of determining whether the swipe direction is the up-and-down direction or the left-right direction according to the absolute values of the upper and lower components in the swipe direction and the absolute values of the left and right components.
  • 5 is an example of a two-handed keyboard.
  • FIG. 6 is a diagram showing two examples of a one-hand keyboard.
  • FIG. 7 shows another example of a one-hand keyboard in which a key is input with the right-hand thumb.
  • FIG. 8 is a view showing a state in which the object A is deleted by performing a pressure touch with the thumb of a hand holding the device and then performing a swipe gesture downward.
  • FIG. 9 shows a state where an app is moved by pressure-touching and swiping gestures.
  • FIG. 10 shows a state in which an object is pressure-touched and a swipe gesture is performed to change the direction of the object.
  • 11 is a flowchart for explaining the operation of the apparatus according to the swipe-and-force gesture.
  • FIG. 12 shows a state in which the app position is moved by performing a swipe gesture from the app and performing a pressure touch.
  • FIG. 13 shows a state in which the direction of an object is changed by performing a swipe gesture from an object and performing a pressure touch.
  • FIG. 15 shows information related to an object (book) according to a swipe and a control operation (purchase / rental) related to the object is performed according to a pressure touch on the object.
  • FIG. 1 is a block diagram of an apparatus 100 according to one embodiment to which the present invention may be applied, showing an example in which the present invention is applied to a smartphone.
  • the apparatus 100 includes a wireless communication unit 110, an input unit 120, a sensing unit 130, an output unit 150, an interface unit 160, a memory 140, a control unit 180, And the like.
  • the components shown in FIG. 1 are not essential to the implementation of the device, and the device described herein may have more or fewer components than the components listed above.
  • the wireless communication unit 110 includes one or more modules that enable wireless communication between the device 100 and a wireless communication system, between the device 100 and another device 100, or between the device 100 and an external server can do.
  • the wireless communication unit 110 may include one or more modules that connect the device 100 to one or more networks.
  • the wireless communication unit 110 may include at least one of a mobile communication module 112, a wireless Internet module 113, a short range communication module 114, and a location information module 115.
  • the mobile communication module 112 transmits and receives a radio signal to at least one of a base station, an external terminal, and a server on a mobile communication network established according to technical standards for mobile communication or a communication method.
  • the wireless Internet module 113 refers to a module for wireless Internet access, and may be embedded in the device 100 or externally.
  • the wireless Internet module 113 is configured to transmit and receive a wireless signal in a communication network according to wireless Internet technologies such as a WLAN (Wireless LAN) and a Wi-Fi (Wireless-Fidelity).
  • wireless Internet technologies such as a WLAN (Wireless LAN) and a Wi-Fi (Wireless-Fidelity).
  • the short range communication module 114 may be a short range communication module using technologies such as Bluetooth TM, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), ZigBee, and Near Field Communication communication.
  • RFID Radio Frequency Identification
  • IrDA Infrared Data Association
  • ZigBee ZigBee
  • Near Field Communication communication technologies such as Bluetooth TM, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), ZigBee, and Near Field Communication communication.
  • the position information module 115 is a module for obtaining the position (or current position) of the device, and representative examples thereof include a Global Positioning System (GPS) module or a Wireless Fidelity (WiFi) module. Or acquire the < / RTI >
  • GPS Global Positioning System
  • WiFi Wireless Fidelity
  • the input unit 120 includes a camera 121 or an image input unit for inputting a video signal, a microphone 122 for inputting an audio signal, an audio input unit, a user input unit 123 for receiving information from a user A touch key, a mechanical key, and the like).
  • the voice data or image data collected by the input unit 120 may be analyzed and processed by a user's control command.
  • the camera 121 processes image frames such as still images or moving images obtained by the image sensor in the video communication mode or the photographing mode.
  • the processed image frame can be displayed on the display unit 151 or stored in the memory 140.
  • the microphone 122 processes the external acoustic signal into electrical voice data.
  • the processed voice data can be utilized variously according to functions (or application programs being executed) being performed in the apparatus 100.
  • the user input unit 123 is for receiving information from a user. When information is input through the user input unit 123, the controller 180 can control the operation of the apparatus 100 to correspond to the input information.
  • the user input unit 123 may include a mechanical input means (or a mechanical key, for example, a button located on the front, rear, or side of the device 100, a dome switch, a jog wheel, Switches, etc.) and touch-based input means.
  • the touch-type input means may comprise a virtual key, a soft key or a visual key displayed on the touch screen through software processing, And a touch key disposed on the touch panel.
  • the virtual key or the visual key can be displayed on a touch screen having various forms, for example, a graphic, a text, an icon, a video, As shown in FIG.
  • the sensing unit 130 may include at least one sensor for sensing at least one of the in-device information, the surrounding information surrounding the device, and the user information.
  • the sensing unit 130 may include a proximity sensor 131, an illumination sensor 132, a touch sensor, an acceleration sensor, a magnetic sensor, A G-sensor, a gyroscope sensor, a motion sensor, and the like.
  • the output unit 150 includes at least one of a display unit 151, an acoustic output unit 152, a haptic tip module 153, and a light output unit 154 to generate an output related to visual, auditory, can do.
  • the display unit 151 may be a liquid crystal display (LCD), a thin film transistor-liquid crystal display (TFT LCD), an organic light-emitting diode (OLED) A flexible display, a three-dimensional display (3D display), and an electronic ink display (e-ink display).
  • the display unit 151 may have a mutual layer structure with the touch sensor or may be integrally formed to realize a touch screen.
  • Such a touch screen may function as a user input 123 that provides an input interface between the device 100 and a user and may provide an output interface between the device 100 and a user.
  • the display unit 151 may include a touch sensor that senses a touch with respect to the display unit 151 so that a control command can be received by a touch method.
  • the touch sensor senses the touch, and the control unit 180 generates a control command corresponding to the touch based on the touch.
  • the content input by the touch method may be a character or a number, an instruction in various modes, or a menu item that can be designated.
  • the touch sensor may be a metal wire formed in a film form having a touch pattern and disposed between the window and the display on the back surface of the window, or may be a metal wire directly patterned on the back surface of the window.
  • a controller may be provided on the display unit 151 to sense touch and touch positions from the signals sensed by the touch sensors. In this case, the controller transmits the sensed touch position to the controller 180.
  • the display unit 151 may transmit a signal sensed by the touch sensor or data obtained by converting the sensed signal to the control unit 180, and the control unit 180 may determine whether the touch is sensed or not.
  • the audio output unit 152 is for outputting audio signals such as music and voice, and may include a receiver, a speaker, a buzzer, and the like.
  • the haptic module 153 generates various tactile effects that the user can feel. A typical example of the haptic effect generated by the haptic module 153 may be vibration.
  • the light output unit 154 outputs a signal for notifying the occurrence of an event using the light of the light source of the apparatus 100. Examples of events that occur in the device 100 may include message reception, call signal reception, missed call, alarm, schedule notification, email reception, receiving information via an application, and the like.
  • the memory 140 stores data that supports various functions of the device 100.
  • the memory 140 may store a plurality of application programs (application programs or applications) running on the apparatus 100, data for operation of the apparatus 100, and instructions. At least some of these applications may be downloaded from an external server via wireless communication. At least some of these applications may also reside on the device 100 from the time of shipment for the basic functions of the device 100 (e.g., call incoming, outgoing, message receiving, origination).
  • an application program may be stored in the memory 140, installed on the apparatus 100, and operated by the control unit 180 to perform the operation (or function) of the apparatus.
  • control unit 180 In addition to the operations associated with the application program, the control unit 180 typically controls the overall operation of the device 100.
  • the control unit 180 may process or process signals, data, information, and the like input or output through the above-described components, or may drive an application program stored in the memory 140 to provide or process appropriate information or functions to the user.
  • the controller 180 may control at least some of the components to drive an application program stored in the memory 140. Further, the controller 180 may operate at least two of the components included in the apparatus 100 in combination with each other for driving the application program.
  • the power supply unit 190 receives external power and internal power under the control of the controller 180 and supplies power to the components included in the apparatus 100.
  • the power supply unit 190 may include a battery, which may be an internal battery or a replaceable battery.
  • At least some of the components may operate in cooperation with each other to implement a method of operation, control, or control of a device according to various embodiments described below. Also, the method of operation, control, or control of the device may be implemented on the device by driving at least one application program stored in the memory 140.
  • the present invention is applied to a smart phone.
  • an apparatus fixedly installed as a kiosk KIOSK
  • wired communication is used instead of wireless communication, Can be omitted. That is, the constituent elements may be appropriately added or omitted depending on the nature of the apparatus to which the present invention is applied.
  • FIG. 1 shows a case where a touch sensor for sensing a touch is included in the display unit 151.
  • the touch sensor is not included in the display unit 151.
  • a device having a separate touch panel for touch pressure sensing for example, a notebook computer.
  • the operation is mainly described in an apparatus having a touch screen, but the present invention can be similarly applied to an apparatus having a separate touch panel.
  • the device 100 can distinguish the type of touch command based on the pressure. For example, the device 100 may recognize a touch gesture less than a predetermined pressure as a selection command for the touched area. Then, the apparatus 100 can recognize the touch gesture over a predetermined pressure as an additional command.
  • the apparatus 100 includes a pressure sensing unit for sensing the touch pressure.
  • the pressure sensing unit may be integrally coupled to the touch screen or the touch panel, or may be provided as a separate component.
  • the pressure sensing unit may be provided with a separate controller to transmit the sensed pressure value to the control unit, or may simply transmit the sensed signal to the control unit.
  • the pressure of the touch gesture can be detected using various methods.
  • the display unit 151 of the apparatus 100 may include a touch recognition layer capable of sensing a touch and a fingerprint recognition layer capable of sensing a fingerprint.
  • the image quality of the portion to be touched may vary.
  • the display unit 151 lightly the portion to be touched can be perceived as fuzzy.
  • the display unit 151 with a force the portion to be touched can be clearly and deeply recognized.
  • the display unit 151 including the fingerprint recognition layer can recognize a portion touched with an image quality proportional to the touch pressure.
  • the apparatus 100 can detect the intensity of the portion to be touched according to the image quality.
  • the device 100 may sense the intensity of the touch pressure using the touch area recognized by the touch recognition layer.
  • the area to be touched may be relatively small. And, when the user presses hard, the area to be touched can be relatively large.
  • the apparatus 100 can calculate the touch pressure using the relationship between the touch area and the pressure. Accordingly, the apparatus 100 can recognize a touch gesture over a predetermined pressure.
  • the device 100 may also detect the pressure of the touch gesture using a piezoelectric element.
  • a piezoelectric element refers to a device that senses pressure or generates deformation / vibration using a piezoelectric effect.
  • mechanical stress prrecisely, mechanical force or pressure
  • polarization is generated within the solid and electric charge is accumulated (accumulate).
  • the integrated charge appears in the form of an electrical signal, or voltage, between both electrodes of the material. This phenomenon is called a piezoelectric effect, and a solid material is called a piezoelectric material and an integrated charge is called a piezoelectricity.
  • the apparatus 100 may include a sensing unit (not shown) including a layer of a piezoelectric material that can be driven by a piezoelectric effect.
  • the sensing unit can detect the mechanical energy (force or pressure) applied and the electrical energy (voltage, which is an electrical signal of some kind) generated by the deformation by the mechanical energy, and detects the applied mechanical force or pressure based on the detected voltage can do.
  • the apparatus 100 may include three or more pressure sensors in the pressure sensing portion.
  • the three or more pressure sensors may be disposed in a different area in the display area 151 or in a bezel area.
  • the pressure sensor can sense the magnitude of the applied pressure.
  • the intensity of the pressure sensed by the pressure sensor may be inversely proportional to the touch point and distance.
  • the intensity of the pressure sensed by the pressure sensor may be proportional to the touch pressure.
  • the device 100 can calculate the strength of the touch point and the actual touch pressure by using the intensity of the pressure sensed by each pressure sensor.
  • the apparatus 100 may include a touch input layer for sensing a touch input to detect a touch point.
  • the apparatus 100 may calculate the intensity of the touch pressure of the touch point using the detected touch point and the intensity of the pressure sensed by each pressure sensor.
  • the pressure sensing unit may be constructed in various ways, and the present invention is not limited to the specific pressure sensing method, and any method can be applied as long as the pressure of the touch point can be directly or indirectly obtained.
  • 'pressure touch' means a touch of a pressure greater than a critical pressure
  • 'swipe gesture' means a movement of a touch point in a state where a finger touches a touch screen or a touch panel.
  • the 'swipe gesture' may be defined as the movement of the contact point in a state where the touch pressure is equal to or lower than a predetermined pressure, or may be defined as the movement of the contact point regardless of the touch pressure.
  • it may be configured to determine that the swipe gesture is performed only when the moving distance of the contact point after the pressure touch exceeds a predetermined distance. Or a swipe gesture that is valid only when the swipe gesture is made within a predetermined time.
  • 'next' means that the next operation is continued in a state of being in contact with the touch screen or the touch panel.
  • the phrase " one touch of a finger followed by a swipe of a gesture" refers to a state in which a touch of a pressure greater than a critical pressure with one finger on the touch screen, In order to perform a swipe gesture with that finger.
  • the critical pressure can be set appropriately according to the apparatus, application field, etc. to be applied.
  • the critical pressure can be set to a fixed magnitude of pressure, which can be appropriately determined depending on hardware characteristics, software characteristics, and the like. It is also possible to configure the threshold pressure to be set by the user.
  • the swiping direction may be determined on the display screen, or may be determined on the basis of the gravity direction in consideration of the tilt of the device detected by the tilt sensor.
  • control unit 180 recognizes the touch as a pressure touch gesture (step S220), the control unit 180 recognizes the touch as a pressure touch gesture (step S210) Control operation is performed.
  • the control operation according to the pressure touch gesture can be defined for each device, and is not related to the present invention, and thus a detailed description thereof will be omitted.
  • step S240 If it is determined in step S240 that the touch point is moved (Yes in step S240), the controller 180 determines in step S250 whether the touch is terminated Make sure that you have removed your finger from the touch screen. When the touch ends, the controller 180 recognizes it as a force and swip gesture, and performs a predetermined control operation according to the force and swip gesture in step S260.
  • step S240 it is possible to perform a predetermined control operation while the swipe gesture is being performed in step S240.
  • a predetermined control operation For example, when the pressure touch is performed on an object such as an icon, a game character, or the like, when the swipe gesture is performed following the pressure touch, the object can be displayed along the movement path of the swipe gesture.
  • the direction of the swipe gesture may also be determined.
  • the direction of the swipe gesture can be configured to be determined from the magnitude of the vertical direction component in the initial direction in which the swipe is swiped and the magnitude of the horizontal direction component. For example, if the swipe gesture is made at the contact point P1 at the contact point P2 as shown in Fig. 3, the swipe gesture is shifted from the magnitude of the vertical direction component y in the direction in which the swipe is to be swept and the magnitude of the left- Or whether it is in the left or right direction.
  • swipe gesture is vertical or horizontal from the magnitude of the vertical direction component y and the horizontal direction component x of the vector connecting the pressure touch point and the swipe end point.
  • it may be configured to perform a specified control operation according to the direction of the swipe gesture. Further, it is possible to perform the control operation specified when the swipe direction and the time of the swipe gesture satisfy predetermined conditions. Alternatively, it is possible to perform the control operation specified when the swipe direction and the swiped distance satisfy predetermined conditions. For example, it is possible to perform the A control operation in the case of swiping upwards rapidly after the pressure touch, and the B control operation different from A in the case of swiping down quickly after the pressure touch.
  • the pressure touch is further performed a predetermined number of times in a state in which the touch is maintained, and then it is determined that the force and swip gesture is effective only when the swipe gesture is performed. For example, after touching over a critical pressure, after releasing the force below the critical pressure without releasing the hand, touching again beyond the critical pressure, that is, touching the pressure twice without releasing the hand at the same position It can be configured to be a valid force and swipe gesture only when the wipe gesture is performed.
  • the application is executed in the foreground, and when the user performs the force and swipe gesture and releases the finger, the running application is terminated. That is, in a state where the application is being executed, the controller 180 detects a pressure touch at the first touch point, and then detects a swipe gesture at which the touch point is moved. After the swipe gesture is terminated, .
  • the application may be terminated only when the force touch and / or swipe gesture satisfies a predetermined condition.
  • the app termination operation may be configured to perform when the direction of the swipe gesture satisfies a predetermined condition. For example, only when a swipe gesture is made downward after a pressure touch.
  • the swipe gesture may be configured to be performed when the direction of the swipe gesture is downward and the time of the swipe gesture is within a predetermined time. That is, it can be configured to terminate a running app when swiping down quickly after a pressure touch. Or, it may be configured to terminate the running app when the direction of the swipe gesture is downward and the swiped distance satisfies the predetermined distance condition. For example, when the user swipes downward a predetermined distance shorter than the predetermined distance after the pressure is touched, the currently executed application can be terminated. It is also possible to configure the application to be terminated only when a swipe gesture is performed after two pressure taps without releasing the hand at the same position.
  • the keyboard when a force and swip gesture is performed while a keyboard is displayed on the screen, the keyboard is changed to a one-handed keyboard. According to the embodiment, it is also possible to change the one-handed input keyboard only when the force and swipe gesture is performed on the keyboard.
  • a keyboard is displayed on the entirety of the width of the screen as shown in Fig. 5 Quot; keyboard "), the user inputs a character by touching a desired key on the keyboard.
  • a smartphone it is a common input method to input a character using two thumbs while holding the device with both hands, or to input a character using the index finger of another hand while holding the device with one hand.
  • a one-hand keyboard as shown in Fig. 6 or Fig. 7 is used.
  • the keyboard is changed to a one-hand keyboard by the force and swip gesture in a state where the normal keyboard is displayed as shown in FIG.
  • a force and swipe gesture is a gesture that can be taken with the thumb of the same hand while holding the device with one hand, so even if you only need to use one hand to enter a letter or phone number, You can enter characters after you make changes.
  • a one-handed keyboard generally lies on either side.
  • the arrangement direction of the one hand keyboard can be determined based on the swipe direction of the force and swipe gesture. For example, if the swipe direction is left, the keyboard is shifted to the left as shown in Fig. Alternatively, it is often convenient to swipe in the opposite direction, rather than swiping the thumb to the back of the hand, so that the keyboard may be displayed on the opposite side of the swipe direction. For example, if you hold the device with your left hand, it is convenient to place the keyboard on the left, in which case you may find it more convenient to swipe your thumb to the right than to swipe to the left. If the swipe direction is right for such a user, the keyboard may be displayed to the left as shown in FIG. To return to normal keyboard mode in the one-handed keyboard mode of FIG. 6, take a force-and-swip gesture again on the keyboard or touch the bracket (>) shown in FIG.
  • the arrangement direction of the one hand keyboard can be determined according to the position of the pressure touch. For example, when the pressure touch is made in the left part at the center on the keyboard, that is, when the position of the pressure touch is on the left side, the one-hand keyboard is displayed biased to the left, and when the pressure touch is made on the right side part One-handed keyboard is displayed on the right. In this case, the direction of the swipe after the pressure touch does not affect the placement direction of the one-hand keyboard.
  • FIG. 6 shows a case of using a one-handed keyboard in which a keyboard of the same type as that of a general keyboard is displayed on either side, but the form of the one-handed keyboard is not limited to a specific form.
  • the keyboard type it is also possible to configure the keyboard type as a half circle shape or the 1/4 circle shape as shown in Fig. Fig. 7 shows an example of a one-handed keyboard when key input is performed with the right hand thumb.
  • Objects can be various objects such as text messages, emails, document files, music files, video files, apps, and friend lists.
  • a swipe gesture When a list of objects is displayed on the screen, the user touches the object to be manipulated and performs a swipe gesture.
  • Transfer operations to another location may be, for example, transfer to another app, transfer to another device, transfer to a temporary storage location (copy), transfer to another storage location (contact, photo book, etc.) . If there are a plurality of transfer destinations, a list of the destinations (other apps, other devices, storage spaces, and the like) to be transferred may be displayed by using the force and swipe gesture, and one of them may be selected.
  • Objects can be a variety of objects such as files on a file list, characters in a game, apps on an app list, friends on a friend list, and digital memos.
  • the user touches the object to be manipulated performs a swipe gesture, and releases the object to which the object is to be moved.
  • the object is then moved from its original position to the end point of the swipe gesture.
  • 9 shows an example in which the position of the app E is moved as shown in (b) by pressure-touching the app (E) with a screen shown in (a) and performing a swipe gesture.
  • the rotation or orientation of the object is changed according to the swipe gesture.
  • the object may be a variety of objects such as a character or item in a game, an image, and an object to be edited in an image editing application.
  • the user touches the object to be manipulated, performs a swipe gesture, rotates the object in the desired direction, and then releases the object. Then, the direction of the object is set in the direction corresponding to the end point of the swipe gesture. 10, the player touches the object T on the game in the direction D1 in the screen of FIG.
  • step S1110 When the controller 180 detects the start of the swipe gesture from the first touch point (step S1110), the controller 180 performs the first control operation during the swipe gesture (step S1120). Depending on the embodiment, step S1120 may be omitted.
  • step S1120 In the first control operation, when a swipe gesture is made on an object (for example, a text message on a list, an email, a document file, a music file, a video file, an app or a game character) Along the path may be included. If the touch ends after the swipe gesture (Yes in step S1130), the controller 180 recognizes the touch as a swipe gesture and performs a predetermined control operation according to the swipe gesture in step S1140.
  • the control operation according to the swipe gesture can be defined for each device and is not related to the present invention, and a detailed description thereof will be omitted.
  • control unit 180 controls the swipe and force gesture And performs a predetermined control operation (hereinafter, referred to as a 'second control operation') in accordance with the swipe-and-force gesture in step S1160.
  • step S240 it is possible to perform a predetermined control operation while the swipe gesture is being performed in step S240.
  • the object can be displayed along the movement path of the swipe gesture.
  • the direction of the swipe gesture may also be determined.
  • the direction of the swipe gesture can be configured to be determined from the magnitude of the vertical direction component in the initial direction in which the swipe is swiped and the magnitude of the horizontal direction component. For example, if the swipe gesture is made at the contact point P1 at the contact point P2 as shown in Fig. 3, the swipe gesture is shifted from the magnitude of the vertical direction component y in the direction in which the swipe is to be swept and the magnitude of the left- Or whether it is in the left or right direction.
  • swipe gesture is vertical or horizontal from the magnitude of the vertical direction component y and the horizontal direction component x of the vector connecting the pressure touch point and the swipe end point.
  • it may be configured to perform a specified control operation according to the direction of the swipe gesture. Further, it is possible to perform the control operation specified when the swipe direction and the time of the swipe gesture satisfy predetermined conditions. Alternatively, it is possible to perform the control operation specified when the swipe direction and the swiped distance satisfy predetermined conditions. For example, it is possible to perform the A control operation when the pressure touch is performed after swiping upwards quickly, and to perform the B control operation different from A when the pressure touch is performed after quickly swiping downward have.
  • the sweep-and-force gesture may be determined to be an effective sweep-and-force gesture only when the pressure touch is performed a predetermined number of times in a state in which the contact remains unchanged after the swipe gesture. For example, it can be configured to determine that the swipe-and-force gesture is effective only when the pressure touch is performed twice in a state in which the contact remains unchanged after the swipe gesture.
  • the app is running in the foreground, and when the user performs the swipe-and-force gesture, the app being executed is terminated. That is, in a state where the application is being executed, the control unit 180 terminates the running application when the pressure touch is performed after the sweep gesture from the first touch point to the second touch point is sensed.
  • the application may be terminated only when the swipe gesture and / or force touch satisfy a predetermined condition.
  • the app termination operation may be configured to perform when the direction of the swipe gesture satisfies a predetermined condition.
  • it can be configured to perform only when a pressure touch is performed after a swiping gesture in the downward direction.
  • the swipe gesture may be configured to be performed when the direction of the swipe gesture is downward and the time of the swipe gesture is within a predetermined time. That is, it can be configured to terminate a running app when a pressure touch is followed by a quick swipe downward. Or, it may be configured to terminate the running app when the direction of the swipe gesture is downward and the swiped distance satisfies the predetermined distance condition. For example, it is possible to configure the application to be terminated when a pressure touch is subsequently performed after swiping downward a predetermined distance shorter than the predetermined distance. It is also possible to configure the application to be terminated only when the pressure touch is performed twice without releasing the hand at the same position after the swiping gesture.
  • the keyboard when a swipe and force gesture is performed while a keyboard is displayed on the screen, the keyboard is changed to a one-handed keyboard.
  • the swipe-and-force gesture can be changed to the one-handed keyboard only when the swipe-and-force gesture is performed on the keyboard.
  • the normal keyboard is displayed as shown in FIG. 5, and the keyboard is changed to the one-hand keyboard by the swipe-and-force gesture.
  • Swipe and force is a gesture that can be taken with the thumb of the same hand while holding the device with one hand, so you can easily change it with one hand with one hand even if you need to enter a letter or phone number using only one hand After that, you can enter a character.
  • One-handed keyboards are generally biased either left or right.
  • the arrangement direction of the one-handed keyboard can be determined based on the swipe direction of the swipe-and-force gesture. For example, if the swipe direction is left, the keyboard is shifted to the left as shown in Fig. Alternatively, it is often convenient to swipe in the opposite direction, rather than swiping the thumb to the back of the hand, so that the keyboard may be displayed on the opposite side of the swipe direction. For example, if you hold the device with your left hand, it is convenient to place the keyboard on the left, in which case you may find it more convenient to swipe your thumb to the right than to swipe to the left. If the swipe direction is right for such a user, the keyboard may be displayed to the left as shown in FIG. To return to the normal keyboard mode in the one hand keyboard mode of FIG. 6, take a swipe and force gesture again on the keyboard, or touch the brackets (>) shown in FIG.
  • the arrangement direction of the one hand keyboard according to the starting point of the swipe gesture, that is, the position of the first touch point. For example, when the first touch point is the left part in the center on the keyboard, that is, when the first touch point is on the left side, the one-hand keyboard is displayed biased to the left, and the first touch point is displayed on the right side When done, the one-handed keyboard is displayed on the right. In this case, the position of the second contact point does not affect the placement direction of the one hand keyboard. According to an embodiment, it is also possible to configure the arrangement direction of the one-hand keyboard according to the position of the second touch point rather than the first touch point.
  • FIG. 6 shows a case of using a one-handed keyboard in which a keyboard of the same type as that of a general keyboard is displayed on either side, but the form of the one-handed keyboard is not limited to a specific form.
  • the keyboard type it is also possible to configure the keyboard type as a half circle shape or the 1/4 circle shape as shown in Fig. Fig. 7 shows an example of a one-handed keyboard when key input is performed with the right hand thumb.
  • a swipe and force gesture when a swipe and force gesture is performed on an object, the object is deleted or transferred to another place, for example, a trash can or a file control operation is performed such as transferring the object to the outside.
  • Objects can be various objects such as text messages, emails, document files, music files, video files, apps, and friend lists.
  • the user touches the object to be manipulated and performs a swipe gesture.
  • it may be possible to specify an operation to be performed based on the swipe direction. For example, if a swiping gesture is made downward, the object can be deleted, and if the swiping gesture is made upwards, the transfer operation can be carried out elsewhere.
  • Transfer operations to another location may be, for example, transfer to another app, transfer to another device, transfer to a temporary storage location (copy), transfer to another storage location (contact, photo book, etc.) .
  • a list of destinations (other apps, other devices, storage spaces, and the like) to be transferred may be displayed by using a swipe and force gesture, and one of them may be selected.
  • Objects can be a variety of objects such as files on a file list, characters in a game, apps on an app list, friends on a friend list, and digital memo (digital post-it).
  • the user makes a swipe gesture from the object to be operated and touches the destination at the destination (second contact point) to which the object is to be moved. Then, the object is moved from the original position (first contact point) to the second contact point and arranged.
  • the rotation or orientation of the object is changed according to the swipe gesture.
  • the object may be a variety of objects such as a character or item in a game, an image, and an object to be edited in an image editing application.
  • the user performs a swipe gesture from the object to be manipulated, rotates the object in a desired direction, and then performs a pressure touch. Then, the direction of the object is set to the direction corresponding to the position where the pressure touch is made.
  • FIG. 13 shows a case where the orientation of the object T is changed (or rotation is controlled) by a swipe gesture with respect to the object T on the game screen facing the direction D1, as shown in (b)
  • the direction of the object T is set to a desired direction D2 as shown in (d) by pressure-touching as shown in (c).
  • a handle capable of changing a screen brightness, a volume, a reproduction speed, a zoom level, etc. (hereinafter, referred to as a "control amount") is displayed on the screen, the handle is started at a displayed position (first contact point) Controls the value of the control amount according to the swipe gesture and sets the value of the control amount corresponding to the second touch point to the default value of the control amount when there is a pressure touch at the second touch point.
  • a handle H1 for adjusting the volume of the ringing tone and a handle H2 for adjusting the volume of the call are displayed as shown in FIG. 14A
  • the handle H1 is touched and a swipe gesture
  • the pressure touch is performed as shown in FIG.
  • the default value of the ring tone volume is set to the volume magnitude corresponding to the point where the pressure touch is performed.
  • this is not a default value and the ringing tone volume is temporarily set to the volume magnitude corresponding to the position of the handle H1 in the screen of (b).
  • the default value is set. If the hand is released without touching the pressure, the default value can not be set.
  • the default value is set, the default value is set not to the final volume even if the power is turned off and on after the user adjusts the volume in the middle.
  • an object is touched during a swipe in the swipe detection step, information related to the object is displayed. If the pressure touch is performed on the object, the control operation related to the object is performed.
  • the information related to the object includes, for example, a description of the object, a preview screen of the corresponding image / video when the object is an image / video, a profile (description) or a photograph A display screen), a price of the object when the object is a sale item or a service, and the like.
  • the object when an object is touched during a swipe, the object may be highlighted and displayed.
  • Highlighting an object can be accomplished by, for example, zooming in on the object, reversing the color of the object, or changing the color of the object, such as changing it to a different color or displaying it in black and white,
  • a variety of methods such as changing the display of the object, changing the shape, pattern, background, etc. of the object, displaying the object to be flickered or moved, or displaying the object in bold when the object is composed of text can be used.
  • the control operation related to the highlighted object is performed.
  • Control operations related to an object include, for example, purchase or rental of the object when the object is a sale or loan, execution of the object when the object is an executable object (for example, image editing Execution of a program, execution of a document editing program if the document is a document, creation of an e-mail to the person, creation of a text message, deletion from a list, group setting, selection of an object, etc.) .
  • executable object for example, image editing Execution of a program, execution of a document editing program if the document is a document, creation of an e-mail to the person, creation of a text message, deletion from a list, group setting, selection of an object, etc.
  • the home button may be removed from the device depending on the design.
  • the change to the one-handed keyboard mode in which the key input can be performed with one hand can be easily performed with one hand.
  • operations such as deletion, transmission, movement, rotation, and object information display of an object can be easily performed with one hand.
  • setting of the default value of the control amount such as the screen brightness, the volume, the reproduction speed, the zoom level and the like can be easily performed with one hand.

Abstract

본 발명의 일 실시형태에 따른 장치는, 디스플레이와, 터치 감지부와, 터치된 곳의 압력의 크기를 감지할 수 있는 압력 감지부와, 제어부를 구비한다. 제어부는 압력 터치가 감지되고 이어서 터치 지점이 이동되는 스와이프(swipe) 제스처가 감지된 후에 스와이프 제스처가 종료되면 제어동작을 수행한다. 제어동작은 실행중인 앱 종료, 한 손 키보드 모드 변경, 객체의 삭제 또는 전송, 객체의 이동 중의 하나일 수 있다. 본 발명의 일 실시형태에 따르면, 장치의 조작성이 좋아진다. 실시형태에 따라서는 별도의 홈버튼을 사용하지 않고도 한 손가락을 사용하여 실행중인 앱을 종료시킬 수 있다.

Description

터치 감지 및 터치압력 감지가 가능한 장치 및 제어방법
본 발명은 터치 감지 및 터치압력 감지가 가능한 장치 및 제어방법에 관한 것으로, 보다 상세하게는 터치 감지 수단 및 터치압력 감지수단을 구비한 장치에서 압력 터치 입력에 반응하여 장치의 동작을 제어함으로써 사용자의 기기 조작성을 향상시키기 위한 장치 및 제어 방법에 관한 것이다.
스마트폰, 태블릿 PC, 노트북 컴퓨터, 내비게이션 장치, 키오스크(KIOSK) 등과 같은 컴퓨팅 시스템의 조작을 위해 다양한 종류의 입력 장치들이 이용되고 있다. 그 중에서도 터치 스크린(터치 감지 디스플레이)은 쉽고 간편한 조작성으로 인해 컴퓨팅 시스템에서의 이용이 증가하고 있다. 또한, 노트북 컴퓨터에서는 터치패널을 사용하여 모니터에 표시된 화면이나 프로그램의 실행을 제어하도록 구성하고 있다. 이러한 터치감지 수단을 사용하면 사용자 인터페이스가 간편해진다.
예를 들면, 터치 스크린에서 화면을 확대하거나 축소하는데 터치감지 수단을 사용한 직관적인 인터페이스가 사용되고 있다. 즉, 화면을 확대하기 위한 줌인(Zoom-in) 제스처는 일반적으로 두 개의 손가락을 사용하여 화면 상의 두 접촉지점(P1, P2)에 접촉한 후에(줌인 제스처의 초기) 두 손가락이 서로 멀어지는 방향으로 손가락을 벌린 다음에 손가락을 화면에서 떼는 동작으로 이루어지며, 장치는 줌인 제스처에 따라 화면을 확대하여 표시한다. 즉, 줌인 제스처의 초기부터 손가락이 벌어져서 멈출 때까지 손가락이 벌어지는 정도에 따라 화면의 확대율을 키우면서 화면을 표시한다.
그런데, 종래의 줌인 동작에서는 이와 같이 두 손가락을 사용하여야 하므로 한손으로는 단말기를 잡고 다른 손의 두 손가람으로 줌인 동작을 하여야 한다. 따라서, 줌인 동작을 위하여 두 손을 모두 이용하여야 하므로 한 손에 물건을 들고 있거나 지하철의 손잡이를 잡고 있는 경우 등에는 줌인 제스처를 취하기 어렵다.
이와 같이 단순히 터치만을 감지하는 터치 감지 디스플레이에서는 사용자 조작성을 높이는데 한계가 있다. 이러한 점을 감안하여 터치된 위치 뿐만 아니라 터치되는 압력도 감지할 수 있는 장치가 개발되고 있으며, 이러한 장치에서 사용자 조작성을 높이려는 시도가 많이 이루어지고 있다. 예를 들면 대한민국 특허공개 제10-2015-0068957호에서는 사용자의 터치 압력의 세기에 따라 지리적 출발지와 지리적 목적지에 대한 줌 레벨은 증가시키고 다른 부분의 줌 레벨은 감소시키도록 함으로써 지도 이미지를 불러와서 렌더링하는 시간을 단축하도록 하고 있다.
이와 같이 터치 압력을 이용하여 장치의 조작성을 높이려는 시도가 있지만, 아직도 터치 압력에 반응하여 장치를 제어하는 다양한 조작방법에 대한 요구를 충분히 만족시키지 못하고 있다.
본 발명의 일 실시형태의 목적은 터치 감지 및 터치압력 감지가 가능한 장치의 조작성을 높이는 것이다.
본 발명의 일 실시형태의 다른 목적은 터치 감지 및 터치압력 감지가 가능한 장치에서 별도의 홈버튼을 사용하지 않고도 실행중인 앱을 간편하게 종료시킬 수 있는 사용자 인터페이스를 제공하는 것이다.
본 발명의 일 실시형태의 다른 목적은 한손으로 키입력을 할 수 있는 한손입력모드로 간편하게 변경할 수 있는 사용자 인터페이스를 제공하는 것이다.
본 발명의 일 실시형태의 다른 목적은 객체의 이동, 회전, 전송, 삭제, 객체 정보 표시 등 객체와 관련된 조작을 한 손으로 용이하게 할 수 있는 사용자 인터페이스를 제공하는 것이다.
본 발명의 일 실시형태의 다른 목적은 기기의 제어량의 디폴트 값을 간편하게 조절할 수 있는 사용자 인터페이스를 제공하는 것이다.
본 발명의 한가지 실시형태에 따른 방법은, 터치 감지 및 터치압력 감지가 가능한 장치에서의 제어 방법에 있어서, 압력 터치를 감지하는 압력 터치 감지단계와, 압력 터치에 이어서 터치 지점이 이동되는 스와이프(swipe) 제스처를 감지하는 스와이프 감지단계와, 스와이프 제스처가 종료되면 제어동작을 수행하는 제어동작단계를 구비한다.
본 발명의 다른 실시형태에 따른 방법은, 제1 접촉지점에서 제2 접촉지점으로 터치 지점이 이동되는 스와이프(swipe) 제스처를 감지하는 스와이프 감지단계와, 상기 스와이프 제스처에 이어서 제2 접촉지점에서 압력 터치를 감지하는 압력 터치 감지단계와, 압력 터치가 감지되면 제어동작을 수행하는 제어동작단계를 구비한다.
본 발명의 일 실시형태에 따른 장치는, 디스플레이와, 터치 감지부와, 터치된 곳의 압력의 크기를 감지할 수 있는 압력 감지부와, 제어부를 구비한다. 제어부는 압력 터치가 감지되고 이어서 터치 지점이 이동되는 스와이프(swipe) 제스처가 감지된 후에 스와이프 제스처가 종료되면 제어동작을 수행한다.
본 발명의 다른 실시형태에 따른 장치는, 디스플레이와, 터치 감지부와, 터치된 곳의 압력의 크기를 감지할 수 있는 압력 감지부와, 제어부를 구비한다. 제어부는, 제1 접촉지점에서 제2 접촉지점으로 터치 지점이 이동되는 스와이프(swipe) 제스처에 이어서 제2 접촉지점에서 압력 터치가 감지되면 제어동작을 수행한다.
제어동작은 실행중인 앱 종료, 한 손 키보드 모드 변경, 객체의 삭제, 전송, 이동, 회전, 객체 정보 표시, 화면밝기, 음량, 재생속도, 줌레벨 등의 제어량의 디폴트 값 설정 중의 하나일 수 있다.
본 발명의 일 실시형태에 따르면, 별도의 홈버튼을 사용하지 않고도 한 손가락을 사용하여 실행중인 앱을 종료시킬 수 있으므로 사용이 간편하다. 또한, 앱의 종료를 위하여 홈버튼을 누를 필요가 없으므로 설계에 따라서는 장치에서 홈버튼을 제거할 수도 있다.
본 발명의 다른 실시형태에 따르면, 한 손으로 키입력을 할 수 있는 한 손 키보드 모드로의 변경을 한 손으로 간단하게 조작할 수 있어서 편리하다.
본 발명의 다른 실시형태에 따르면, 객체의 삭제, 전송, 이동, 회전, 객체 정보 표시 등의 동작을 한 손으로 간단하게 조작할 수 있어서 편리하다.
본 발명의 다른 실시형태에 따르면, 화면밝기, 음량, 재생속도, 줌레벨 등의 제어량의 디폴트 값 설정을 한 손으로 간단하게 조작할 수 있어서 편리하다.
도 1은 본 발명의 일 실시형태에 따른 터치 스크린을 구비한 장치의 기능 블록도이다.
도 2는 포스 앤 스와이프 제스처에 따른 장치의 동작을 설명하기 위한 흐름도이다.
도 3은 스와이프 방향의 상하 성분과 좌우 성분을 설명하기 위한 도면이다.
도 4는 스와이프 방향의 상하 성분의 절대값과 좌우 성분의 절대값에 따라 스와이프 방향이 상하 방향인지 좌우 방향인지를 판단하는 예를 보여주고 있다.
도 5는 두 손 키보드의 일 예이다.
도 6은 한 손 키보드의 두가지 예를 보여주는 도면이다.
도 7은 한 손 키보드의 다른 예로서, 오른손 엄지로 키입력을 하는 경우를 보여주고 있다.
도 8은 장치를 잡고 있는 손의 엄지 손가락으로 압력터치를 한 후에 아래쪽으로 스와이프 제스처를 하여 객체(A)를 삭제하는 모습을 보여주는 도면이다.
도 9은 앱을 압력터치하고 스와이프 제스처를 하여 앱 위치를 이동시키는 모습을 보여주고 있다.
도 10은 객체를 압력터치하고 스와이프 제스처를 하여 객체의 방향을 변경하는 모습을 보여주고 있다.
도 11은 스와이프 앤 포스 제스처에 따른 장치의 동작을 설명하기 위한 흐름도이다.
도 12는 앱에서부터 스와이프 제스처를 하고 압력터치를 하여 앱 위치를 이동시키는 모습을 보여주고 있다.
도 13은 객체로부터 스와이프 제스처를 하고 압력터치를 하여 객체의 방향을 변경하는 모습을 보여주고 있다.
도 14는 제어량을 변경할 수 있는 핸들이 표시된 위치에서 시작되는 스와이프 제스처에 따라 제어량의 값을 변경하고 원하는 위치에서 압력터치를 하여 해당 위치에 대응되는 제어량의 값을 디폴트 값으로 설정하는 모습을 보여주고 있다.
도 15는 스와이프에 따라 객체(도서)와 관련된 정보를 표시하고 객체 상에서의 압력터치에 따라 객체와 관련된 제어동작(구입/대여)을 수행하는 모습을 보여주고 있다.
후술하는 본 발명에 대한 상세한 설명은, 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시예는 당업자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예에 관련하여 본 발명의 정신 및 범위를 벗어나지 않으면서 다른 실시예로 구현될 수 있다. 또한, 각각의 개시된 실시예 내의 개별 구성요소의 위치 또는 배치는 본 발명의 정신 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 본 발명의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다.
이하, 첨부되는 도면을 참조하여 본 발명의 예시적인 실시형태에 따른 터치 스크린을 구비한 장치 및 그 제어방법을 설명한다. 본 명세서에서 설명되는 장치에는 터치 스크린이 구비된 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 디지털방송용 단말 장치, PDA(personal digital assistants), 네비게이션, 슬레이트 PC(slate PC), 태블릿 PC(tablet PC), 울트라북(ultrabook), 웨어러블 디바이스(wearable device), 키오스크(KIOSK) 등이 포함될 수 있다.
도 1은 본 발명이 적용될 수 있는 한가지 실시형태의 장치(100)에 대한 블록도로서, 본 발명이 스마트폰에 적용된 한가지 예를 보여주고 있다.
상기 장치(100)는 무선 통신부(110), 입력부(120), 센싱부(130), 출력부(150), 인터페이스부(160), 메모리(140), 제어부(180) 및 전원 공급부(160) 등을 포함할 수 있다. 도 1에 도시된 구성요소들은 장치를 구현하는데 있어서 필수적인 것은 아니며, 본 명세서 상에서 설명되는 장치는 위에서 열거된 구성요소들보다 많거나, 또는 적은 구성요소들을 가질 수 있다.
무선 통신부(110)는, 장치(100)와 무선 통신 시스템 사이, 장치(100)와 다른 장치(100) 사이, 또는 장치(100)와 외부서버 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 또한, 상기 무선 통신부(110)는, 장치(100)를 하나 이상의 네트워크에 연결하는 하나 이상의 모듈을 포함할 수 있다. 무선 통신부(110)는, 이동통신 모듈(112), 무선 인터넷 모듈(113), 근거리 통신 모듈(114), 위치정보 모듈(115) 중 적어도 하나를 포함할 수 있다.
이동통신 모듈(112)은, 이동통신을 위한 기술표준들 또는 통신방식에 따라 구축된 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 무선 인터넷 모듈(113)은 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 장치(100)에 내장되거나 외장될 수 있다.
무선 인터넷 모듈(113)은 WLAN(Wireless LAN), Wi-Fi(Wireless-Fidelity) 등과 같은 무선 인터넷 기술들에 따른 통신망에서 무선 신호를 송수신하도록 이루어진다.
근거리 통신 모듈(114)은 루투스(Bluetooth™), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), ZigBee, NFC(Near Field Communication) 등의 기술을 이용하여 근거리 통신(Short range communication)을 지원하기 위한 것이다.
위치정보 모듈(115)은 장치의 위치(또는 현재 위치)를 획득하기 위한 모듈로서, 그의 대표적인 예로는 GPS(Global Positioning System) 모듈 또는 WiFi(Wireless Fidelity) 모듈이 있지만, 장치의 위치를 직접적으로 계산하거나 획득하는 모듈로 한정되지는 않는다.
입력부(120)는, 영상 신호 입력을 위한 카메라(121) 또는 영상 입력부, 오디오 신호 입력을 위한 마이크로폰(microphone, 122), 또는 오디오 입력부, 사용자로부터 정보를 입력받기 위한 사용자 입력부(123, 예를 들어, 터치키(touch key), 푸시키(mechanical key) 등)를 포함할 수 있다. 입력부(120)에서 수집한 음성 데이터나 이미지 데이터는 분석되어 사용자의 제어명령으로 처리될 수 있다.
카메라(121)는 화상 통화모드 또는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 처리된 화상 프레임은 디스플레이부(151)에 표시되거나 메모리(140)에 저장될 수 있다.
마이크로폰(122)은 외부의 음향 신호를 전기적인 음성 데이터로 처리한다. 처리된 음성 데이터는 장치(100)에서 수행 중인 기능(또는 실행 중인 응용 프로그램)에 따라 다양하게 활용될 수 있다.
사용자 입력부(123)는 사용자로부터 정보를 입력받기 위한 것으로서, 사용자 입력부(123)를 통해 정보가 입력되면, 제어부(180)는 입력된 정보에 대응되도록 장치(100)의 동작을 제어할 수 있다. 이러한, 사용자 입력부(123)는 기계식 (mechanical) 입력수단(또는, 메커니컬 키, 예를 들어, 장치(100)의 전·후면 또는 측면에 위치하는 버튼, 돔 스위치 (dome switch), 조그 휠, 조그 스위치 등) 및 터치식 입력수단을 포함할 수 있다. 일 예로서, 터치식 입력수단은, 소프트웨어적인 처리를 통해 터치스크린에 표시되는 가상 키(virtual key), 소프트 키(soft key) 또는 비주얼 키(visual key)로 이루어지거나, 상기 터치스크린 이외의 부분에 배치되는 터치 키(touch key)로 이루어질 수 있다. 한편, 상기 가상키 또는 비주얼 키는, 다양한 형태를 가지면서 터치스크린 상에 표시되는 것이 가능하며, 예를 들어, 그래픽(graphic), 텍스트(text), 아이콘(icon), 비디오(video) 또는 이들의 조합으로 이루어질 수 있다.
센싱부(130)는 장치 내 정보, 장치를 둘러싼 주변 환경 정보 및 사용자 정보 중 적어도 하나를 센싱하기 위한 하나 이상의 센서를 포함할 수 있다. 예를 들어, 센싱부(130)는 근접센서(131, proximity sensor), 조도 센서(132, illumination sensor), 터치 센서(touch sensor), 가속도 센서(acceleration sensor), 자기 센서(magnetic sensor), 중력 센서(G-sensor), 자이로스코프 센서(gyroscope sensor), 모션 센서(motion sensor) 등을 포함할 수 있다.
출력부(150)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 디스플레이부(151), 음향 출력부(152), 햅팁 모듈(153), 광 출력부(154) 중 적어도 하나를 포함할 수 있다.
디스플레이부(151)는 예를 들면 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉서블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전자잉크 디스플레이(e-ink display) 등으로 구성할 수 있다. 디스플레이부(151)는 터치 센서와 상호 레이어 구조를 이루거나 일체형으로 형성됨으로써, 터치 스크린을 구현할 수 있다. 이러한 터치 스크린은, 장치(100)와 사용자 사이의 입력 인터페이스를 제공하는 사용자 입력부(123)로써 기능함과 동시에, 장치(100)와 사용자 사이의 출력 인터페이스를 제공할 수 있다.
디스플레이부(151)는 터치 방식에 의하여 제어 명령을 입력 받을 수 있도록, 디스플레이부(151)에 대한 터치를 감지하는 터치센서를 포함할 수 있다. 이를 이용하여, 디스플레이부(151)에 대하여 터치가 이루어지면, 터치센서는 상기 터치를 감지하고, 제어부(180)는 이에 근거하여 상기 터치에 대응하는 제어명령을 발생시키도록 이루어질 수 있다. 터치 방식에 의하여 입력되는 내용은 문자 또는 숫자이거나, 각종 모드에서의 지시 또는 지정 가능한 메뉴항목 등일 수 있다. 한편, 터치센서는, 터치패턴을 구비하는 필름 형태로 구성되어 윈도우와 윈도우의 배면 상의 디스플레이 사이에 배치되거나, 윈도우의 배면에 직접 패터닝되는 메탈 와이어가 될 수도 있다. 실시형태에 따라서는 디스플레이부(151)에 터치센서에서 감지된 신호로부터 터치 여부 및 터치 위치를 감지하기 위한 컨트롤러가 구비될 수 있다. 이 경우에 컨트롤러는 감지된 터치 위치를 제어부(180)로 전송한다. 또는, 디스플레이부(151)는 터치센서에서 감지된 신호 또는 이를 디지털로 변환한 데이터를 제어부(180)로 전송하고, 제어부(180)가 터치 여부 및 터치 위치를 판단하도록 구성할 수도 있다.
음향 출력부(152)는 음악이나 음성 등의 오디오 신호를 출력하기 위한 것으로서 리시버(receiver), 스피커(speaker), 버저(buzzer) 등이 포함될 수 있다. 햅틱 모듈(haptic module)(153)은 사용자가 느낄 수 있는 다양한 촉각 효과를 발생시킨다. 햅틱 모듈(153)이 발생시키는 촉각 효과의 대표적인 예로는 진동이 될 수 있다. 광출력부(154)는 장치(100)의 광원의 빛을 이용하여 이벤트 발생을 알리기 위한 신호를 출력한다. 장치(100)에서 발생 되는 이벤트의 예로는 메시지 수신, 호 신호 수신, 부재중 전화, 알람, 일정 알림, 이메일 수신, 애플리케이션을 통한 정보 수신 등이 될 수 있다.
메모리(140)는 장치(100)의 다양한 기능을 지원하는 데이터를 저장한다. 메모리(140)는 장치(100)에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션(application)), 장치(100)의 동작을 위한 데이터들, 명령어들을 저장할 수 있다. 이러한 응용 프로그램 중 적어도 일부는, 무선 통신을 통해 외부 서버로부터 다운로드 될 수 있다. 또한 이러한 응용 프로그램 중 적어도 일부는, 장치(100)의 기본적인 기능(예를 들어, 전화 착신, 발신 기능, 메시지 수신, 발신 기능)을 위하여 출고 당시부터 장치(100)상에 존재할 수 있다. 한편, 응용 프로그램은, 메모리(140)에 저장되고, 장치(100) 상에 설치되어, 제어부(180)에 의하여 상기 장치의 동작(또는 기능)을 수행하도록 구동될 수 있다.
제어부(180)는 상기 응용 프로그램과 관련된 동작 외에도, 통상적으로 장치(100)의 전반적인 동작을 제어한다. 제어부(180)는 위에서 살펴본 구성요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리하거나 메모리(140)에 저장된 응용 프로그램을 구동함으로써, 사용자에게 적절한 정보 또는 기능을 제공 또는 처리할 수 있다. 또한, 제어부(180)는 메모리(140)에 저장된 응용 프로그램을 구동하기 위하여, 구성요소들 중 적어도 일부를 제어할 수 있다. 나아가, 제어부(180)는 상기 응용 프로그램의 구동을 위하여, 장치(100)에 포함된 구성요소들 중 적어도 둘 이상을 서로 조합하여 동작시킬 수 있다.
전원공급부(190)는 제어부(180)의 제어 하에서, 외부의 전원, 내부의 전원을 인가 받아 장치(100)에 포함된 각 구성요소들에 전원을 공급한다. 이러한 전원공급부(190)는 배터리를 포함할 수 있으며, 상기 배터리는 내장형 배터리 또는 교체가능한 형태의 배터리가 될 수 있다.
상기 각 구성요소들 중 적어도 일부는, 이하에서 설명되는 다양한 실시 예들에 따른 장치의 동작, 제어, 또는 제어방법을 구현하기 위하여 서로 협력하여 동작할 수 있다. 또한, 상기 장치의 동작, 제어, 또는 제어방법은 상기 메모리(140)에 저장된 적어도 하나의 응용 프로그램의 구동에 의하여 장치 상에서 구현될 수 있다.
한편, 상기 설명에서는 본 발명이 스마트폰에 적용되는 경우에 대해서 설명하였지만, 본 발명이 키오스크(KIOSK)와 같이 고정되어 설치되는 장치에 적용되는 경우에는 무선통신 대신에 유선통신이 사용되고 카메라와 마이크로폰 등이 생략되도록 변형 적용될 수 있다. 즉, 본 발명이 적용되는 장치의 성격에 따라 그 구성요소는 적절하게 추가 또는 생략되어 구성될 수 있다.
또한, 도 1은 디스플레이부(151)에 터치를 감지하는 터치센서를 포함시킨 경우를 보여주고 있지만, 본 발명의 일부 또는 전부의 실시형태는 디스플레이부(151)에 터치센서가 포함되지 않고 터치 감지 및 터치 압력 감지를 위하여 별도의 터치패널을 구비한 장치, 예를 들면 노트북 컴퓨터와 같은 장치에도 적용될 수 있다. 이하의 설명에서는 주로 터치스크린을 구비한 장치에서의 동작을 기술하고 있지만, 별도의 터치패널을 구비한 장치에도 마찬가지로 적용될 수 있다.
장치(100)는 압력에 기초하여 터치 명령의 종류를 구별할 수 있다. 예를 들어, 장치(100)는 기 설정된 압력 미만의 터치 제스처를 터치된 영역에 대한 선택 명령으로 인식할 수 있다. 그리고, 장치(100)는 기 설정된 압력 이상의 터치 제스처를 추가적인 명령으로 인식할 수 있다.
이를 위하여 장치(100)는 터치 압력을 감지하는 압력 감지부를 구비한다. 압력 감지부는 터치 스크린 또는 터치 패널에 일체로 결합될 수도 있고 별도의 구성 요소로 마련될 수도 있다. 압력 감지부에는 별도의 컨트롤러가 마련되어 감지된 압력값을 제어부로 전송하도록 구성할 수도 있고, 단순히 감지된 신호를 제어부로 전송하도록 구성할 수도 있다.
터치 제스처의 압력은 다양한 방식을 이용하여 검출될 수 있다. 예를 들면, 장치(100)의 디스플레이부(151)는 터치를 감지할 수 있는 터치 인식 층과 지문을 감지할 수 있는 지문 인식 층을 포함할 수 있다. 사용자가 압력을 달리하여 터치하는 경우, 터치되는 부분의 이미지 퀄러티는 달라질 수 있다. 예를 들어, 사용자가 디스플레이부(151)를 가볍게 터치하는 경우, 터치되는 부분은 흐릿하게 인식될 수 있다. 반대로, 사용자가 디스플레이부(151)를 힘을 가해 터치하는 경우, 터치되는 부분은 명확하고 진하게 인식될 수 있다. 따라서, 지문 인식 층을 포함하는 디스플레이부(151)는 터치 압력에 비례하는 이미지 퀄러티로 터치되는 부분을 인식할 수 있다. 장치(100)는 이미지 퀄러티에 따라 터치되는 부분의 강도를 검출할 수 있다.
또는, 장치(100)는 터치 인식 층이 인식하는 터치 면적을 이용하여 터치 압력의 세기를 감지할 수 있다. 디스플레이부(151) 상에서 사용자가 가볍게 누르는 경우, 터치되는 면적은 상대적으로 작을 수 있다. 그리고, 사용자가 세게 누르는 경우, 터치되는 면적은 상대적으로 클 수 있다. 장치(100)는 터치되는 면적과 압력의 관계를 이용하여 터치 압력을 산출할 수 있다. 따라서, 장치(100)는 기 설정된 압력 이상의 터치 제스처를 인식할 수 있다.
장치(100)는 압전 소자(piezoeletric element)를 이용하여 터치 제스처의 압력을 검출할 수도 있다. 압전소자는 압전효과를 이용하여 압력을 감지하거나 변형/진동을 발생시키는 장치를 말한다. 특정 고체물질(solid material)에 기계적 응력(mechanical stress)(정확하게는, 기계적 힘 또는 압력)이 주어지고 변형이 발생되면, 상기 고체내부에서 분극(polarization)이 발생되면서 전하(electric charge)가 집적된다(accumulate). 집적된 전하는 물질의 양 전극들 사이에서 전기적 신호, 즉 전압의 형태로 나타난다. 이러한 현상을 압전효과(piezoelectric effect)라 하며, 고체물질을 압전물질(piezoelectric material), 그리고 집적된 전하를 압전기(piezoelectricity)라고 한다. 장치(100)는 압전 효과에 의해 구동될 수 있는 압전물질로 이루어지는 레이어를 포함하는 센싱부(미도시)를 포함할 수 있다. 센싱부는 가해진 기계적 에너지(힘 또는 압력) 및 이에 의한 변형에 의해 발생되는 전기적 에너지(일종의 전기적 신호인 전압)를 검출(detect)할 수 있으며, 이러한 검출된 전압에 기초하여 가해진 기계적 힘 또는 압력을 감지할 수 있다.
다른 실시 예로서, 장치(100)는 압력 감지부에 3개 이상의 압력 센서를 포함할 수 있다. 3개 이상의 압력 센서는 디스플레이부(151) 영역에 레이어를 달리하여 배치될 수도 있고 베젤 영역에 배치될 수도 있다. 사용자가 디스플레이부(151)를 터치하면 압력 센서는 가해지는 압력의 크기를 센싱할 수 있다. 압력 센서에서 감지되는 압력의 세기는 터치 지점과 거리에 반비례할 수 있다. 그리고, 압력 센서에서 감지되는 압력의 세기는 터치 압력에 비례할 수 있다. 장치(100)는 각 압력 센서에서 감지되는 압력의 세기를 이용하여 터치 지점 및 실제 터치 압력의 세기를 산출할 수 있다. 또는, 장치(100)는 터치 입력을 감지하는 터치 입력 층을 포함하여 터치 지점을 검출할 수 있다. 장치(100)는 검출된 터치 지점 및 각 압력 센서에서 감지되는 압력의 세기를 이용하여 터치 지점의 터치 압력의 세기를 산출할 수도 있다.
이와 같이 압력 감지부를 구성하는 방식은 다양하며, 본 발명은 특정 압력 감지 방식에 한정되지 않으며, 터치 지점의 압력을 직접 또는 간접적으로 구할 수 있는 방식이면 어느 방식이든 적용 가능하다.
이하, 본 발명의 몇가지 실시형태를 도면을 참조하여 상세히 설명한다. 이하의 설명에서 '압력 터치'는 임계압력보다 큰 압력의 터치를 의미하며, '스와이프 제스처'는 터치스크린 또는 터치패널에 손가락이 접촉된 상태에서 접촉지점이 이동하는 동작을 의미한다. 실시형태에 따라서 '스와이프 제스처'는 터치 압력이 소정 압력 이하인 상태에서 접촉지점이 이동하는 것으로 정의할 수도 있고, 터치 압력에 관계 없이 접촉지점이 이동하는 것으로 정의할 수도 있다. 한편, 실시형태에 따라서는 압력 터치 이후 접촉 지점의 이동 거리가 소정 거리 이상인 경우에만 스와이프 제스처가 이루어지고 있다고 판단하도록 구성할 수도 있다. 또는 스와이프 제스처가 소정 시간 이내에 이루어진 경우에만 유효한 스와이프 제스처로 인정하도록 구성하는 것도 가능하다.
또한, 이하의 설명에서 '이어서'는 터치스크린 또는 터치패널 상에 접촉이 된 상태에서 다음 동작이 이어지는 것을 의미한다. 예를 들어, "한 손가락으로 압력 터치를 한 후에 이어서 스와이프 제스처를 한다"이라는 표현은 터치스크린 상에 한 손가락으로 임계압력보다 큰 압력의 터치를 한 후에 그 손가락을 떼지 않고 접촉을 유지한 상태에서 그 손가락으로 스와이프 제스처를 수행하는 것을 의미한다.
임계압력은 적용되는 장치, 응용분야 등에 따라 적절하게 설정할 수 있다. 예를 들면, 임계압력을 고정된 크기의 압력으로 설정할 수 있으며, 이 크기는 하드웨어 특성, 소프트웨어 특성 등에 따라 적절하게 결정할 수 있다. 또한, 임계압력을 사용자가 설정할 수 있도록 구성하는 것도 가능하다.
스와이프 되는 방향은 디스플레이 화면 상에서의 방향으로 판단할 수도 있고, 기울기 센서에서 파악되는 장치의 기울기를 고려하여 중력 방향을 기준으로 판단할 수도 있다.
다음으로 도 2를 참조하여 포스 앤 스와이프(force and swipe) 제스처에 따른 장치의 동작의 한가지 예를 설명한다.
제어부(180)가 임계압력 이상의 터치를 감지한 후에(단계 S210) 터치가 종료되면(단계 S220의 '예') 제어부(180)는 이를 압력터치 제스처로 인지하여 단계 S230에서 압력터치에 따른 소정의 제어동작을 수행한다. 압력터치 제스처에 따른 제어동작은 장치별로 정의될 수 있으며 본 발명과는 관련이 없는 부분이므로 상세한 설명은 생략한다.
한편, 임계압력 이상의 터치가 감지된 후에 접촉이 유지된 상태에서 접촉지점이 이동되는 스와이프 제스처가 감지되면(단계 S240의 '예') 제어부(180)는 단계 S250에서 터치가 종료되었는지 즉, 터치했던 손가락을 터치스크린에서 떼었는지를 확인한다. 터치가 종료되면 제어부(180)는 이를 포스 앤 스와이프 제스처로 인지하여 단계 S260에서 포스 앤 스와이프 제스처에 따른 소정의 제어동작을 수행한다.
한편, 실시형태에 따라서는 단계 S240에서 스와이프 제스처가 이루어지고 있는 동안에도 소정의 제어동작을 수행할 수 있다. 예를 들면, 압력 터치가 아이콘, 게임 캐릭터 등의 객체 상에서 이루어진 경우에 압력 터치에 이어서 스와이프 제스처가 이루어지면 상기 스와이프 제스처의 이동 경로를 따라 상기 객체를 표시할 수 있다.
단계 S240에서 스와이프 제스처가 감지되면 스와이프 제스처의 방향도 함께 판단하도록 구성하는 것도 가능하다. 스와이프 제스처의 방향은 스와이프 되는 최초 방향의 상하 방향 성분의 크기와 좌우 방향 성분의 크기로부터 판단하도록 구성할 수 있다. 예를 들어 도 3에 도시한 것처럼 스와이프 제스처가 접촉지점 P1에서 접촉지점 P2로 이루어졌다면, 스와이프 되는 방향의 상하 방향 성분 y의 크기와 좌우 방향 성분 x의 크기로부터 이 스와이프 제스처가 상하 방향인지 좌우 방향인지를 구분할 수 있다.
예를 들면, 도 4의 (a)에서와 같이 압력터치 이후에 접촉지점 P4로 접촉지점이 이동한 경우에는 최초 방향의 상하 방향 성분(y4)의 절대값이 좌우 방향 성분(x4)의 절대값보다 크고 상하 방향 성분(y4)이 양의 값을 가지므로 위쪽으로의 스와이프 제스처라고 판단하고, 도 4의 (b)에서와 같이 압력터치 이후에 접촉지점 P5로 접촉지점이 이동한 경우에는 좌우 방향 성분(x5)의 절대값이 상하 방향 성분(y5)의 절대값보다 크고 좌우 방향 성분(x5)이 음의 값을 가지므로 좌측으로의 스와이프 제스처라고 판단한다.
또는 압력터치 지점과 스와이프 종료 지점을 잇는 벡터의 상하 방향 성분 y의 크기와 좌우 방향 성분 x의 크기로부터 이 스와이프 제스처가 상하 방향인지 좌우 방향인지를 구분하도록 구성하는 것도 가능하다.
실시형태에 따라서는, 스와이프 제스처의 방향에 따라 지정된 제어동작을 수행하도록 구성할 수 있다. 또한, 스와이프 방향과 스와이프 제스처의 시간이 소정 조건을 만족시킬 때에 지정된 제어동작을 수행하도록 구성할 수 있다. 또는, 스와이프 방향과 스와이프된 거리가 소정 조건을 만족시킬 때에 지정된 제어동작을 수행하도록 구성할 수 있다. 예를 들면, 압력터치 후에 빠르게 위쪽으로 스와이프 하는 경우에 A 제어동작을 수행하도록 하고, 압력터치 후에 빠르게 아래쪽으로 스와이프 하는 경우에 A와는 다른 B 제어동작을 수행하도록 구성할 수 있다.
또한, 실시형태에 따라서는 압력 터치를 한 후에 접촉을 그대로 유지한 상태에서 압력 터치를 추가적으로 소정 횟수 수행한 후에 스와이프 제스처를 한 경우에만 유효한 포스 앤 스와이프 제스처라고 판단하도록 구성할 수도 있다. 예를 들면, 임계 압력 이상으로 터치를 한 후에 손을 떼지 않고 임계 압력 이하로 힘을 뺐다가 다시 임계 압력 이상으로 터치를 한 후에, 즉 같은 위치에서 손을 떼지 않고 2회의 압력터치를 한 후에 스와이프 제스처를 한 경우에만 유효한 포스 앤 스와이프 제스처라고 판단하도록 구성할 수 있다.
다음으로 포스 앤 스와이프 제스처에 따른 제어동작의 몇가지 실시예를 설명한다.
< 제1 실시예 >
제1 실시예에서는 앱이 포그라운드(foreground)에서 실행되고 있는 상태에서 사용자가 포스 앤 스와이프 제스처를 수행하고 손가락을 떼었을 때에 실행 중인 앱을 종료시킨다. 즉, 앱이 실행되고 있는 상태에서 제어부(180)는 제1 접촉지점에서 압력 터치가 감지되고, 이어서 터치 지점이 이동되는 스와이프(swipe) 제스처가 감지된 후에 스와이프 제스처가 종료되면 실행 중인 앱을 종료시킨다.
실시형태에 따라서는, 포스터치 및/또는 스와이프 제스처가 소정의 조건을 만족하였을 때에만 앱을 종료시키도록 구성할 수도 있다. 예를 들면, 앱종료 동작은 스와이프 제스처의 방향이 소정 조건을 만족시킬 때 수행하도록 구성할 수 있다. 예를 들면 압력터치 후에 아래쪽 방향으로 스와이프 제스처가 이루어졌을 때에만 수행하도록 구성할 수 있다.
실시형태에 따라서는, 스와이프 제스처의 방향이 아래쪽이고 스와이프 제스처의 시간이 소정 시간 이내일 때 수행하도록 구성할 수 있다. 즉, 압력터치 후에 빠르게 아래쪽으로 스와이프 하는 경우에 실행 중인 앱을 종료시키도록 구성할 수 있다. 또는, 스와이프 제스처의 방향이 아래쪽이고 스와이프된 거리가 소정 거리 조건을 만족시킬 때에 실행 중인 앱을 종료시키도록 구성할 수도 있다. 예를 들면, 압력터치 후에 소정 거리보다 짧게 아래쪽으로 스와이프 하는 경우에 실행 중인 앱을 종료시키도록 구성할 수 있다. 또한, 같은 위치에서 손을 떼지 않고 2회의 압력터치를 한 후에 스와이프 제스처를 한 경우에만 앱 종료를 수행하도록 구성하는 것도 가능하다.
< 제2 실시예 >
제2 실시예에서는 화면에 키보드가 표시된 상태에서 포스 앤 스와이프 제스처를 한 경우에 키보드를 한 손 입력 키보드로 변경한다. 실시형태에 따라서는 포스 앤 스와이프 제스처를 키보드 위에서 수행한 경우에만 한 손 입력 키보드로 변경하도록 구성하는 것도 가능하다.
전화번호를 입력하거나 문자 메시지를 작성하거나 웹브라우저 등에서 검색어를 입력하거나 이메일을 작성하는 등의 문자 입력이 필요한 경우에는 화면에 도 5와 같이 화면의 좌우폭 전체에 걸쳐서 키보드가 표시되고(이하, '일반 키보드'라 함), 사용자는 키보드의 원하는 키를 터치하여 문자를 입력하게 된다. 스마트폰의 경우에는 두손으로 장치를 잡은 상태에서 두 엄지 손가락을 이용하여 문자를 입력하거나, 한손으로 장치를 잡은 상태에서 다른 손의 검지 손가락을 이용하여 문자를 입력하는 것이 일반적인 입력방법이다.
그런데, 한 손으로 가방을 들고 있다거나 한 손으로 버스 손잡이를 잡고 있는 경우와 같이 문자 입력에 두 손을 사용할 수 없는 경우에는 한 손으로 장치를 잡고 같은 손의 엄지 손가락으로 문자를 입력하여야 한다. 이러한 경우에 화면의 좌우폭 전체에 걸쳐서 표시된 일반 키보드로는 장치의 한쪽을 잡고 있는 손의 엄지손가락으로 키보드의 끝부분에 표시된 키를 터치하기가 어렵다. 이는 스마트폰이 대형일수록 더욱 더 문제가 된다.
이러한 문제점을 해결하기 위하여 도 6 또는 도 7에 표시된 것과 같은 한 손 키보드가 사용되고 있다. 그런데, 한 손 키보드 모드로 전환하기 위한 동작을 필요에 따라 한 손가락으로 수행하는 것이 불편하다. 본 실시예에서는 이러한 점을 개선하기 위하여 도 5와 같이 일반 키보드가 표시된 상태에서 포스 앤 스와이프 제스처로 키보드를 한 손 입력 키보드로 변경한다. 포스 앤 스와이프 제스처는 한 손으로 장치를 잡고 있는 상태에서 같은 손의 엄지 손가락으로 취할 수 있는 제스처이므로, 한 손만을 사용하여 문자 또는 전화번호를 입력하여야 할 경우에도 한 손으로 쉽게 한 손 키보드로 변경한 후에 문자를 입력할 수 있다.
한편, 한 손 키보드는 일반적으로 좌우 어느 한쪽에 치우쳐 있다. 실시형태에 따라서는 포스 앤 스와이프 제스처의 스와이프 방향에 기초하여 한 손 키보드의 배치 방향을 결정하도록 할 수 있다. 예를 들면, 스와이프 방향이 왼쪽이면 도 6에 도시한 것처럼 키보드를 왼쪽에 치우쳐서 표시한다. 또는, 엄지 손가락을 손등쪽으로 스와이프 하는 것보다는 그 반대 방향으로 스와이프 하는 것이 편한 경우가 많으므로 스와이프 방향의 반대쪽에 키보드를 표시하도록 구성하는 것도 가능하다. 예를 들면, 왼손으로 장치를 잡고 있는 경우에는 왼쪽에 키보드가 배치되는 것이 편리한데, 이 경우에 엄지손가락을 오른쪽으로 스와이프 하는 것이 왼쪽으로 스와이프 하는 것보다는 더 편리할 수 있다. 이러한 사용자를 위하여 스와이프 방향이 오른쪽이면 도 6에 도시한 것처럼 키보드를 왼쪽에 치우쳐서 표시하도록 구성할 수 있다. 도 6의 한 손 키보드 모드에서 일반 키보드 모드로 복귀하려면 다시 키보드 상에서 포스 앤 스와이프 제스처를 취하거나 또는 도 6에 표시된 꺽쇠 부분(>)을 터치한다.
또한 실시형태에 따라서는 압력터치의 위치에 따라 한 손 키보드의 배치 방향을 결정하도록 할 수 있다. 예를 들면, 압력터치가 키보드 상의 중앙에서 좌측 부분에서 이루어진 경우, 즉 압력터치의 위치가 좌측인 경우에는 한 손 키보드를 좌측에 치우쳐서 표시하고, 압력터치가 키보드 상의 중앙에서 우측 부분에서 이루어진 경우에는 한 손 키보드를 우측에 치우쳐서 표시한다. 이 경우에는 압력터치 이후의 스와이프의 방향은 한 손 키보드의 배치 방향에 영향을 미치지 아니한다.
한편, 도 6에서는 일반 키보드와 동일한 형태의 키보드를 어느 한쪽으로 치우쳐 표시한 것을 한 손 키보드로 사용하는 경우를 보여주고 있지만, 한 손 키보드의 형태는 특정 형태에 한정되지 않는다. 예를 들면, 한 손 엄지 손가락으로 입력이 편리하도록 키보드 형태를 반원 형태 또는 도 7과 같이 1/4 원 형태로 구성하는 것도 가능하다. 도 7은 오른손 엄지로 키입력을 하는 경우의 한 손 키보드의 한가지 예를 보여주고 있다.
< 제3 실시예 >
제3 실시예에서는 객체에 대해서 포스 앤 스와이프 제스처를 한 경우에 객체를 삭제하거나 다른 곳, 예를 들면 휴지통으로 보내거나 외부로 전달하는 등의 파일 제어 동작을 수행한다. 객체로는 문자메시지, 이메일, 문서파일, 음악 파일, 동영상 파일, 앱(App), 친구 리스트 등 다양한 객체가 될 수 있다. 객체들의 리스트가 화면에 표시되어 있을 때 사용자는 조작하고자 하는 객체 위에 압력터치를 한 후에 스와이프 제스처를 한다. 실시형태에 따라서는 스와이프 방향에 기초하여 수행되는 동작을 지정하도록 할 수 있다. 예를 들면, 아래쪽으로 스와이프 제스처가 이루어지면 해당 객체를 삭제하고, 위쪽으로 스와이프 제스처가 이루어지면 다른 곳으로의 전송 동작이 수행되도록 할 수 있다. 도 8은 장치를 잡고 있는 손의 엄지 손가락으로 압력터치를 한 후에 아래쪽으로 스와이프 제스처를 하여 객체(A)를 삭제하는 모습을 보여주는 도면이다. 다른 곳으로의 전송 동작은 예를 들면 다른 앱으로의 전송, 다른 장치로의 전송, 임시 저장 공간으로의 전송(복사), 다른 저장공간(연락처, 사진첩 등)으로의 전송(저장) 등일 수 있다. 또한, 전송처가 복수개인 경우에는 포스 앤 스와이프 제스처를 하면 전송할 곳(다른 앱, 다른 장치, 저장 공간 등)의 리스트를 표시하고 그 중에서 하나를 선택하도록 구성할 수도 있다.
< 제4 실시예 >
제4 실시예에서는 화면에 표시된 객체에 대해서 포스 앤 스와이프 제스처를 한 경우에 해당 객체의 위치를 스와이프 제스처에 따라 변경하는 동작을 수행한다. 객체로는 파일 리스트 상의 파일, 게임 상의 캐릭터, 앱 리스트 상의 앱, 친구 리스트 상의 친구, 디지털 메모지 등 다양한 객체가 될 수 있다. 객체가 화면에 표시되어 있을 때 사용자는 조작하고자 하는 객체 위에 압력터치를 한 후에 스와이프 제스처를 하고 객체를 이동시키고자 하는 목적지에서 손을 뗀다. 그러면 해당 객체가 원래의 위치에서 스와이프 제스처의 종료점으로 이동하여 배치된다. 도 9은 (a)의 화면에서 앱(E)을 압력터치하고 스와이프 제스처를 하여 (b)와 같이 앱(E)의 위치를 이동시키는 예를 보여주고 있다. 한편, 스와이프 제스처가 이루어지고 있는 동안에 상기 객체를 스와이프 제스처의 이동 경로를 따라 표시하도록 구성하는 것도 가능하다.
< 제5 실시예 >
제5 실시예에서는 화면에 표시된 객체에 대해서 포스 앤 스와이프 제스처를 한 경우에 해당 객체의 회전(rotation) 또는 방향(orientation)을 스와이프 제스처에 따라 변경하는 동작을 수행한다. 객체로는 게임 상의 캐릭터 또는 아이템, 이미지, 이미지 편집 어플에서의 편집 대상물 등 다양한 객체가 될 수 있다. 객체가 화면에 표시되어 있을 때 사용자는 조작하고자 하는 객체 위에 압력터치를 한 후에 스와이프 제스처를 하여 객체의 방향을 원하는 방향으로 회전시킨 후에 손을 뗀다. 그러면 해당 객체의 방향이 스와이프 제스처의 종료점에 대응되는 방향으로 설정된다. 도 10은 (a)의 화면에서 D1 방향인 게임 상의 객체(T)를 압력터치하고 (b)와 같이 스와이프 제스처를 하여 객체(T)의 방향(orientation)을 변경(또는 회전을 제어)하고 원하는 방향이 되면 터치를 종료하여 (c)와 같이 객체(T)의 방향을 원하는 방향(D2)으로 설정하는 예를 보여주고 있다. 한편, 스와이프 제스처가 이루어지고 있는 동안에 스와이프 제스처에 따라 상기 객체의 방향을 변경하여 표시하도록 구성하는 것도 가능하다. 또는 스와이프 제스처가 이루어지고 있는 동안에 객체의 방향을 나타내는 값이나 화살표만을 변경하여 표시하도록 구성하는 것도 가능하다.
다음으로 도 11을 참조하여 스와이프 앤 포스(swipe and force) 제스처에 따른 장치의 동작의 한가지 예를 설명한다.
제어부(180)가 제1 접촉지점에서부터 스와이프 제스처가 시작되는 것을 감지하면(단계 S1110) 스와이프 제스처가 이루어지는 동안에 제1 제어동작을 수행한다(단계 S1120). 실시예에 따라서는 단계 S1120은 생략 가능하다. 제1 제어동작에는 객체(예를 들면, 리스트 상의 문자메시지, 이메일, 문서파일, 음악 파일, 동영상 파일, 앱(App), 게임 상의 캐릭터 등) 상에서 스와이프 제스처가 이루어진 경우에 해당 객체를 스와이프 경로를 따라 표시하는 것이 포함될 수 있다. 스와이프 제스처 후에 터치가 종료되면(단계 S1130의 '예') 제어부(180)는 이를 스와이프 제스처로 인지하여 단계 S1140에서 스와이프 제스처에 따른 소정의 제어동작을 수행한다. 스와이프 제스처에 따른 제어동작은 장치별로 정의될 수 있으며 본 발명과는 관련이 없는 부분이므로 상세한 설명은 생략한다.
한편, 스와이프 제스처가 감지된 후에 접촉이 유지된 상태에서 제2 접촉지점에서 임계압력 이상이 감지되고 터치가 종료되면(단계 S1150의 '예') 제어부(180)는 이를 스와이프 앤 포스 제스처로 인지하여 단계 S1160에서 스와이프 앤 포스 제스처에 따른 소정의 제어동작(이하, '제2 제어동작'이라 함)을 수행한다.
한편, 실시형태에 따라서는 단계 S240에서 스와이프 제스처가 이루어지고 있는 동안에도 소정의 제어동작을 수행할 수 있다. 예를 들면, 제1 접촉지점에 아이콘, 게임 캐릭터 등의 객체가 있는 경우에 스와이프 제스처의 이동 경로를 따라 상기 객체를 표시할 수 있다.
단계 S1110에서 스와이프 제스처가 감지되면 스와이프 제스처의 방향도 함께 판단하도록 구성하는 것도 가능하다. 스와이프 제스처의 방향은 스와이프 되는 최초 방향의 상하 방향 성분의 크기와 좌우 방향 성분의 크기로부터 판단하도록 구성할 수 있다. 예를 들어 도 3에 도시한 것처럼 스와이프 제스처가 접촉지점 P1에서 접촉지점 P2로 이루어졌다면, 스와이프 되는 방향의 상하 방향 성분 y의 크기와 좌우 방향 성분 x의 크기로부터 이 스와이프 제스처가 상하 방향인지 좌우 방향인지를 구분할 수 있다.
예를 들면, 도 4의 (a)에서와 같이 압력터치 이후에 접촉지점 P4로 접촉지점이 이동한 경우에는 최초 방향의 상하 방향 성분(y4)의 절대값이 좌우 방향 성분(x4)의 절대값보다 크고 상하 방향 성분(y4)이 양의 값을 가지므로 위쪽으로의 스와이프 제스처라고 판단하고, 도 4의 (b)에서와 같이 압력터치 이후에 접촉지점 P5로 접촉지점이 이동한 경우에는 좌우 방향 성분(x5)의 절대값이 상하 방향 성분(y5)의 절대값보다 크고 좌우 방향 성분(x5)이 음의 값을 가지므로 좌측으로의 스와이프 제스처라고 판단한다.
또는 압력터치 지점과 스와이프 종료 지점을 잇는 벡터의 상하 방향 성분 y의 크기와 좌우 방향 성분 x의 크기로부터 이 스와이프 제스처가 상하 방향인지 좌우 방향인지를 구분하도록 구성하는 것도 가능하다.
실시형태에 따라서는, 스와이프 제스처의 방향에 따라 지정된 제어동작을 수행하도록 구성할 수 있다. 또한, 스와이프 방향과 스와이프 제스처의 시간이 소정 조건을 만족시킬 때에 지정된 제어동작을 수행하도록 구성할 수 있다. 또는, 스와이프 방향과 스와이프된 거리가 소정 조건을 만족시킬 때에 지정된 제어동작을 수행하도록 구성할 수 있다. 예를 들면, 빠르게 위쪽으로 스와이프 한 후에 압력터치를 하는 경우에 A 제어동작을 수행하도록 하고, 빠르게 아래쪽으로 스와이프 한 후에 압력터치를 하는 경우에 A와는 다른 B 제어동작을 수행하도록 구성할 수 있다.
또한, 실시형태에 따라서는 스와이프 제스처를 한 후에 접촉을 그대로 유지한 상태에서 압력 터치를 소정 횟수 수행한 경우에만 유효한 스와이프 앤 포스 제스처라고 판단하도록 구성할 수도 있다. 예를 들면, 스와이프 제스처를 한 후에 접촉을 그대로 유지한 상태에서 압력 터치를 2번 수행한 경우에만 유효한 스와이프 앤 포스 제스처라고 판단하도록 구성할 수 있다.
다음으로 스와이프 앤 포스 제스처에 따른 제어동작의 몇가지 실시예를 설명한다.
< 제6 실시예 >
제6 실시예에서는 앱이 포그라운드(foreground)에서 실행되고 있는 상태에서 사용자가 스와이프 앤 포스 제스처를 수행하였을 때에 실행 중인 앱을 종료시킨다. 즉, 앱이 실행되고 있는 상태에서 제어부(180)는 제1 접촉지점에서 제2 접촉지점으로의 스와이프(swipe) 제스처가 감지된 후에 압력터치가 이루어지면 실행 중인 앱을 종료시킨다.
실시형태에 따라서는, 스와이프 제스처 및/또는 포스 터치가 소정의 조건을 만족하였을 때에만 앱을 종료시키도록 구성할 수도 있다. 예를 들면, 앱종료 동작은 스와이프 제스처의 방향이 소정 조건을 만족시킬 때 수행하도록 구성할 수 있다. 예를 들면 아래쪽 방향으로 스와이프 제스처를 한 후에 압력터치가 이루어졌을 때에만 수행하도록 구성할 수 있다.
실시형태에 따라서는, 스와이프 제스처의 방향이 아래쪽이고 스와이프 제스처의 시간이 소정 시간 이내일 때 수행하도록 구성할 수 있다. 즉, 빠르게 아래쪽으로 스와이프 한 후에 이어서 압력터치를 하는 경우에 실행 중인 앱을 종료시키도록 구성할 수 있다. 또는, 스와이프 제스처의 방향이 아래쪽이고 스와이프된 거리가 소정 거리 조건을 만족시킬 때에 실행 중인 앱을 종료시키도록 구성할 수도 있다. 예를 들면, 소정 거리보다 짧게 아래쪽으로 스와이프 한 후에 이어서 압력터치를 하는 경우에 실행 중인 앱을 종료시키도록 구성할 수 있다. 또한, 스와이프 제스처를 한 후에 같은 위치에서 손을 떼지 않고 2회의 압력터치를 한 경우에만 앱 종료를 수행하도록 구성하는 것도 가능하다.
< 제7 실시예 >
제7 실시예에서는 화면에 키보드가 표시된 상태에서 스와이프 앤 포스 제스처를 한 경우에 키보드를 한 손 입력 키보드로 변경한다. 실시형태에 따라서는 스와이프 앤 포스 제스처를 키보드 위에서 수행한 경우에만 한 손 입력 키보드로 변경하도록 구성하는 것도 가능하다.
본 실시예에서는 도 5와 같이 일반 키보드가 표시된 상태에서 스와이프 앤 포스 제스처로 키보드를 한 손 입력 키보드로 변경한다. 스와이프 앤 포스는 한 손으로 장치를 잡고 있는 상태에서 같은 손의 엄지 손가락으로 취할 수 있는 제스처이므로, 한 손만을 사용하여 문자 또는 전화번호를 입력하여야 할 경우에도 한 손으로 쉽게 한 손 키보드로 변경한 후에 문자를 입력할 수 있다.
한 손 키보드는 일반적으로 좌우 어느 한쪽에 치우쳐 있다. 실시형태에 따라서는 스와이프 앤 포스 제스처의 스와이프 방향에 기초하여 한 손 키보드의 배치 방향을 결정하도록 할 수 있다. 예를 들면, 스와이프 방향이 왼쪽이면 도 6에 도시한 것처럼 키보드를 왼쪽에 치우쳐서 표시한다. 또는, 엄지 손가락을 손등쪽으로 스와이프 하는 것보다는 그 반대 방향으로 스와이프 하는 것이 편한 경우가 많으므로 스와이프 방향의 반대쪽에 키보드를 표시하도록 구성하는 것도 가능하다. 예를 들면, 왼손으로 장치를 잡고 있는 경우에는 왼쪽에 키보드가 배치되는 것이 편리한데, 이 경우에 엄지손가락을 오른쪽으로 스와이프 하는 것이 왼쪽으로 스와이프 하는 것보다는 더 편리할 수 있다. 이러한 사용자를 위하여 스와이프 방향이 오른쪽이면 도 6에 도시한 것처럼 키보드를 왼쪽에 치우쳐서 표시하도록 구성할 수 있다. 도 6의 한 손 키보드 모드에서 일반 키보드 모드로 복귀하려면 다시 키보드 상에서 스와이프 앤 포스 제스처를 취하거나 또는 도 6에 표시된 꺽쇠 부분(>)을 터치한다.
또한 실시형태에 따라서는 스와이프 제스처의 시작점, 즉 제1 접촉지점의 위치에 따라 한 손 키보드의 배치 방향을 결정하도록 할 수 있다. 예를 들면, 제1 접촉지점이 키보드 상의 중앙에서 좌측 부분인 경우, 즉 제1 접촉지점이 좌측인 경우에는 한 손 키보드를 좌측에 치우쳐서 표시하고, 제1 접촉지점이 키보드 상의 중앙에서 우측 부분에서 이루어진 경우에는 한 손 키보드를 우측에 치우쳐서 표시한다. 이 경우에는 제2 접촉지점의 위치는 한 손 키보드의 배치 방향에 영향을 미치지 아니한다. 실시예에 따라서는 제1 접촉지점이 아닌 제2 접촉지점의 위치에 따라 한 손 키보드의 배치 방향을 결정하도록 구성하는 것도 가능하다.
한편, 도 6에서는 일반 키보드와 동일한 형태의 키보드를 어느 한쪽으로 치우쳐 표시한 것을 한 손 키보드로 사용하는 경우를 보여주고 있지만, 한 손 키보드의 형태는 특정 형태에 한정되지 않는다. 예를 들면, 한 손 엄지 손가락으로 입력이 편리하도록 키보드 형태를 반원 형태 또는 도 7과 같이 1/4 원 형태로 구성하는 것도 가능하다. 도 7은 오른손 엄지로 키입력을 하는 경우의 한 손 키보드의 한가지 예를 보여주고 있다.
< 제8 실시예 >
제8 실시예에서는 객체에 대해서 스와이프 앤 포스 제스처를 한 경우에 객체를 삭제하거나 다른 곳, 예를 들면 휴지통으로 보내거나 외부로 전달하는 등의 파일 제어 동작을 수행한다. 객체로는 문자메시지, 이메일, 문서파일, 음악 파일, 동영상 파일, 앱(App), 친구 리스트 등 다양한 객체가 될 수 있다. 객체들의 리스트가 화면에 표시되어 있을 때 사용자는 조작하고자 하는 객체 위에 압력터치를 한 후에 스와이프 제스처를 한다. 실시형태에 따라서는 스와이프 방향에 기초하여 수행되는 동작을 지정하도록 할 수 있다. 예를 들면, 아래쪽으로 스와이프 제스처가 이루어지면 해당 객체를 삭제하고, 위쪽으로 스와이프 제스처가 이루어지면 다른 곳으로의 전송 동작이 수행되도록 할 수 있다. 도 12는 장치를 잡고 있는 손의 엄지 손가락으로 아래쪽으로 스와이프 제스처를 하고 압력터치를 하여 객체(A)를 삭제하는 모습을 보여주는 도면이다. 다른 곳으로의 전송 동작은 예를 들면 다른 앱으로의 전송, 다른 장치로의 전송, 임시 저장 공간으로의 전송(복사), 다른 저장공간(연락처, 사진첩 등)으로의 전송(저장) 등일 수 있다. 또한, 전송처가 복수개인 경우에는 스와이프 앤 포스 제스처를 하면 전송할 곳(다른 앱, 다른 장치, 저장 공간 등)의 리스트를 표시하고 그 중에서 하나를 선택하도록 구성할 수도 있다.
< 제9 실시예 >
제9 실시예에서는 화면에 표시된 객체에 대해서 스와이프 앤 포스 제스처를 한 경우에 해당 객체의 위치를 스와이프 제스처에 따라 변경하는 동작을 수행한다. 객체로는 파일 리스트 상의 파일, 게임 상의 캐릭터, 앱 리스트 상의 앱, 친구 리스트 상의 친구, 디지털 메모지(디지털 포스트 잇) 등 다양한 객체가 될 수 있다. 객체가 화면에 표시되어 있을 때 사용자는 조작하고자 하는 객체 위에서부터 스와이프 제스처를 하고 객체를 이동시키고자 하는 목적지(제2 접촉지점)에서 압력터치를 한다. 그러면 해당 객체가 원래의 위치(제1 접촉지점)에서 제2 접촉지점으로 이동하여 배치된다. 한편, 스와이프 제스처가 이루어지고 있는 동안에 상기 객체를 스와이프 제스처의 이동 경로를 따라 표시하도록 구성하는 것도 가능하다. 예를 들면, 스마트폰 상에서 디지털 메모지에 메모를 하고 디지털 메모지의 위치를 스와이프 제스처로 원하는 위치로 이동시킨 후 압력터치를 하여 디지털 메모지를 포스트 잇처럼 붙이는 동작을 수행할 수 있다.
< 제10 실시예 >
제10 실시예에서는 화면에 표시된 객체에 대해서 스와이프 앤 포스 제스처를 한 경우에 해당 객체의 회전량(rotation) 또는 방향(orientation)을 스와이프 제스처에 따라 변경하는 동작을 수행한다. 객체로는 게임 상의 캐릭터 또는 아이템, 이미지, 이미지 편집 어플에서의 편집 대상물 등 다양한 객체가 될 수 있다. 객체가 화면에 표시되어 있을 때 사용자는 조작하고자 하는 객체 위에서부터 스와이프 제스처를 하여 객체의 방향을 원하는 방향으로 회전시킨 후에 압력터치를 한다. 그러면 해당 객체의 방향이 압력터치가 이루어진 위치에 대응되는 방향으로 설정된다. 도 13은 D1 방향을 바라보고 있는 게임 화면 상의 객체(T)에 대해서 (b)와 같이 스와이프 제스처를 하여 객체(T)의 방향(orientation)을 변경(또는 회전을 제어)하고, 원하는 방향이 되면 (c)와 같이 압력터치를 함으로써 (d)와 같이 객체(T)의 방향을 원하는 방향(D2)으로 설정하는 예를 보여주고 있다. 한편, 스와이프 제스처가 이루어지고 있는 동안에 스와이프 제스처에 따라 상기 객체의 방향을 변경하여 표시하도록 구성하는 것도 가능하다. 또는 스와이프 제스처가 이루어지고 있는 동안에 객체의 방향을 나타내는 값이나 화살표만을 변경하여 표시하도록 구성하는 것도 가능하다.
< 제11 실시예 >
제11 실시예에서는 화면밝기, 음량, 재생속도, 줌레벨 등(이하, '제어량'이라 함)을 변경할 수 있는 핸들이 화면에 표시된 경우에 상기 핸들이 표시된 위치(제1 접촉지점)에서 시작되는 스와이프 제스처에 따라 상기 제어량의 값을 제어하고, 제2 접촉지점에서 압력터치가 있으면 제2 접촉지점에 대응되는 제어량의 값을 제어량의 디폴트 값으로 설정하는 동작을 수행한다. 예를 들면, 도 14의 (a)와 같이 벨소리 음량을 조절하는 핸들(H1)과 통화음량을 조절하는 핸들(H2)이 표시되어 있는 화면에서, 핸들(H1)을 터치한 후에 스와이프 제스처를 수행하고 손을 떼지 않은 상태에서 도 14의 (b)에서와 같이 압력터치를 하면 압력터치를 한 지점에 대응되는 음량 크기로 벨소리 음량의 디폴트 값이 설정된다. 한편, (a)의 화면에서 핸들(H1)을 터치하고 스와이프 제스처를 수행하여 (b)의 화면에서 핸들(H1)에서 압력터치를 하지 않고 손을 떼어도 벨소리 음량이 조절되도록 구성할 수 있다. 그러나, 이는 벨소리 음량이 (b)의 화면에서의 핸들(H1) 위치에 대응되는 음량 크기로 임시적으로 설정되는 것이고 디폴트 값으로 설정되는 것은 아니다. 즉, 핸들(H1)을 터치하고 스와이프 제스처를 한 후에 압력터치를 하고 손을 떼면 디폴트 값 설정이 되고, 압력터치를 하지않고 손을 떼면 디폴트 값 설정이 되지 않는다. 디폴트 값 설정이 되면 중간에 사용자가 음량을 조절한 후에 기기의 전원을 껐다가 켜도 최종 음량이 아닌 디폴트 값으로 설정된다.
< 제12 실시예 >
제12 실시예에서는 스와이프 감지단계에서 스와이프 도중에 객체를 터치하게 되면 해당 객체와 관련된 정보를 표시하고, 압력 터치가 객체 위에서 이루어지면 해당 객체와 관련된 제어동작을 수행한다. 객체와 관련된 정보로는 예를 들면 상기 객체에 대한 설명, 상기 객체가 이미지/동영상인 경우에 해당 이미지/동영상의 미리보기 화면, 상기 객체가 사람인 경우에 그 사람의 프로필(설명) 또는 사진(미리보기 화면), 상기 객체가 판매 물품 또는 서비스인 경우에 상기 객체의 가격 등이 될 수 있다.
실시예에 따라서는 스와이프 도중에 객체를 터치하게 되면 해당 객체를 강조하여 표시하도록 구성할 수도 있다. 객체를 강조하여 표시하는 것은, 예를 들면, 객체를 확대하여 표시하거나, 객체의 색을 반전시키거나 또는 다른 색으로 바꾸거나 흑백으로 표시하는 등 객체의 색상을 변경하거나, 객체의 명도나 채도를 변경하여 표시하거나, 객체의 형상, 패턴, 배경 등을 바꾸어 표시하거나, 객체를 깜빡거리거나 움직이도록 표시하거나, 객체가 텍스트로 이루어진 경우에는 굵은 글씨체로 표시하는 등의 다양한 방식이 사용될 수 있다. 이와 같이 객체가 강조되어 표시된 상태에서 사용자가 압력 터치를 하면 강조되어 표시된 객체와 관련된 제어동작을 수행한다.
객체와 관련된 제어동작으로는 예를 들면 해당 객체가 매매 또는 대여의 대상인 경우에 해당 객체의 구입 또는 대여, 해당 객체가 실행 가능한 객체인 경우에 해당 객체의 실행(예를 들면 객체가 이미지라면 이미지 편집 프로그램의 실행, 문서라면 문서 편집 프로그램의 실행 등), 해당 객체가 사람인 경우에는 그 사람으로의 이메일 작성, 전화걸기, 문자메시지 작성, 리스트에서 삭제, 그룹 설정, 해당 객체의 선택 등이 될 수 있다.
도 15에는 화면에 도서 또는 영화 등의 아이콘이 표시된 상태에서 사용자가 스와이프 제스처를 하다가 스와이프 도중에 객체(아이콘)를 터치하게 되면 (a)에서와 같이 해당 객체와 관련된 정보(책 제목, 저자, 가격)를 표시하고, 그 상태에서 압력터치를 하게 되면 터치된 객체에 해당하는 도서의 구입이나 대여를 할 수 있는 메뉴가 나타나서 해당 도서의 구입 또는 대여 절차를 밟을 수 있다.
이상에서 실시예들에 설명된 특징, 구조, 효과 등은 본 발명의 하나의 실시예에 포함되며, 반드시 하나의 실시예에만 한정되는 것은 아니다. 나아가, 각 실시예에서 예시된 특징, 구조, 효과 등은 실시예들이 속하는 분야의 통상의 지식을 가지는 자에 의해 다른 실시예들에 대해서도 조합 또는 변형되어 실시 가능하다. 따라서 이러한 조합과 변형에 관계된 내용들은 본 발명의 범위에 포함되는 것으로 해석되어야 할 것이다.
또한, 이상에서 실시예를 중심으로 설명하였으나 이는 단지 예시일 뿐 본 발명을 한정하는 것이 아니며, 본 발명이 속하는 분야의 통상의 지식을 가진 자라면 본 실시예의 본질적인 특성을 벗어나지 않는 범위에서 이상에 예시되지 않은 여러 가지의 변형과 응용이 가능함을 알 수 있을 것이다. 예를 들어, 실시예에 구체적으로 나타난 각 구성 요소는 변형하여 실시할 수 있는 것이다. 그리고 이러한 변형과 응용에 관계된 차이점들은 첨부된 청구 범위에서 규정하는 본 발명의 범위에 포함되는 것으로 해석되어야 할 것이다.
본 발명의 일 실시형태에 따르면, 별도의 홈버튼을 사용하지 않고도 한 손가락을 사용하여 실행중인 앱을 종료시킬 수 있으므로 사용이 간편하다. 또한, 앱의 종료를 위하여 홈버튼을 누를 필요가 없으므로 설계에 따라서는 장치에서 홈버튼을 제거할 수도 있다.
본 발명의 다른 실시형태에 따르면, 한 손으로 키입력을 할 수 있는 한 손 키보드 모드로의 변경을 한 손으로 간단하게 조작할 수 있어서 편리하다.
본 발명의 다른 실시형태에 따르면, 객체의 삭제, 전송, 이동, 회전, 객체 정보 표시 등의 동작을 한 손으로 간단하게 조작할 수 있어서 편리하다.
본 발명의 다른 실시형태에 따르면, 화면밝기, 음량, 재생속도, 줌레벨 등의 제어량의 디폴트 값 설정을 한 손으로 간단하게 조작할 수 있어서 편리하다.

Claims (46)

  1. 터치 감지 및 터치압력 감지가 가능한 장치에서의 제어 방법에 있어서,
    제1 접촉지점에서 압력 터치를 감지하는 압력 터치 감지단계와,
    압력 터치에 이어서 터치 지점이 이동되는 스와이프(swipe) 제스처를 감지하는 스와이프 감지단계와,
    스와이프 제스처가 종료되면 제어동작을 수행하는 제어동작단계를 구비하는 제어 방법.
  2. 제1항에 있어서,
    상기 압력 터치 감지단계와 상기 스와이프 감지단계가 앱이 실행되고 있는 상태에서 수행된 경우에, 상기 제어동작은 실행 중인 상기 앱을 종료시키는 것인, 제어방법.
  3. 제1항에 있어서,
    상기 제어동작은 한 손 키보드 모드로 변환하는 동작인, 제어방법.
  4. 제3항에 있어서,
    상기 한 손 키보드 모드로 변환하는 동작은 상기 압력터치와 스와이프 제스처가 키보드 상에서 이루어진 경우에 수행되는 것인, 제어방법.
  5. 제4항에 있어서,
    상기 스와이프 제스처의 방향이 좌측이면 한 손 키보드를 좌측에 치우쳐서 표시하고, 상기 스와이프 제스처의 방향이 우측이면 한 손 키보드를 우측에 치우쳐서 표시하는 것인, 제어방법.
  6. 제4항에 있어서,
    상기 스와이프 제스처의 방향이 좌측이면 한 손 키보드를 우측에 치우쳐서 표시하고, 상기 스와이프 제스처의 방향이 우측이면 한 손 키보드를 좌측에 치우쳐서 표시하는 것인, 제어방법.
  7. 제4항에 있어서,
    상기 압력터치의 위치가 좌측이면 한 손 키보드를 좌측에 치우쳐서 표시하고, 상기 압력터치의 위치가 우측이면 한 손 키보드를 우측에 치우쳐서 표시하는 것인, 제어방법.
  8. 제1항에 있어서,
    상기 압력터치와 스와이프 제스처가 객체 상에서 이루어진 경우에, 상기 제어동작은 상기 객체의 삭제 또는 전송 중의 적어도 하나를 제어하는 것인, 제어방법.
  9. 제8항에 있어서,
    스와이프 제스처의 방향이 아래쪽이면 해당 객체를 삭제하고, 스와이프 제스처의 방향이 위쪽이면 해당 객체를 전송하는 동작을 수행하는, 제어방법.
  10. 제1항에 있어서,
    상기 압력터치가 객체 상에서 이루어진 경우에, 상기 제어동작은 상기 스와이프 제스처에 따라 상기 객체의 위치를 제어하는 것인, 제어방법.
  11. 제10항에 있어서,
    상기 제어동작은 상기 스와이프 제스처의 종료점으로 상기 객체를 이동시키는 것인, 제어방법.
  12. 제11항에 있어서,
    상기 스와이프 감지 단계에서 스와이프 제스처가 이루어지고 있는 동안에 상기 객체를 상기 스와이프 제스처의 이동 경로를 따라 표시하는, 제어방법.
  13. 제11항에 있어서,
    상기 객체는 파일 리스트 상의 파일, 게임 상의 캐릭터, 앱 리스트 상의 앱, 친구 리스트 상의 친구 중의 어느 하나인, 제어방법.
  14. 제1항에 있어서,
    상기 압력터치가 객체 상에서 이루어진 경우에, 상기 제어동작은 상기 스와이프 제스처에 따라 상기 객체의 회전을 제어하는 것인, 제어방법.
  15. 제1, 2, 3, 8항 중 어느 한 항에 있어서,
    상기 제어동작단계는 스와이프 제스처의 방향이 소정 조건을 만족시킬 때 수행하는 것인, 제어방법.
  16. 제1항 내지 제14항 중 어느 한 항에 있어서, 상기 제어동작단계는 스와이프 제스처를 수행한 시간이 소정 시간 이내일 때 수행하는 것인, 제어방법.
  17. 제1항 내지 제14항 중 어느 한 항에 있어서, 상기 제어동작단계는 스와이프된 거리가 소정 조건을 만족시킬 때 수행하는 것인, 제어방법.
  18. 제1항 내지 제14항 중 어느 한 항에 있어서, 상기 스와이프 제스처 전의 압력 터치가 소정 횟수 감지된 경우에 상기 제어동작단계를 수행하는 것인, 제어방법.
  19. 제1항 내지 제14항 중 어느 한 항에 있어서,
    상기 임계압력은 사용자가 설정 가능한 것인, 제어방법.
  20. 터치 감지 및 터치압력 감지가 가능한 장치에서의 제어 방법에 있어서,
    제1 접촉지점에서 제2 접촉지점으로 터치 지점이 이동되는 스와이프(swipe) 제스처를 감지하는 스와이프 감지단계와,
    상기 스와이프 제스처에 이어서 제2 접촉지점에서 압력 터치를 감지하는 압력 터치 감지단계와,
    압력 터치가 감지되면 제어동작을 수행하는 제어동작단계를 구비하는 제어 방법.
  21. 제20항에 있어서,
    상기 스와이프 감지단계와 상기 압력 터치 감지단계가 앱이 실행되고 있는 상태에서 수행된 경우에, 상기 제어동작은 실행 중인 상기 앱을 종료시키는 것인, 제어방법.
  22. 제20항에 있어서,
    상기 제어동작은 한 손 키보드 모드로 변환하는 동작인, 제어방법.
  23. 제22항에 있어서,
    상기 한 손 키보드 모드로 변환하는 동작은 상기 제1 접촉지점 및 제2 접촉지점이 키보드 상인 경우에 수행되는 것인, 제어방법.
  24. 제23항에 있어서,
    상기 스와이프 제스처의 방향이 좌측이면 한 손 키보드를 좌측에 치우쳐서 표시하고, 상기 스와이프 제스처의 방향이 우측이면 한 손 키보드를 우측에 치우쳐서 표시하는 것인, 제어방법.
  25. 제23항에 있어서,
    상기 스와이프 제스처의 방향이 좌측이면 한 손 키보드를 우측에 치우쳐서 표시하고, 상기 스와이프 제스처의 방향이 우측이면 한 손 키보드를 좌측에 치우쳐서 표시하는 것인, 제어방법.
  26. 제23항에 있어서,
    상기 제1 접촉지점의 위치가 좌측이면 한 손 키보드를 좌측에 치우쳐서 표시하고, 상기 제1 접촉지점의 위치가 우측이면 한 손 키보드를 우측에 치우쳐서 표시하는 것인, 제어방법.
  27. 제20항에 있어서,
    상기 제1 접촉지점에 객체가 위치하는 경우에, 상기 제어동작은 상기 객체의 삭제 또는 전송 중의 적어도 하나를 제어하는 것인, 제어방법.
  28. 제27항에 있어서,
    스와이프 제스처의 방향이 아래쪽이면 해당 객체를 삭제하고, 스와이프 제스처의 방향이 위쪽이면 해당 객체를 전송하는 동작을 수행하는, 제어방법.
  29. 제20항에 있어서,
    상기 제1 접촉지점에 객체가 위치하는 경우에, 상기 제어동작은 상기 객체의 위치를 제어하는 것인, 제어방법.
  30. 제29항에 있어서,
    상기 제어동작은 상기 제2 접촉지점으로 상기 객체를 이동시키는 것인, 제어방법.
  31. 제30항에 있어서,
    상기 스와이프 감지 단계에서 스와이프 제스처가 이루어지고 있는 동안에 상기 객체를 상기 스와이프 제스처의 이동 경로를 따라 표시하는, 제어방법.
  32. 제30항에 있어서,
    상기 객체는 파일 리스트 상의 파일, 게임 상의 캐릭터, 앱 리스트 상의 앱, 친구 리스트 상의 친구 중의 어느 하나인, 제어방법.
  33. 제20항에 있어서,
    상기 제1 접촉지점에 객체가 위치하는 경우에, 상기 제어동작은 상기 스와이프 제스처에 따라 상기 객체의 방향(orientation)을 제어하고 상기 제2 접촉지점에 대응되는 방향으로 상기 객체의 방향을 고정하는 것인, 제어방법.
  34. 제20항에 있어서,
    상기 제어동작은 화면밝기, 음량, 재생속도, 줌레벨 중의 어느 하나(이하, '제어량'이라 함)를 조절하는 것이며, 상기 스와이프 제스처에 따라 상기 제어량의 값을 제어하고, 상기 제2 접촉지점에 대응되는 제어량의 값을 상기 제어량의 디폴트 값으로 설정하는 것인, 제어방법.
  35. 제20항에 있어서,
    상기 스와이프 감지단계에서 스와이프 도중에 객체를 터치하게 되면 해당 객체와 관련된 정보를 표시하고,
    압력 터치가 객체 위에서 이루어지면 해당 객체와 관련된 제어동작을 수행하는 것인, 제어 방법.
  36. 제35항에 있어서,
    객체와 관련된 상기 정보는 상기 객체의 미리보기 화면, 상기 객체에 대한 설명, 상기 객체의 판매가격 중의 어느 하나 또는 그 이상을 포함하는, 제어 방법.
  37. 제20항에 있어서,
    상기 스와이프 감지단계에서 스와이프 도중에 객체를 터치하게 되면 해당 객체를 강조하여 표시하고,
    압력 터치가 객체 위에서 이루어지면 해당 객체와 관련된 제어동작을 수행하는 것인, 제어 방법.
  38. 제20, 21, 22, 27항 중 어느 한 항에 있어서,
    상기 제어동작단계는 스와이프 제스처의 방향이 소정 조건을 만족시킬 때 수행하는 것인, 제어방법.
  39. 제20항 내지 제37항 중 어느 한 항에 있어서, 상기 제어동작단계는 스와이프 제스처를 수행한 시간이 소정 시간 이내일 때 수행하는 것인, 제어방법.
  40. 제20항 내지 제37항 중 어느 한 항에 있어서, 상기 제어동작단계는 스와이프된 거리가 소정 조건을 만족시킬 때 수행하는 것인, 제어방법.
  41. 제20항 내지 제37항 중 어느 한 항에 있어서, 상기 압력 터치가 소정 횟수 감지된 경우에 상기 제어동작단계를 수행하는 것인, 제어방법.
  42. 제20항 내지 제37항 중 어느 한 항에 있어서,
    상기 임계압력은 사용자가 설정 가능한 것인, 제어방법.
  43. 디스플레이;
    특정 위치의 터치를 감지하는 터치 감지부;
    터치된 곳의 압력의 크기를 감지할 수 있는 압력 감지부;
    터치 감지부와 압력 감지부를 통한 사용자의 입력에 따라 장치의 동작을 제어하되, 압력 터치가 감지되고 이어서 터치 지점이 이동되는 스와이프(swipe) 제스처가 감지된 후에 스와이프 제스처가 종료되면 제어동작을 수행하는 제어부
    를 구비하는 장치.
  44. 제43항에 있어서,
    상기 제어동작은 실행중인 앱 종료, 한 손 키보드 모드 변경, 객체의 삭제 또는 전송, 객체의 이동, 객체의 회전 제어 중의 하나인, 장치.
  45. 디스플레이;
    특정 위치의 터치를 감지하는 터치 감지부;
    터치된 곳의 압력의 크기를 감지할 수 있는 압력 감지부;
    터치 감지부와 압력 감지부를 통한 사용자의 입력에 따라 장치의 동작을 제어하되, 제1 접촉지점에서 제2 접촉지점으로 터치 지점이 이동되는 스와이프(swipe) 제스처에 이어서 제2 접촉지점에서 압력 터치가 감지되면 제어동작을 수행하는 제어부
    를 구비하는 장치.
  46. 제45항에 있어서,
    상기 제어동작은 실행중인 앱 종료, 한 손 키보드 모드 변경, 객체의 삭제 또는 전송, 객체의 이동, 객체의 회전, 제어량의 디폴트 값 설정 중의 하나인, 장치.
PCT/KR2018/005191 2017-06-20 2018-05-04 터치 감지 및 터치압력 감지가 가능한 장치 및 제어방법 WO2018236047A1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019559061A JP2020518914A (ja) 2017-06-20 2018-05-04 タッチ感知及びタッチ圧力感知が可能な装置及び制御方法
US16/610,022 US20200089362A1 (en) 2017-06-20 2018-05-04 Device and control method capable of touch sensing and touch pressure sensing

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020170077985A KR102044824B1 (ko) 2017-06-20 2017-06-20 터치 감지 및 터치압력 감지가 가능한 장치 및 제어방법
KR10-2017-0077985 2017-06-20

Publications (1)

Publication Number Publication Date
WO2018236047A1 true WO2018236047A1 (ko) 2018-12-27

Family

ID=64737271

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2018/005191 WO2018236047A1 (ko) 2017-06-20 2018-05-04 터치 감지 및 터치압력 감지가 가능한 장치 및 제어방법

Country Status (4)

Country Link
US (1) US20200089362A1 (ko)
JP (1) JP2020518914A (ko)
KR (1) KR102044824B1 (ko)
WO (1) WO2018236047A1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112612200A (zh) * 2020-12-10 2021-04-06 中国地质大学(武汉) 一种儿童智能手表摘取系统及方法
WO2022017228A1 (zh) * 2020-07-24 2022-01-27 深圳市万普拉斯科技有限公司 一种压力三段式按键的实现方法及电子设备

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7447886B2 (ja) * 2021-12-10 2024-03-12 カシオ計算機株式会社 行列操作方法、電子機器及びプログラム
KR20240044110A (ko) * 2022-09-28 2024-04-04 주식회사 스마트아이캠 모니터링 디바이스 및 그 제어 방법
KR102619689B1 (ko) * 2023-06-30 2023-12-28 박수빈 콘텐츠 기반 구인구직 플랫폼 서비스 제공 시스템

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008204402A (ja) * 2007-02-22 2008-09-04 Eastman Kodak Co ユーザインターフェース装置
KR20100096706A (ko) * 2009-02-25 2010-09-02 성균관대학교산학협력단 한 손으로 조작 가능한 터치스크린 인터페이스 제어 장치
KR101102087B1 (ko) * 2009-05-11 2012-01-04 (주)빅트론닉스 터치스크린 제어방법, 이를 이용하는 터치스크린 장치, 및 이를 포함하는 휴대폰 및 휴대용 전자장치
KR20120016087A (ko) * 2009-06-16 2012-02-22 인텔 코오퍼레이션 핸드헬드 디바이스를 위한 적응형 버츄얼 키보드
KR20150082032A (ko) * 2014-01-07 2015-07-15 삼성전자주식회사 전자 장치 및 전자 장치의 제어 방법

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6643639B2 (en) * 2001-02-07 2003-11-04 International Business Machines Corporation Customer self service subsystem for adaptive indexing of resource solutions and resource lookup
JP4166229B2 (ja) * 2005-03-14 2008-10-15 株式会社日立製作所 タッチパネルを備えた表示装置
JP4743602B2 (ja) * 2005-10-04 2011-08-10 任天堂株式会社 画像処理装置、画像処理プログラム、ゲーム装置およびゲームプログラム
BRPI0804355A2 (pt) * 2008-03-10 2009-11-03 Lg Electronics Inc terminal e método de controle do mesmo
JP5158023B2 (ja) * 2009-06-09 2013-03-06 富士通株式会社 入力装置、入力方法及びコンピュータプログラム
KR101690786B1 (ko) * 2010-02-12 2016-12-28 삼성전자주식회사 멀티태스킹 수행 장치 및 방법
JP2011048832A (ja) * 2010-08-27 2011-03-10 Kyocera Corp 入力装置
JP5713400B2 (ja) * 2011-09-26 2015-05-07 Kddi株式会社 ポインタを用いた指による操作が可能なユーザインタフェース装置、動作発動方法及びプログラム
CN105260049B (zh) * 2012-05-09 2018-10-23 苹果公司 用于响应于用户接触来显示附加信息的设备、方法和图形用户界面
JP5922522B2 (ja) * 2012-07-24 2016-05-24 京セラ株式会社 携帯端末
JP2014106806A (ja) * 2012-11-28 2014-06-09 Sharp Corp 情報処理装置
CN103064629B (zh) * 2013-01-30 2016-06-15 龙凡 能动态调整图形控件的便携电子设备及方法
JP5759660B2 (ja) * 2013-06-21 2015-08-05 レノボ・シンガポール・プライベート・リミテッド タッチ・スクリーンを備える携帯式情報端末および入力方法
JP5881650B2 (ja) * 2013-07-30 2016-03-09 三菱電機株式会社 リモコン装置
JP2015135611A (ja) * 2014-01-17 2015-07-27 シャープ株式会社 情報処理装置
JP6247651B2 (ja) * 2014-03-24 2017-12-13 株式会社 ハイディープHiDeep Inc. メニュー操作方法及びこれを行うタッチ入力装置を含むメニュー操作装置
KR20150121949A (ko) * 2014-04-22 2015-10-30 삼성전자주식회사 제스처를 인식하는 방법 및 장치

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008204402A (ja) * 2007-02-22 2008-09-04 Eastman Kodak Co ユーザインターフェース装置
KR20100096706A (ko) * 2009-02-25 2010-09-02 성균관대학교산학협력단 한 손으로 조작 가능한 터치스크린 인터페이스 제어 장치
KR101102087B1 (ko) * 2009-05-11 2012-01-04 (주)빅트론닉스 터치스크린 제어방법, 이를 이용하는 터치스크린 장치, 및 이를 포함하는 휴대폰 및 휴대용 전자장치
KR20120016087A (ko) * 2009-06-16 2012-02-22 인텔 코오퍼레이션 핸드헬드 디바이스를 위한 적응형 버츄얼 키보드
KR20150082032A (ko) * 2014-01-07 2015-07-15 삼성전자주식회사 전자 장치 및 전자 장치의 제어 방법

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022017228A1 (zh) * 2020-07-24 2022-01-27 深圳市万普拉斯科技有限公司 一种压力三段式按键的实现方法及电子设备
CN112612200A (zh) * 2020-12-10 2021-04-06 中国地质大学(武汉) 一种儿童智能手表摘取系统及方法
CN112612200B (zh) * 2020-12-10 2021-09-24 中国地质大学(武汉) 一种儿童智能手表摘取系统及方法

Also Published As

Publication number Publication date
KR102044824B1 (ko) 2019-11-15
US20200089362A1 (en) 2020-03-19
JP2020518914A (ja) 2020-06-25
KR20180137985A (ko) 2018-12-28

Similar Documents

Publication Publication Date Title
WO2018236047A1 (ko) 터치 감지 및 터치압력 감지가 가능한 장치 및 제어방법
WO2017095040A1 (en) User terminal device and displaying method thereof
WO2017086652A1 (en) Electronic device having rollable display and method of controlling the same
WO2012018212A2 (en) Touch-sensitive device and touch-based folder control method thereof
WO2018194275A1 (ko) 터치 감지 및 터치압력 감지가 가능한 장치 및 제어방법
WO2014157885A1 (en) Method and device for providing menu interface
WO2014157897A1 (en) Method and device for switching tasks
WO2015016527A1 (en) Method and apparatus for controlling lock or unlock in
WO2015199484A2 (en) Portable terminal and display method thereof
WO2015030488A1 (en) Multi display method, storage medium, and electronic device
WO2014084668A1 (en) Apparatus and method of managing a plurality of objects displayed on touch screen
WO2014017790A1 (en) Display device and control method thereof
WO2014092512A1 (en) Method and apparatus for controlling haptic feedback of an input tool for a mobile terminal
WO2011078599A2 (en) Method and system for operating application of a touch device with touch-based input interface
WO2016093506A1 (ko) 이동 단말기 및 그 제어 방법
WO2013073908A1 (en) Apparatus with touch screen for preloading multiple applications and method of controlling the same
WO2013176515A1 (en) Multiple display method with multiple communication terminals, machine-readable storage medium and communication terminal
WO2017135563A2 (en) Multi-screen mobile device and operation
US20150012851A1 (en) Mobile terminal device, method for controlling mobile terminal device, and program
WO2014088350A1 (en) Display device and method of controlling the same
WO2012108714A2 (en) Method and apparatus for providing graphic user interface in mobile terminal
WO2014104593A1 (en) Method of controlling portable device and portable device thereof
WO2012050248A1 (ko) 이동 단말기 및 그 제어 방법
WO2019160238A1 (en) Electronic apparatus and operating method of the same
WO2017003068A1 (en) Electronic device for displaying keypad and keypad displaying method thereof

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18821639

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019559061

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18821639

Country of ref document: EP

Kind code of ref document: A1