WO2023018064A1 - 스타일러스 펜의 입력을 처리하는 전자 장치와 이의 동작 방법 - Google Patents

스타일러스 펜의 입력을 처리하는 전자 장치와 이의 동작 방법 Download PDF

Info

Publication number
WO2023018064A1
WO2023018064A1 PCT/KR2022/010919 KR2022010919W WO2023018064A1 WO 2023018064 A1 WO2023018064 A1 WO 2023018064A1 KR 2022010919 W KR2022010919 W KR 2022010919W WO 2023018064 A1 WO2023018064 A1 WO 2023018064A1
Authority
WO
WIPO (PCT)
Prior art keywords
condition
touch input
gesture
electronic device
touch
Prior art date
Application number
PCT/KR2022/010919
Other languages
English (en)
French (fr)
Inventor
이지원
최문원
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Priority to US17/884,218 priority Critical patent/US11922008B2/en
Publication of WO2023018064A1 publication Critical patent/WO2023018064A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • G06F3/0383Signal control means within the pointing device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Definitions

  • Various embodiments relate to an electronic device processing an input of a stylus pen and an operating method thereof.
  • Electronic devices are being developed to receive various inputs from users through specified input devices (eg, stylus pens) connected to the electronic devices through wireless communication.
  • the electronic device may check a designated location on the electronic device by using an input device having a pen function (which may be referred to as a “stylus pen” for convenience of description in the present disclosure), and may perform one or more operations corresponding thereto. can perform them.
  • a pen function which may be referred to as a “stylus pen” for convenience of description in the present disclosure
  • the electronic device may detect a magnetic field generated from the stylus pen using an electromagnetic induction (electro magnetic resonance, hereinafter referred to as 'EMR') method.
  • the electronic device may check the position of the stylus pen based on the induced electromotive force generated by the magnetic field for each channel.
  • the stylus pen may be connected to the electronic device through short-range communication (eg, Bluetooth low energy (hereinafter referred to as 'BLE')).
  • the stylus pen may transmit, for example, information about the state of a button disposed on the housing of the stylus pen to the electronic device through short-range communication, and the electronic device may perform a designated operation based on the received information.
  • the electronic device may display handwriting corresponding to a touch input through a stylus pen. Also, the electronic device may check a gesture corresponding to the touch input through the stylus pen and execute a function corresponding to the checked gesture.
  • Gesture recognition technology provided by electronic devices is not optimized for touch input using a stylus pen. For example, when a user writes or draws a picture using a stylus pen, the electronic device may misrecognize the writing or picture as a gesture not intended by the user. For example, when a user paints a round dot using a stylus pen, the electronic device may recognize it as a gesture of long-pressing a specific point rather than an operation of coloring the dot. At this time, the electronic device performs a function of deleting the colored dot by the user and displaying a pop-up window corresponding to the corresponding gesture.
  • an electronic device includes a touch screen and a processor, and the processor checks a touch input generated by a stylus pen through the touch screen and determines a first gesture indicated by the touch input in a plurality of ways. It is checked whether a first condition, which is a gesture generation condition for generating a specific gesture, is satisfied among the gestures of, and based on the fact that the first gesture satisfies the first condition, the touch start point of the touch input or the previous touch Using the end point of the input as a reference point, it is determined whether the first gesture satisfies a second condition including at least one of a time condition, a length condition, and a space condition, and the first gesture satisfies the second condition. Based on this, it may be set to execute a function corresponding to the specific gesture.
  • a first condition which is a gesture generation condition for generating a specific gesture
  • a method of operating an electronic device includes an operation of checking a touch input generated by a stylus pen through a touch screen included in the electronic device, and a first gesture indicated by the touch input is a plurality of gestures.
  • An operation of checking whether a first condition which is a gesture generation condition for generating a specific gesture, is satisfied, and based on the fact that the first gesture satisfies the first condition, the touch start point of the touch input or the touch input of the previous touch input Using the end point as a reference point, checking whether the first gesture satisfies a second condition including at least one of a time condition, a length condition, and a space condition, and determining whether the first gesture satisfies the second condition. Based on this, an operation of executing a function corresponding to the specific gesture may be included.
  • a non-transitory recording medium includes an operation of checking a touch input generated by a stylus pen through a touch screen included in an electronic device, and a first gesture indicated by the touch input is a specific one of a plurality of gestures.
  • An operation of determining whether a first condition which is a gesture generation condition for generating a gesture, is satisfied, based on whether the first gesture satisfies the first condition, the touch start point of the touch input or the end point of the previous touch input Using as a reference point, determining whether the first gesture satisfies a second condition including at least one of a time condition, a length condition, and a space condition, and based on the fact that the first gesture satisfies the second condition.
  • a program that performs an operation of executing a function corresponding to the specific gesture may be stored.
  • An electronic device may improve recognition accuracy of a gesture input through a stylus pen and prevent a gesture from being generated unintentionally by a user, based at least in part on information collected during touch interaction.
  • FIG. 1 is a block diagram of an electronic device in a network environment according to various embodiments.
  • FIG. 2 is a perspective view of an electronic device including a stylus pen according to various embodiments.
  • FIG. 3 is a block diagram illustrating a stylus pen according to various embodiments.
  • FIG. 4 is a block diagram of an electronic device according to various embodiments.
  • FIG. 5 is a flowchart for explaining an operation of checking a gesture by an electronic device according to various embodiments.
  • FIG. 6 is a flowchart for explaining an operation of checking a condition designated for a gesture by an electronic device according to various embodiments of the present disclosure.
  • FIGS. 7A, 7B, and 7C are diagrams of a time condition, a space condition, and a length condition for an electronic device to check a gesture according to various embodiments.
  • FIG. 8 is a diagram for explaining an operation of displaying handwriting in response to a touch input by an electronic device according to various embodiments of the present disclosure.
  • FIG. 9 is a diagram for explaining an operation of checking conditions designated for a hold gesture by an electronic device according to various embodiments of the present disclosure.
  • FIG. 10 is a diagram for explaining an operation of checking conditions designated for a single tap gesture by an electronic device according to various embodiments of the present disclosure.
  • 11 is a diagram for explaining an operation of checking conditions designated for a multi-tap gesture by an electronic device according to various embodiments of the present disclosure.
  • FIG. 12 is a diagram for explaining an operation of checking conditions specified for a hold gesture after an electronic device moves, according to various embodiments of the present disclosure.
  • FIG. 13 is a diagram for explaining an operation of checking conditions designated for a scroll gesture by an electronic device according to various embodiments of the present disclosure.
  • FIG. 14 is a diagram for explaining an operation of checking conditions designated for a pinch zoom gesture by an electronic device according to various embodiments of the present disclosure.
  • 15 is a diagram for explaining an operation of checking conditions designated for a rotation gesture by an electronic device according to various embodiments of the present disclosure.
  • 16 is a flowchart illustrating an operation for preventing misrecognition of a gesture function during a handwriting operation by an electronic device according to various embodiments of the present disclosure.
  • 17 is a flowchart for explaining an operation of preventing an erroneous recognition of a fling function when an electronic device executes a pinch zoom function according to various embodiments of the present disclosure.
  • FIG. 1 is a block diagram of an electronic device 101 within a network environment 100, according to various embodiments.
  • an electronic device 101 communicates with an electronic device 102 through a first network 198 (eg, a short-range wireless communication network) or through a second network 199. It may communicate with at least one of the electronic device 104 or the server 108 through (eg, a long-distance wireless communication network). According to one embodiment, the electronic device 101 may communicate with the electronic device 104 through the server 108 .
  • a first network 198 eg, a short-range wireless communication network
  • the server 108 e.g, a long-distance wireless communication network
  • the electronic device 101 includes a processor 120, a memory 130, an input module 150, an audio output module 155, a display module 160, an audio module 170, a sensor module ( 176), interface 177, connection terminal 178, haptic module 179, camera module 180, power management module 188, battery 189, communication module 190, subscriber identification module 196 , or the antenna module 197 may be included.
  • at least one of these components eg, the connection terminal 178) may be omitted or one or more other components may be added.
  • some of these components eg, sensor module 176, camera module 180, or antenna module 197) are integrated into a single component (eg, display module 160). It can be.
  • the processor 120 for example, executes software (eg, the program 140) to cause at least one other component (eg, hardware or software component) of the electronic device 101 connected to the processor 120. It can control and perform various data processing or calculations. According to one embodiment, as at least part of data processing or operation, the processor 120 transfers instructions or data received from other components (e.g., sensor module 176 or communication module 190) to volatile memory 132. , processing commands or data stored in the volatile memory 132 , and storing resultant data in the non-volatile memory 134 .
  • software eg, the program 140
  • the processor 120 transfers instructions or data received from other components (e.g., sensor module 176 or communication module 190) to volatile memory 132. , processing commands or data stored in the volatile memory 132 , and storing resultant data in the non-volatile memory 134 .
  • the processor 120 may include a main processor 121 (eg, a central processing unit or an application processor) or a secondary processor 123 (eg, a graphic processing unit, a neural network processing unit ( NPU: neural processing unit (NPU), image signal processor, sensor hub processor, or communication processor).
  • a main processor 121 eg, a central processing unit or an application processor
  • a secondary processor 123 eg, a graphic processing unit, a neural network processing unit ( NPU: neural processing unit (NPU), image signal processor, sensor hub processor, or communication processor.
  • NPU neural network processing unit
  • the secondary processor 123 may be implemented separately from or as part of the main processor 121 .
  • the secondary processor 123 may, for example, take the place of the main processor 121 while the main processor 121 is in an inactive (eg, sleep) state, or the main processor 121 is active (eg, running an application). ) state, together with the main processor 121, at least one of the components of the electronic device 101 (eg, the display module 160, the sensor module 176, or the communication module 190) It is possible to control at least some of the related functions or states.
  • the auxiliary processor 123 eg, image signal processor or communication processor
  • the auxiliary processor 123 may include a hardware structure specialized for processing an artificial intelligence model.
  • AI models can be created through machine learning. Such learning may be performed, for example, in the electronic device 101 itself where the artificial intelligence model is performed, or may be performed through a separate server (eg, the server 108).
  • the learning algorithm may include, for example, supervised learning, unsupervised learning, semi-supervised learning or reinforcement learning, but in the above example Not limited.
  • the artificial intelligence model may include a plurality of artificial neural network layers.
  • Artificial neural networks include deep neural networks (DNNs), convolutional neural networks (CNNs), recurrent neural networks (RNNs), restricted boltzmann machines (RBMs), deep belief networks (DBNs), bidirectional recurrent deep neural networks (BRDNNs), It may be one of deep Q-networks or a combination of two or more of the foregoing, but is not limited to the foregoing examples.
  • the artificial intelligence model may include, in addition or alternatively, software structures in addition to hardware structures.
  • the memory 130 may store various data used by at least one component (eg, the processor 120 or the sensor module 176) of the electronic device 101 .
  • the data may include, for example, input data or output data for software (eg, program 140) and commands related thereto.
  • the memory 130 may include volatile memory 132 or non-volatile memory 134 .
  • the program 140 may be stored as software in the memory 130 and may include, for example, an operating system 142 , middleware 144 , or an application 146 .
  • the input module 150 may receive a command or data to be used by a component (eg, the processor 120) of the electronic device 101 from the outside of the electronic device 101 (eg, a user).
  • the input module 150 may include, for example, a microphone, a mouse, a keyboard, a key (eg, a button), or a digital pen (eg, a stylus pen).
  • the sound output module 155 may output sound signals to the outside of the electronic device 101 .
  • the sound output module 155 may include, for example, a speaker or a receiver.
  • the speaker can be used for general purposes such as multimedia playback or recording playback.
  • a receiver may be used to receive an incoming call. According to one embodiment, the receiver may be implemented separately from the speaker or as part of it.
  • the display module 160 may visually provide information to the outside of the electronic device 101 (eg, a user).
  • the display module 160 may include, for example, a display, a hologram device, or a projector and a control circuit for controlling the device.
  • the display module 160 may include a touch sensor set to detect a touch or a pressure sensor set to measure the intensity of force generated by the touch.
  • the audio module 170 may convert sound into an electrical signal or vice versa. According to one embodiment, the audio module 170 acquires sound through the input module 150, the sound output module 155, or an external electronic device connected directly or wirelessly to the electronic device 101 (eg: Sound may be output through the electronic device 102 (eg, a speaker or a headphone).
  • the audio module 170 acquires sound through the input module 150, the sound output module 155, or an external electronic device connected directly or wirelessly to the electronic device 101 (eg: Sound may be output through the electronic device 102 (eg, a speaker or a headphone).
  • the sensor module 176 detects an operating state (eg, power or temperature) of the electronic device 101 or an external environmental state (eg, a user state), and generates an electrical signal or data value corresponding to the detected state. can do.
  • the sensor module 176 may include, for example, a gesture sensor, a gyro sensor, an air pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, a color sensor, an IR (infrared) sensor, a bio sensor, It may include a temperature sensor, humidity sensor, or light sensor.
  • the interface 177 may support one or more designated protocols that may be used to directly or wirelessly connect the electronic device 101 to an external electronic device (eg, the electronic device 102).
  • the interface 177 may include, for example, a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, an SD card interface, or an audio interface.
  • HDMI high definition multimedia interface
  • USB universal serial bus
  • SD card interface Secure Digital Card interface
  • audio interface audio interface
  • connection terminal 178 may include a connector through which the electronic device 101 may be physically connected to an external electronic device (eg, the electronic device 102).
  • the connection terminal 178 may include, for example, an HDMI connector, a USB connector, an SD card connector, or an audio connector (eg, a headphone connector).
  • the haptic module 179 may convert electrical signals into mechanical stimuli (eg, vibration or motion) or electrical stimuli that a user may perceive through tactile or kinesthetic senses.
  • the haptic module 179 may include, for example, a motor, a piezoelectric element, or an electrical stimulation device.
  • the camera module 180 may capture still images and moving images. According to one embodiment, the camera module 180 may include one or more lenses, image sensors, image signal processors, or flashes.
  • the power management module 188 may manage power supplied to the electronic device 101 .
  • the power management module 188 may be implemented as at least part of a power management integrated circuit (PMIC), for example.
  • PMIC power management integrated circuit
  • the battery 189 may supply power to at least one component of the electronic device 101 .
  • the battery 189 may include, for example, a non-rechargeable primary cell, a rechargeable secondary cell, or a fuel cell.
  • the communication module 190 is a direct (eg, wired) communication channel or a wireless communication channel between the electronic device 101 and an external electronic device (eg, the electronic device 102, the electronic device 104, or the server 108). Establishment and communication through the established communication channel may be supported.
  • the communication module 190 may include one or more communication processors that operate independently of the processor 120 (eg, an application processor) and support direct (eg, wired) communication or wireless communication.
  • the communication module 190 is a wireless communication module 192 (eg, a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module) or a wired communication module 194 (eg, : a local area network (LAN) communication module or a power line communication module).
  • a wireless communication module 192 eg, a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module
  • GNSS global navigation satellite system
  • wired communication module 194 eg, : a local area network (LAN) communication module or a power line communication module.
  • a corresponding communication module is a first network 198 (eg, a short-range communication network such as Bluetooth, wireless fidelity (WiFi) direct, or infrared data association (IrDA)) or a second network 199 (eg, legacy It may communicate with the external electronic device 104 through a cellular network, a 5G network, a next-generation communication network, the Internet, or a telecommunications network such as a computer network (eg, a LAN or a WAN).
  • a telecommunications network such as a computer network (eg, a LAN or a WAN).
  • These various types of communication modules may be integrated as one component (eg, a single chip) or implemented as a plurality of separate components (eg, multiple chips).
  • the wireless communication module 192 uses subscriber information (eg, International Mobile Subscriber Identifier (IMSI)) stored in the subscriber identification module 196 within a communication network such as the first network 198 or the second network 199.
  • subscriber information eg, International Mobile Subscriber Identifier (IMSI)
  • IMSI International Mobile Subscriber Identifier
  • the electronic device 101 may be identified or authenticated.
  • the wireless communication module 192 may support a 5G network after a 4G network and a next-generation communication technology, for example, NR access technology (new radio access technology).
  • NR access technologies include high-speed transmission of high-capacity data (enhanced mobile broadband (eMBB)), minimization of terminal power and access of multiple terminals (massive machine type communications (mMTC)), or high reliability and low latency (ultra-reliable and low latency (URLLC)).
  • eMBB enhanced mobile broadband
  • mMTC massive machine type communications
  • URLLC ultra-reliable and low latency
  • -latency communications can be supported.
  • the wireless communication module 192 may support a high frequency band (eg, mmWave band) to achieve a high data rate, for example.
  • the wireless communication module 192 uses various technologies for securing performance in a high frequency band, such as beamforming, massive multiple-input and multiple-output (MIMO), and full-dimensional multiplexing. Technologies such as input/output (FD-MIMO: full dimensional MIMO), array antenna, analog beam-forming, or large scale antenna may be supported.
  • the wireless communication module 192 may support various requirements defined for the electronic device 101, an external electronic device (eg, the electronic device 104), or a network system (eg, the second network 199).
  • the wireless communication module 192 is a peak data rate for eMBB realization (eg, 20 Gbps or more), a loss coverage for mMTC realization (eg, 164 dB or less), or a U-plane latency for URLLC realization (eg, Example: downlink (DL) and uplink (UL) each of 0.5 ms or less, or round trip 1 ms or less) may be supported.
  • eMBB peak data rate for eMBB realization
  • a loss coverage for mMTC realization eg, 164 dB or less
  • U-plane latency for URLLC realization eg, Example: downlink (DL) and uplink (UL) each of 0.5 ms or less, or round trip 1 ms or less
  • the antenna module 197 may transmit or receive signals or power to the outside (eg, an external electronic device).
  • the antenna module 197 may include an antenna including a radiator formed of a conductor or a conductive pattern formed on a substrate (eg, PCB).
  • the antenna module 197 may include a plurality of antennas (eg, an array antenna). In this case, at least one antenna suitable for a communication method used in a communication network such as the first network 198 or the second network 199 is selected from the plurality of antennas by the communication module 190, for example. can be chosen A signal or power may be transmitted or received between the communication module 190 and an external electronic device through the selected at least one antenna.
  • other components eg, a radio frequency integrated circuit (RFIC) may be additionally formed as a part of the antenna module 197 in addition to the radiator.
  • RFIC radio frequency integrated circuit
  • the antenna module 197 may form a mmWave antenna module.
  • the mmWave antenna module includes a printed circuit board, an RFIC disposed on or adjacent to a first surface (eg, a lower surface) of the printed circuit board and capable of supporting a designated high frequency band (eg, mmWave band); and a plurality of antennas (eg, array antennas) disposed on or adjacent to a second surface (eg, a top surface or a side surface) of the printed circuit board and capable of transmitting or receiving signals of the designated high frequency band. can do.
  • peripheral devices eg, a bus, general purpose input and output (GPIO), serial peripheral interface (SPI), or mobile industry processor interface (MIPI)
  • signal e.g. commands or data
  • commands or data may be transmitted or received between the electronic device 101 and the external electronic device 104 through the server 108 connected to the second network 199 .
  • Each of the external electronic devices 102 or 104 may be the same as or different from the electronic device 101 .
  • all or part of operations executed in the electronic device 101 may be executed in one or more external electronic devices among the external electronic devices 102 , 104 , or 108 .
  • the electronic device 101 when the electronic device 101 needs to perform a certain function or service automatically or in response to a request from a user or another device, the electronic device 101 instead of executing the function or service by itself.
  • one or more external electronic devices may be requested to perform the function or at least part of the service.
  • One or more external electronic devices receiving the request may execute at least a part of the requested function or service or an additional function or service related to the request, and deliver the execution result to the electronic device 101 .
  • the electronic device 101 may provide the result as at least part of a response to the request as it is or additionally processed.
  • cloud computing distributed computing, mobile edge computing (MEC), or client-server computing technology may be used.
  • the electronic device 101 may provide an ultra-low latency service using, for example, distributed computing or mobile edge computing.
  • the external electronic device 104 may include an internet of things (IoT) device.
  • Server 108 may be an intelligent server using machine learning and/or neural networks. According to one embodiment, the external electronic device 104 or server 108 may be included in the second network 199 .
  • the electronic device 101 may be applied to intelligent services (eg, smart home, smart city, smart car, or health care) based on 5G communication technology and IoT-related technology.
  • FIG. 2 is a perspective view 200 of an electronic device 101 including a stylus pen 201 (eg, the electronic device 102 of FIG. 1 ) according to various embodiments.
  • the stylus pen 201 may correspond to the input module 150 of FIG. 1 instead of the electronic device 102 of FIG. 1 .
  • an electronic device 101 may include the configuration shown in FIG. 1 and may include a structure in which the stylus pen 201 may be inserted and stored.
  • the electronic device 101 includes a housing 210, and a hole 211 may be included in a portion of the housing 210, for example, a portion of the side surface 210a.
  • the electronic device 101 may include a first inner space 212 that is a storage space connected to the hole 211, and the stylus pen 201 may be inserted into the first inner space 212.
  • the stylus pen 201 includes a first button (pressable at one end) to easily take the stylus pen 201 out of the first inner space 212 of the electronic device 101. 201a).
  • a repelling mechanism configured in conjunction with the first button 201a (eg, a repelling mechanism by at least one elastic member (eg, a spring)) operates,
  • the stylus pen 201 may be separated from the space 212 .
  • the electronic device 101 may include a structure capable of attaching the stylus pen 201 to the electronic device 101 .
  • the electronic device 101 may include at least one magnetic material at a location adjacent to an attachment area so that the stylus pen 201 can be attached to the outside of the housing 210 .
  • the stylus pen 201 may be attached to the outside of the housing 210 of the electronic device 101 through at least one magnetic material.
  • FIG. 3 is a block diagram 300 illustrating a stylus pen (eg, the stylus pen 201 of FIG. 2 ) according to various embodiments.
  • a stylus pen eg, the stylus pen 201 of FIG. 2
  • the stylus pen 201 includes a processor 220, a memory 230, a resonance circuit 287, a charging circuit 288, a battery 289, and a communication circuit ( 290), an antenna 297, a trigger circuit 298 and/or a sensor 299.
  • the processor 220 of the stylus pen 201, at least a portion of the resonance circuit 287 and/or at least a portion of the communication circuit 290 may be configured on a printed circuit board or in the form of a chip. there is.
  • the processor 220, the resonant circuit 287 and/or the communication circuit 290 may include a memory 230, a charging circuit 288, a battery 289, an antenna 297, a trigger circuit 298 and/or a sensor. (299) can be electrically connected.
  • the processor 220 may include a customized hardware module or a generic processor configured to execute software (eg, an application program).
  • the processor 220 includes at least one of various sensors provided in the stylus pen 201, a data measurement module, an input/output interface, a module for managing a state or environment of the stylus pen 201, or a communication module. It may include hardware components (functions) or software components (programs).
  • the processor 220 may include, for example, one or a combination of two or more of hardware, software, or firmware.
  • the processor 220 calculates based on information indicating a pressed state of a button (eg, button 337), sensing information obtained by the sensor 299, and/or sensing information.
  • Information eg, information related to the position of the stylus pen 201
  • Information may be set to be transmitted to the electronic device 101 through the communication circuit 290 .
  • the resonant circuit 287 may resonate based on an electromagnetic field signal generated from a digitizer (eg, display module 160) of the electronic device 101, and electromagnetic resonance occurs due to the resonance.
  • a digitizer eg, display module 160
  • electromagnetic resonance electro-magnetic resonance
  • input signals or magnetic fields and
  • the electronic device 101 may check the position of the stylus pen 201 on the electronic device 101 using an electromagnetic resonance method input signal.
  • the electronic device 101 may generate an induced electromotive force (eg, an output current) generated by an electromagnetic resonance input signal in each of a plurality of channels (eg, a plurality of loop coils) in the digitizer. ), the location of the stylus pen 201 can be confirmed.
  • the electronic device 101 and the stylus pen 201 have been described as operating based on the EMR method, but this is merely exemplary, and the electronic device 101 is electrically coupled.
  • a signal based on an electric field may be generated based on an electrically coupled resonance (hereinafter referred to as 'ECR') method.
  • the resonance circuit of the stylus pen 201 may be resonated by an electric field.
  • the electronic device 101 may check potentials in a plurality of channels (eg, electrodes) due to resonance in the stylus pen 201, and based on the potentials, the stylus pen 201 You can also check your location.
  • the stylus pen 201 may be implemented in an active electrostatic (hereinafter referred to as 'AES') method, and those skilled in the art will understand that the type of implementation is not limited.
  • the electronic device 101 may detect the stylus pen 201 based on a change in capacitance (self capacitance or mutual capacitance) associated with at least one electrode of the touch panel. In this case, the stylus pen 201 may not include a resonance circuit.
  • “panel” or “sensing panel” may be used as a term encompassing a digitizer and a touch screen panel (hereinafter referred to as 'TSP').
  • the memory 230 may store information related to the operation of the stylus pen 201 .
  • the information may include information for communication of the electronic device 101 and frequency information related to an input operation of the stylus pen 201 .
  • the memory 230 may include a program (or application) for calculating information on the position of the stylus pen 201 (eg, coordinate information and/or displacement information) from the sensing data of the sensor 299. , algorithms, or processing loops).
  • Memory 230 may store a communication stack of communication circuitry 290 .
  • communication circuitry 290 and/or processor 220 may include dedicated memory.
  • the resonant circuit 287 may include a coil (or inductor) and/or a capacitor.
  • the resonance circuit 287 may resonate based on an input electric field and/or magnetic field (eg, an electric field and/or magnetic field generated from the digitizer of the electronic device 101).
  • the stylus pen 201 transmits a signal by the EMR method
  • the stylus pen 201 is based on an electromagnetic field generated from an inductive panel of the electronic device 101, A signal including a resonant frequency may be generated.
  • the stylus pen 201 transmits a signal using the AES method
  • the stylus pen 201 may generate a signal using capacitive coupling with the electronic device 101 .
  • the stylus pen 201 When the stylus pen 201 transmits a signal by the ECR method, the stylus pen 201 includes a resonance frequency based on an electric field generated from a capacitive device of an electronic device. signal can be generated.
  • the resonant circuit 287 may be used to change the strength or frequency of the electromagnetic field according to a user's manipulation state.
  • the resonance circuit 287 may provide various frequencies for recognizing a hovering input, a drawing input, a button input, or an erasing input.
  • the resonant circuit 287 may provide various resonant frequencies according to a connection combination of a plurality of capacitors or may provide various resonant frequencies based on a variable inductor and/or a variable capacitor.
  • the resonance signal generated in the resonance circuit 287 may be rectified into a DC signal and provided to the battery 289. there is.
  • the stylus pen 201 determines whether the stylus pen 201 is inserted into the electronic device 101 using the voltage level of the DC signal detected by the charging circuit 288. can Alternatively, the stylus pen 201 may determine whether the stylus pen 201 is inserted by checking a pattern corresponding to a signal identified by the charging circuit 288 .
  • the battery 289 may be configured to store power required for the operation of the stylus pen 201 .
  • the battery 289 may include, for example, a lithium-ion battery or a capacitor, and may be rechargeable or replaceable.
  • the battery 289 may be charged using power (eg, DC signal (DC power)) provided from the charging circuit 288 .
  • the communication circuit 290 may be configured to perform a wireless communication function between the stylus pen 201 and the communication module 190 of the electronic device 101 .
  • the communication circuit 290 may transmit state information, input information, and/or location-related information of the stylus pen 201 to the electronic device 101 using a short-range communication method.
  • the communication circuit 290 may include direction information (eg, motion sensor data) of the stylus pen 201 acquired through the trigger circuit 298, voice information input through a microphone, or battery (289 ) may be transmitted to the electronic device 101.
  • the communication circuit 290 transmits sensing data obtained from the sensor 299 and/or information related to the position of the stylus pen 201 determined based on the sensing data to the electronic device 101.
  • the communication circuit 290 may transmit information about a state of a button (eg, button 337) included in the stylus pen 201 to the electronic device 101.
  • the short-range communication method may include at least one of Bluetooth, Bluetooth low energy (BLE), near field communication (NFC), and Wi-Fi direct, but the type is not limited.
  • the antenna 297 may be used to transmit or receive a signal or power to the outside (eg, the electronic device 101).
  • the stylus pen 201 may include a plurality of antennas 297, and among them, at least one antenna 297 suitable for a communication method may be selected. Through the selected at least one antenna 297, the communication circuit 290 may exchange signals or power with an external electronic device.
  • trigger circuit 298 may include at least one button or sensor circuit.
  • the processor 220 may check the input method (eg, touch or pressed) or type (eg, EMR button or BLE button) of the button of the stylus pen 201 .
  • the trigger circuit 298 may transmit a trigger signal to the electronic device 101 using a button input signal or a signal through the sensor 299 .
  • the sensor 299 may include an accelerometer, a gyro sensor, and/or a geomagnetic sensor.
  • the acceleration sensor may sense information about the linear movement of the stylus pen 201 and/or the 3-axis, 6-axis, or/and 9-axis acceleration of the stylus pen 201 .
  • the gyro sensor may sense information related to rotation of the stylus pen 201 .
  • the geomagnetic sensor may sense information about the direction of the stylus pen 201 in an absolute coordinate system.
  • the sensor 299 may generate an electrical signal or data value corresponding to an operating state inside the stylus pen 201 or an external environmental state, as well as a sensor for measuring motion.
  • the sensor may include at least one of, for example, a battery level detection sensor, a pressure sensor, an optical sensor, a temperature sensor, and a biosensor.
  • the processor 220 may transmit information acquired from the sensor 299 to the electronic device 101 through the communication circuit 290 .
  • the processor 220 may, based on the information obtained from the sensor 299, information related to the position of the stylus pen 201 (eg, the coordinates of the stylus pen 201 and/or the stylus pen 201). (201) may be transmitted to the electronic device 101 through the communication circuit 290.
  • FIG. 4 is a block diagram of an electronic device according to various embodiments.
  • an electronic device 401 may include a processor 420, a memory 430, and a touch screen 460.
  • the electronic device 401 may be implemented the same as or similar to the electronic device 101 of FIG. 1 .
  • the processor 420 may control the overall operation of the electronic device 401 .
  • the processor 420 may be implemented the same as or similar to the processor 120 of FIG. 1 .
  • the processor 420 receives a touch input generated by the stylus pen 201 or a user's hand through a touch screen 460 (eg, the display module 160 of FIG. 1 ). can confirm.
  • the processor 420 may check an input generated by an input device such as a mouse or a trackball through the touch screen 460 (eg, the display module 160 of FIG. 1 ).
  • the processor 420 may check the start and completion of touch input (or input generated by the input device). For example, the processor 420 may confirm that a touch input has started when a touch-down by the stylus pen 201 or the user's hand is confirmed on the touch screen 460 . Thereafter, when a touch-up by the stylus pen 201 or the user's hand is confirmed on the touch screen 460, the processor 420 may confirm that the touch input is completed.
  • the processor 420 may check a movement path of a touch input from a touch start to a touch completion. Also, the processor 420 may check the movement distance of the touch input from the start of the touch to the completion of the touch.
  • the processor 420 may check whether a gesture indicated by a touch input (or an input generated by the input device) satisfies a preset gesture generating condition. For example, the processor 420 may identify a gesture indicated by the touch input based on the start, movement path, and completion of the touch input. The gesture may be identified among a plurality of pre-designated gestures. The processor 420 satisfies a gesture generation condition in which a gesture indicated by a touch input generates a specific gesture among a plurality of gestures supported by the electronic device 401 based on touch start, touch move, and/or touch completion. you can check if it does.
  • the plurality of gestures include single tap, multi-tap, hold, long press, hold after moving, scroll input, fling input, movement of two touches in different directions, and/or two touches. It may include rotation of them in different directions.
  • the gesture generating condition different conditions may be set for each of a plurality of gestures.
  • the electronic device 101 may have a different or additional gesture from the described gesture, or fewer gestures.
  • the gestures described above are some examples, and the described technical solutions are not limited to the gestures described above.
  • the processor 420 may display handwriting (or drawing) indicated by the touch input on the touch screen 460 when the gesture indicated by the touch input does not satisfy a gesture generation condition for generating a specific gesture. there is.
  • the processor 420 may display a handwriting (or picture) input by the touch input on the touch screen 460 when the touch input does not indicate a predetermined gesture.
  • the processor 420 uses the touch start point of the touch input or the end point of the previous touch input as a reference point to determine the corresponding touch input. It may be checked whether at least one of a time condition, a length condition, and a space condition specified in the gesture is satisfied. That is, even if a gesture indicated by a touch input satisfies a gesture generation condition, the processor 420 may not directly execute a function corresponding to a specific gesture.
  • the time condition may refer to a condition for a time when a touch input is touched.
  • the length condition may refer to a condition for a path length of a touch input.
  • the spatial condition may refer to a condition regarding whether a touch input is located inside or outside a specific space.
  • a reference point for determining a time condition, a length condition, and a space condition designated for a gesture may be different for each gesture.
  • the reference point may be a touch start point of a currently ongoing touch input.
  • the reference point may be an end point of a previous touch input.
  • the reference point may be one of the start point and end point of the oldest touch input among touches within the recent 500 ms (or other duration).
  • it may be a point where the movement of the touch input first deviated from a preset area.
  • the reference point may also be a starting point or an ending point of the oldest touch input among 10 (or other N) recently confirmed touch inputs.
  • the reference point may be a start point or an end point of a touch input corresponding to a data value satisfying a specific condition among touch input data (for example, a touch input having an x-coordinate of 1000 or more).
  • the reference point may be a starting point or an ending point of a touch input selected by a specific algorithm.
  • the reference point may be automatically set by the processor 420 or set by the user. It will be appreciated that the values described and used in this disclosure are examples and that one or more embodiments may use values different from those recited herein.
  • a “point” (eg, a start point, an end point, etc.) may represent a location on the touch screen 460 . Locations can be specified by coordinates, pixel numbers, or other methods. Alternatively, “point” may indicate a point in time, that is, a moment when a touch input by a user starts or ends.
  • the processor 420 determines the function corresponding to the gesture indicated by the touch input based on whether or not the touch input satisfies at least one condition specified for a specific gesture among time conditions, length conditions, and space conditions. You can decide whether to run it or not. For example, the processor 420 may execute a function corresponding to a gesture indicated by the touch input when the touch input satisfies a time condition, a length condition, and/or a space condition designated for the corresponding gesture. Alternatively, the processor 420 may not execute a function corresponding to the gesture indicated by the touch input if the touch input does not satisfy the time condition, length condition, and/or space condition designated for the corresponding gesture. At this time, the processor 420 may display a motion indicated by the touch input (eg, handwriting or drawing) on the touch screen 460 .
  • a motion indicated by the touch input eg, handwriting or drawing
  • the processor 420 determines whether the plurality of touch inputs indicate a plurality of touch inputs based on whether or not they satisfy at least one condition specified for a specific gesture among time conditions, length conditions, and/or space conditions. Whether to execute a function corresponding to the gesture may be determined.
  • At least some of different time conditions, length conditions, and/or space conditions may be set for each of the plurality of gestures.
  • the processor 420 may execute a function corresponding to a corresponding gesture if only some of a time condition, a length condition, and/or a space condition are satisfied for some gestures among a plurality of gestures.
  • the memory 430 may store information about a gesture generation condition of each of a plurality of gestures. Also, the memory 430 may store information about a time condition, a length condition, and/or a space condition for each of a plurality of gestures. For example, the memory 430 may be implemented the same as or similar to the memory 130 of FIG. 1 .
  • the electronic device 401 performs the following operations, but at least some of the operations performed by the electronic device 401 may be controlled by the processor 420 .
  • FIG. 5 is a flowchart for explaining an operation of checking a gesture by an electronic device according to various embodiments.
  • the electronic device 401 may check a touch input generated by an input device such as a stylus pen (or user's hand). For example, the electronic device 401 may confirm touch start (eg, touch down), touch move, and/or touch completion (eg, touch up) of the touch input. The electronic device 401 may identify a gesture indicated by the touch input based on confirming touch start, touch move, and/or touch completion of the touch input.
  • touch move may refer to a movement performed by an input device (eg, a stylus pen) while maintaining contact with the touch screen 460 .
  • the electronic device 401 may check whether a gesture indicated by a touch input satisfies a gesture generation condition for generating a specific gesture among a plurality of gestures supported by the electronic device 401. .
  • a gesture indicated by the touch input does not satisfy a preset gesture generation condition (NO in operation 505)
  • the electronic device 401 writes (or draws) a note corresponding to the touch input. can be displayed on the touch screen 460.
  • the electronic device 401 determines the touch start point of the touch input or the end point of the previous touch input. Based on , it may be determined whether the touch input satisfies at least one condition specified for a corresponding gesture among time conditions, length conditions, and/or space conditions. For example, the electronic device 401 determines whether at least a part of a time condition, a length condition, and/or a space condition specified for a specific gesture is satisfied even if a gesture indicated by a touch input satisfies a gesture generation condition for generating a specific gesture.
  • the electronic device 401 can check whether For example, the electronic device 401 assigns a touch input to a corresponding gesture among a time condition, a length condition, and/or a space condition based on a reference point (eg, a touch start point or an end point of a previous touch input). You can check whether all conditions are satisfied.
  • a reference point eg, a touch start point or an end point of a previous touch input.
  • the electronic device 401 may execute a function corresponding to the gesture.
  • the electronic device 401 when the touch input does not satisfy the condition specified for the corresponding gesture (No in operation 511), in operation 507, the electronic device 401 does not execute a function corresponding to the gesture and responds to the touch input.
  • Corresponding handwriting may be displayed on the touch screen 460 .
  • the electronic device 401 satisfies all of the time condition, length condition, and/or space condition specified for the corresponding gesture even though the gesture indicated by the touch input satisfies the gesture generating condition. Only the function corresponding to the gesture can be executed. Through this, the electronic device 401 may prevent misrecognition of a gesture not intended by the user.
  • a method for preventing misrecognition of a touch input generated by a stylus pen or a user's hand is described as a main embodiment, but the technical spirit of the present invention may not be limited thereto.
  • the technical features of the present invention can also be applied to a method for preventing misrecognition/misinterpretation of input by other input devices such as a mouse or a trackball.
  • FIG. 6 is a flowchart for explaining an operation of checking a condition designated for a gesture by an electronic device according to various embodiments of the present disclosure.
  • the electronic device 401 may check a touch input generated by a stylus pen (or user's hand). For example, the electronic device 401 may identify a gesture indicated by the touch input based on touch start, touch move, and/or touch completion of the touch input. In addition, the electronic device 401 may check whether a gesture indicated by a touch input satisfies a gesture generation condition for generating a specific gesture.
  • the electronic device 401 may check a condition specified for the corresponding gesture with respect to a time condition, a length condition, and/or a space condition. For example, different conditions may be designated for each of a plurality of gestures supported by the electronic device 401 based on the type of gesture. For example, each of a plurality of gestures supported by the electronic device 401 may be designated with different time conditions, length conditions, and/or space conditions. Alternatively, if a certain gesture among a plurality of gestures satisfies only some conditions among a time condition, a length condition, and/or a space condition, a function corresponding to the corresponding gesture may be executed. Accordingly, when a gesture indicated by a touch input satisfies a gesture generation condition for generating a specific gesture, the electronic device 401 may check the time condition, length condition, and/or space condition specified for the corresponding gesture.
  • the electronic device 401 may check whether the touch input satisfies a condition specified for the corresponding gesture.
  • the electronic device 401 may execute a function assigned to a gesture indicated by the touch input when the touch input satisfies a specified condition.
  • the electronic device 401 may not execute a function designated for a gesture indicated by the touch input when the touch input does not satisfy a designated condition.
  • FIGS. 7A, 7B, and 7C are diagrams of a time condition, a space condition, and a length condition for an electronic device to check a gesture according to various embodiments.
  • the electronic device 401 checks a touch input 710 and identifies a gesture indicated by the touch input 710 and a gesture generating a specific gesture. conditions can be compared. The electronic device 401 may confirm (or recognize) that the gesture indicated by the touch input 710 is a long press (or hold input) based on the comparison result. If the electronic device 401 determines that the touch input 710 is a “press and hold” gesture, it can check the time condition, space condition, and length condition specified for the “press and hold” gesture. For example, the electronic device 401 may execute a function corresponding to a “long press” gesture when all of the time condition, the space condition, and the length condition are satisfied. Alternatively, the electronic device 401 may execute a function corresponding to the “long-press” gesture when some of the time condition, space condition, and length condition are satisfied.
  • the electronic device 401 may check whether the touch input 710 satisfies a time condition for a “long-press” gesture.
  • the electronic device 401 may set the touch start (or touch down) as a reference point of the time condition for the touch input 710 .
  • the electronic device 401 when the touch completion (or touch up) is confirmed in the time interval (T) between the first time (t1) and the second time (t2) after the touch start (or touch down) is confirmed. , it may be determined that the touch input 710 satisfies the time condition for the “press and hold” gesture.
  • the electronic device 401 responds to the touch input 710 as a “press and hold” gesture.
  • the time condition for example, the first time t1 and the second time t2 greater than the first time t1 may be preset by the processor 420 .
  • the first time (t1) may be a time after the “press and hold” gesture is recognized or confirmed.
  • the first time period t1 and the second time period t2 may be set to be the same as or different from each other according to each of a plurality of gestures. It will be appreciated that the values used for t1 and t2 are examples and may vary in one or more embodiments.
  • the electronic device 401 may check whether the touch input 710 satisfies a spatial condition for a “long-press” gesture.
  • the electronic device 401 may set the touch start (or touch down) as the reference point of the space condition.
  • the electronic device 401 when a touch input 710 (eg, a touch move between touch start (or touch down) and touch completion (or touch up)) is performed in a designated space (or designated area), It may be determined that the touch input 710 satisfies the spatial condition for the “long press” gesture.
  • the electronic device 401 may determine that the touch input 710 does not satisfy the spatial condition for the “long-press” gesture when the touch input 710 is out of a designated space (or a designated area).
  • the designated space (or designated area) may be an area preset by the processor 420 .
  • the designated space (or designated area) may be set identically or differently according to each of a plurality of gestures.
  • the designated space (or designated area) may be a circular area having a feature length as a diameter or a square area having a feature length as one side.
  • the designated space (or designated area) may be an elliptical or rectangular area. It will be appreciated that any other predetermined shape may be used.
  • spatial conditions may specify that the gesture be performed outside a predetermined shape.
  • the electronic device 401 may check whether the touch input 710 satisfies a length condition for a “long press” gesture.
  • the electronic device 401 may set the touch start (or touch down) of the touch input 710 as a reference point for the length condition.
  • the electronic device 401 determines that, when the movement length (eg, the touch move distance between the start of the touch and the end of the touch) (L) of the touch input 710 is within a specified length, the touch input 710 is “press and hold” " It can be determined that the length condition for the gesture is satisfied.
  • the electronic device 401 determines that the touch input 710 satisfies the length condition for the “long-press” gesture when the movement length L (or movement distance) of the touch input 710 exceeds a specified length. It can be judged that it does not.
  • the designated length may be a length preset by the processor 420 .
  • the designated lengths may be set equal to or different from each other according to each of a plurality of gestures.
  • the electronic device 401 when the touch input 710 does not satisfy all of the time condition, space condition, and length condition for the “long press” gesture, the electronic device 401 responds to the “long press” gesture. function may not be executed. For example, the electronic device 401 determines that the "press and hold" gesture is invalid when the touch input 710 does not satisfy all of the time condition, space condition, and length condition for the "press and hold” gesture. can judge In this case, the electronic device 401 may display the handwriting corresponding to the touch input 710 on the touch screen without executing a function corresponding to the “press and hold” gesture.
  • the electronic device 401 when the touch input 710 satisfies all of the time condition, space condition, and length condition for the “long-press” gesture, the electronic device 401 provides a function corresponding to the “long-press” gesture. can run For example, the electronic device 401 may determine that the “press and hold” gesture is valid when the touch input 710 satisfies all of the time condition, space condition, and length condition for the “press and hold” gesture. there is. At this time, the electronic device 401 may display a menu window 720 on the touch screen. Also, the electronic device 401 may control the touch screen so that handwriting corresponding to the touch input 710 is not displayed.
  • FIG. 8 is a diagram for explaining an operation of displaying handwriting in response to a touch input by an electronic device according to various embodiments of the present disclosure.
  • the electronic device 401 may check whether a touch input 710 satisfies a length condition for a “tap” or “click” gesture.
  • the electronic device 401 may set the touch start (or touch down) of the touch input 810 as a reference point of the length condition.
  • the electronic device 401 determines that, when the movement length (eg, the touch-move distance between the touch start and the touch completion) (L) of the touch input 810 exceeds a specified length, the touch input 810 displays a “tap” It may be determined that the length condition for the " or "click” gesture is not satisfied.
  • the electronic device 401 determines that when the movement length of the touch input 810 exceeds a specified length. , it may be determined that the corresponding gesture is not valid. For example, when the movement length of the touch input 810 exceeds a specified length, the electronic device 401 may determine that a writing operation is being performed. The electronic device 401 may display handwriting (eg, the letter “c”) corresponding to the touch input 810 on the touch screen without executing a function corresponding to a “tap” or “click” gesture. there is.
  • handwriting eg, the letter “c”
  • FIG. 9 is a diagram for explaining an operation of checking conditions designated for a hold gesture by an electronic device according to various embodiments of the present disclosure.
  • the electronic device 401 checks the touch input 910 and displays a gesture indicated by the touch input 910 and a specific gesture (eg, long press). ) can be compared with the gesture generating condition.
  • the electronic device 401 can confirm that the gesture indicated by the touch input 910 is a long press based on the comparison result. If it is confirmed that the gesture indicated by the touch input 910 is a long press, the electronic device 401 may check the time condition, space condition, and/or length condition specified for the “long press” gesture. For example, the electronic device 401 may check whether the touch input 910 satisfies all of the time condition, space condition, and length condition specified for the “long press” gesture.
  • the electronic device 401 may set the start of the touch input 910 (eg, touch down) as a reference point for a time condition, a space condition, and/or a length condition.
  • the electronic device 401 determines that the touch input 910 is completed (eg, touch-up) at a first time (eg, a touch-down time point of the touch input 910) from a reference point. For example, 1000 ms) and the second time (eg, 2000 ms), if it is confirmed in the time interval (T1), it can be determined that the touch input 910 satisfies the time condition for the “long press” gesture. .
  • the electronic device 401 may determine that the touch input 910 satisfies the spatial condition for the “long press” gesture.
  • the designated area A1 may be a circular area with a diameter of 8 dp.
  • the electronic device 401 responds to the touch input 910 as a “long press” gesture. It can be determined that the length condition for
  • the electronic device 401 may determine that the corresponding gesture is valid. At this time, the electronic device 401 may execute a function set for the “long press” gesture.
  • the electronic device 401 determines that the touch input is completed (eg, touch-up) at a second time (eg, 2000 ms) from the reference point (eg, the touch-down time of the touch input). If confirmed in a subsequent time interval, it may be determined that the touch input satisfies the time condition for the “very long press” gesture.
  • the space condition and the length condition for the “very long press” gesture may be the same as the space condition and length condition for the “long press” gesture.
  • the electronic device 401 may execute a function set for the “very long press” gesture.
  • FIG. 10 is a diagram for explaining an operation of checking conditions designated for a single tap gesture by an electronic device according to various embodiments of the present disclosure.
  • the electronic device 401 checks the touch input 1010 and displays a gesture indicated by the touch input 1010 and a specific gesture (eg, tap or click). Gesture generation conditions that generate (click)) may be compared. The electronic device 401 can confirm that the gesture indicated by the touch input 1010 is a tap (or click) based on the comparison result. If it is confirmed that the gesture indicated by the touch input 1010 is a tap, the electronic device 401 may check the time condition, space condition, and/or length condition specified for the “tap” gesture. For example, the electronic device 401 may check whether the touch input 1010 satisfies all of the time condition, space condition, and length condition specified for the “tap” gesture.
  • a specific gesture eg, tap or click.
  • Gesture generation conditions that generate (click) may be compared.
  • the electronic device 401 can confirm that the gesture indicated by the touch input 1010 is a tap (or click) based on the comparison result. If it is confirmed that the gesture indicated by the touch input 1010 is a tap
  • the electronic device 401 may set the start (eg, touch down) of the touch input 1010 as a reference point for a time condition, a space condition, and/or a length condition.
  • the electronic device 401 determines that the touch input 1010 is completed (eg, touch-up) at a first time (eg, a touch-down time point of the touch input 1110) from a reference point. For example, 20 ms) and the second time (eg, 150 ms), if it is checked in the time interval (T2), it can be determined that the touch input 1010 satisfies the time condition for the “tap” gesture.
  • a first time eg, a touch-down time point of the touch input 1110
  • T2 time interval
  • the electronic device 401 may determine that the touch input 1010 satisfies the spatial condition for the “tap” gesture.
  • the designated area A2 may be a circular area with a diameter of 8 dp.
  • the touch input 1010 sets the length for the “tap” gesture. It can be judged that the condition is satisfied.
  • the electronic device 401 may determine that the corresponding gesture is valid. At this time, the electronic device 401 may execute a function set for the “tap” gesture.
  • 11 is a diagram for explaining an operation of checking conditions designated for a multi-tap gesture by an electronic device according to various embodiments of the present disclosure.
  • the electronic device 401 checks the first touch input 1111 and the second touch input 1112, and determines the first touch input 1111 and the second touch input.
  • the gesture indicated by 1112 may be compared with a gesture generation condition for generating a specific gesture (eg, double-tap or multi-tap). Based on the comparison result, the electronic device 401 can confirm that the gestures indicated by the first touch input 1111 and the second touch input 1112 are double taps (or multi-tap).
  • the electronic device 401 determines the time condition, space condition, and/or length condition specified for the “double tap” gesture. can confirm. For example, the electronic device 401 determines whether the first touch input 1111 and the second touch input 1112 satisfy all of the time condition, space condition, and length condition specified for the “double tap” gesture. can
  • the electronic device 401 determines the start (eg, first touch down) of the first touch input 1111 according to the time condition, space condition, and length condition of the first touch input 1111. can be set as the reference point for The electronic device 401 may set the completion of the first touch input 1111 (eg, the first touch up) as a reference point for the time condition of the second touch input 1112 . The electronic device 401 may set the start of the first touch input 1111 (eg, the first touch down) as a reference point of the spatial condition of the second touch input 1112 . Also, the electronic device 401 may set the start of the second touch input 1111 (eg, the second touch down) as a reference point for the length condition of the second touch input 1112 .
  • the electronic device 401 determines that the first touch input 1111 is completed (eg, the first touch-up) at a first time (eg, 20 ms) and a second time (eg, 20 ms) from the reference point. For example, 150 ms), it may be determined that the first touch input 1111 satisfies the time condition for the “double tap” gesture.
  • the electronic device 401 determines that the completion of the second touch input 1112 (eg, the second touch up) after the completion of the first touch input 1111 occurs within a first time period (eg, 20 ms) from the reference point. ) and the second time (eg, 400 ms), it may be determined that the second touch input 1112 satisfies the time condition for the “double tap” gesture.
  • the electronic device 401 receives the first touch input 1111 and the second touch input. It may be determined that 1112 satisfies the spatial condition for the “double tap” gesture.
  • the designated area A3 may be a circular area having a diameter of 32 dp.
  • the electronic device 401 when the movement length (L3) of each of the first touch input 1111 and the second touch input 1112 is within a specified length (eg, 10dp), the first touch input 1111 and the second touch input 1112 It may be determined that the touch input 1111 and the second touch input 1112 satisfy the length condition for the “double tap” gesture.
  • a specified length eg, 10dp
  • the electronic device 401 when the first touch input 1111 and the second touch input 1112 satisfy all of the time condition, space condition, and length condition specified for the “double-tap” gesture, It may be determined that the corresponding gesture is valid. At this time, the electronic device 401 may execute a function set for the “double tap” gesture.
  • the electronic device 401 performs a time condition and space based on a method identical to or similar to that described above even for a “multi-tap” gesture for three or more touch inputs. condition, and/or whether the length condition is satisfied.
  • FIG. 12 is a diagram for explaining an operation of checking conditions specified for a hold gesture after an electronic device moves, according to various embodiments of the present disclosure.
  • the electronic device 401 checks the touch input 1210, and displays a gesture indicated by the touch input 1210 and a specific gesture (eg, waiting after moving or waiting after moving). hold) may be compared. Based on the comparison result, the electronic device 401 can confirm that the gesture indicated by the touch input 1210 is wait after moving. When it is confirmed that the gesture indicated by the touch input 1210 is a move-and-standby gesture, the electronic device 401 may check the time condition, space condition, and/or length condition specified for the “move-and-standby” gesture. For example, the electronic device 401 may check whether the touch input 1210 satisfies all of the time condition, length condition, and space condition specified for the “move and wait” gesture.
  • the electronic device 401 may set the start of the touch input 1210 (eg, touch down) as a reference point for a time condition, a length condition, and/or a space condition. If the touch input 1210 moves out of the designated area A4 after setting the touchdown point of the touch input 1210 as a reference point, the electronic device 401 determines that the touch input 1210 is in the designated area A4 ) can be reset as the reference point.
  • start of the touch input 1210 eg, touch down
  • a reference point for a time condition, a length condition, and/or a space condition.
  • the touch-up or touch-hold of the electronic device 401 is performed in the area A4 to which the touch input 1210 is designated based on a reference point (eg, a touch-down time point of the touch input 1210). If included within, it may be determined that the touch input 1210 satisfies the spatial condition for the “move and wait” gesture.
  • the designated area A4 may be a square area having sides of 16 dp.
  • the electronic device 401 moves the touch input 1210 to the designated area.
  • the point outside (A4) can be reset as the reference point.
  • the electronic device 401 may determine whether the touch input 1210 satisfies the space condition based on whether the touch input 1210 is included in a newly designated area based on the reset reference point.
  • the electronic device 401 determines whether the touch input 1210 is completed (eg, touch up or touch hold) from a reference point (eg, a touch down time point of the touch input 1210). If it is confirmed in the time interval (T4) between the first time (eg, 500 ms) and the second time (eg, 1000 ms), the touch input 1010 satisfies the time condition for the “move and wait” gesture. can judge Meanwhile, if the touch input 1210 moves beyond the designated area A4 after setting the touchdown time point of the touch input 1210 as a reference point, the electronic device 401 moves the touch input 1210 to the designated area. The point outside (A4) can be reset as the reference point. At this time, the electronic device 401 may determine whether the touch input 1210 satisfies the time condition based on the reset reference point.
  • T4 time interval between the first time (eg, 500 ms) and the second time (eg, 1000 ms)
  • the touch input 1010 satisfies the time condition for
  • the touch input 1210 responds to the “move and wait” gesture according to various embodiments of the present disclosure. It can be determined that the length condition for Meanwhile, if the touch input 1210 moves beyond the designated area A4 after setting the touchdown time point of the touch input 1210 as a reference point, the electronic device 401 moves the touch input 1210 to the designated area.
  • the point outside (A4) can be reset as the reference point. In this case, the electronic device 401 may determine whether the touch input 1210 satisfies the length condition based on the reset reference point.
  • the electronic device 401 may determine that the corresponding gesture is valid if the touch input 1010 satisfies all of the time condition, length condition, and space condition specified for the “wait after moving” gesture. . At this time, the electronic device 401 may execute a function set for the “wait after moving” gesture.
  • the electronic device 401 may generate a “move and wait cancel” gesture. At this time, the electronic device 401 may execute a function set for the “cancel standby after moving” gesture.
  • FIG. 13 is a diagram for explaining an operation of checking conditions designated for a scroll gesture by an electronic device according to various embodiments of the present disclosure.
  • the electronic device 401 checks the touch input 1310 and displays a gesture indicated by the touch input 1310 and a specific gesture (eg, scroll or fling). Conditions for generating a gesture that generates a fling) may be compared.
  • the electronic device 401 can confirm that the gesture indicated by the touch input 1310 is a scroll (or fling) based on the comparison result. If it is confirmed that the gesture indicated by the touch input 1310 is a scroll, the electronic device 401 may check the time condition, space condition, and/or length condition specified for the “scroll” gesture.
  • the electronic device 401 determines that the gesture indicated by the touch input 1310 is a fling (eg, if the scroll speed is higher than a certain speed at the time of touch-up while generating a scroll gesture, it is recognized as a fling), "fling"
  • a time condition, a space condition, and/or a length condition specified in the gesture may be checked.
  • the electronic device 401 may check whether the touch input 1010 satisfies all of the time condition, space condition, and length condition specified for the “scroll (or fling)” gesture.
  • the electronic device 401 may set the start (eg, touch down) of the touch input 1310 as a reference point for a time condition, a space condition, and/or a length condition.
  • the electronic device 401 determines that the touch input 1310 is completed (eg, touch-up) at a first time (eg, a touch-down time point of the touch input 1310) from a reference point. For example, if confirmed after 250 ms), it may be determined that the touch input 1310 satisfies the time condition for the “scroll (or fling)” gesture.
  • the electronic device 401 determines that the touch input 1310 satisfies the spatial condition for the “scroll (or fling)” gesture when the touch input 1310 is located outside the designated area A5. can do.
  • the designated area A5 may be a circular area with a diameter of 8 dp.
  • the electronic device 401 determines that the touch input 1310 “scrolls (or flings)”. It may be determined that the length condition for the gesture is satisfied.
  • the electronic device 401 determines that the corresponding gesture is valid. can At this time, the electronic device 401 may execute a function set for the “scroll (or fling)” gesture.
  • FIG. 14 is a diagram for explaining an operation of checking conditions designated for a pinch zoom gesture by an electronic device according to various embodiments of the present disclosure.
  • the electronic device 401 checks the first touch input 1411 and the second touch input 1412 and receives the first touch input 1411 and the second touch input.
  • the gesture indicated by 1412 may be compared with a gesture generating condition for generating a specific gesture (eg, pinch-zoom). Based on the comparison result, the electronic device 401 can confirm that the gestures indicated by the first touch input 1411 and the second touch input 1412 are pinch zoom.
  • the electronic device 401 determines the time condition, space condition, and/or length condition specified for the “pinch zoom” gesture. can confirm.
  • the electronic device 401 may check whether the first touch input 1411 and the second touch input 1412 satisfy both a time condition and a length condition specified for the “pinch zoom” gesture. For example, the electronic device 401 may not consider spatial conditions for a “pinch zoom” gesture.
  • the electronic device 401 sets the start (eg, first touch down) of the first touch input 1411 as a reference point of the time condition and/or length condition of the first touch input 1411. can be set to The electronic device 401 may set the start of the second touch input 1412 (eg, the second touch down) as a reference point for the time condition and/or length condition of the second touch input 1412 .
  • the electronic device 401 determines that the completion of the first touch input 1411 (eg, the first touch up) is a reference point (eg, the first touch of the first touch input 1411). If it is confirmed in the time interval (T6) after the first time (eg, 250 ms) from the down time point), it may be determined that the first touch input 1411 satisfies the time condition for the “pinch zoom” gesture. In addition, the electronic device 401 determines that the second touch input 1412 is completed (eg, the second touch up) from the reference point (eg, the second touch down time point of the second touch input 1412). If it is confirmed in the time interval T6 after the first time (eg, 250 ms), it may be determined that the second touch input 1412 satisfies the time condition for the “pinch zoom” gesture.
  • the electronic device 401 determines that the distance between the first touch input 1411 and the second touch input 1412 is a touch-down of the first touch input 1411 and the second touch input 1412. If it is not included in the ratio range (for example, the range of L6 (or L7) * 0.8 to L6 (or L7) * 1.2) specified based on the point distance (L6 or L7), the first touch input 1411 and It may be determined that the second touch input 1412 satisfies the length condition for the “pinch zoom” gesture.
  • the ratio range for example, the range of L6 (or L7) * 0.8 to L6 (or L7) * 1.2
  • the electronic device 401 may execute a function set for the “pinch zoom” gesture.
  • 15 is a diagram for explaining an operation of checking conditions designated for a rotation gesture by an electronic device according to various embodiments of the present disclosure.
  • the electronic device 401 checks the first touch input 1511 and the second touch input 1512, and detects the first touch input 1511 and the second touch input.
  • the gesture indicated by 1512 may be compared with a condition for generating a gesture that generates a specific gesture (eg, rotate).
  • the electronic device 401 can confirm that the gesture indicated by the first touch input 1511 and the second touch input 1512 is rotation based on the comparison result.
  • the electronic device 401 determines that the gestures indicated by the first touch input 1511 and the second touch input 1512 are rotation, the electronic device 401 sets the time condition, space condition, and/or length condition specified for the “rotation” gesture. You can check.
  • the electronic device 401 may check whether the first touch input 1511 and the second touch input 1512 satisfy both a time condition and a length condition specified for the “rotation” gesture. For example, the electronic device 401 may not consider a spatial condition for a “rotate” gesture.
  • the electronic device 401 determines the start (eg, first touch down) of the first touch input 1511 as a reference point of the time condition and/or length condition of the first touch input 1511. can be set to The electronic device 401 may set the start of the second touch input 1512 (eg, the second touch down) as a reference point for the time condition and length condition of the second touch input 1512 .
  • the electronic device 401 determines that the completion of the first touch input 1511 (eg, the first touch up) corresponds to a reference point (eg, the first touch of the first touch input 1511). If it is confirmed in the time interval (T7) after the first time (eg, 250 ms) from the down time point), it may be determined that the first touch input 1511 satisfies the time condition for the “rotation” gesture. In addition, the electronic device 401 determines whether the second touch input 1512 is completed (eg, the second touch up) from the reference point (eg, the second touch down time point of the second touch input 1512). If it is confirmed in the time interval T7 after the first time (eg, 250 ms), it may be determined that the second touch input 1512 satisfies the time condition for the “rotation” gesture.
  • the electronic device 401 receives the first touch input 1511 ) and the second touch input 1512 satisfy the length condition for the “rotate” gesture.
  • the electronic device 401 determines that the gesture is valid if the first touch input 1511 and the second touch input 1512 satisfy both the time condition and the length condition specified for the “rotation” gesture. can judge At this time, the electronic device 401 may execute a function set for the “rotation” gesture.
  • 16 is a flowchart illustrating an operation for preventing misrecognition of a gesture function during a handwriting operation by an electronic device according to various embodiments of the present disclosure.
  • the electronic device 401 may check whether a writing operation is being performed. For example, the electronic device 401 may determine that a writing operation is being performed when the touch input does not indicate a specific gesture or when it is determined that the gesture indicated by the touch input is not valid.
  • the electronic device 401 may not execute a function corresponding to a scroll (or fling) or pinch zoom during the writing operation. can Through this, the electronic device 401 can prevent misrecognition of a scroll gesture or a pinch zoom gesture due to a palm touch generated while the user is performing a handwriting operation.
  • the electronic device 401 may execute a function corresponding to the gesture.
  • the electronic device 401 may execute a function corresponding to scroll or pinch zoom.
  • 17 is a flowchart for explaining an operation of preventing an erroneous recognition of a fling function when an electronic device executes a pinch-zoom function according to various embodiments of the present disclosure.
  • the electronic device 401 may execute a pinch-zoom function. For example, if it is determined that the pinch-zoom gesture indicated by the touch input is valid, the electronic device 401 may execute a function corresponding to the pinch-zoom gesture (eg, a pinch-zoom function).
  • a function corresponding to the pinch-zoom gesture eg, a pinch-zoom function
  • the electronic device 401 may not execute the fling function for a specified time period after execution of the pinch-zoom function ends.
  • the designated time may be set by the processor 420 and may be 200 ms. Through this, the electronic device 401 can prevent misrecognition of the fling gesture that may occur due to the pinch-zoom gesture.
  • the electronic device 101 or 401 includes a touch screen 460 and a processor 420, and the processor receives a touch generated by the stylus pen 201 through the touch screen.
  • An input is checked, and whether a first gesture indicated by the touch input satisfies a first condition, which is a gesture generation condition for generating a specific gesture among a plurality of preset gestures, is determined, and the first gesture satisfies the first condition.
  • a second condition including at least one of a time condition, a length condition, and a space condition, using the touch start point of the touch input or the end point of the previous touch input as a reference point.
  • a function corresponding to the specific gesture may be set to be executed.
  • the second condition may be differently designated based on the type of each of the plurality of gestures.
  • the processor may be configured not to execute a function corresponding to the specific gesture when the first gesture satisfies the first condition and does not satisfy the second condition.
  • the processor may be configured to display handwriting corresponding to the touch input on the touch screen.
  • the processor determines that the first gesture satisfies the time condition when the end of the touch input is confirmed in a time interval between a first time and a second time greater than the first time based on the reference point. can be set.
  • the processor determines that the first gesture satisfies the length condition when it is determined that the movement distance of the touch input is a length section between a first length and a second length longer than the first length based on the reference point. Can be set to check.
  • the processor may determine, when the touch inputs include a plurality of touch inputs touched at different points, a ratio in which distances between the plurality of touch inputs are specified based on distances between start points of the plurality of touch inputs. If it is not included in the range, it may be set to confirm that the first gesture satisfies the length condition.
  • the processor determines that the first gesture satisfies the length condition when the touch input includes a plurality of touch inputs touched at different points and a distance between the plurality of touch inputs is greater than a specified distance. can be set to
  • the processor determines that the first gesture satisfies the space condition, based on the reference point, when the touch input is confirmed inside a circular space having a diameter of a specified length or inside a square space having a side of a specified length. can be set to
  • the processor may be configured to confirm that the first gesture satisfies the space condition, when the touch input is confirmed outside of a circle space having a diameter of a specified length based on the reference point.
  • an operating method of an electronic device 101 or 401 includes an operation of checking a touch input generated by the stylus pen 201 through a touch screen 460 included in the electronic device, the An operation of determining whether a first gesture indicated by a touch input satisfies a first condition, which is a gesture generation condition for generating a specific gesture among a plurality of gestures.
  • the second condition may be differently designated based on the type of each of the plurality of gestures.
  • the operating method of the electronic device may include, when the first gesture satisfies the first condition and does not satisfy the second condition, a function corresponding to the specific gesture is not executed and handwriting corresponding to the touch input is performed. An operation of displaying on the touch screen may be further included.
  • the first gesture In the operation of executing the function corresponding to the specific gesture, when the end of the touch input is confirmed in a time interval between a first time and a second time greater than the first time based on the reference point, the first gesture An operation of confirming that the time condition is satisfied may be included.
  • the operation of executing the function corresponding to the specific gesture is performed when the moving distance of the touch input is determined to be a length section between a first length and a second length longer than the first length, based on the reference point.
  • An operation of confirming that the gesture satisfies the length condition may be included.
  • the operation of executing the function corresponding to the specific gesture is performed when the touch input includes a plurality of touch inputs touched at different points, the distance between the plurality of touch inputs is the starting point of the plurality of touch inputs. If it is not included in the ratio range designated based on the distance between the first gestures, an operation of confirming that the first gesture satisfies the length condition may be included.
  • the operation of executing the function corresponding to the specific gesture may be performed by performing the first gesture when the touch input includes a plurality of touch inputs touched at different points and a distance between the plurality of touch inputs is greater than a designated distance. It may include an operation of confirming that satisfies the length condition.
  • the operation of executing the function corresponding to the specific gesture may be performed, based on the reference point, when the touch input is confirmed inside a circle space having a diameter of a designated length or inside a square space having sides of a designated length, the first gesture It may include an operation of confirming that satisfies the spatial condition.
  • the operation of executing the function corresponding to the specific gesture may include confirming that the first gesture satisfies the space condition when the touch input is confirmed outside a circle space having a diameter of a specified length based on the reference point. Actions may be included.
  • the non-transitory recording medium includes an operation of checking a touch input generated by the stylus pen 201 through a touch screen 460 included in the electronic device 101 or 401, the touch input An operation of determining whether the first gesture indicated by this satisfies a first condition, which is a gesture generation condition for generating a specific gesture among a plurality of gestures, based on the fact that the first gesture satisfies the first condition, the touch determining whether the first gesture satisfies a second condition including at least one of a time condition, a length condition, and a space condition, using the touch start point of the input or the end point of the previous touch input as a reference point; and A program that performs an operation of executing a function corresponding to the specific gesture based on whether the gesture satisfies the second condition may be stored.
  • a first condition which is a gesture generation condition for generating a specific gesture among a plurality of gestures, based on the fact that the first gesture satisfies the first condition,

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

다양한 실시 예들에 따른, 전자 장치는, 터치 스크린 및 프로세서를 포함하고, 상기 프로세서는, 상기 터치 스크린을 통해, 스타일러스 펜을 의해 발생되는 터치 입력을 확인하고, 상기 터치 입력이 나타내는 제1제스처가 기설정된 복수의 제스처들 중 특정 제스처를 발생시키는 제스처 발생 조건인 제1 조건을 만족하는지 여부를 확인하고, 상기 제1제스처가 상기 제1 조건을 만족하는 것에 기반하여, 상기 터치 입력의 터치 시작 지점 또는 이전 터치 입력의 종료 지점을 기준점으로 상기 제1 제스처가 시간 조건, 길이 조건, 및 공간 조건 중 적어도 하나를 포함하는 제2 조건을 만족하는지 여부를 확인하고, 상기 제1 제스처가 상기 제2 조건을 만족하는 것에 기반하여, 상기 특정 제스처에 대응하는 기능을 실행하도록 설정될 수 있다.

Description

스타일러스 펜의 입력을 처리하는 전자 장치와 이의 동작 방법
다양한 실시 예들은, 스타일러스 펜의 입력을 처리하는 전자 장치와 이의 동작 방법에 관한 것이다.
전자 장치는, 전자 장치와 무선 통신을 통하여 연결된 특정한 (specified) 입력 장치들 (예를 들어, 스타일러스 펜)을 통하여 사용자로부터 다양한 입력을 받을 수 있도록 개발되고 있다.  전자 장치는, 펜 기능을 가지는 입력 장치 (본 개시에서 설명의 편의를 위하여 "스타일러스 펜"이라는 용어로 언급될 수 있다)에 의하여 상기 전자 장치 상의 지정된 위치를 확인할 수 있으며, 이에 대응하는 하나 이상의 동작들을 수행할 수 있다.
전자 장치는, 전자기 유도 (Electro magnetic resonance, 이하 ‘EMR’이라 칭한다)방식을 이용하여 스타일러스 펜으로부터 발생하는 자기장을 검출할 수 있다.  전자 장치는, 채널 별로 자기장에 의하여 발생되는 유도 기전력에 기반하여 스타일러스 펜의 위치를 확인할 수 있다.
스타일러스 펜은, 전자 장치와 근거리 통신 (예를 들어, 블루투스 저 에너지 (Bluetooth low energy; 이하 ‘BLE’라 칭한다))을 통하여 연결될 수 있다.  스타일러스 펜은, 예를 들어 스타일러스 펜의 하우징에 배치되는 버튼의 상태에 대한 정보를 근거리 통신을 통하여 전자 장치로 송신할 수 있으며, 전자 장치는 수신한 정보에 기반하여 지정된 동작을 수행할 수 있다.
전자 장치는, 스타일러스 펜을 통한 터치 입력에 대응하는 필기를 표시할 수 있다.  또한, 전자 장치는, 스타일러스 펜을 통해 터치 입력에 대응하는 제스처를 확인하고, 확인된 제스처에 대응하는 기능을 실행할 수 있다. 
전자 장치가 제공하는 제스처 인식 기술은, 스타일러스 펜을 이용하는 터치 입력에 최적화되어 있지 않았다.  예를 들어, 사용자가 스타일러스 펜을 이용하여 필기하거나 그림을 그릴 때, 전자 장치는 해당 필기나 그림을 사용자가 의도하지 않은 제스처로 오인식할 수 있다.  예를 들어, 사용자가 스타일러스 펜을 이용하여 동그란 점을 색칠하는 경우, 전자 장치는 점을 색칠하는 동작이 아닌 특정 지점을 길게 누르는 제스처로 인식할 수 있다.  이때, 전자 장치는, 사용자가 색칠한 점을 삭제하고 해당 제스처에 대응하는 팝업 윈도우를 표시하는 기능을 수행하였다.
다양한 실시 예들은, 스타일러스 펜을 통한 확인되는 터치 입력이 나타내는 제스처가 제스처 발생 조건을 만족하는지 여부를 확인하고, 상기 제스처 발생 조건을 만족할 경우 상기 터치 입력이 시간 조건, 길이 조건, 및 공간 조건을 만족하는지 여부를 따라 상기 터치 입력이 나타내는 제스처에 대응하는 기능의 실행 여부를 결정하는 전자 장치와 이의 동작 방법을 제공할 수 있다. 
다양한 실시 예들에 따른, 전자 장치는, 터치 스크린 및 프로세서를 포함하고, 상기 프로세서는, 상기 터치 스크린을 통해, 스타일러스 펜을 의해 발생되는 터치 입력을 확인하고, 상기 터치 입력이 나타내는 제1제스처가 복수의 제스처들 중 특정 제스처를 발생시키는 제스처 발생 조건인 제1 조건을 만족하는지 여부를 확인하고, 상기 제1제스처가 상기 제1 조건을 만족하는 것에 기반하여, 상기 터치 입력의 터치 시작 지점 또는 이전 터치 입력의 종료 지점을 기준점으로 상기 제1 제스처가 시간 조건, 길이 조건, 및 공간 조건 중 적어도 하나를 포함하는 제2 조건을 만족하는지 여부를 확인하고, 상기 제1 제스처가 상기 제2 조건을 만족하는 것에 기반하여, 상기 특정 제스처에 대응하는 기능을 실행하도록 설정될 수 있다.
다양한 실시 예들에 따른, 전자 장치의 동작 방법은, 상기 전자 장치에 포함된 터치 스크린을 통해, 스타일러스 펜을 의해 발생되는 터치 입력을 확인하는 동작, 상기 터치 입력이 나타내는 제1제스처가 복수의 제스처들 중 특정 제스처를 발생시키는 제스처 발생 조건인 제1 조건을 만족하는지 여부를 확인하는 동작, 상기 제1제스처가 상기 제1조건을 만족하는 것에 기반하여, 상기 터치 입력의 터치 시작 지점 또는 이전 터치 입력의 종료 지점을 기준점으로 상기 제1 제스처가 시간 조건, 길이 조건, 및 공간 조건 중 적어도 하나를 포함하는 제2 조건을 만족하는지 여부를 확인하는 동작, 및 상기 제1제스처가 상기 제2조건을 만족하는 것에 기반하여, 상기 특정 제스처에 대응하는 기능을 실행하는 동작을 포함할 수 있다.
다양한 실시 예들에 따른, 비일시적인 기록 매체는, 전자 장치에 포함된 터치 스크린을 통해, 스타일러스 펜을 의해 발생되는 터치 입력을 확인하는 동작, 상기 터치 입력이 나타내는 제1제스처가 복수의 제스처들 중 특정 제스처를 발생시키는 제스처 발생 조건인 제1 조건을 만족하는지 여부를 확인하는 동작, 상기 제1제스처가 상기 제1 조건을 만족하는 것에 기반하여, 상기 터치 입력의 터치 시작 지점 또는 이전 터치 입력의 종료 지점을 기준점으로 상기 제1 제스처가 시간 조건, 길이 조건, 및 공간 조건 중 적어도 하나를 포함하는 제2조건을 만족하는지 여부를 확인하는 동작, 및 상기 제1제스처가 상기 제2조건을 만족하는 것에 기반하여, 상기 특정 제스처에 대응하는 기능을 실행하는 동작을 수행하는 프로그램을 저장할 수 있다.
다양한 실시 예들에 따른 전자 장치는, 터치 상호작용 중 수집된 정보에 적어도 일부에 기반하여, 스타일러스 펜을 통해 입력된 제스처의 인식 정확도를 높이고, 사용자가 의도하지 않은 제스처 발생을 방지할 수 있다. 
도 1은 다양한 실시 예들에 따른 네트워크 환경 내의 전자 장치의 블록도이다. 
도 2는 다양한 실시 예들에 따른 스타일러스 펜을 포함하는 전자 장치의 사시도이다.
도 3은 다양한 실시 예들에 따른 스타일러스 펜을 도시하는 블록도이다.
도 4는, 다양한 실시 예들에 따른 전자 장치에 대한 블록도이다.
도 5는, 다양한 실시 예들에 따른 전자 장치가 제스처를 확인하는 동작을 설명하기 위한 플로우 차트이다.
도 6은, 다양한 실시 예들에 따른 전자 장치가 제스처에 지정된 조건을 확인하는 동작을 설명하기 위한 플로우 차트이다.
도 7a, 도 7b, 및 도 7c는, 다양한 실시 예들에 따른 전자 장치가 제스처를 확인하기 위한 시간 조건, 공간 조건, 및 길이 조건에 대한 도면들이다.
도 8은, 다양한 실시 예들에 따른 전자 장치가 터치 입력에 대한 필기를 표시하는 동작을 설명하기 위한 도면이다.
도 9는, 다양한 실시 예들에 따른 전자 장치가 홀드 제스처에 지정된 조건들을 확인하는 동작을 설명하기 위한 도면이다.
도 10는, 다양한 실시 예들에 따른 전자 장치가 싱글 탭 제스처에 지정된 조건들을 확인하는 동작을 설명하기 위한 도면이다.
도 11은, 다양한 실시 예들에 따른 전자 장치가 멀티 탭 제스처에 지정된 조건들을 확인하는 동작을 설명하기 위한 도면이다.
도 12는, 다양한 실시 예들에 따른 전자 장치가 이동 후 홀드 제스처에 지정된 조건들을 확인하는 동작을 설명하기 위한 도면이다.
도 13은, 다양한 실시 예들에 따른 전자 장치가 스크롤 제스처에 지정된 조건들을 확인하는 동작을 설명하기 위한 도면이다.
도 14는, 다양한 실시 예들에 따른 전자 장치가 핀치 줌 제스처에 지정된 조건들을 확인하는 동작을 설명하기 위한 도면이다.
도 15는, 다양한 실시 예들에 따른 전자 장치가 회전 제스처에 지정된 조건들을 확인하는 동작을 설명하기 위한 도면이다.
도 16은, 다양한 실시 예들에 따른 전자 장치가 필기 동작 중 제스처 기능의 오인식을 방지하기 위한 동작을 설명하기 위한 플로우 차트이다.
도 17은, 다양한 실시 예들에 따른 전자 장치가 핀치 줌 기능의 실행 시 플링 기능의 오인식을 방지하는 동작을 설명하기 위한 플로우 차트이다. 
도 1은, 다양한 실시예들에 따른, 네트워크 환경(100) 내의 전자 장치(101)의 블록도이다. 도 1을 참조하면, 네트워크 환경(100)에서 전자 장치(101)는 제 1 네트워크(198)(예: 근거리 무선 통신 네트워크)를 통하여 전자 장치(102)와 통신하거나, 또는 제 2 네트워크(199)(예: 원거리 무선 통신 네트워크)를 통하여 전자 장치(104) 또는 서버(108) 중 적어도 하나와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 서버(108)를 통하여 전자 장치(104)와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 프로세서(120), 메모리(130), 입력 모듈(150), 음향 출력 모듈(155), 디스플레이 모듈(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 연결 단자(178), 햅틱 모듈(179), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 가입자 식별 모듈(196), 또는 안테나 모듈(197)을 포함할 수 있다. 어떤 실시예에서는, 전자 장치(101)에는, 이 구성요소들 중 적어도 하나(예: 연결 단자(178))가 생략되거나, 하나 이상의 다른 구성요소가 추가될 수 있다. 어떤 실시예에서는, 이 구성요소들 중 일부들(예: 센서 모듈(176), 카메라 모듈(180), 또는 안테나 모듈(197))은 하나의 구성요소(예: 디스플레이 모듈(160))로 통합될 수 있다.
프로세서(120)는, 예를 들면, 소프트웨어(예: 프로그램(140))를 실행하여 프로세서(120)에 연결된 전자 장치(101)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)를 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일실시예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(120)는 다른 구성요소(예: 센서 모듈(176) 또는 통신 모듈(190))로부터 수신된 명령 또는 데이터를 휘발성 메모리(132)에 저장하고, 휘발성 메모리(132)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리(134)에 저장할 수 있다. 일실시예에 따르면, 프로세서(120)는 메인 프로세서(121)(예: 중앙 처리 장치 또는 어플리케이션 프로세서) 또는 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(123)(예: 그래픽 처리 장치, 신경망 처리 장치(NPU: neural processing unit), 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 예를 들어, 전자 장치(101)가 메인 프로세서(121) 및 보조 프로세서(123)를 포함하는 경우, 보조 프로세서(123)는 메인 프로세서(121)보다 저전력을 사용하거나, 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서(123)는 메인 프로세서(121)와 별개로, 또는 그 일부로서 구현될 수 있다.
보조 프로세서(123)는, 예를 들면, 메인 프로세서(121)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(121)를 대신하여, 또는 메인 프로세서(121)가 액티브(예: 어플리케이션 실행) 상태에 있는 동안 메인 프로세서(121)와 함께, 전자 장치(101)의 구성요소들 중 적어도 하나의 구성요소(예: 디스플레이 모듈(160), 센서 모듈(176), 또는 통신 모듈(190))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일실시예에 따르면, 보조 프로세서(123)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성요소(예: 카메라 모듈(180) 또는 통신 모듈(190))의 일부로서 구현될 수 있다. 일실시예에 따르면, 보조 프로세서(123)(예: 신경망 처리 장치)는 인공지능 모델의 처리에 특화된 하드웨어 구조를 포함할 수 있다. 인공지능 모델은 기계 학습을 통해 생성될 수 있다. 이러한 학습은, 예를 들어, 인공지능 모델이 수행되는 전자 장치(101) 자체에서 수행될 수 있고, 별도의 서버(예: 서버(108))를 통해 수행될 수도 있다. 학습 알고리즘은, 예를 들어, 지도형 학습(supervised learning), 비지도형 학습(unsupervised learning), 준지도형 학습(semi-supervised learning) 또는 강화 학습(reinforcement learning)을 포함할 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은, 복수의 인공 신경망 레이어들을 포함할 수 있다. 인공 신경망은 심층 신경망(DNN: deep neural network), CNN(convolutional neural network), RNN(recurrent neural network), RBM(restricted boltzmann machine), DBN(deep belief network), BRDNN(bidirectional recurrent deep neural network), 심층 Q-네트워크(deep Q-networks) 또는 상기 중 둘 이상의 조합 중 하나일 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은 하드웨어 구조 이외에, 추가적으로 또는 대체적으로, 소프트웨어 구조를 포함할 수 있다.
메모리(130)는, 전자 장치(101)의 적어도 하나의 구성요소(예: 프로세서(120) 또는 센서 모듈(176))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램(140)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(130)는, 휘발성 메모리(132) 또는 비휘발성 메모리(134)를 포함할 수 있다.
프로그램(140)은 메모리(130)에 소프트웨어로서 저장될 수 있으며, 예를 들면, 운영 체제(142), 미들 웨어(144) 또는 어플리케이션(146)을 포함할 수 있다.
입력 모듈(150)은, 전자 장치(101)의 구성요소(예: 프로세서(120))에 사용될 명령 또는 데이터를 전자 장치(101)의 외부(예: 사용자)로부터 수신할 수 있다. 입력 모듈(150)은, 예를 들면, 마이크, 마우스, 키보드, 키(예: 버튼), 또는 디지털 펜(예: 스타일러스 펜)을 포함할 수 있다.
음향 출력 모듈(155)은 음향 신호를 전자 장치(101)의 외부로 출력할 수 있다. 음향 출력 모듈(155)은, 예를 들면, 스피커 또는 리시버를 포함할 수 있다. 스피커는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있다. 리시버는 착신 전화를 수신하기 위해 사용될 수 있다. 일실시예에 따르면, 리시버는 스피커와 별개로, 또는 그 일부로서 구현될 수 있다.
디스플레이 모듈(160)은 전자 장치(101)의 외부(예: 사용자)로 정보를 시각적으로 제공할 수 있다. 디스플레이 모듈(160)은, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일실시예에 따르면, 디스플레이 모듈(160)은 터치를 감지하도록 설정된 터치 센서, 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 압력 센서를 포함할 수 있다.
오디오 모듈(170)은 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 일실시예에 따르면, 오디오 모듈(170)은, 입력 모듈(150)을 통해 소리를 획득하거나, 음향 출력 모듈(155), 또는 전자 장치(101)와 직접 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(102))(예: 스피커 또는 헤드폰)를 통해 소리를 출력할 수 있다.
센서 모듈(176)은 전자 장치(101)의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 사용자 상태)를 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 일실시예에 따르면, 센서 모듈(176)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다.
인터페이스(177)는 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 직접 또는 무선으로 연결되기 위해 사용될 수 있는 하나 이상의 지정된 프로토콜들을 지원할 수 있다. 일실시예에 따르면, 인터페이스(177)는, 예를 들면, HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.
연결 단자(178)는, 그를 통해서 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 물리적으로 연결될 수 있는 커넥터를 포함할 수 있다. 일실시예에 따르면, 연결 단자(178)는, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.
햅틱 모듈(179)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 일실시예에 따르면, 햅틱 모듈(179)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.
카메라 모듈(180)은 정지 영상 및 동영상을 촬영할 수 있다. 일실시예에 따르면, 카메라 모듈(180)은 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다.
전력 관리 모듈(188)은 전자 장치(101)에 공급되는 전력을 관리할 수 있다. 일실시예에 따르면, 전력 관리 모듈(188)은, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구현될 수 있다.
배터리(189)는 전자 장치(101)의 적어도 하나의 구성요소에 전력을 공급할 수 있다. 일실시예에 따르면, 배터리(189)는, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.
통신 모듈(190)은 전자 장치(101)와 외부 전자 장치(예: 전자 장치(102), 전자 장치(104), 또는 서버(108)) 간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(190)은 프로세서(120)(예: 어플리케이션 프로세서)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일실시예에 따르면, 통신 모듈(190)은 무선 통신 모듈(192)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(194)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제 1 네트워크(198)(예: 블루투스, WiFi(wireless fidelity) direct 또는 IrDA(infrared data association)와 같은 근거리 통신 네트워크) 또는 제 2 네트워크(199)(예: 레거시 셀룰러 네트워크, 5G 네트워크, 차세대 통신 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부의 전자 장치(104)와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성요소(예: 단일 칩)로 통합되거나, 또는 서로 별도의 복수의 구성요소들(예: 복수 칩들)로 구현될 수 있다. 무선 통신 모듈(192)은 가입자 식별 모듈(196)에 저장된 가입자 정보(예: 국제 모바일 가입자 식별자(IMSI))를 이용하여 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크 내에서 전자 장치(101)를 확인 또는 인증할 수 있다.
무선 통신 모듈(192)은 4G 네트워크 이후의 5G 네트워크 및 차세대 통신 기술, 예를 들어, NR 접속 기술(new radio access technology)을 지원할 수 있다. NR 접속 기술은 고용량 데이터의 고속 전송(eMBB(enhanced mobile broadband)), 단말 전력 최소화와 다수 단말의 접속(mMTC(massive machine type communications)), 또는 고신뢰도와 저지연(URLLC(ultra-reliable and low-latency communications))을 지원할 수 있다. 무선 통신 모듈(192)은, 예를 들어, 높은 데이터 전송률 달성을 위해, 고주파 대역(예: mmWave 대역)을 지원할 수 있다. 무선 통신 모듈(192)은 고주파 대역에서의 성능 확보를 위한 다양한 기술들, 예를 들어, 빔포밍(beamforming), 거대 배열 다중 입출력(massive MIMO(multiple-input and multiple-output)), 전차원 다중입출력(FD-MIMO: full dimensional MIMO), 어레이 안테나(array antenna), 아날로그 빔형성(analog beam-forming), 또는 대규모 안테나(large scale antenna)와 같은 기술들을 지원할 수 있다. 무선 통신 모듈(192)은 전자 장치(101), 외부 전자 장치(예: 전자 장치(104)) 또는 네트워크 시스템(예: 제 2 네트워크(199))에 규정되는 다양한 요구사항을 지원할 수 있다. 일실시예에 따르면, 무선 통신 모듈(192)은 eMBB 실현을 위한 Peak data rate(예: 20Gbps 이상), mMTC 실현을 위한 손실 Coverage(예: 164dB 이하), 또는 URLLC 실현을 위한 U-plane latency(예: 다운링크(DL) 및 업링크(UL) 각각 0.5ms 이하, 또는 라운드 트립 1ms 이하)를 지원할 수 있다.
안테나 모듈(197)은 신호 또는 전력을 외부(예: 외부의 전자 장치)로 송신하거나 외부로부터 수신할 수 있다. 일실시예에 따르면, 안테나 모듈(197)은 서브스트레이트(예: PCB) 위에 형성된 도전체 또는 도전성 패턴으로 이루어진 방사체를 포함하는 안테나를 포함할 수 있다. 일실시예에 따르면, 안테나 모듈(197)은 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다. 이런 경우, 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 적어도 하나의 안테나가, 예를 들면, 통신 모듈(190)에 의하여 상기 복수의 안테나들로부터 선택될 수 있다. 신호 또는 전력은 상기 선택된 적어도 하나의 안테나를 통하여 통신 모듈(190)과 외부의 전자 장치 간에 송신되거나 수신될 수 있다. 어떤 실시예에 따르면, 방사체 이외에 다른 부품(예: RFIC(radio frequency integrated circuit))이 추가로 안테나 모듈(197)의 일부로 형성될 수 있다.
다양한 실시예에 따르면, 안테나 모듈(197)은 mmWave 안테나 모듈을 형성할 수 있다. 일실시예에 따르면, mmWave 안테나 모듈은 인쇄 회로 기판, 상기 인쇄 회로 기판의 제 1 면(예: 아래 면)에 또는 그에 인접하여 배치되고 지정된 고주파 대역(예: mmWave 대역)을 지원할 수 있는 RFIC, 및 상기 인쇄 회로 기판의 제 2 면(예: 윗 면 또는 측 면)에 또는 그에 인접하여 배치되고 상기 지정된 고주파 대역의 신호를 송신 또는 수신할 수 있는 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다.
상기 구성요소들 중 적어도 일부는 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input and output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))을 통해 서로 연결되고 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.
일실시예에 따르면, 명령 또는 데이터는 제 2 네트워크(199)에 연결된 서버(108)를 통해서 전자 장치(101)와 외부의 전자 장치(104)간에 송신 또는 수신될 수 있다. 외부의 전자 장치(102, 또는 104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 일실시예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 외부의 전자 장치들(102, 104, 또는 108) 중 하나 이상의 외부의 전자 장치들에서 실행될 수 있다. 예를 들면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로, 또는 사용자 또는 다른 장치로부터의 요청에 반응하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 하나 이상의 외부의 전자 장치들에게 그 기능 또는 그 서비스의 적어도 일부를 수행하라고 요청할 수 있다. 상기 요청을 수신한 하나 이상의 외부의 전자 장치들은 요청된 기능 또는 서비스의 적어도 일부, 또는 상기 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행의 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 상기 결과를, 그대로 또는 추가적으로 처리하여, 상기 요청에 대한 응답의 적어도 일부로서 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 모바일 에지 컴퓨팅(MEC: mobile edge computing), 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다. 전자 장치(101)는, 예를 들어, 분산 컴퓨팅 또는 모바일 에지 컴퓨팅을 이용하여 초저지연 서비스를 제공할 수 있다. 다른 실시예에 있어서, 외부의 전자 장치(104)는 IoT(internet of things) 기기를 포함할 수 있다. 서버(108)는 기계 학습 및/또는 신경망을 이용한 지능형 서버일 수 있다. 일실시예에 따르면, 외부의 전자 장치(104) 또는 서버(108)는 제 2 네트워크(199) 내에 포함될 수 있다. 전자 장치(101)는 5G 통신 기술 및 IoT 관련 기술을 기반으로 지능형 서비스(예: 스마트 홈, 스마트 시티, 스마트 카, 또는 헬스 케어)에 적용될 수 있다.
도 2는 다양한 일 실시 예에 따른 스타일러스 펜 (201) (예를 들어, 도 1의 전자 장치 (102))을 포함하는 전자 장치 (101)의 사시도 (200)이다.  일 실시 예에 따르면, 상기 스타일러스 펜 (201)은 도 1의 전자 장치 (102)가 아닌 도 1의 입력 모듈 (150)에 대응될 수도 있다.
도 2를 참조하면, 다양한 실시 예들에 따르면 전자 장치 (101)는, 도 1에 도시된 구성을 포함할 수 있으며, 상기 스타일러스 펜 (201)이 삽입되고 저장될 수 있는 구조를 포함할 수 있다.  상기 전자 장치 (101)은 하우징 (210)을 포함하며, 상기 하우징 (210)의 일 부분, 예를 들면, 측면 (210a)의 일 부분에는 홀 (211)을 포함할 수 있다.  상기 전자 장치 (101)는, 상기 홀 (211)과 연결된 수납 공간인 제 1 내부 공간 (212)을 포함할 수 있으며, 상기 스타일러스 펜 (201)은 제 1 내부 공간 (212) 내에 삽입될 수 있다.  도시된 실시 예에 따르면, 상기 스타일러스 펜 (201)은, 상기 스타일러스 펜 (201)을 상기 전자 장치 (101)의 제 1 내부 공간 (212)으로부터 꺼내기 용이하도록, 일 단부에 눌림 가능한 제 1 버튼 (201a)을 포함할 수 있다.  상기 제 1 버튼 (201a)이 눌리면, 제 1 버튼 (201a)과 연계 구성된 반발 메커니즘 (예를 들어, 적어도 하나의 탄성 부재 (예를 들어, 스프링)에 의한 반발 메커니즘)이 작동하여, 제 1 내부 공간 (212)으로부터 상기 스타일러스 펜 (201)이 이탈될 수 있다.
다양한 실시 예들에 따르면, 상기 전자 장치 (101)은 상기 스타일러스 펜 (201)을 상기 전자 장치 (101)에 부착할 수 있는 구조를 포함할 수 있다.  예를 들어, 상기 전자 장치 (101)은 하우징 (210)의 외부에 상기 스타일러스 펜 (201)이 부착될 수 있도록 부착 영역과 인접한 위치에 적어도 하나의 자성체를 포함할 수 있다.  상기 스타일러스 펜 (201)은 적어도 하나의 자성체를 통해 상기 전자 장치 (101)의 하우징 (210)의 외부에 부착될 수 있다. 
도 3은 다양한 실시 예들에 따른 스타일러스 펜 (예를 들어, 도 2의 상기 스타일러스 펜 (201))을 도시하는 블록도 (300)이다.
도 3을 참조하면, 다양한 실시 예들에 따르면, 상기 스타일러스 펜 (201)은, 프로세서 (220), 메모리 (230), 공진 회로 (287), 충전 회로 (288), 배터리 (289), 통신 회로 (290), 안테나 (297), 트리거 회로 (298) 및/또는 센서 (299)를 포함할 수 있다.  어떤 실시 예들에서는, 상기 상기 스타일러스 펜 (201)의 프로세서 (220), 공진 회로 (287)의 적어도 일부 및/또는 통신 회로 (290)의 적어도 일부는 인쇄회로기판 상에 또는 칩 형태로 구성될 수 있다.  상기 프로세서 (220), 공진 회로 (287) 및/또는 통신 회로 (290)는 메모리 (230), 충전 회로 (288), 배터리 (289), 안테나 (297), 트리거 회로 (298) 및/또는 센서 (299)와 전기적으로 연결될 수 있다.
다양한 실시 예들에 따르면, 프로세서 (220)는, 커스터마이즈드 (customized) 하드웨어 모듈 또는 소프트웨어 (예를 들어, 어플리케이션 프로그램)를 실행하도록 구성된 제너릭 (generic) 프로세서를 포함할 수 있다.  상기 프로세서 (220)는, 상기 스타일러스 펜 (201)에 구비된 다양한 센서들, 데이터 측정 모듈, 입출력 인터페이스, 상기 스타일러스 펜 (201)의 상태 또는 환경을 관리하는 모듈 또는 통신 모듈 중 적어도 하나를 포함하는 하드웨어적인 구성 요소 (기능) 또는 소프트웨어적인 요소 (프로그램)를 포함할 수 있다.  상기 프로세서 (220)는 예를 들어, 하드웨어, 소프트웨어 또는 펌웨어 (firmware) 중 하나 또는 둘 이상의 조합을 포함할 수 있다.  일 실시 예에 따르면, 프로세서 (220)는 버튼 (예를 들어, 버튼 (337))의 눌림 상태를 나타내는 정보, 센서 (299)에 의하여 획득된 센싱 정보, 및/또는 센싱 정보에 기반하여 계산된 정보 (예를 들어, 상기 스타일러스 펜 (201)의 위치와 연관된 정보)를, 통신 회로 (290)를 통하여 상기 전자 장치 (101)로 송신하도록 설정될 수 있다.
다양한 실시 예들에 따르면, 공진 회로 (287)는, 상기 전자 장치 (101)의 디지타이저 (예를 들어, 디스플레이 모듈 (160))로부터 발생되는 전자기장 신호에 기반하여 공진될 수 있으며, 공진에 의하여 전자기 공명 방식 (electro-magnetic resonance, 이하 ‘EMR’라 칭한다) 입력 신호 (또는, 자기장 및)를 방사할 수 있다.  상기 전자 장치 (101)는, 전자기 공명 방식 입력 신호를 이용하여, 상기 전자 장치 (101) 상의 상기 스타일러스 펜 (201)의 위치를 확인할 수 있다.  예를 들어, 상기 전자 장치 (101)는, 디지타이저 내의 복수 개의 채널들 (예를 들어, 복수 개의 루프 코일들) 각각에서, 전자기 공명 방식 입력 신호에 의하여 발생되는 유도 기전력 (예를 들어, 출력 전류)의 크기에 기반하여, 상기 스타일러스 펜 (201)의 위치를 확인할 수 있다.  한편, 상술한 바에서는, 상기 전자 장치 (101) 및 상기 스타일러스 펜 (201)이 EMR 방식에 기반하여 동작하는 것과 같이 설명되었지만, 이는 단순히 예시적인 것으로, 상기 전자 장치 (101)은 전기적으로 결합된 공진 (electrically coupled resonance; 이하 ‘ECR’라 칭한다) 방식에 기반하여 전기장에 기반한 신호를 발생시킬 수도 있다.  상기 스타일러스 펜 (201)의 공진 회로는, 전기장에 의하여 공진될 수 있다.  상기 전자 장치 (101)는, 상기 스타일러스 펜 (201)에서의 공진에 의한 복수 개의 채널들 (예를 들어, 전극들)에서의 전위를 확인할 수 있으며, 전위에 기반하여 상기 스타일러스 펜 (201)의 위치를 확인할 수도 있다.  상기 스타일러스 펜 (201)은, 활성 정전기 (active electrostatic; 이하 ‘AES’라 칭한다) 방식으로 구현될 수도 있으며, 그 구현 종류에는 제한이 없음을 당업자는 이해할 것이다.  아울러, 상기 전자 장치 (101)은 터치 패널의 적어도 하나의 전극과 연관된 커패시턴스 (셀프 커패시턴스 또는 뮤추얼 커패시턴스)의 변경에 기반하여 상기 스타일러스 펜 (201)을 검출할 수도 있다.  이 경우, 상기 스타일러스 펜 (201)에는 공진 회로가 포함되지 않을 수도 있다.  본 개시에서 "패널", 또는 "센싱 패널"은, 디지타이저 및 터치 스크린 패널 (touch screen panel; 이하 ‘TSP’라 칭한다)를 포괄하는 용어로 이용될 수 있다.
다양한 실시 예들에 따르면, 메모리 (230)는, 상기 스타일러스 펜 (201)의 동작에 관련된 정보를 저장할 수 있다.  예를 들어, 상기 정보는 상기 상기 전자 장치 (101)의 통신을 위한 정보 및 상기 스타일러스 펜 (201)의 입력 동작에 관련된 주파수 정보를 포함할 수 있다.  아울러, 메모리 (230)는, 센서 (299)의 센싱 데이터로부터 상기 스타일러스 펜 (201)의 위치에 대한 정보 (예를 들어, 좌표 정보, 및/또는 변위 정보)를 계산하기 위한 프로그램 (또는, 어플리케이션, 알고리즘, 또는 처리 루프)을 저장할 수도 있다.  메모리 (230)는, 통신 회로 (290)의 통신 스택을 저장할 수도 있다.  구현에 따라, 통신 회로 (290) 및/또는 프로세서 (220)는 전용 메모리를 포함할 수도 있다.
다양한 실시 예들에 따르면, 공진 회로 (287)는, 코일 (coil) (또는, 인덕터 (inductor)) 및/또는 캐패시터 (capacitor)를 포함할 수 있다.  상기 공진 회로 (287)는, 입력되는 전기장 및/또는 자기장 (예를 들어, 상기 전자 장치 (101)의 디지타이저로부터 발생되는 전기장 및/또는 자기장)에 기반하여 공진할 수 있다.  상기 스타일러스 펜 (201)이 EMR 방식에 의하여 신호를 전송하는 경우, 상기 스타일러스 펜 (201)은 상기 전자 장치 (101)의 유도성 패널 (inductive panel)로부터 발생되는 전자기장 (electromagnetic field)에 기반하여, 공진 주파수를 포함하는 신호를 생성할 수 있다.  상기 스타일러스 펜 (201)이 AES 방식에 의하여 신호를 전송하는 경우, 상기 스타일러스 펜 (201)은 상기 전자 장치 (101)과 용량 결합 (capacity coupling)을 이용하여 신호를 생성할 수 있다.  상기 스타일러스 펜 (201)이 ECR 방식에 의하여 신호를 전송하는 경우, 상기 스타일러스 펜 (201)은 전자 장치의 용량성 (capacitive) 장치로부터 발생되는 전기장 (electric field)에 기반하여, 공진 주파수를 포함하는 신호를 생성할 수 있다.  일 실시 예에 따르면, 상기 공진 회로 (287)는 사용자의 조작 상태에 따라 전자기장의 세기 또는 주파수를 변경시키는데 이용될 수 있다.  예를 들어, 상기 공진 회로 (287)는, 호버링 입력, 드로잉 입력, 버튼 입력 또는 이레이징 입력을 인식하기 위한 다양한 주파수를 제공할 수 있다.  예를 들어, 공진 회로 (287)는, 복수 개의 커패시터의 연결 조합에 따라 다양한 공진 주파수를 제공할 수 있거나, 또는 가변 인덕터, 및/또는 가변 커패시터에 기반하여 다양한 공진 주파수를 제공할 수도 있다.
다양한 실시 예들에 따르면, 충전 회로 (288)는 스위칭 회로에 기반하여 공진 회로 (287)와 연결된 경우, 공진 회로 (287)에서 발생되는 공진 신호를 직류 신호로 정류하여 배터리 (289)에 제공할 수 있다.  일 실시 예에 따르면, 상기 스타일러스 펜 (201)은 충전 회로 (288)에서 감지되는 직류 신호의 전압 레벨을 이용하여, 상기 상기 전자 장치 (101)에 상기 스타일러스 펜 (201)이 삽입되었는지 여부를 확인할 수 있다.  또는, 상기 스타일러스 펜 (201)은 충전 회로 (288)에서 확인되는 신호에 대응하는 패턴을 확인하여, 상기 스타일러스 펜 (201)이 삽입되었는지 여부를 확인할 수도 있다.
다양한 실시 예들에 따르면, 배터리 (289)는 상기 스타일러스 펜 (201)의 동작에 요구되는 전력을 저장하도록 구성될 수 있다.  상기 배터리 (289)는, 예를 들어, 리튬-이온 배터리, 또는 캐패시터를 포함할 수 있으며, 충전식 또는 교환식일 수 있다.  일 실시 예에 따르면, 배터리 (289)는 충전 회로 (288)로부터 제공받은 전력 (예를 들어, 직류 신호 (직류 전력))을 이용하여 충전될 수 있다. 
다양한 실시 예들에 따르면, 통신 회로 (290)는, 상기 스타일러스 펜 (201)과 상기 전자 장치 (101)의 통신 모듈 (190) 간의 무선 통신 기능을 수행하도록 구성될 수 있다.  일 실시 예에 따르면, 통신 회로 (290)는 근거리 통신 방식을 이용하여 상기 스타일러스 펜 (201)의 상태 정보, 입력 정보, 및/또는 위치와 연관된 정보를 상기 전자 장치 (101)로 전송할 수 있다.  예를 들어, 통신 회로 (290)는 트리거 회로 (298)를 통해 획득한 상기 스타일러스 펜 (201)의 방향 정보 (예를 들어, 모션 센서 데이터), 마이크로 폰을 통해 입력된 음성 정보 또는 배터리 (289)의 잔량 정보를 상기 전자 장치 (101)로 전송할 수 있다.  예를 들어, 통신 회로 (290)는, 센서 (299)로부터 획득된 센싱 데이터, 및/또는 센싱 데이터에 기반하여 확인된 상기 스타일러스 펜 (201)의 위치와 연관된 정보를 상기 전자 장치 (101)로 송신할 수 있다.  예를 들어, 통신 회로 (290)는, 상기 스타일러스 펜 (201)에 구비된 버튼 (예를 들어, 버튼 (337))의 상태에 대한 정보를 상기 전자 장치 (101)로 송신할 수 있다.  일 예로, 근거리 통신 방식은 블루투스, 블루투스 저전력 (bluetooth low energy; BLE ), 근거리 통신 (near field communication; NFC), 및 Wi-Fi direct 중 적어도 하나를 포함할 수 있으나, 그 종류에는 제한이 없다.
다양한 실시 예들에 따르면, 안테나 (297)는 신호 또는 전력을 외부 (예를 들어, 상기 상기 전자 장치 (101))로 송신하거나 외부로부터 수신하는데 이용될 수 있다.  일 실시 예에 따르면, 상기 스타일러스 펜 (201)은, 복수의 안테나 (297)들을 포함할 수 있고, 이들 중에, 통신 방식에 적합한 적어도 하나의 안테나 (297)를 선택할 수 있다.  상기 선택된 적어도 하나의 안테나 (297)를 통하여, 통신 회로 (290)는 신호 또는 전력을 외부 전자 장치와 교환할 수 있다.
다양한 실시 예들에 따르면, 트리거 회로 (298)는 적어도 하나의 버튼 또는 센서 회로를 포함할 수 있다.  일 실시 예에 따르면, 프로세서 (220)는 상기 스타일러스 펜 (201)의 버튼의 입력 방식 (예를 들어, 터치 또는 눌림) 또는 종류 (예를 들어, EMR 버튼 또는 BLE 버튼)를 확인할 수 있다.  일 실시 예에 따르면, 트리거 회로 (298)는 버튼의 입력 신호 또는 센서 (299)를 통한 신호를 이용하여 상기 전자 장치 (101)로 트리거 신호를 전송할 수 있다.
다양한 실시 예들에 따르면, 센서 (299)는, 가속도 센서 (accelerometer), 자이로 센서 (gyro sensor), 및/또는 지자계 센서 (geomagnetic sensor)를 포함할 수 있다.  가속도 센서는, 상기 스타일러스 펜 (201)의 리니어한 움직임 및/또는 상기 스타일러스 펜 (201)의 3축, 6축 또는/및 9축에 대한 가속도에 대한 정보를 센싱할 수 있다.  자이로 센서는, 상기 스타일러스 펜 (201)의 회전과 관련된 정보를 센싱할 수 있다.  지자계 센서는, 상기 스타일러스 펜 (201)의 절대 좌표계 내에서의 향하는 방향에 대한 정보를 센싱할 수 있다.  일 실시 예에 따르면, 센서 (299)는, 움직임을 측정하기 위한 센서뿐만 아니라, 상기 스타일러스 펜 (201)의 내부의 작동 상태 또는 외부의 환경 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있는 센서, 예를 들어, 배터리 잔량 감지 센서, 압력 센서, 광 센서, 온도 센서, 생체 센서 중 적어도 하나를 포함할 수 있다.  다양한 실시 예에 따라서, 프로세서 (220)는, 센서 (299)로부터 획득한 정보를, 통신 회로 (290)를 통하여 상기 전자 장치 (101)로 송신할 수 있다.  또는, 프로세서 (220)는, 센서 (299)로부터 획득한 정보에 기반하여, 상기 스타일러스 펜 (201)의 위치와 연관된 정보 (예를 들어, 상기 스타일러스 펜 (201)의 좌표 및/또는 상기 스타일러스 펜 (201)의 변위)를, 통신 회로 (290)를 통하여 상기 전자 장치 (101)로 송신할 수도 있다.
도 4는, 다양한 실시 예들에 따른 전자 장치에 대한 블록도이다.
도 4를 참조하면, 전자 장치 (401)는, 프로세서 (420), 메모리 (430), 및 터치 스크린 (460)을 포함할 수 있다.  예를 들어, 전자 장치 (401)는, 도 1의 상기 전자 장치 (101)과 동일 내지 유사하게 구현될 수 있다.
다양한 실시 예들에 따라, 프로세서 (420)는, 전자 장치 (401)의 전반적인 동작을 제어할 수 있다.  예를 들어, 프로세서 (420)는, 도 1의 프로세서 (120)와 동일 내지 유사하게 구현될 수 있다.
다양한 실시 예들에 따라, 프로세서 (420)는, 터치 스크린 (460) (예를 들어, 도 1의 디스플레이 모듈 (160))을 통해, 상기 스타일러스 펜 (201) 또는 사용자의 손에 의해 발생되는 터치 입력을 확인할 수 있다.  또는, 프로세서 (420)는, 터치 스크린 (460) (예를 들어, 도 1의 디스플레이 모듈 (160))을 통해, 마우스나 트랙볼과 같은 입력 장치에 의해 발생되는 입력을 확인할 수 있다.  프로세서 (420)는, 터치 입력 (또는 상기 입력 장치에 의해 발생되는 입력)의 시작과 완료를 확인할 수 있다.  예를 들어, 프로세서 (420)는, 터치 스크린 (460)에 상기 스타일러스 펜 (201) 또는 사용자의 손에 의한 터치 다운이 확인되면, 터치 입력이 시작되었다고 확인할 수 있다.  이후, 프로세서 (420)는, 터치 스크린 (460)에 상기 스타일러스 펜 (201) 또는 사용자의 손에 의한 터치 업이 확인되면, 터치 입력이 완료되었다고 확인할 수 있다. 
다양한 실시 예들에 따라, 프로세서 (420)는, 터치 시작부터 터치 완료까지 터치 입력의 이동 경로를 확인할 수 있다.  또한, 프로세서 (420)는, 터치 시작부터 터치 완료까지 터치 입력의 이동 거리를 확인할 수 있다.
다양한 실시 예들에 따라, 프로세서 (420)는, 터치 입력 (또는 상기 입력 장치에 의해 발생되는 입력)이 나타내는 제스처가 기설정된 제스처 발생 조건을 만족하는지 여부를 확인할 수 있다.  예를 들어, 프로세서 (420)는, 터치 입력의 시작, 이동 경로, 및 완료에 기초하여 터치 입력이 나타내는 제스처를 확인할 수 있다.  상기 제스처는 미리 지정된 복수의 제스처들 중에서 확인될 수 있다. 프로세서 (420)는, 터치 시작, 터치 무브, 및/또는 터치 완료에 기반하여, 터치 입력이 나타내는 제스처가 전자 장치 (401)에서 지원하는 복수의 제스처들 중 특정 제스처를 발생시키는 제스처 발생 조건을 만족하는지 확인할 수 있다.  예를 들어, 복수의 제스처들은, 싱글 탭, 멀티 탭, 홀드, 롱 프레스, 이동 후 홀드, 스크롤 입력, 플링 (fling) 입력, 두 개의 터치들의 서로 다른 방향으로의 이동, 및/또는 두 개의 터치들의 서로 다른 방향으로의 회전을 포함할 수 있다.  예를 들어, 제스처 발생 조건은, 복수의 제스처들 각각에 대하여 서로 다른 조건이 설정될 수 있다. 다양한 실시 예들에 따라, 전자 장치(101)는 설명된 제스처와 상이하거나 추가적인 제스처, 또는 더 적은 제스처를 가질 수 있다. 상기 설명된 제스처들은 일부 예이며, 설명된 기술적인 해결방안들은 상기 설명된 제스처들에만 제한되는 것은 아니다.
다양한 실시 예들에 따라, 프로세서 (420)는, 터치 입력이 나타내는 제스처가 특정 제스처를 발생시키는 제스처 발생 조건을 만족하지 않으면, 터치 입력이 나타내는 필기 (또는 그림)를 터치 스크린 (460)에 표시할 수 있다.  예를 들어, 프로세서 (420)는, 터치 입력이 미리 지정된 제스처를 나타내지 않을 경우, 터치 입력에 의해 입력된 필기 (또는 그림)를 터치 스크린 (460)에 표시할 수 있다.
다양한 실시 예들에 따라, 프로세서 (420)는, 터치 입력이 나타내는 제스처가 특정 제스처를 발생시키는 제스처 발생 조건을 만족하면, 터치 입력의 터치 시작 지점 또는 이전 터치 입력의 종료 지점을 기준점으로 터치 입력이 해당 제스처에 지정된 시간 조건, 길이 조건, 및 공간 조건 중 적어도 하나를 만족하는지 여부를 확인할 수 있다.  즉, 프로세서 (420)는, 터치 입력이 나타내는 제스처가 제스처 발생 조건을 만족하더라도, 바로 특정 제스처에 대응하는 기능을 실행하지 않을 수 있다.  예를 들어, 시간 조건은, 터치 입력이 터치된 시간에 대한 조건을 의미할 수 있다.  길이 조건은, 터치 입력의 경로 길이에 대한 조건을 의미할 수 있다.  공간 조건은, 터치 입력이 특정 공간 안에 위치하는지 또는 밖에 위치하는지에 대한 조건을 의미할 수 있다.  다양한 실시 예들에 따라, 제스처에 지정된 시간 조건, 길이 조건, 및 공간 조건을 판단하는 기준점은, 제스처 별로 상이할 수 있다.  예를 들어, 기준점은, 현재 진행 중인 터치 입력의 터치 시작 지점일 수 있다. 또는, 기준점은 이전 터치 입력의 종료 지점일 수 있다.  또는, 기준점은, 최근 500ms 이내(또는 다른 지속 시간)의 터치 중 가장 오래된 터치 입력의 시작 지점 또는 종료 지점 중 하나일 수 있다. 또는, 터치 입력의 이동이 기설정된 영역을 처음으로 벗어난 지점일 수 있다. 기준점은 또한, 최근에 확인된 10개(또는 기타 N개)의 터치 입력들 중 가장 오래된 터치 입력의 시작 지점 또는 종료 지점일 수 있다. 또는, 기준점은 터치 입력들의 데이터 중 특정 조건을 만족하는 데이터 값에 대응하는 터치 입력 (예를 들면 x좌표가 1000 이상인 터치 입력)의 시작 지점 또는 종료 지점일 수 있다. 또는, 기준점은 특정 알고리즘에 의해 선택된 터치 입력이 시작 지점 또는 종료 지점이 기준점일 수 있다. 으로 기준점은, 프로세서 (420)에 의해 자동으로 설정되거나, 사용자에 의해 설정될 수도 있다. 본 개시에서 설명되고 사용된 값은 일 예이고 하나 이상의 실시예들은 본원에 언급된 것과 상이한 값을 사용할 수 있음을 이해할 것이다. 더욱이, 본 명세서에 기술된 기준점의 유형은 예시적인 것이며, 하나 이상의 실시예에서 기준점(들)을 결정하기 위해 다른 측정이 사용될 수 있다. 여기서, "점(point)"(예: 시작점, 끝점 등)은 터치스크린(460) 상의 위치를 나타낼 수 있다. 위치는 좌표, 픽셀 번호 또는 기타 방식으로 지정될 수 있다. 또는, "점(point)"은 시점, 즉 사용자에 의해 터치 입력이 시작되거나 종료된 순간을 나타낼 수도 있다.
다양한 실시 예들에 따라, 프로세서 (420)는, 터치 입력이 시간 조건, 길이 조건, 및 공간 조건 중 특정 제스처에 지정된 적어도 하나의 조건을 만족하는지 여부에 기반하여 터치 입력이 나타내는 제스처에 대응하는 기능의 실행 여부를 결정할 수 있다.  예를 들어, 프로세서 (420)는, 터치 입력이 해당 제스처에 지정된 시간 조건, 길이 조건, 및/또는 공간 조건을 만족하면, 터치 입력이 나타내는 제스처에 대응하는 기능을 실행할 수 있다.  또는, 프로세서 (420)는, 터치 입력이 해당 제스처에 지정된 시간 조건, 길이 조건, 및/또는 공간 조건을 만족하지 않으면, 터치 입력이 나타내는 제스처에 대응하는 기능을 실행하지 않을 수 있다.  이때, 프로세서 (420)는, 터치 입력이 나타내는 움직임 (예를 들어, 필기 또는 그림)를 터치 스크린 (460)에 표시할 수 있다.
다양한 실시 예들에 따라, 프로세서 (420)는, 복수의 터치 입력들이 시간 조건, 길이 조건, 및/또는 공간 조건 중 특정 제스처에 지정된 적어도 하나의 조건을 만족하는지 여부에 기반하여 복수의 터치 입력들이 나타내는 제스처에 대응하는 기능의 실행 여부를 결정할 수 있다. 
다양한 실시 예들에 따라, 복수의 제스처들 각각은 서로 상이한 시간 조건, 길이 조건, 및/또는 공간 조건 중 적어도 일부가 설정될 수 있다.  또한, 프로세서 (420)는, 복수의 제스처들 중 일부 제스처에 대하여, 시간 조건, 길이 조건, 및/또는 공간 조건 중 일부 조건만 만족하면, 해당 제스처에 대응하는 기능을 실행할 수 있다. 
다양한 실시 예들에 따라, 메모리 (430)는, 복수의 제스처들 각각의 제스처 발생 조건에 대한 정보를 저장할 수 있다.  또한, 메모리 (430)는, 복수의 제스처들 각각에 대한 시간 조건, 길이 조건, 및/또는 공간 조건에 대한 정보를 저장할 수 있다.  예를 들어, 메모리 (430)는, 도 1의 메모리 (130)와 동일 내지 유사하게 구현될 수 있다.
이하에서는, 설명의 편의를 위해 전자 장치 (401)가 아래의 동작들을 수행하는 것으로 설명하지만, 전자 장치 (401)에 의해 수행되는 동작의 적어도 일부는 프로세서 (420)에 의해 제어될 수 있다. 
도 5는, 다양한 실시 예들에 따른 전자 장치가 제스처를 확인하는 동작을 설명하기 위한 플로우 차트이다.
도 5를 참조하면, 다양한 실시 예들에 따라, 동작 501에서, 전자 장치 (401)는, 스타일러스 펜 (또는 사용자의 손)과 같은 입력 장치에 의해 발생되는 터치 입력을 확인할 수 있다.  예를 들어, 전자 장치 (401)는, 터치 입력의 터치 시작 (예를 들어, 터치 다운), 터치 무브, 및/또는 터치 완료 (예를 들어, 터치 업)을 확인할 수 있다.  전자 장치 (401)는, 터치 입력의 터치 시작, 터치 무브, 및/또는 터치 완료를 확인하는 것에 기초하여, 터치 입력이 나타내는 제스처를 확인할 수 있다. 여기에서, "터치 무브"는 터치 스크린(460)과 접촉이 유지된 상태에서 입력 장치(예:스타일러스 펜)가 수행하는 이동을 의미할 수 있다.
다양한 실시 예들에 따라, 동작 503에서, 전자 장치 (401)는, 터치 입력이 나타내는 제스처가 전자 장치 (401)에서 지원하는 복수의 제스처들 중 특정 제스처를 발생시키는 제스처 발생 조건을 만족하는지 확인할 수 있다.
다양한 실시 예들에 따라, 터치 입력이 나타내는 제스처가 기설정된 제스처 발생 조건을 만족하지 않는 경우 (동작 505의 아니오), 동작 507에서, 전자 장치 (401)는, 터치 입력에 대응하는 필기 (또는 그림)를 터치 스크린 (460)에 표시할 수 있다. 
다양한 실시 예들에 따라, 터치 입력이 나타내는 제스처가 제스처 발생 조건을 만족하는 경우 (동작 505의 예), 동작 509에서, 전자 장치 (401)는, 터치 입력의 터치 시작 지점 또는 이전 터치 입력의 종료 지점을 기준으로 터치 입력이 시간 조건, 길이 조건, 및/또는 공간 조건 중 해당 제스처에 지정된 적어도 하나의 조건을 만족하는지 여부를 확인할 수 있다.  예를 들어, 전자 장치 (401)는, 터치 입력이 나타내는 제스처가 특정 제스처를 발생시키는 제스처 발생 조건을 만족하더라도, 특정 제스처에 지정된 시간 조건, 길이 조건, 및/또는 공간 조건의 적어도 일부를 만족하는지 여부를 확인할 수 있다.  예를 들어, 전자 장치 (401)는, 기준점 (예를 들어, 터치 시작 지점 또는 이전 터치 입력의 종료 지점)을 기준으로 터치 입력이 시간 조건, 길이 조건, 및/또는 공간 조건 중 해당 제스처에 지정된 조건을 모두 만족하는지 여부를 확인할 수 있다.
다양한 실시 예들에 따라, 터치 입력이 해당 제스처에 지정된 적어도 하나의 조건을 만족하는 경우 (동작 511의 예), 동작 513에서, 전자 장치 (401)는, 제스처에 대응하는 기능을 실행할 수 있다. 
다양한 실시 예들에 따라, 터치 입력이 해당 제스처에 지정된 조건을 만족하지 않는 경우 (동작 511의 아니오), 동작 507에서, 전자 장치 (401)는, 제스처에 대응하는 기능을 실행하지 않고, 터치 입력에 대응하는 필기 (또는 그림)를 터치 스크린 (460)에 표시할 수 있다.  예를 들어, 전자 장치 (401)는, 전자 장치 (401)는, 터치 입력이 나타내는 제스처가 제스처 발생 조건을 만족하더라도, 해당 제스처에 지정된 시간 조건, 길이 조건, 및/또는 공간 조건를 모두 만족하는 경우에만 제스처에 대응하는 기능을 실행할 수 있다.  이를 통해, 전자 장치 (401)는, 사용자가 의도하지 않은 제스처의 오인식을 방지할 수 있다.
한편, 본 명세서에서는 스타일러스 펜이나 사용자의 손에 의해 발생되는 터치 입력의 오인식을 방지하는 방법을 주요한 실시 예로 설명하고 있으나, 본 발명의 기술적 사상은 이에 한정되지 않을 수 있다.  예를 들어, 본 발명의 기술적 특징은, 마우스나 트랙볼과 같은 다른 입력 장치들에 의한 입력의 오인식/오해석을 방지하는 방법에도 적용될 수 있다.
도 6은, 다양한 실시 예들에 따른 전자 장치가 제스처에 지정된 조건을 확인하는 동작을 설명하기 위한 플로우 차트이다.
도 6을 참조하면, 다양한 실시 예들에 따라, 동작 601에서, 전자 장치 (401)는, 스타일러스 펜 (또는 사용자의 손)을 의해 발생되는 터치 입력을 확인할 수 있다.  예를 들어, 전자 장치 (401)는, 터치 입력의 터치 시작, 터치 무브, 및/또는 터치 완료에 기초하여 터치 입력이 나타내는 제스처를 확인할 수 있다.  또한, 전자 장치 (401)는, 터치 입력이 나타내는 제스처가 특정 제스처를 발생시키는 제스처 발생 조건을 만족하는지 여부를 확인할 수 있다. 
다양한 실시 예들에 따라, 동작 603에서, 전자 장치 (401)는, 터치 입력이 나타내는 제스처가 확인되면, 시간 조건, 길이 조건, 및/또는 공간 조건에 대하여 해당 제스처에 지정된 조건을 확인할 수 있다.  예를 들어, 전자 장치 (401)에서 지원하는 복수의 제스처들 각각은, 제스처의 종류에 기반하여 서로 상이한 조건들이 지정될 수 있다.  예를 들어, 전자 장치 (401)에서 지원하는 복수의 제스처들 각각은 서로 상이한 시간 조건, 길이 조건, 및/또는 공간 조건이 지정될 수 있다.  또는, 복수의 제스처들 중 어떤 제스처는, 시간 조건, 길이 조건, 및/또는 공간 조건 중 일부 조건만 만족하면, 해당 제스처에 대응하는 기능이 실행될 수 있다.  이에 따라, 전자 장치 (401)는, 터치 입력이 나타내는 제스처가 특정 제스처를 발생시키는 제스처 발생 조건을 만족하면, 해당 제스처에 지정된 시간 조건, 길이 조건, 및/또는 공간 조건을 확인할 수 있다.
다양한 실시 예들에 따라, 동작 605에서, 전자 장치 (401)는, 터치 입력이 해당 제스처에 지정된 조건을 만족하는지 확인할 수 있다.  전자 장치 (401)는, 터치 입력이 지정된 조건을 만족하는 경우에, 터치 입력이 나타내는 제스처에 지정된 기능을 실행할 수 있다.  또는, 전자 장치 (401)는, 터치 입력이 지정된 조건을 만족하지 않는 경우에, 터치 입력이 나타내는 제스처에 지정된 기능을 실행하지 않을 수 있다.
도 7a, 도 7b, 및 도 7c는, 다양한 실시 예들에 따른 전자 장치가 제스처를 확인하기 위한 시간 조건, 공간 조건, 및 길이 조건에 대한 도면들이다.
도 7a, 도 7b, 및 도 7c를 참조하면, 다양한 실시 예들에 따라, 전자 장치 (401)는, 터치 입력 (710)을 확인하고, 터치 입력 (710)이 나타내는 제스처와 특정 제스처를 발생시키는 제스처 발생 조건을 비교할 수 있다.  전자 장치 (401)는, 비교 결과에 기반하여 터치 입력 (710)이 나타내는 제스처가 길게 누르기 (long press) (또는 홀드 입력)인 것을 확인 (또는 인식)할 수 있다.  전자 장치 (401)는, 터치 입력 (710)이 "길게 누르기" 제스처인 것으로 확인되면, "길게 누르기" 제스처에 지정된 시간 조건, 공간 조건, 및 길이 조건을 확인할 수 있다.  예를 들어, 전자 장치 (401)는, 시간 조건, 공간 조건, 및 길이 조건을 모두 만족하는 경우에, "길게 누르기" 제스처에 대응하는 기능을 실행할 수 있다. 또는, 전자 장치(401)는, 시간 조건, 공간 조건, 및 길이 조건의 일부를 만족하는 경우에, "길게 누르기" 제스처에 대응하는 기능을 실행할 수 있다.
도 7a을 참조하면, 다양한 실시 예들에 따라, 전자 장치 (401)는, 터치 입력 (710)이 "길게 누르기" 제스처에 대한 시간 조건을 만족하는지 여부를 확인할 수 있다.  전자 장치 (401)는, 터치 입력 (710)에 대하여, 터치 시작 (또는 터치 다운)을 시간 조건의 기준점으로 설정할 수 있다.  전자 장치 (401)는, 터치 시작 (또는 터치 다운)이 확인된 후 제 1 시간 (t1)부터 제 2 시간 (t2) 이내의 시간 구간 (T)에서 터치 완료 (또는 터치 업)가 확인될 경우, 터치 입력 (710)이 "길게 누르기" 제스처에 대한 시간 조건을 만족하는 것으로 판단할 수 있다.  또는, 전자 장치 (401)는, 터치 시작 (또는 터치 다운)이 확인된 후 시간 구간 (T) 외에서 터치 완료 (또는 터치 업)가 확인될 경우, 터치 입력 (710)이 "길게 누르기" 제스처에 대한 시간 조건을 만족하지 않는 것으로 판단할 수 있다.  예를 들어, 제 1 시간 (t1)과 제 1 시간 (t1)보다 큰 제 2 시간 (t2)은, 프로세서 (420)에 의해 미리 설정된 시간일 수 있다.  또한, 제 1 시간 (t1)은, "길게 누르기" 제스처를 인식 또는 확인한 이후의 시간일 수 있다.  예를 들어, 제 1 시간 (t1)과 제 2 시간 (t2)은, 복수의 제스처들 각각에 따라 서로 동일하거나 다르게 설정될 수 있다. t1 및 t2에 대해 사용된 값은 예시이고 하나 이상의 실시예에서 변경될 수 있음을 이해할 것이다.
도 7b을 참조하면, 다양한 실시 예들에 따라, 전자 장치 (401)는, 터치 입력 (710)이 "길게 누르기" 제스처에 대한 공간 조건을 만족하는지 여부를 확인할 수 있다.  전자 장치 (401)는, 터치 입력 (710) 대하여, 터치 시작 (또는 터치 다운)을 공간 조건의 기준점으로 설정할 수 있다.  전자 장치 (401)는, 터치 입력 (710) (예를 들어, 터치 시작 (또는 터치 다운)부터 터치 완료 (또는 터치 업) 사이의 터치 무브)이 지정된 공간 (또는 지정된 영역)에서 수행되는 경우, 터치 입력 (710)이 "길게 누르기" 제스처에 대한 공간 조건을 만족하는 것으로 판단할 수 있다.  또는, 전자 장치 (401)는, 터치 입력 (710)이 지정된 공간 (또는 지정된 영역)을 벗어난 경우, 터치 입력 (710)이 "길게 누르기" 제스처에 대한 공간 조건을 만족하지 않는 것으로 판단할 수 있다.  예를 들어, 지정된 공간 (또는 지정된 영역)은, 프로세서 (420)에 의해 미리 설정된 영역일 수 있다.  예를 들어, 지정된 공간 (또는 지정된 영역)은, 복수의 제스처들 각각에 따라 서로 동일하거나 다르게 설정될 수 있다.  예를 들어, 지정된 공간 (또는 지정된 영역)은, 특징 길이를 지름으로 가지는 원 영역 또는 특징 길이를 한 변으로 가지는 정사각형 형태의 영역일 수 있다.  또는, 지정된 공간 (또는 지정된 영역)은, 타원이나 직사각형 형태의 영역일 수도 있다. 임의의 다른 미리 결정된 형상이 사용될 수 있음을 이해할 수 있을 것이다. 또한, 본 명세서의 예는 지정된 영역 내에서 수행되는 제스처를 설명하지만, 공간 조건은 제스처가 미리 결정된 형상 외부에서 수행되도록 지정될 수 있다.
도 7c을 참조하면, 다양한 실시 예들에 따라, 전자 장치 (401)는, 터치 입력 (710)이 "길게 누르기" 제스처에 대한 길이 조건을 만족하는지 여부를 확인할 수 있다.  전자 장치 (401)는, 터치 입력 (710)에 대하여 터치 시작 (또는 터치 다운)을 길이 조건의 기준점으로 설정할 수 있다.  전자 장치 (401)는, 터치 입력 (710)의 이동 길이 (예를 들어, 터치 시작부터 터치 완료 사이의 터치 무브 거리) (L)가 지정된 길이 이내인 경우, 터치 입력 (710)이 "길게 누르기" 제스처에 대한 길이 조건을 만족하는 것으로 판단할 수 있다.  또는, 전자 장치 (401)는, 터치 입력 (710)의 이동 길이 (L) (또는 이동 거리)가 지정된 길이를 초과하는 경우, 터치 입력 (710)이 "길게 누르기" 제스처에 대한 길이 조건을 만족하지 않는 것으로 판단할 수 있다.  예를 들어, 지정된 길이는, 프로세서 (420)에 의해 미리 설정된 길이일 수 있다.  예를 들어, 지정된 길이는, 복수의 제스처들 각각에 따라 서로 동일하거나 다르게 설정될 수 있다. 
다양한 실시 예들에 따라, 전자 장치 (401)는, 터치 입력 (710)이 "길게 누르기" 제스처에 대한 시간 조건, 공간 조건, 및 길이 조건을 모두 만족하지 못하는 경우, "길게 누르기" 제스처에 대응하는 기능을 실행하지 않을 수 있다.  예를 들어, 전자 장치 (401)는, 터치 입력 (710)이 "길게 누르기" 제스처에 대한 시간 조건, 공간 조건, 및 길이 조건을 모두 만족하지 못한 경우, "길게 누르기" 제스처가 유효하지 않은 것으로 판단할 수 있다.  이때, 전자 장치 (401)는, "길게 누르기" 제스처에 대응하는 기능을 실행하지 않고, 터치 스크린에 터치 입력 (710)에 대응하는 필기를 표시할 수 있다.
다양한 실시 예들에 따라, 전자 장치 (401)는, 터치 입력 (710)이 "길게 누르기" 제스처에 대한 시간 조건, 공간 조건, 및 길이 조건을 모두 만족하는 경우, "길게 누르기" 제스처에 대응하는 기능을 실행할 수 있다.  예를 들어, 전자 장치 (401)는, 터치 입력 (710)이 "길게 누르기" 제스처에 대한 시간 조건, 공간 조건, 및 길이 조건을 모두 만족하는 경우, "길게 누르기" 제스처가 유효한 것으로 판단할 수 있다.  이때, 전자 장치 (401)는, 터치 스크린에 메뉴창 (720)을 표시할 수 있다.  또한, 전자 장치 (401)는, 터치 입력 (710)에 대응하는 필기가 표시되지 않도록 터치 스크린을 제어할 수 있다.
도 8은, 다양한 실시 예들에 따른 전자 장치가 터치 입력에 대한 필기를 표시하는 동작을 설명하기 위한 도면이다.
도 8을 참조하면, 다양한 실시 예들에 따라, 전자 장치 (401)는, 터치 입력 (710)이 "탭" 또는 "클릭" 제스처에 대한 길이 조건을 만족하는지 여부를 확인할 수 있다.  전자 장치 (401)는, 터치 입력 (810)에 대하여 터치 시작 (또는 터치 다운)을 길이 조건의 기준점으로 설정할 수 있다.  전자 장치 (401)는, 터치 입력 (810)의 이동 길이 (예를 들어, 터치 시작부터 터치 완료 사이의 터치 무브 거리) (L)가 지정된 길이를 초과하는 경우, 터치 입력 (810)이 "탭" 또는 "클릭" 제스처에 대한 길이 조건을 만족하지 않는 것으로 판단할 수 있다.  예를 들어, "탭" 또는 "클릭" 제스처는 터치 시작부터 터치 완료까지 움직임이 거의 없을 가능성이 크기 때문에, 전자 장치 (401)는, 터치 입력 (810)의 이동 길이가 지정된 길이를 초과하는 경우, 해당 제스처가 유효하지 않다고 판단할 수 있다.  예를 들어, 전자 장치 (401)는, 터치 입력 (810)의 이동 길이가 지정된 길이를 초과하는 경우, 필기 동작을 수행하는 상태로 판단할 수 있다.  전자 장치 (401)는, "탭" 또는 "클릭" 제스처에 대응하는 기능을 실행하지 않고, 터치 스크린에 터치 입력 (810)에 대응하는 필기 (예를 들어, "c" 글자)를 표시할 수 있다.
도 9는, 다양한 실시 예들에 따른 전자 장치가 홀드 제스처에 지정된 조건들을 확인하는 동작을 설명하기 위한 도면이다.
도 9를 참조하면, 다양한 실시 예들에 따라, 전자 장치 (401)는, 터치 입력 (910)을 확인하고, 터치 입력 (910)이 나타내는 제스처와 특정 제스처 (예를 들어, 롱프레스 (long press))를 발생시키는 제스처 발생 조건을 비교할 수 있다.  전자 장치 (401)는, 비교 결과에 기반하여 터치 입력 (910)이 나타내는 제스처가 롱프레스인 것을 확인할 수 있다.  전자 장치 (401)는, 터치 입력 (910)이 나타내는 제스처가 롱프레스인 것으로 확인되면, "롱프레스" 제스처에 지정된 시간 조건, 공간 조건, 및/또는 길이 조건을 확인할 수 있다.  예를 들어, 전자 장치 (401)는, 터치 입력 (910)이 "롱프레스" 제스처에 지정된 시간 조건, 공간 조건, 및 길이 조건을 모두 만족하는지 여부를 확인할 수 있다.
다양한 실시 예들에 따라, 전자 장치 (401)는, 터치 입력 (910)의 시작 (예를 들어, 터치 다운)을 시간 조건, 공간 조건, 및/또는 길이 조건의 기준점으로 설정할 수 있다.
다양한 실시 예들에 따라, 전자 장치 (401)는, 터치 입력 (910)의 완료 (예를 들어, 터치 업)가 기준점 (예를 들어, 터치 입력 (910)의 터치 다운 시점)으로부터 제 1 시간 (예를 들어, 1000ms)과 제 2 시간 (예를 들어, 2000ms) 사이의 시간 구간 (T1)에 확인되면, 터치 입력 (910)이 "롱프레스" 제스처에 대한 시간 조건을 만족한다고 판단할 수 있다.
다양한 실시 예들에 따라, 전자 장치 (401)는, 터치 입력 (910)이 지정된 영역 (A1) 내에서 수행되면, 터치 입력 (910)이 "롱프레스" 제스처에 대한 공간 조건을 만족한다고 판단할 수 있다.  예를 들어, 지정된 영역 (A1)은, 8dp의 지름을 가지는 원 형태의 영역일 수 있다.
다양한 실시 예들에 따라, 전자 장치 (401)는, 터치 입력 (910)의 이동 길이 (L1)가 지정된 길이 범위(예를 들어, 17dp) 이내이면, 터치 입력 (910)이 "롱프레스" 제스처에 대한 길이 조건을 만족한다고 판단할 수 있다.
다양한 실시 예들에 따라, 전자 장치 (401)는, 터치 입력 (910)이 "롱프레스" 제스처에 지정된 시간 조건, 공간 조건, 및 길이 조건을 모두 만족하면, 해당 제스처가 유효한 것이라고 판단할 수 있다.  이때, 전자 장치 (401)는, "롱프레스" 제스처에 설정된 기능을 실행할 수 있다.
다른 실시 예에 따라, 전자 장치 (401)는, 터치 입력의 완료 (예를 들어, 터치 업)가 기준점 (예를 들어, 터치 입력의 터치 다운 시점)으로부터 제 2 시간 (예를 들어, 2000ms) 이후의 시간 구간에 확인될 경우, 터치 입력이 "아주 긴 롱프레스" 제스처에 대한 시간 조건을 만족한다고 판단할 수도 있다.  예를 들어, "아주 긴 롱프레스" 제스처에 대한 공간 조건과 길이 조건은, "롱프레스" 제스처에 대한 공간 조건과 길이 조건과 동일할 수 있다.  예를 들어, 터치 입력 (910)이 "아주 긴 롱프레스" 제스처에 지정된 시간 조건, 공간 조건, 및 길이 조건을 모두 만족하면, 해당 제스처가 유효한 것이라고 판단할 수 있다.  이때, 전자 장치 (401)는, "아주 긴 롱프레스" 제스처에 설정된 기능을 실행할 수 있다.
도 10는, 다양한 실시 예들에 따른 전자 장치가 싱글 탭 제스처에 지정된 조건들을 확인하는 동작을 설명하기 위한 도면이다.
도 10을 참조하면, 다양한 실시 예들에 따라, 전자 장치 (401)는, 터치 입력 (1010)을 확인하고, 터치 입력 (1010)이 나타내는 제스처와 특정 제스처 (예를 들어, 탭 (tap) 또는 클릭 (click))를 발생시키는 제스처 발생 조건을 비교할 수 있다.  전자 장치 (401)는, 비교 결과에 기반하여 터치 입력 (1010)이 나타내는 제스처가 탭 (또는 클릭)인 것을 확인할 수 있다.  전자 장치 (401)는, 터치 입력 (1010)이 나타내는 제스처가 탭인 것으로 확인되면, "탭" 제스처에 지정된 시간 조건, 공간 조건, 및/또는 길이 조건을 확인할 수 있다.  예를 들어, 전자 장치 (401)는, 터치 입력 (1010)이 "탭" 제스처에 지정된 시간 조건, 공간 조건, 및 길이 조건을 모두 만족하는지 여부를 확인할 수 있다.
다양한 실시 예들에 따라, 전자 장치 (401)는, 터치 입력 (1010)의 시작 (예를 들어, 터치 다운)을 시간 조건, 공간 조건, 및/또는 길이 조건의 기준점으로 설정할 수 있다.
다양한 실시 예들에 따라, 전자 장치 (401)는, 터치 입력 (1010)의 완료 (예를 들어, 터치 업)가 기준점 (예를 들어, 터치 입력 (1110)의 터치 다운 시점)으로부터 제 1 시간 (예를 들어, 20ms)과 제 2 시간 (예를 들어, 150ms) 사이의 시간 구간 (T2)에 확인되면, 터치 입력 (1010)이 "탭" 제스처에 대한 시간 조건을 만족한다고 판단할 수 있다.
다양한 실시 예들에 따라, 전자 장치 (401)는, 터치 입력 (1010)이 지정된 영역 (A2) 내에 포함되면, 터치 입력 (1010)이 "탭" 제스처에 대한 공간 조건을 만족한다고 판단할 수 있다.  예를 들어, 지정된 영역 (A2)은, 8dp의 지름을 가지는 원 형태의 영역일 수 있다.
다양한 실시 예들에 따라, 전자 장치 (401)는, 터치 입력 (1010)의 이동 길이 (L2)가 지정된 길이 (예를 들어, 17dp) 이내이면, 터치 입력 (1010)이 "탭" 제스처에 대한 길이 조건을 만족한다고 판단할 수 있다.
다양한 실시 예들에 따라, 전자 장치 (401)는, 터치 입력 (1010)이 "탭" 제스처에 지정된 시간 조건, 공간 조건, 및 길이 조건을 모두 만족하면, 해당 제스처가 유효한 것이라고 판단할 수 있다.  이때, 전자 장치 (401)는, "탭" 제스처에 설정된 기능을 실행할 수 있다.
도 11은, 다양한 실시 예들에 따른 전자 장치가 멀티 탭 제스처에 지정된 조건들을 확인하는 동작을 설명하기 위한 도면이다.
도 11을 참조하면, 다양한 실시 예들에 따라, 전자 장치 (401)는, 제 1 터치 입력 (1111) 및 제 2 터치 입력 (1112)을 확인하고, 제 1 터치 입력 (1111) 및 제 2 터치 입력 (1112)이 나타내는 제스처와 특정 제스처 (예를 들어, 더블 탭 (double-tap) 또는 멀티 탭 (multi-tap))를 발생시키는 제스처 발생 조건을 비교할 수 있다.  전자 장치 (401)는, 비교 결과에 기반하여 제 1 터치 입력 (1111) 및 제 2 터치 입력 (1112)이 나타내는 제스처가 더블 탭 (또는 멀티 탭)인 것을 확인할 수 있다.  전자 장치 (401)는, 제 1 터치 입력 (1111) 및 제 2 터치 입력 (1112)이 나타내는 제스처가 더블 탭인 것으로 확인되면, "더블 탭" 제스처에 지정된 시간 조건, 공간 조건, 및/또는 길이 조건을 확인할 수 있다.  예를 들어, 전자 장치 (401)는, 제 1 터치 입력 (1111) 및 제 2 터치 입력 (1112)이 "더블 탭" 제스처에 지정된 시간 조건, 공간 조건, 및 길이 조건을 모두 만족하는지 여부를 확인할 수 있다.
다양한 실시 예들에 따라, 전자 장치 (401)는, 제 1 터치 입력 (1111)의 시작 (예를 들어, 제 1 터치 다운)을 제 1 터치 입력 (1111)의 시간 조건, 공간 조건, 및 길이 조건의 기준점으로 설정할 수 있다.  전자 장치 (401)는, 제 1 터치 입력 (1111)의 완료 (예를 들어, 제 1 터치 업)을 제 2 터치 입력 (1112)의 시간 조건의 기준점으로 설정할 수 있다.  전자 장치 (401)는, 제 1 터치 입력 (1111)의 시작 (예를 들어, 제 1 터치 다운)을 제 2 터치 입력 (1112)의 공간 조건의 기준점으로 설정할 수 있다.  또한, 전자 장치 (401)는, 제 2 터치 입력 (1111)의 시작 (예를 들어, 제 2 터치 다운)을 제 2 터치 입력 (1112)의 길이 조건의 기준점으로 설정할 수 있다.
다양한 실시 예들에 따라, 전자 장치 (401)는, 제 1 터치 입력 (1111)의 완료 (예를 들어, 제 1 터치 업)가 기준점으로부터 제 1 시간 (예를 들어, 20ms)과 제 2 시간 (예를 들어, 150ms) 사이의 시간 구간 (T3)에 확인되면, 제 1 터치 입력 (1111)이 "더블 탭" 제스처에 대한 시간 조건을 만족한다고 판단할 수 있다.  또한, 전자 장치 (401)는, 제 1 터치 입력 (1111)이 완료된 후 제 2 터치 입력 (1112)의 완료 (예를 들어, 제 2 터치 업)가 기준점으로부터 제 1 시간 (예를 들어, 20ms)과 제 2 시간 (예를 들어, 400ms) 사이의 시간 구간 (T32)에 확인되면, 제 2 터치 입력 (1112)이 "더블 탭" 제스처에 대한 시간 조건을 만족한다고 판단할 수 있다.
다양한 실시 예들에 따라, 전자 장치 (401)는, 제 1 터치 입력 (1111) 및 제 2 터치 입력 (1112)이 지정된 영역 (A3) 내에 포함되면, 제 1 터치 입력 (1111) 및 제 2 터치 입력 (1112)이 "더블 탭" 제스처에 대한 공간 조건을 만족한다고 판단할 수 있다.  예를 들어, 지정된 영역 (A3)은, 32dp의 지름을 가지는 원 형태의 영역일 수 있다.
다양한 실시 예들에 따라, 전자 장치 (401)는, 제 1 터치 입력 (1111) 및 제 2 터치 입력 (1112) 각각의 이동 길이 (L3)가 지정된 길이 (예를 들어, 10dp) 이내이면, 제 1 터치 입력 (1111) 및 제 2 터치 입력 (1112)이 "더블 탭" 제스처에 대한 길이 조건을 만족한다고 판단할 수 있다.
다양한 실시 예들에 따라, 전자 장치 (401)는, 제 1 터치 입력 (1111) 및 제 2 터치 입력 (1112)이 "더블 탭" 제스처에 지정된 시간 조건, 공간 조건, 및 길이 조건을 모두 만족하면, 해당 제스처가 유효한 것이라고 판단할 수 있다.  이때, 전자 장치 (401)는, "더블 탭" 제스처에 설정된 기능을 실행할 수 있다.
다양한 실시 예들에 따라, 전자 장치 (401)는, 3개 이상의 터치 입력들에 대한 "멀티 탭" 제스처에 대하여도, 3개 이상의 터치 입력들이 상술한 것과 동일 내지 유사한 방법에 기반하여 시간 조건, 공간 조건, 및/또는 길이 조건을 만족하는지 확인할 수 있다.
도 12는, 다양한 실시 예들에 따른 전자 장치가 이동 후 홀드 제스처에 지정된 조건들을 확인하는 동작을 설명하기 위한 도면이다.
도 12를 참조하면, 다양한 실시 예들에 따라, 전자 장치 (401)는, 터치 입력 (1210)을 확인하고, 터치 입력 (1210)이 나타내는 제스처와 특정 제스처 (예를 들어, 이동 후 대기 또는 이동 후 홀드)를 발생시키는 제스처 발생 조건을 비교할 수 있다.  전자 장치 (401)는, 비교 결과에 기반하여 터치 입력 (1210)이 나타내는 제스처가 이동 후 대기인 것을 확인할 수 있다.  전자 장치 (401)는, 터치 입력 (1210)이 나타내는 제스처가 이동 후 대기인 것으로 확인되면, "이동 후 대기" 제스처에 지정된 시간 조건, 공간 조건, 및/또는 길이 조건을 확인할 수 있다.  예를 들어, 전자 장치 (401)는, 터치 입력 (1210)이 "이동 후 대기" 제스처에 지정된 시간 조건, 길이 조건, 및 공간 조건을 모두 만족하는지 여부를 확인할 수 있다. 
다양한 실시 예들에 따라, 전자 장치 (401)는, 터치 입력 (1210)의 시작 (예를 들어, 터치 다운)을 시간 조건, 길이 조건, 및/또는 공간 조건의 기준점으로 설정할 수 있다.  터치 입력 (1210)의 터치 다운 시점을 기준점으로 설정한 이후 터치 입력 (1210)이 이동됨에 따라 지정된 영역 (A4)을 벗어나는 경우, 전자 장치 (401)는, 터치 입력 (1210)이 지정된 영역 (A4)을 벗어난 지점을 기준점으로 재설정할 수 있다. 
다양한 실시 예들에 따라, 전자 장치 (401)는, 터치 업 또는 터치 홀드)가 기준점 (예를 들어, 터치 입력 (1210)의 터치 다운 시점)을 기준으로 터치 입력 (1210)이 지정된 영역 (A4) 내에 포함되면, 터치 입력 (1210)이 "이동 후 대기" 제스처에 대한 공간 조건을 만족한다고 판단할 수 있다.  예를 들어, 지정된 영역 (A4)은, 16dp의 변을 가지는 정사각형 형태의 영역일 수 있다.  한편, 터치 입력 (1210)의 터치 다운 시점을 기준점으로 설정한 이후 터치 입력 (1210)이 이동됨에 따라 지정된 영역 (A4)을 벗어나는 경우, 전자 장치 (401)는, 터치 입력 (1210)이 지정된 영역 (A4)을 벗어난 지점을 기준점으로 재설정할 수 있다.  이때, 전자 장치 (401)는, 재설정된 기준점을 기준으로 새롭게 지정된 영역에 포함되는지 여부에 기초하여 터치 입력 (1210)이 공간 조건을 만족하는지 판단할 수 있다.
다양한 실시 예들에 따라, 전자 장치 (401)는, 터치 입력 (1210)의 완료 (예를 들어, 터치 업 또는 터치 홀드)가 기준점 (예를 들어, 터치 입력 (1210)의 터치 다운 시점)으로부터 제 1 시간 (예를 들어, 500ms)과 제 2 시간 (예를 들어, 1000ms) 사이의 시간 구간 (T4)에 확인되면, 터치 입력 (1010)이 "이동 후 대기" 제스처에 대한 시간 조건을 만족한다고 판단할 수 있다.  한편, 터치 입력 (1210)의 터치 다운 시점을 기준점으로 설정한 이후 터치 입력 (1210)이 이동됨에 따라 지정된 영역 (A4)을 벗어나는 경우, 전자 장치 (401)는, 터치 입력 (1210)이 지정된 영역 (A4)을 벗어난 지점을 기준점으로 재설정할 수 있다.  이때, 전자 장치 (401)는, 재설정된 기준점에 기반하여, 터치 입력 (1210)이 시간 조건을 만족하는지 판단할 수 있다.
다양한 실시 예들에 따라, 전자 장치 (401)는, 터치 입력 (1210)의 이동 길이 (L4)가 지정된 길이 (예를 들어, 17dp) 이내이면, 터치 입력 (1210)이 "이동 후 대기" 제스처에 대한 길이 조건을 만족한다고 판단할 수 있다.  한편, 터치 입력 (1210)의 터치 다운 시점을 기준점으로 설정한 이후 터치 입력 (1210)이 이동됨에 따라 지정된 영역 (A4)을 벗어나는 경우, 전자 장치 (401)는, 터치 입력 (1210)이 지정된 영역 (A4)을 벗어난 지점을 기준점으로 재설정할 수 있다.  이때, 전자 장치 (401)는, 재설정된 기준점에 기반하여, 터치 입력 (1210)이 길이 조건을 만족하는지 판단할 수 있다.
다양한 실시 예들에 따라, 전자 장치 (401)는, 터치 입력 (1010)이 "이동 후 대기" 제스처에 지정된 시간 조건, 길이 조건, 및 공간 조건을 모두 만족하면, 해당 제스처가 유효한 것이라고 판단할 수 있다.  이때, 전자 장치 (401)는, "이동 후 대기" 제스처에 설정된 기능을 실행할 수 있다.
다양한 실시 예들에 따라, 전자 장치 (401)는, "이동 후 대기" 제스처가 발생한 이후 홀드된 터치 입력 (1210)이 다시 이동된 경우, "이동 후 대기 취소" 제스처가 발생될 수 있다.  이때, 전자 장치 (401)는, "이동 후 대기 취소" 제스처에 설정된 기능을 실행할 수 있다.
도 13은, 다양한 실시 예들에 따른 전자 장치가 스크롤 제스처에 지정된 조건들을 확인하는 동작을 설명하기 위한 도면이다.
도 13을 참조하면, 다양한 실시 예들에 따라, 전자 장치 (401)는, 터치 입력 (1310)을 확인하고, 터치 입력 (1310)이 나타내는 제스처와 특정 제스처 (예를 들어, 스크롤 (scroll) 또는 플링 (fling))를 발생시키는 제스처 발생 조건을 비교할 수 있다.  전자 장치 (401)는, 비교 결과에 기반하여 터치 입력 (1310)이 나타내는 제스처가 스크롤 (또는 플링)인 것을 확인할 수 있다.  전자 장치 (401)는, 터치 입력 (1310)이 나타내는 제스처가 스크롤인 것으로 확인되면, "스크롤" 제스처에 지정된 시간 조건, 공간 조건, 및/또는 길이 조건을 확인할 수 있다.  또는, 전자 장치 (401)는, 터치 입력 (1310)이 나타내는 제스처가 플링 (예를 들어, 스크롤 제스처 발생 중 터치 업 시점에서 스크롤 속도가 일정 속도 이상인 경우 플링으로 인식)인 것으로 확인되면 "플링" 제스처에 지정된 시간 조건, 공간 조건, 및/또는 길이 조건을 확인할 수 있다.  예를 들어, 전자 장치 (401)는, 터치 입력 (1010)이 "스크롤 (또는 플링)" 제스처에 지정된 시간 조건, 공간 조건, 및 길이 조건을 모두 만족하는지 여부를 확인할 수 있다.
다양한 실시 예들에 따라, 전자 장치 (401)는, 터치 입력 (1310)의 시작 (예를 들어, 터치 다운)을 시간 조건, 공간 조건, 및/또는 길이 조건의 기준점으로 설정할 수 있다.
다양한 실시 예들에 따라, 전자 장치 (401)는, 터치 입력 (1310)의 완료 (예를 들어, 터치 업)가 기준점 (예를 들어, 터치 입력 (1310)의 터치 다운 시점)으로부터 제 1 시간 (예를 들어, 250ms) 이후에 확인되면, 터치 입력 (1310)이 "스크롤 (또는 플링)" 제스처에 대한 시간 조건을 만족한다고 판단할 수 있다.
다양한 실시 예들에 따라, 전자 장치 (401)는, 터치 입력 (1310)이 지정된 영역 (A5) 이외에 위치하면, 터치 입력 (1310)이 "스크롤 (또는 플링)" 제스처에 대한 공간 조건을 만족한다고 판단할 수 있다.  예를 들어, 지정된 영역 (A5)은, 8dp의 지름을 가지는 원 형태의 영역일 수 있다.
다양한 실시 예들에 따라, 전자 장치 (401)는, 터치 입력 (1310)의 이동 길이 (L5)가 지정된 길이 (예를 들어, 17dp) 이상이면, 터치 입력 (1310)이 "스크롤 (또는 플링)" 제스처에 대한 길이 조건을 만족한다고 판단할 수 있다.
다양한 실시 예들에 따라, 전자 장치 (401)는, 터치 입력 (1310)이 "스크롤 (또는 플링)" 제스처에 지정된 시간 조건, 공간 조건, 및 길이 조건을 모두 만족하면, 해당 제스처가 유효한 것이라고 판단할 수 있다.  이때, 전자 장치 (401)는, "스크롤 (또는 플링)" 제스처에 설정된 기능을 실행할 수 있다.
도 14는, 다양한 실시 예들에 따른 전자 장치가 핀치 줌 제스처에 지정된 조건들을 확인하는 동작을 설명하기 위한 도면이다.
도 14를 참조하면, 다양한 실시 예들에 따라, 전자 장치 (401)는, 제 1 터치 입력 (1411) 및 제 2 터치 입력 (1412)을 확인하고, 제 1 터치 입력 (1411) 및 제 2 터치 입력 (1412)이 나타내는 제스처와 특정 제스처 (예를 들어, 핀치 줌 (pinch-zoom))를 발생시키는 제스처 발생 조건을 비교할 수 있다.  전자 장치 (401)는, 비교 결과에 기반하여 제 1 터치 입력 (1411) 및 제 2 터치 입력 (1412)이 나타내는 제스처가 핀치 줌인 것을 확인할 수 있다.  전자 장치 (401)는, 제 1 터치 입력 (1411) 및 제 2 터치 입력 (1412)이 나타내는 제스처가 핀치 줌인 것으로 확인되면, "핀치 줌" 제스처에 지정된 시간 조건, 공간 조건, 및/또는 길이 조건을 확인할 수 있다.  예를 들어, 전자 장치 (401)는, 제 1 터치 입력 (1411) 및 제 2 터치 입력 (1412)이 "핀치 줌" 제스처에 지정된 시간 조건 및 길이 조건을 모두 만족하는지 여부를 확인할 수 있다.  예를 들어, 전자 장치 (401)는, "핀치 줌" 제스처에 대하여 공간 조건을 고려하지 않을 수 있다.
다양한 실시 예들에 따라, 전자 장치 (401)는, 제 1 터치 입력 (1411)의 시작 (예를 들어, 제 1 터치 다운)을 제 1 터치 입력 (1411)의 시간 조건 및/또는 길이 조건의 기준점으로 설정할 수 있다.  전자 장치 (401)는, 제 2 터치 입력 (1412)의 시작 (예를 들어, 제 2 터치 다운)을 제 2 터치 입력 (1412)의 시간 조건 및/또는 길이 조건의 기준점으로 설정할 수 있다.
다양한 실시 예들에 따라, 전자 장치 (401)는, 제 1 터치 입력 (1411)의 완료 (예를 들어, 제 1 터치 업)가 기준점 (예를 들어, 제 1 터치 입력 (1411)의 제 1 터치 다운 시점)으로부터 제 1 시간 (예를 들어, 250ms) 이후의 시간 구간 (T6)에 확인되면, 제 1 터치 입력 (1411)이 "핀치 줌" 제스처에 대한 시간 조건을 만족한다고 판단할 수 있다.  또한, 전자 장치 (401)는, 제 2 터치 입력 (1412)의 완료 (예를 들어, 제 2 터치 업)가 기준점 (예를 들어, 제 2 터치 입력 (1412)의 제 2 터치 다운 시점)으로부터 제 1 시간 (예를 들어, 250ms) 이후의 시간 구간 (T6)에 확인되면, 제 2 터치 입력 (1412)이 "핀치 줌" 제스처에 대한 시간 조건을 만족한다고 판단할 수 있다.
다양한 실시 예들에 따라, 전자 장치 (401)는, 제 1 터치 입력 (1411) 및 제 2 터치 입력 (1412) 사이의 거리가 제 1 터치 입력 (1411) 및 제 2 터치 입력 (1412)의 터치 다운 지점들 거리 (L6 또는 L7)를 기준으로 지정된 비율 범위 (예를 들어, L6 (또는 L7)*0.8 ~ L6 (또는 L7)*1.2의 범위)에 포함되지 않으면, 제 1 터치 입력 (1411) 및 제 2 터치 입력 (1412)이 "핀치 줌" 제스처에 대한 길이 조건을 만족한다고 판단할 수 있다.
다양한 실시 예들에 따라, 전자 장치 (401)는, 제 1 터치 입력 (1411) 및 제 2 터치 입력 (1412)이 "핀치 줌" 제스처에 지정된 시간 조건 및 길이 조건을 모두 만족하면, 해당 제스처가 유효한 것이라고 판단할 수 있다.  이때, 전자 장치 (401)는, "핀치 줌" 제스처에 설정된 기능을 실행할 수 있다.
도 15는, 다양한 실시 예들에 따른 전자 장치가 회전 제스처에 지정된 조건들을 확인하는 동작을 설명하기 위한 도면이다.
도 15를 참조하면, 다양한 실시 예들에 따라, 전자 장치 (401)는, 제 1 터치 입력 (1511) 및 제 2 터치 입력 (1512)을 확인하고, 제 1 터치 입력 (1511) 및 제 2 터치 입력 (1512)이 나타내는 제스처와 특정 제스처 (예를 들어, 회전 (rotate))를 발생시키는 제스처 발생 조건을 비교할 수 있다.  전자 장치 (401)는, 비교 결과에 기반하여 제 1 터치 입력 (1511) 및 제 2 터치 입력 (1512)이 나타내는 제스처가 회전인 것을 확인할 수 있다.  전자 장치 (401)는, 제 1 터치 입력 (1511) 및 제 2 터치 입력 (1512)이 나타내는 제스처가 회전인 것으로 확인되면, "회전" 제스처에 지정된 시간 조건, 공간 조건, 및/또는 길이 조건을 확인할 수 있다.  예를 들어, 전자 장치 (401)는, 제 1 터치 입력 (1511) 및 제 2 터치 입력 (1512)이 "회전" 제스처에 지정된 시간 조건 및 길이 조건을 모두 만족하는지 여부를 확인할 수 있다.  예를 들어, 전자 장치 (401)는, "회전" 제스처에 대하여 공간 조건을 고려하지 않을 수 있다.
다양한 실시 예들에 따라, 전자 장치 (401)는, 제 1 터치 입력 (1511)의 시작 (예를 들어, 제 1 터치 다운)을 제 1 터치 입력 (1511)의 시간 조건 및/또는 길이 조건의 기준점으로 설정할 수 있다.  전자 장치 (401)는, 제 2 터치 입력 (1512)의 시작 (예를 들어, 제 2 터치 다운)을 제 2 터치 입력 (1512)의 시간 조건 및 길이 조건의 기준점으로 설정할 수 있다.
다양한 실시 예들에 따라, 전자 장치 (401)는, 제 1 터치 입력 (1511)의 완료 (예를 들어, 제 1 터치 업)가 기준점 (예를 들어, 제 1 터치 입력 (1511)의 제 1 터치 다운 시점)으로부터 제 1 시간 (예를 들어, 250ms) 이후의 시간 구간 (T7)에 확인되면, 제 1 터치 입력 (1511)이 "회전" 제스처에 대한 시간 조건을 만족한다고 판단할 수 있다.  또한, 전자 장치 (401)는, 제 2 터치 입력 (1512)의 완료 (예를 들어, 제 2 터치 업)가 기준점 (예를 들어, 제 2 터치 입력 (1512)의 제 2 터치 다운 시점)으로부터 제 1 시간 (예를 들어, 250ms) 이후의 시간 구간 (T7)에 확인되면, 제 2 터치 입력 (1512)이 "회전" 제스처에 대한 시간 조건을 만족한다고 판단할 수 있다.
다양한 실시 예들에 따라, 전자 장치 (401)는, 제 1 터치 입력 (1511) 및 제 2 터치 입력 (1512) 사이의 거리가 지정된 길이 (예를 들어, 32dp) 이상이면, 제 1 터치 입력 (1511) 및 제 2 터치 입력 (1512)이 "회전" 제스처에 대한 길이 조건을 만족한다고 판단할 수 있다.
다양한 실시 예들에 따라, 전자 장치 (401)는, 제 1 터치 입력 (1511) 및 제 2 터치 입력 (1512)이 "회전" 제스처에 지정된 시간 조건 및 길이 조건을 모두 만족하면, 해당 제스처가 유효한 것이라고 판단할 수 있다.  이때, 전자 장치 (401)는, "회전" 제스처에 설정된 기능을 실행할 수 있다.
한편, 도 9부터 도 15에서 설명한 제스처의 종류와 상기 제스처들에 대한 시간 조건, 공간 조건, 및 길이 조건에 대한 값들은 설명의 편의를 위한 예시적인 것일 수 있다.  본 발명의 기술적 사상은 이에 한정되지 않을 수 있다.
도 16은, 다양한 실시 예들에 따른 전자 장치가 필기 동작 중 제스처 기능의 오인식을 방지하기 위한 동작을 설명하기 위한 플로우 차트이다.
다양한 실시 예들에 따라, 동작 1601에서, 전자 장치 (401)는, 필기 동작을 수행하는 중인지 여부를 확인할 수 있다.  예를 들어, 전자 장치 (401)는, 터치 입력이 특정 제스처를 나타내지 않거나, 터치 입력이 나타내는 제스처가 유효하지 않다고 판단되면, 필기 동작을 수행하는 중이라고 판단할 수 있다.
다양한 실시 예들에 따라, 필기 동작을 수행하는 상태인 경우 (동작 1603의 예), 동작 1605에서, 전자 장치 (401)는 필기 동작 중 스크롤 (또는 플링)이나 핀치 줌에 대응하는 기능을 실행하지 않을 수 있다.  이를 통해, 전자 장치 (401)는, 사용자가 필기 동작을 수행하는 상태에서 발생되는 팜 터치로 인한 스크롤 제스처 또는 핀치 줌 제스처의 오인식을 방지할 수 있다.
다양한 실시 예들에 따라, 필기 동작을 수행하는 상태가 아닌 경우 (동작 1603의 아니오), 동작 1607에서, 전자 장치 (401)는 제스처에 대응하는 기능을 실행할 수 있다.  예를 들어, 전자 장치 (401)는, 스크롤이나 핀치 줌에 대응하는 기능을 실행할 수 있다.
도 17은, 다양한 실시 예들에 따른 전자 장치가 핀치-줌 기능의 실행 시 플링 기능의 오인식을 방지하는 동작을 설명하기 위한 플로우 차트이다. 
다양한 실시 예들에 따라, 동작 1701에서, 전자 장치 (401)는, 핀치-줌 기능을 실행할 수 있다.  예를 들어, 전자 장치 (401)는, 터치 입력이 나타내는 핀치-줌 제스처가 유효하다고 판단되면, 핀치-줌 제스처에 대응하는 기능 (예를 들어, 핀치 줌 기능)을 실행할 수 있다.
다양한 실시 예들에 따라, 동작 1703에서, 전자 장치 (401)는, 핀치-줌 기능이 실행 종료된 이후 지정된 시간 동안 플링 기능을 실행하지 않을 수 있다.  예를 들어, 지정된 시간은, 프로세서 (420)에 의해 설정될 수 있으며, 200ms 일 수 있다.  이를 통해, 전자 장치 (401)는, 이를 통해, 전자 장치 (401)는, 핀치-줌 제스처로 인해 발생될 수 있는 플링 제스처의 오인식을 방지할 수 있다.
다양한 실시 예들에 따른, 전자 장치 (101 또는 401)는, 터치 스크린 (460) 및 프로세서 (420)를 포함하고, 상기 프로세서는, 상기 터치 스크린을 통해, 상기 스타일러스 펜 (201)을 의해 발생되는 터치 입력을 확인하고, 상기 터치 입력이 나타내는 제1 제스처가 기설정된 복수의 제스처들 중 특정 제스처를 발생시키는 제스처 발생 조건인 제1 조건을 만족하는지 여부를 확인하고, 상기 제1제스처가 상기 제1조건을 만족하는 것에 기반하여, 상기 터치 입력의 터치 시작 지점 또는 이전 터치 입력의 종료 지점을 기준점으로 상기 제1제스처가 시간 조건, 길이 조건, 및 공간 조건 중 적어도 하나를 포함하는 제2조건을 만족하는지 여부를 확인하고, 상기 제1 제스처가 상기 제2조건을 만족하는 것에 기반하여, 상기 특정 제스처에 대응하는 기능을 실행하도록 설정될 수 있다.
상기 제2조건은, 상기 복수의 제스처들 각각의 종류에 기반하여 서로 상이하게 지정될 수 있다.
상기 프로세서는, 상기 제1 제스처가 상기 제1 조건을 만족하고, 상기 제2조건을 만족하지 못하면, 상기 특정 제스처에 대응하는 기능을 실행하지 않도록 설정될 수 있다.
상기 프로세서는, 상기 터치 입력에 대응하는 필기를 상기 터치 스크린에 표시하도록 설정될 수 있다.
상기 프로세서는, 상기 기준점을 기준으로 상기 터치 입력의 종료가 제 1 시간과 상기 제 1 시간보다 큰 제 2 시간 사이의 시간 구간에서 확인되면, 상기 제1 제스처가 상기 시간 조건을 만족하는 것으로 확인하도록 설정될 수 있다.
상기 프로세서는, 상기 기준점을 기준으로, 상기 터치 입력의 이동 거리가 제 1 길이와 상기 제 1 길이보다 긴 제 2 길이 사이의 길이 구간으로 확인되면, 상기 제1 제스처가 상기 길이 조건을 만족하는 것으로 확인하도록 설정될 수 있다.
상기 프로세서는, 상기 터치 입력이 서로 다른 지점에 터치된 복수의 터치 입력들을 포함하는 경우, 상기 복수의 터치 입력들 사이의 거리가 상기 복수의 터치 입력들의 시작 지점들 사이의 거리를 기준으로 지정된 비율 범위에 포함되지 않으면, 상기 제1 제스처가 상기 길이 조건을 만족하는 것으로 확인하도록 설정될 수 있다.
상기 프로세서는, 상기 터치 입력이 서로 다른 지점에 터치된 복수의 터치 입력들을 포함하는 경우, 상기 복수의 터치 입력들 사이의 거리가 지정된 거리보다 크면 상기 제1 제스처가 상기 길이 조건을 만족하는 것으로 확인하도록 설정될 수 있다.
상기 프로세서는, 상기 기준점을 기준으로, 상기 터치 입력이 지정된 길이의 지름을 가지는 원 공간 내부 또는 지정된 길이의 변을 가지는 정사각형 공간 내부에서 확인되면, 상기 제1 제스처가 상기 공간 조건을 만족하는 것으로 확인하도록 설정될 수 있다.
상기 프로세서는, 상기 기준점을 기준으로, 상기 터치 입력이 지정된 길이의 지름을 가지는 원 공간 외부에서 확인되면, 상기 제1 제스처가 상기 공간 조건을 만족하는 것으로 확인하도록 설정될 수 있다.
다양한 실시 예들에 따른, 전자 장치 (101 또는 401)의 동작 방법은, 상기 전자 장치에 포함된 터치 스크린 (460)을 통해, 상기 스타일러스 펜 (201)을 의해 발생되는 터치 입력을 확인하는 동작, 상기 터치 입력이 나타내는 제1제스처가 복수의 제스처들 중 특정 제스처를 발생시키는 제스처 발생 조건인 제1조건을 만족하는지 여부를 확인하는 동작, 상기 제1제스처가 상기 제1조건을 만족하는 것에 기반하여, 상기 터치 입력의 터치 시작 지점 또는 이전 터치 입력의 종료 지점을 기준점으로 상기 제1 제스처가 시간 조건, 길이 조건, 및 공간 조건 중 적어도 하나를 포함하는 제2 조건을 만족하는지 여부를 확인하는 동작, 및 상기 제1제스처가 상기 제2조건을 만족하는 것에 기반하여, 상기 특정 제스처에 대응하는 기능을 실행하는 동작을 포함할 수 있다.
상기 제2조건은, 상기 복수의 제스처들 각각의 종류에 기반하여 서로 상이하게 지정될 수 있다.
상기 전자 장치의 동작 방법은, 상기 제1 제스처가 상기 제1 조건을 만족하고, 상기 제2조건을 만족하지 못하면, 상기 특정 제스처에 대응하는 기능을 실행하지 않고, 상기 터치 입력에 대응하는 필기를 상기 터치 스크린에 표시하는 동작을 더 포함할 수 있다.
상기 특정 제스처에 대응하는 기능을 실행하는 동작은, 상기 기준점을 기준으로 상기 터치 입력의 종료가 제 1 시간과 상기 제 1 시간보다 큰 제 2 시간 사이의 시간 구간에서 확인되면, 상기 제1제스처가 상기 시간 조건을 만족하는 것으로 확인하는 동작을 포함할 수 있다.
상기 특정 제스처에 대응하는 기능을 실행하는 동작은, 상기 기준점을 기준으로, 상기 터치 입력의 이동 거리가 제 1 길이와 상기 제 1 길이보다 긴 제 2 길이 사이의 길이 구간으로 확인되면, 상기 제1제스처가 상기 길이 조건을 만족하는 것으로 확인하는 동작을 포함할 수 있다.
상기 특정 제스처에 대응하는 기능을 실행하는 동작은, 상기 터치 입력이 서로 다른 지점에 터치된 복수의 터치 입력들을 포함하는 경우, 상기 복수의 터치 입력들 사이의 거리가 상기 복수의 터치 입력들의 시작 지점들 사이의 거리를 기준으로 지정된 비율 범위에 포함되지 않으면, 상기 제1제스처가 상기 길이 조건을 만족하는 것으로 확인하는 동작을 포함할 수 있다.
상기 특정 제스처에 대응하는 기능을 실행하는 동작은, 상기 터치 입력이 서로 다른 지점에 터치된 복수의 터치 입력들을 포함하는 경우, 상기 복수의 터치 입력들 사이의 거리가 지정된 거리보다 크면 상기 제1제스처가 상기 길이 조건을 만족하는 것으로 확인하는 동작을 포함할 수 있다.
상기 특정 제스처에 대응하는 기능을 실행하는 동작은, 상기 기준점을 기준으로, 상기 터치 입력이 지정된 길이의 지름을 가지는 원 공간 내부 또는 지정된 길이의 변을 가지는 정사각형 공간 내부에서 확인되면, 상기 제1제스처가 상기 공간 조건을 만족하는 것으로 확인하는 동작을 포함할 수 있다.
상기 특정 제스처에 대응하는 기능을 실행하는 동작은, 상기 기준점을 기준으로, 상기 터치 입력이 지정된 길이의 지름을 가지는 원 공간 외부에서 확인되면, 상기 제1제스처가 상기 공간 조건을 만족하는 것으로 확인하는 동작을 포함할 수 있다.
다양한 실시 예들에 따른, 비일시적인 기록 매체는, 전자 장치 (101 또는 401)에 포함된 터치 스크린 (460)을 통해, 상기 스타일러스 펜 (201)을 의해 발생되는 터치 입력을 확인하는 동작, 상기 터치 입력이 나타내는 제1제스처가 복수의 제스처들 중 특정 제스처를 발생시키는 제스처 발생 조건인 제1 조건을 만족하는지 여부를 확인하는 동작, 상기 제1제스처가 상기 제1 조건을 만족하는 것에 기반하여, 상기 터치 입력의 터치 시작 지점 또는 이전 터치 입력의 종료 지점을 기준점으로 상기 제1 제스처가 시간 조건, 길이 조건, 및 공간 조건 중 적어도 하나를 포함하는 제2조건을 만족하는지 여부를 확인하는 동작 및 상기 제1제스처가 상기 제2조건을 만족하는 것에 기반하여, 상기 특정 제스처에 대응하는 기능을 실행하는 동작을 수행하는 프로그램을 저장할 수 있다.

Claims (15)

  1. 전자 장치에 있어서,
    터치 스크린; 및
    프로세서를 포함하고, 상기 프로세서는,
    상기 터치 스크린을 통해, 스타일러스 펜을 의해 발생되는 터치 입력을 확인하고,
    상기 터치 입력이 특정 제스처를 발생시키는 제1 조건을 만족하는지 여부를 확인하고,
    상기 터치 입력이 상기 제1 조건을 만족하는 것에 기반하여, 상기 터치 입력의 터치 시작 지점 또는 이전 터치 입력의 종료 지점을 기준점으로 상기 터치 입력이 시간 조건, 길이 조건, 및 공간 조건 중 적어도 하나를 포함하는 제2 조건을 만족하는지 여부를 확인하고,
    상기 터치 입력이 상기 제2 조건을 만족하는 것에 기반하여, 상기 특정 제스처에 대응하는 기능을 실행하도록 설정된 전자 장치.
  2. 제 1항에 있어서,
    상기 제2조건은, 복수의 제스처들 중 상기 특정 제스처 종류에 따라 서로 상이하게 지정되는 전자 장치.
  3. 제 1항에 있어서,
    상기 프로세서는, 상기 터치입력이 상기 제1 조건을 만족하고, 상기 제2조건을 만족하지 못하면, 상기 특정 제스처에 대응하는 기능을 실행하지 않도록 설정된 전자 장치.
  4. 제 3항에 있어서,
    상기 프로세서는, 상기 터치 입력에 대응하는 필기를 상기 터치 스크린에 표시하도록 설정된 전자 장치.
  5. 제 1항에 있어서,
    상기 프로세서는, 상기 기준점을 기준으로 상기 터치 입력의 종료가 제 1 시간과 상기 제 1 시간보다 큰 제 2 시간 사이의 시간 구간에서 확인되면, 상기 터치 입력이 상기 시간 조건을 만족하는 것으로 확인하도록 설정된 전자 장치.
  6. 제 1항에 있어서,
    상기 프로세서는, 상기 기준점을 기준으로, 상기 터치 입력의 이동 거리가 제 1 길이와 상기 제 1 길이보다 긴 제 2 길이 사이의 길이 구간으로 확인되면, 상기 터치 입력이 상기 길이 조건을 만족하는 것으로 확인하도록 설정된 전자 장치.
  7. 제 1항에 있어서,
    상기 프로세서는, 상기 터치 입력이 서로 다른 지점에 터치된 복수의 터치 입력들을 포함하는 경우, 상기 복수의 터치 입력들 사이의 거리가 상기 복수의 터치 입력들의 시작 지점들 사이의 거리를 기준으로 지정된 비율 범위에 포함되지 않으면, 상기 터치 입력이 상기 길이 조건을 만족하는 것으로 확인하도록 설정된 전자 장치. 
  8. 제 1항에 있어서,
    상기 프로세서는, 상기 터치 입력이 서로 다른 지점에 터치된 복수의 터치 입력들을 포함하는 경우, 상기 복수의 터치 입력들 사이의 거리가 지정된 거리보다 크면 상기 터치 입력이 상기 길이 조건을 만족하는 것으로 확인하도록 설정된 전자 장치. 
  9. 제 1항에 있어서,
    상기 프로세서는, 상기 기준점을 기준으로, 상기 터치 입력이 지정된 길이의 지름을 가지는 원 공간 내부 또는 지정된 길이의 변을 가지는 정사각형 공간 내부에서 확인되면, 상기 터치 입력이 상기 공간 조건을 만족하는 것으로 확인하도록 설정된 전자 장치.
  10. 제 1항에 있어서,
    상기 프로세서는, 상기 기준점을 기준으로, 상기 터치 입력이 지정된 길이의 지름을 가지는 원 공간 외부에서 확인되면, 상기 터치 입력이 상기 공간 조건을 만족하는 것으로 확인하도록 설정된 전자 장치.
  11. 전자 장치의 동작 방법에 있어서,
    상기 전자 장치에 포함된 터치 스크린을 통해, 스타일러스 펜을 의해 발생되는 터치 입력을 확인하는 동작;
    상기 터치 입력이 나타내는 제1제스처가 복수의 제스처들 중 특정 제스처를 발생시키는 제스처 발생 조건인 제1 조건을 만족하는지 여부를 확인하는 동작;
    상기 제1제스처가 상기 제1조건을 만족하는 것에 기반하여, 상기 터치 입력의 터치 시작 지점 또는 이전 터치 입력의 종료 지점을 기준점으로 상기 제1 제스처가 시간 조건, 길이 조건, 및 공간 조건 중 적어도 하나를 포함하는 제2 조건을 만족하는지 여부를 확인하는 동작; 및
    상기 제1제스처가 상기 제2조건을 만족하는 것에 기반하여, 상기 특정 제스처에 대응하는 기능을 실행하는 동작을 포함하는 전자 장치의 동작 방법.
  12. 제 11항에 있어서,
    상기 제2조건은, 상기 복수의 제스처들 각각의 종류에 기반하여 서로 상이하게 지정되는 전자 장치의 동작 방법.
  13. 제 11항에 있어서,
    상기 터치 입력이 상기 제1 조건을 만족하고, 상기 제2조건을 만족하지 못하면, 상기 특정 제스처에 대응하는 기능을 실행하지 않고, 상기 터치 입력에 대응하는 필기를 상기 터치 스크린에 표시하는 동작을 더 포함하는 전자 장치의 동작 방법.
  14. 제 11항에 있어서,
    상기 특정 제스처에 대응하는 기능을 실행하는 동작은, 상기 기준점을 기준으로 상기 터치 입력의 종료가 제 1 시간과 상기 제 1 시간보다 큰 제 2 시간 사이의 시간 구간에서 확인되면, 상기 상기 터치 입력이 상기 시간 조건을 만족하는 것으로 확인하는 동작을 포함하는 전자 장치의 동작 방법.
  15. 비일시적 기록 매체에 있어서,
    전자 장치에 포함된 터치 스크린을 통해, 스타일러스 펜을 의해 발생되는 터치 입력을 확인하는 동작;
    상기 터치 입력이 나타내는 제1제스처가 복수의 제스처들 중 특정 제스처를 발생시키는 제스처 발생 조건인 제1 조건을 만족하는지 여부를 확인하는 동작;
    상기 제1제스처가 상기 제1 조건을 만족하는 것에 기반하여, 상기 터치 입력의 터치 시작 지점 또는 이전 터치 입력의 종료 지점을 기준점으로 상기 제1 제스처가 시간 조건, 길이 조건, 및 공간 조건 중 적어도 하나를 포함하는 제2조건을 만족하는지 여부를 확인하는 동작; 및
    상기 제1제스처가 상기 제2조건을 만족하는 것에 기반하여, 상기 특정 제스처에 대응하는 기능을 실행하는 동작을 수행하는 프로그램을 저장한 기록 매체.
PCT/KR2022/010919 2021-08-09 2022-07-25 스타일러스 펜의 입력을 처리하는 전자 장치와 이의 동작 방법 WO2023018064A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US17/884,218 US11922008B2 (en) 2021-08-09 2022-08-09 Electronic device processing input of stylus pen and method for operating the same

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2021-0104923 2021-08-09
KR1020210104923A KR20230022766A (ko) 2021-08-09 2021-08-09 스타일러스 펜의 입력을 처리하는 전자 장치와 이의 동작 방법

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/884,218 Continuation US11922008B2 (en) 2021-08-09 2022-08-09 Electronic device processing input of stylus pen and method for operating the same

Publications (1)

Publication Number Publication Date
WO2023018064A1 true WO2023018064A1 (ko) 2023-02-16

Family

ID=85200297

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2022/010919 WO2023018064A1 (ko) 2021-08-09 2022-07-25 스타일러스 펜의 입력을 처리하는 전자 장치와 이의 동작 방법

Country Status (2)

Country Link
KR (1) KR20230022766A (ko)
WO (1) WO2023018064A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050179648A1 (en) * 2004-02-18 2005-08-18 Microsoft Corporation Tapping to create writing
KR20120040970A (ko) * 2010-10-20 2012-04-30 삼성전자주식회사 디스플레이에서 제스쳐를 인식하는 방법 및 그 장치
KR20160024505A (ko) * 2014-08-26 2016-03-07 삼성전자주식회사 전자 장치 및 이의 입력 방법
KR20180030603A (ko) * 2015-08-10 2018-03-23 애플 인크. 세기에 기초하여 터치 입력을 프로세싱하기 위한 디바이스 및 방법
US20200210059A1 (en) * 2016-04-28 2020-07-02 Beijing Kingsoft Office Software, Inc. Touch Screen Track Recognition Method And Apparatus

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050179648A1 (en) * 2004-02-18 2005-08-18 Microsoft Corporation Tapping to create writing
KR20120040970A (ko) * 2010-10-20 2012-04-30 삼성전자주식회사 디스플레이에서 제스쳐를 인식하는 방법 및 그 장치
KR20160024505A (ko) * 2014-08-26 2016-03-07 삼성전자주식회사 전자 장치 및 이의 입력 방법
KR20180030603A (ko) * 2015-08-10 2018-03-23 애플 인크. 세기에 기초하여 터치 입력을 프로세싱하기 위한 디바이스 및 방법
US20200210059A1 (en) * 2016-04-28 2020-07-02 Beijing Kingsoft Office Software, Inc. Touch Screen Track Recognition Method And Apparatus

Also Published As

Publication number Publication date
KR20230022766A (ko) 2023-02-16

Similar Documents

Publication Publication Date Title
WO2022030965A1 (ko) 전자 장치
WO2020159308A1 (en) Electronic device and method for mapping function to button input
WO2022131549A1 (ko) 전자 장치 및 전자 장치의 동작 방법
WO2021025329A1 (en) Electronic device including display and sensor
WO2022164200A1 (ko) 전자 장치 및 전자 장치에서 스트로크 분석 기반 도형 인식 방법
WO2022031048A1 (ko) 전자 장치 및 이의 전자 펜 포인터를 표시하는 방법
WO2023018064A1 (ko) 스타일러스 펜의 입력을 처리하는 전자 장치와 이의 동작 방법
WO2022154423A1 (ko) 전자 장치 및 전자 장치에서 스타일러스 펜의 입력을 처리하는 방법
WO2022197076A1 (ko) 전자 장치 및 오타 보정 방법
WO2021025493A1 (ko) 스타일러스 펜 및 스타일러스 펜을 인식하는 전자 장치 및 그 동작 방법
WO2023146142A1 (ko) 전자 장치 및 전자 펜 알림 및 연결 방법
WO2022086071A1 (ko) 전자 펜 장치의 동작을 제어하기 위한 전자 장치, 전자 장치에서의 동작 방법 및 비 일시적 저장 매체
WO2023018173A1 (ko) 전자 장치 및 전자 펜 동작 방법
WO2023096188A1 (ko) 변형 가능한 디스플레이를 포함하는 전자 장치 및 이의 동작 방법
WO2023018178A1 (ko) 전자 장치 및 그 전자 펜의 입력 제어 방법
WO2023054873A1 (ko) 햅틱 엑츄에이터를 포함하는 전자 장치 및 그 제어 방법
WO2022050772A1 (ko) 프리뷰 드로잉 방법 및 이를 위한 전자 장치
WO2022114834A1 (ko) 전자 장치 및 전자 장치에서 스타일러스 펜의 에어 포인터를 제어하기 위한 방법
WO2022108003A1 (ko) 플렉서블 디스플레이를 포함하는 전자 장치와 이의 동작 방법
WO2023106830A1 (ko) 한 손 조작 모드를 지원하는 전자 장치 및 전자 장치의 동작 방법
WO2022071686A1 (ko) 유저 인터페이스를 표시하는 방법 및 이를 지원하는 전자 장치
WO2022231112A1 (ko) 필기 입력을 처리하는 전자 장치 및 이의 동작 방법
WO2023163380A1 (ko) 전자 장치 및 펜 입력 장치와 전자 장치에서 복수의 펜 입력 장치 이용 방법
WO2023106640A1 (ko) 전자 장치 및 상기 전자 장치에서 제스처의 오인식을 방지하는 방법
WO2024014686A1 (ko) 외부 객체의 접촉을 처리하는 터치 회로를 포함하는 디스플레이를 포함하는 전자 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22856063

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE