WO2022050604A1 - Electronic device and method for processing in-air gesture in electronic device - Google Patents

Electronic device and method for processing in-air gesture in electronic device Download PDF

Info

Publication number
WO2022050604A1
WO2022050604A1 PCT/KR2021/011026 KR2021011026W WO2022050604A1 WO 2022050604 A1 WO2022050604 A1 WO 2022050604A1 KR 2021011026 W KR2021011026 W KR 2021011026W WO 2022050604 A1 WO2022050604 A1 WO 2022050604A1
Authority
WO
WIPO (PCT)
Prior art keywords
gesture
electronic device
input
digital pen
air
Prior art date
Application number
PCT/KR2021/011026
Other languages
French (fr)
Korean (ko)
Inventor
데그티야렌코일리야
아자로프헨나디
클레쉬취키릴
이바노프올렉산드르
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Publication of WO2022050604A1 publication Critical patent/WO2022050604A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0384Wireless input, i.e. hardware and software details of wireless interface arrangements for pointing devices

Definitions

  • Various embodiments of the present document relate to an electronic device and a method for recognizing and processing an in-air gesture in the electronic device.
  • a user-friendly data input interface is required for various electronic devices (eg, augmented reality (AR) devices, virtual reality (VR) devices, or smart TVs).
  • electronic devices eg, augmented reality (AR) devices, virtual reality (VR) devices, or smart TVs.
  • AR augmented reality
  • VR virtual reality
  • smart TVs To input data to these devices, a voice recognition-based or gesture-based input method may be used.
  • a method using an input form such as handwriting is one of the most natural methods for interaction between a human and a machine.
  • the gesture recognition technology may be based on a video tracking technology.
  • all handwriting data and control gestures can be recorded as one stroke without a special mechanism, and in the case of free-form input to content (eg, control gestures, text, figures, sketches, etc.), the handwriting data and gestures It can be very complicated to separate the s into different gestures or strokes.
  • An electronic device and a method of processing an in-air gesture in an electronic device include detecting pen up/down in an in-air gesture input from the air based on a sensor, classifying the type of gesture, and performing the gesture input. can be processed
  • an electronic device may include a communication module; at least one processor; display module; and a memory; wherein, when executed, the processor receives in-air gesture and button selection information from a digital pen connected through the communication module, and the received in-air Stores instructions for determining a gesture type based on gesture and button selection information, recognizing the in-air gesture according to the determined gesture type, and controlling the display module to output the recognized in-air gesture.
  • a method of processing an in-air gesture in an electronic device includes: receiving in-air gesture and button selection information from a digital pen connected through a communication module of the electronic device; determining a gesture type based on the received in-air gesture and button selection information; recognizing the in-air gesture according to the determined gesture type; and outputting the recognized in-air gesture.
  • An electronic device and a method of processing an in-air gesture in the electronic device classify and process the user's in-air gesture according to types, so that the user can intuitively control the electronic device .
  • FIG. 1 is a block diagram of an electronic device in a network environment according to various embodiments of the present disclosure
  • 2A is a diagram illustrating an example of a situation in which an in-air gesture is input to an electronic device, according to various embodiments of the present disclosure
  • 2B is a diagram illustrating an example of a situation in which an in-air gesture is input to an electronic device, according to various embodiments of the present disclosure
  • 2C is a diagram illustrating an example of a situation in which an in-air gesture is input to an electronic device, according to various embodiments of the present disclosure
  • 2D is a diagram illustrating an example of a situation in which an in-air gesture is input to an electronic device, according to various embodiments of the present disclosure
  • 2E is a diagram illustrating an example of a situation in which an in-air gesture is input to an electronic device, according to various embodiments of the present disclosure
  • 3A is a block diagram illustrating an example of a configuration of an electronic device and a digital pen according to various embodiments of the present disclosure
  • 3B is a diagram illustrating various examples of input and output of an in-air gesture according to various embodiments of the present disclosure.
  • FIG. 4 is a flowchart illustrating an example of an operation of classifying types of in-air gestures according to various embodiments of the present disclosure.
  • FIG. 5 is a diagram illustrating an example of an operation of filtering a pen up/down in a user's in-air gesture, according to various embodiments of the present disclosure
  • FIG. 6 is a flowchart illustrating an example of an operation of outputting a filtered gesture as text, according to various embodiments of the present disclosure.
  • FIG. 7 is a diagram illustrating an example of an operation of processing an in-air gesture in a text form in an electronic device, according to various embodiments of the present disclosure
  • FIG. 8 is a diagram illustrating an example of an operation of processing an in-air gesture in the form of a figure in an electronic device, according to various embodiments of the present disclosure
  • FIG. 9 is a diagram illustrating an example of an operation of selecting a display object using an in-air gesture in an electronic device, according to various embodiments of the present disclosure.
  • FIG. 10 is a diagram illustrating an example of an operation of controlling a display object using an in-air gesture in an electronic device, according to various embodiments of the present disclosure
  • FIG. 11 is a diagram illustrating an example of an operation of performing 3D modeling using an in-air gesture in an electronic device, according to various embodiments of the present disclosure
  • FIG. 12 is a diagram illustrating an example of an operation of controlling a smart TV using an in-air gesture, according to various embodiments of the present disclosure.
  • FIG. 13 is a diagram illustrating an example of an operation of processing a user's in-air gesture according to a type in an electronic device, according to various embodiments of the present disclosure
  • FIG. 14 is a flowchart illustrating an example of an operation of processing an in-air gesture in an electronic device, according to various embodiments of the present disclosure.
  • 15 is a flowchart illustrating an example of an operation of processing an in-air gesture between an electronic device and a digital pen, according to various embodiments of the present disclosure
  • an (eg, first) component When an (eg, first) component is referred to as being “(functionally or communicatively) connected” or “connected” to another (eg, second) component, that component is It may be directly connected to the component or may be connected through another component (eg, a third component).
  • a device configured to means “suitable for,” “having the ability to,” “modified to,” depending on the context, for example, hardware or software. ,” “made to,” “capable of,” or “designed to” may be used interchangeably.
  • the expression “a device configured to” may mean that the device is “capable of” with other devices or parts.
  • a processor configured (or configured to perform) A, B, and C refers to a dedicated processor (eg, an embedded processor) for performing the corresponding operations, or by executing one or more software programs stored in a memory device.
  • a general-purpose processor eg, a CPU or an application processor
  • the electronic device may include, for example, a smartphone, a tablet PC, a mobile phone, a video phone, an e-book reader, a desktop PC, a laptop PC, a netbook computer, a workstation, a server, a PDA, a PMP ( portable multimedia player), an MP3 player, a medical device, a camera, or a wearable device.
  • a wearable device may be an accessory (e.g., watch, ring, bracelet, anklet, necklace, eyewear, contact lens, or head-mounted-device (HMD)), a textile or clothing integral (e.g.
  • the electronic device may include at least one of a body-worn (eg, skin pad or tattoo) or bioimplantable circuit
  • the electronic device may include, for example, a television, digital video disk (DVD) player, audio , refrigerator, air conditioner, vacuum cleaner, oven, microwave oven, washing machine, air purifier, set-top box, home automation control panel, security control panel, media box (eg Samsung HomeSync TM , Apple TV TM , or Google TV TM ); It may include at least one of a game console (eg, Xbox TM , PlayStation TM ), an electronic dictionary, an electronic key, a camcorder, or an electronic picture frame.
  • a game console eg, Xbox TM , PlayStation TM
  • an electronic dictionary e.g., an electronic key, a camcorder, or an electronic picture frame.
  • the electronic device may include various medical devices (eg, various portable medical measuring devices (eg, a blood glucose monitor, a heart rate monitor, a blood pressure monitor, or a body temperature monitor), magnetic resonance angiography (MRA), magnetic resonance imaging (MRI), CT (computed tomography), imager, or ultrasound machine, etc.), navigation device, global navigation satellite system (GNSS), event data recorder (EDR), flight data recorder (FDR), automotive infotainment device, marine electronic equipment (e.g.
  • various portable medical measuring devices eg, a blood glucose monitor, a heart rate monitor, a blood pressure monitor, or a body temperature monitor
  • MRA magnetic resonance angiography
  • MRI magnetic resonance imaging
  • CT computed tomography
  • imager or ultrasound machine, etc.
  • navigation device e.g., global navigation satellite system (GNSS), event data recorder (EDR), flight data recorder (FDR), automotive infotainment device, marine electronic equipment (e.g.
  • the electronic device is a piece of furniture, a building/structure or a vehicle, an electronic board, an electronic signature receiving device, a projector, or various measuring devices (eg, water, electricity, gas, or a radio wave measuring device).
  • the electronic device may be flexible or a combination of two or more of the various devices described above.
  • the electronic device according to the embodiment of the present document is not limited to the above-described devices.
  • the term user may refer to a person who uses an electronic device or a device (eg, an artificial intelligence electronic device) using the electronic device.
  • the term user may refer to a person who uses an electronic device or a device (eg, an artificial intelligence electronic device) using the electronic device.
  • FIG. 1 is a block diagram of an electronic device 101 in a network environment 100 according to various embodiments of the present disclosure.
  • FIG. 1 is a block diagram of an electronic device 101 in a network environment 100 according to various embodiments.
  • an electronic device 101 communicates with an electronic device 102 through a first network 198 (eg, a short-range wireless communication network) or a second network 199 . It may communicate with the electronic device 104 or the server 108 through (eg, a long-distance wireless communication network). According to an embodiment, the electronic device 101 may communicate with the electronic device 104 through the server 108 .
  • a first network 198 eg, a short-range wireless communication network
  • a second network 199 e.g., a second network 199
  • the electronic device 101 may communicate with the electronic device 104 through the server 108 .
  • the electronic device 101 includes a processor 120 , a memory 130 , an input module 150 , a sound output module 155 , a display module 160 , an audio module 170 , and a sensor module ( 176), interface 177, connection terminal 178, haptic module 179, camera module 180, power management module 188, battery 189, communication module 190, subscriber identification module 196 , or an antenna module 197 may be included.
  • at least one of these components eg, the connection terminal 178
  • may be omitted or one or more other components may be added to the electronic device 101 .
  • some of these components are integrated into one component (eg, display module 160 ). can be
  • the processor 120 for example, executes software (eg, a program 140) to execute at least one other component (eg, a hardware or software component) of the electronic device 101 connected to the processor 120 . It can control and perform various data processing or operations. According to one embodiment, as at least part of data processing or operation, the processor 120 converts commands or data received from other components (eg, the sensor module 176 or the communication module 190 ) to the volatile memory 132 . may be stored in the volatile memory 132 , and may process commands or data stored in the volatile memory 132 , and store the result data in the non-volatile memory 134 .
  • software eg, a program 140
  • the processor 120 converts commands or data received from other components (eg, the sensor module 176 or the communication module 190 ) to the volatile memory 132 .
  • the volatile memory 132 may be stored in the volatile memory 132 , and may process commands or data stored in the volatile memory 132 , and store the result data in the non-volatile memory 134 .
  • the processor 120 is the main processor 121 (eg, a central processing unit or an application processor) or a secondary processor 123 (eg, a graphic processing unit, a neural network processing unit) a neural processing unit (NPU), an image signal processor, a sensor hub processor, or a communication processor).
  • the main processor 121 e.g, a central processing unit or an application processor
  • a secondary processor 123 eg, a graphic processing unit, a neural network processing unit
  • NPU neural processing unit
  • an image signal processor e.g., a sensor hub processor, or a communication processor.
  • the main processor 121 e.g, a central processing unit or an application processor
  • a secondary processor 123 eg, a graphic processing unit, a neural network processing unit
  • NPU neural processing unit
  • an image signal processor e.g., a sensor hub processor, or a communication processor.
  • the main processor 121 e.g, a central processing unit or an application processor
  • a secondary processor 123
  • the auxiliary processor 123 is, for example, on behalf of the main processor 121 while the main processor 121 is in an inactive (eg, sleep) state, or the main processor 121 is active (eg, executing an application). ), together with the main processor 121, at least one of the components of the electronic device 101 (eg, the display module 160, the sensor module 176, or the communication module 190) It is possible to control at least some of the related functions or states.
  • the co-processor 123 eg, an image signal processor or a communication processor
  • may be implemented as part of another functionally related component eg, the camera module 180 or the communication module 190. there is.
  • the auxiliary processor 123 may include a hardware structure specialized for processing an artificial intelligence model.
  • Artificial intelligence models can be created through machine learning. Such learning may be performed, for example, in the electronic device 101 itself on which artificial intelligence is performed, or may be performed through a separate server (eg, the server 108).
  • the learning algorithm may include, for example, supervised learning, unsupervised learning, semi-supervised learning, or reinforcement learning, but in the above example not limited
  • the artificial intelligence model may include a plurality of artificial neural network layers.
  • Artificial neural networks include deep neural networks (DNNs), convolutional neural networks (CNNs), recurrent neural networks (RNNs), restricted boltzmann machines (RBMs), deep belief networks (DBNs), bidirectional recurrent deep neural networks (BRDNNs), It may be one of deep Q-networks or a combination of two or more of the above, but is not limited to the above example.
  • the artificial intelligence model may include, in addition to, or alternatively, a software structure in addition to the hardware structure.
  • the memory 130 may store various data used by at least one component of the electronic device 101 (eg, the processor 120 or the sensor module 176 ).
  • the data may include, for example, input data or output data for software (eg, the program 140 ) and instructions related thereto.
  • the memory 130 may include a volatile memory 132 or a non-volatile memory 134 .
  • the program 140 may be stored as software in the memory 130 , and may include, for example, an operating system 142 , middleware 144 , or an application 146 .
  • the input module 150 may receive a command or data to be used in a component (eg, the processor 120 ) of the electronic device 101 from the outside (eg, a user) of the electronic device 101 .
  • the input module 150 may include, for example, a microphone, a mouse, a keyboard, a key (eg, a button), or a digital pen (eg, a stylus pen).
  • the sound output module 155 may output a sound signal to the outside of the electronic device 101 .
  • the sound output module 155 may include, for example, a speaker or a receiver.
  • the speaker can be used for general purposes such as multimedia playback or recording playback.
  • the receiver may be used to receive an incoming call. According to one embodiment, the receiver may be implemented separately from or as part of the speaker.
  • the display module 160 may visually provide information to the outside (eg, a user) of the electronic device 101 .
  • the display module 160 may include, for example, a control circuit for controlling a display, a hologram device, or a projector and a corresponding device.
  • the display module 160 may include a touch sensor configured to sense a touch or a pressure sensor configured to measure the intensity of a force generated by the touch.
  • the audio module 170 may convert a sound into an electric signal or, conversely, convert an electric signal into a sound. According to an embodiment, the audio module 170 acquires a sound through the input module 150 , or an external electronic device (eg, a sound output module 155 ) connected directly or wirelessly with the electronic device 101 . A sound may be output through the electronic device 102 (eg, a speaker or headphones).
  • an external electronic device eg, a sound output module 155
  • a sound may be output through the electronic device 102 (eg, a speaker or headphones).
  • the sensor module 176 detects an operating state (eg, power or temperature) of the electronic device 101 or an external environmental state (eg, user state), and generates an electrical signal or data value corresponding to the sensed state. can do.
  • the sensor module 176 may include, for example, a gesture sensor, a gyro sensor, a barometric pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, a color sensor, an IR (infrared) sensor, a biometric sensor, It may include a temperature sensor, a humidity sensor, or an illuminance sensor.
  • the interface 177 may support one or more designated protocols that may be used by the electronic device 101 to directly or wirelessly connect with an external electronic device (eg, the electronic device 102 ).
  • the interface 177 may include, for example, a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, an SD card interface, or an audio interface.
  • HDMI high definition multimedia interface
  • USB universal serial bus
  • SD card interface Secure Digital Card
  • the connection terminal 178 may include a connector through which the electronic device 101 can be physically connected to an external electronic device (eg, the electronic device 102 ).
  • the connection terminal 178 may include, for example, an HDMI connector, a USB connector, an SD card connector, or an audio connector (eg, a headphone connector).
  • the haptic module 179 may convert an electrical signal into a mechanical stimulus (eg, vibration or movement) or an electrical stimulus that the user can perceive through tactile or kinesthetic sense.
  • the haptic module 179 may include, for example, a motor, a piezoelectric element, or an electrical stimulation device.
  • the camera module 180 may capture still images and moving images. According to an embodiment, the camera module 180 may include one or more lenses, image sensors, image signal processors, or flashes.
  • the power management module 188 may manage power supplied to the electronic device 101 .
  • the power management module 188 may be implemented as, for example, at least a part of a power management integrated circuit (PMIC).
  • PMIC power management integrated circuit
  • the battery 189 may supply power to at least one component of the electronic device 101 .
  • battery 189 may include, for example, a non-rechargeable primary cell, a rechargeable secondary cell, or a fuel cell.
  • the communication module 190 is a direct (eg, wired) communication channel or a wireless communication channel between the electronic device 101 and an external electronic device (eg, the electronic device 102, the electronic device 104, or the server 108). It can support establishment and communication performance through the established communication channel.
  • the communication module 190 may include one or more communication processors that operate independently of the processor 120 (eg, an application processor) and support direct (eg, wired) communication or wireless communication.
  • the communication module 190 is a wireless communication module 192 (eg, a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module) or a wired communication module 194 (eg, : It may include a LAN (local area network) communication module, or a power line communication module).
  • GNSS global navigation satellite system
  • a corresponding communication module among these communication modules is a first network 198 (eg, a short-range communication network such as Bluetooth, wireless fidelity (WiFi) direct, or infrared data association (IrDA)) or a second network 199 (eg, legacy It may communicate with the external electronic device 104 through a cellular network, a 5G network, a next-generation communication network, the Internet, or a computer network (eg, a telecommunication network such as a LAN or a WAN).
  • a first network 198 eg, a short-range communication network such as Bluetooth, wireless fidelity (WiFi) direct, or infrared data association (IrDA)
  • a second network 199 eg, legacy It may communicate with the external electronic device 104 through a cellular network, a 5G network, a next-generation communication network, the Internet, or a computer network (eg, a telecommunication network such as a LAN or a WAN).
  • a telecommunication network
  • the wireless communication module 192 uses the subscriber information (eg, International Mobile Subscriber Identifier (IMSI)) stored in the subscriber identification module 196 within a communication network such as the first network 198 or the second network 199 .
  • the electronic device 101 may be identified or authenticated.
  • the wireless communication module 192 may support a 5G network after a 4G network and a next-generation communication technology, for example, a new radio access technology (NR).
  • NR access technology includes high-speed transmission of high-capacity data (eMBB (enhanced mobile broadband)), minimization of terminal power and access to multiple terminals (mMTC (massive machine type communications)), or high reliability and low latency (URLLC (ultra-reliable and low-latency) -latency communications)).
  • eMBB enhanced mobile broadband
  • mMTC massive machine type communications
  • URLLC ultra-reliable and low-latency
  • the wireless communication module 192 may support a high frequency band (eg, mmWave band) to achieve a high data rate, for example.
  • a high frequency band eg, mmWave band
  • the wireless communication module 192 may support various requirements specified in the electronic device 101 , an external electronic device (eg, the electronic device 104 ), or a network system (eg, the second network 199 ).
  • the wireless communication module 192 may include a peak data rate (eg, 20 Gbps or more) for realizing eMBB, loss coverage (eg, 164 dB or less) for realizing mMTC, or U-plane latency for realizing URLLC ( Example: downlink (DL) and uplink (UL) each 0.5 ms or less, or round trip 1 ms or less).
  • the antenna module 197 may transmit or receive a signal or power to the outside (eg, an external electronic device).
  • the antenna module 197 may include an antenna including a conductor formed on a substrate (eg, a PCB) or a radiator formed of a conductive pattern.
  • the antenna module 197 may include a plurality of antennas (eg, an array antenna). In this case, at least one antenna suitable for a communication method used in a communication network such as the first network 198 or the second network 199 is connected from the plurality of antennas by, for example, the communication module 190 . can be selected. A signal or power may be transmitted or received between the communication module 190 and an external electronic device through the selected at least one antenna.
  • other components eg, a radio frequency integrated circuit (RFIC)
  • RFIC radio frequency integrated circuit
  • the antenna module 197 may form a mmWave antenna module.
  • the mmWave antenna module comprises a printed circuit board, an RFIC disposed on or adjacent to a first side (eg, bottom side) of the printed circuit board and capable of supporting a designated high frequency band (eg, mmWave band); and a plurality of antennas (eg, an array antenna) disposed on or adjacent to a second side (eg, top or side) of the printed circuit board and capable of transmitting or receiving signals of the designated high frequency band. can do.
  • peripheral devices eg, a bus, general purpose input and output (GPIO), serial peripheral interface (SPI), or mobile industry processor interface (MIPI)
  • GPIO general purpose input and output
  • SPI serial peripheral interface
  • MIPI mobile industry processor interface
  • the command or data may be transmitted or received between the electronic device 101 and the external electronic device 104 through the server 108 connected to the second network 199 .
  • Each of the external electronic devices 102 or 104 may be the same as or different from the electronic device 101 .
  • all or a part of operations executed in the electronic device 101 may be executed in one or more external electronic devices 102 , 104 , or 108 .
  • the electronic device 101 may perform the function or service itself instead of executing the function or service itself.
  • one or more external electronic devices may be requested to perform at least a part of the function or the service.
  • One or more external electronic devices that have received the request may execute at least a part of the requested function or service, or an additional function or service related to the request, and transmit a result of the execution to the electronic device 101 .
  • the electronic device 101 may process the result as it is or additionally and provide it as at least a part of a response to the request.
  • cloud computing distributed computing, mobile edge computing (MEC), or client-server computing technology may be used.
  • the electronic device 101 may provide an ultra-low latency service using, for example, distributed computing or mobile edge computing.
  • the external electronic device 104 may include an Internet of things (IoT) device.
  • Server 108 may be an intelligent server using machine learning and/or neural networks.
  • the external electronic device 104 or the server 108 may be included in the second network 199 .
  • the electronic device 101 may be applied to an intelligent service (eg, smart home, smart city, smart car, or health care) based on 5G communication technology and IoT-related technology.
  • FIGS. 2A to 2E are diagrams illustrating various examples of a situation in which an in-air gesture is input to an electronic device, according to various embodiments of the present disclosure
  • the user 202 may use the digital pen 201 (eg, a stylus pen) to input an in-air gesture.
  • the digital pen 201 may include at least one button 201a, and when the button 201a is selected, the electronic device 101 may perform a predetermined function for the in-air gesture.
  • a state in which the button 201a is pressed may be referred to as a pen down state
  • a state in which the button 201a is released is referred to as a pen up state.
  • a state in which the button 201a is released is referred to as a pen up state.
  • the digital pen (eg, S Pen TM ) according to various embodiments of the present document may be equipped with an inertial system (eg, an acceleration sensor, a gyro sensor) that can be used to track gestures and, in particular, to input handwriting and hand-drawn objects. there is.
  • an inertial system eg, an acceleration sensor, a gyro sensor
  • the electronic device 101 may be a wearable device and may be wearable on a body part (eg, head) of a user 202 .
  • the user 202 may input handwriting data as an in-air gesture by using the digital pen 201 .
  • the user 202 may input a handwriting corresponding to "hello" using the digital pen 201 .
  • the electronic device 101 is a tablet personal computer (PC) and may include a display module 160 that detects a contact of the digital pen 201 .
  • PC tablet personal computer
  • the user 202 may write handwriting on the display module 160 while holding the digital pen 201 .
  • the electronic device 101 may track a point where the digital pen 201 touches the display module 160 , and may identify a trajectory made up of the points as the handwriting data 221 .
  • the user 202 may control the function of the electronic device 101 using the digital pen 201 .
  • the electronic device 101 may execute a camera application.
  • the electronic device 101 may control a function in the camera application according to an input from the digital pen 201 . For example, when an image acquired through the camera module 180 is displayed on the screen of the electronic device 101 and the button 201a of the digital pen 201 is selected, the electronic device at the time when the button 201a is selected. The screen displayed at 101 may be photographed.
  • the electronic device 101 may provide a content editing function using the digital pen 201 .
  • the user of the electronic device 101 selects a photographed image 204 , and uses the digital pen 201 to display text (eg, 'JOSH') or various displays input to the image 204 . can be entered.
  • the electronic device 101 may synthesize text or marks in the image 204 and display it on a screen or store it in a memory.
  • the electronic device 101 may be a monitor type device.
  • various executable applications may be displayed on the electronic device 101 .
  • the electronic device 101 may remotely detect an input of the digital pen 201 and perform a predetermined function with respect to an application corresponding to the sensed input among the applications. For example, the electronic device 101 may identify the detected input as a command for selecting and executing a corresponding application.
  • 3A is a block diagram illustrating an example of a configuration of an electronic device and a digital pen according to various embodiments of the present disclosure
  • the electronic device 101 is communicatively connected to the digital pen 201 to receive information corresponding to an in-air gesture from the digital pen 201 .
  • the electronic device 101 may include a processor 120 , a memory 130 , a display module 160 , a sensor module 176 , and a communication module 190 .
  • the processor 120 may include an in-air gesture classification module 310 , a handwriting recognition module 320 , a sketch and doodle recognition module 330 , a figure and diagram recognition module 340 or an official recognition module 350 . there is.
  • the electronic device 101 is a wearable device, and may be an HMD device in the form of glasses/helmet, a headset, a head-up display device, or a holographic display device.
  • HMD device in the form of glasses/helmet
  • headset a headset
  • head-up display device a head-up display device
  • holographic display device a display device that displays images
  • various types of display devices may be possible.
  • processor 120 has been described as including various modules, some of the components may be omitted or deleted, and the processor 120 may be configured to perform the operation of the module.
  • the in-air gesture classification module 310 may classify the types of in-air gestures remotely input through the digital pen 202 .
  • the type of the in-air gesture may include handwriting, a sketch, a doodle, a shape, a diagram, or a formula, and may include various other classification items. there is.
  • the handwriting recognition module 320 may process data of the in-air gesture classified as handwriting from the in-air gesture classification module 310 .
  • the handwriting recognition module 320 may recognize a text corresponding to the in-air gesture and output the in-air gesture in the form of text on the screen through the display module 160 .
  • the sketch and doodle recognition module 330 may process data of the in-air gesture classified into sketches or doodles from the in-air gesture classification module 310 .
  • the sketch and doodle recognition module 330 may extract a feature from the in-air gesture and output a photo or an image of an object corresponding to the extracted feature on the screen through the display module 160 .
  • the figure and diagram recognition module 340 may process data of an in-air gesture classified as a figure or diagram from the in-air gesture classification module 310 .
  • the figure and diagram recognition module 340 may recognize a figure or diagram corresponding to the in-air gesture, and output the in-air gesture on the screen through the display module 160 in the form of the recognized figure or diagram. .
  • the formula recognition module 350 may process the in-air gesture data classified as a formula by the in-air gesture classification module 310 .
  • the formula recognition module 350 may extract numbers, formula symbols, operators, etc. from the data of the in-air gesture, and output the in-air gesture in the form of a formula on the screen through the display module 160 .
  • the processor 120 when the memory 130 is executed, the processor 120 (or the auxiliary processor 123 ) receives an in-air gesture and a button from a digital pen connected through the communication module 190 . Receive selection information, determine a gesture type based on the received in-air gesture and button selection information, recognize the in-air gesture according to the determined gesture type, and output the recognized in-air gesture You can store instructions that control the module.
  • the display module 160 may display data of the in-air gesture output through the processor 120 .
  • the data of the in-air gesture may be output in the form of handwriting, sketch, doodle, figure, diagram, or formula and displayed on the display module 160 .
  • the sensor module 176 may detect an in-air gesture.
  • the sensor module 176 may include a gesture sensor, an acceleration sensor, or a proximity sensor, and various other sensors for detecting or classifying an in-air gesture may be included.
  • the communication module 190 may perform communication connection between the electronic device 101 and the digital pen 201 .
  • the communication module 190 connects the electronic device 101 and the digital pen 201 through a short-distance communication method (eg, BLE) to input or print a button 201a from the digital pen 201 .
  • Information related to the air gesture may be received.
  • 3B is a diagram illustrating various examples of input and output of an in-air gesture according to various embodiments of the present disclosure.
  • the user 202 may input various gestures using the digital pen 201 .
  • the electronic device 101 may control to classify the in-air gesture type through the in-air gesture classification module 310 .
  • the user 202 may input a gesture 320a corresponding to 'Hello'.
  • the in-air gesture classification module 310 may classify the type of the input gesture 320a as handwriting, and allow the handwriting recognition module 320 to process the gesture 320a.
  • the handwriting recognition module 320 may identify a language corresponding to the gesture 320a and identify a character corresponding to the gesture 320a in the language.
  • the confirmed character may be output in the form of text data 320b.
  • the user 202 may input a gesture 330a corresponding to a picture of a cat.
  • the in-air gesture classification module 310 may classify the type of the input gesture 330a into sketches or doodles, and allow the sketch and doodle recognition module 330 to process the gesture 330a.
  • the sketch and doodle recognition module 330 may identify a photo or object corresponding to the gesture 330a.
  • the identified photo or object may be output in the form of image data 330b.
  • the user 202 may input a gesture 340a in the form of a diagram.
  • the in-air gesture classification module 310 may classify the type of the input gesture 340a into a figure or diagram, and allow the figure and diagram recognition module 340 to process the gesture 340a.
  • the figure and diagram recognition module 340 checks a diagram structure (eg, ratio, color, and numerical value) corresponding to the gesture 340a, and according to the diagram structure, the gesture 340a ) can be output in the form of a diagram object 340b.
  • a diagram structure eg, ratio, color, and numerical value
  • the in-air gesture classification module 310 may classify the type of the input gesture 350a into a formula, and allow the formula recognition module 350 to process the gesture 350a.
  • the formula recognition module 350 extracts a number, a formula symbol, an operator, etc. from the gesture 350a, and converts the extracted number, formula symbol or operator into the form of the formula 350b can be printed out.
  • the digital pen 201 includes a button 201a , a processor 220 , a memory 230 , a resonance circuit 287 , a charging circuit 288 , a battery 289 , and a communication circuit 290 . ), an antenna 297 , a trigger circuit 298 and/or a sensor 299 .
  • the processor 220 of the digital pen 201, at least a portion of the resonant circuit 287, and/or at least a portion of the communication circuit 290 may be configured on a printed circuit board or in the form of a chip. there is.
  • the button 201a , the processor 220 , the resonant circuit 287 and/or the communication circuit 290 includes a memory 230 , a charging circuit 288 , a battery 289 , an antenna 297 , and a trigger circuit 298 . ) and/or the sensor 299 may be electrically connected.
  • the button 201a may be mounted on the outside of the digital pen 201 in the form of a physical button.
  • the processor 220 may transmit, to the electronic device 101 , viewpoint information and in-air gesture information while the button 201a is selected.
  • the electronic device 101 identifies the in-air gesture input while the button 201a is selected as a gesture in the pen-down (or selects the button 201a) state, and the checked The gesture in the pen-down state may be processed separately from the gesture in the pen-up state.
  • the processor 220 may include a generic processor configured to execute a customized hardware module or software (eg, an application program).
  • the processor 220 includes at least one of various sensors included in the digital pen 201, a data measurement module, an input/output interface, a module for managing the state or environment of the digital pen 201, or a communication module. It may include a component (function) or a software element (program).
  • the processor 220 may include, for example, one or a combination of two or more of hardware, software, and firmware.
  • the processor 220 includes information indicating a pressed state of a button (eg, button 337), sensing information acquired by the sensor 299, and/or information calculated based on the sensing information ( For example, information related to the position of the digital pen 201 may be set to be transmitted to the electronic device 101 through the communication circuit 290 .
  • the resonance circuit 287 may resonate based on an electromagnetic field signal generated from a digitizer (eg, the display device 160 ) of the electronic device 101 , and by resonance, an electromagnetic resonance method It can radiate (electro-magnetic resonance, EMR) input signal (or magnetic field and).
  • the electronic device 101 may identify the position of the digital pen 201 on the electronic device 101 by using the electromagnetic resonance method input signal. For example, the electronic device 101, in each of a plurality of channels (eg, a plurality of loop coils) in the digitizer, based on the magnitude of an induced electromotive force (eg, output current) generated by an electromagnetic resonance input signal Thus, the position of the digital pen 201 may be confirmed.
  • the electronic device 101 and the digital pen 201 operate based on the EMR method, this is merely an example, and the electronic device 101 is electrically coupled resonance (ECR) method. It is also possible to generate a signal based on an electric field based on The resonance circuit of the digital pen 201 may be resonated by an electric field.
  • the electronic device 101 may check a potential in a plurality of channels (eg, electrodes) due to resonance in the digital pen 201 , and may also check a position of the digital pen 201 based on the potential .
  • AES active electrostatic
  • the electronic device 101 may detect the digital pen 201 based on a change in capacitance (self capacitance or mutual capacitance) associated with at least one electrode of the touch panel.
  • the digital pen 201 may not include a resonance circuit.
  • panel or “sensing panel” may be used as a term encompassing a digitizer and a touch screen panel (TSP).
  • a signal having a pattern may be received through the resonance circuit 287 .
  • the processor 220 may analyze a pattern of a signal received through the resonance circuit 287 and perform an operation based on the analysis result.
  • the digital pen 201 may perform one first communication through the resonance circuit 287 and may perform a second communication through the communication circuit 290 .
  • the digital pen 201 may receive information from the electronic device 101 through the resonance circuit 287 .
  • the digital pen 201 may receive a communication signal through the communication circuit 290 when it is removed from the electronic device 101 , but receives a communication signal through the communication circuit 290 even when inserted. This may be possible.
  • the memory 230 may store information related to the operation of the digital pen 201 .
  • the information may include information for communication with the electronic device 101 and frequency information related to an input operation of the digital pen 201 .
  • the memory 230 includes a program (or application, algorithm, or processing loop).
  • the memory 230 may store a communication stack of the communication circuit 290 .
  • communication circuitry 290 and/or processor 220 may include dedicated memory.
  • the resonance circuit 287 may include a coil (or an inductor) and/or a capacitor.
  • the resonance circuit 287 may resonate based on an input electric field and/or magnetic field (eg, an electric field and/or magnetic field generated by a digitizer of the electronic device 101 ).
  • the digital pen 201 transmits a signal by the EMR method
  • the digital pen 201 sets a resonance frequency based on an electromagnetic field generated from an inductive panel of the electronic device 101 . It is possible to generate a signal containing
  • the digital pen 201 may generate a signal using the electronic device 101 and capacitive coupling.
  • the digital pen 201 transmits a signal including a resonant frequency based on an electric field generated from a capacitive device of an electronic device.
  • the resonance circuit 287 may be used to change the intensity or frequency of the electromagnetic field according to a user's manipulation state.
  • the resonance circuit 287 may provide various frequencies for recognizing a hovering input, a drawing input, a button input, or an erasing input.
  • the resonant circuit 287 may provide various resonant frequencies according to a connection combination of a plurality of capacitors, or may provide various resonant frequencies based on a variable inductor and/or a variable capacitor.
  • the digital pen 201 may determine whether the digital pen 201 is inserted into the electronic device 101 by using the voltage level of the DC signal detected by the charging circuit 288 . Alternatively, the digital pen 201 may check whether the digital pen 201 is inserted by checking a pattern corresponding to the signal checked by the charging circuit 288 .
  • the battery 289 may be configured to store power required for the operation of the digital pen 201 .
  • the battery 289 may include, for example, a lithium-ion battery or a capacitor, and may be rechargeable or replaceable. According to an embodiment, the battery 289 may be charged using power (eg, a DC signal (direct current power)) provided from the charging circuit 288 .
  • power eg, a DC signal (direct current power)
  • the communication circuit 290 may be configured to perform a wireless communication function between the digital pen 201 and the communication module 190 of the electronic device 101 .
  • the communication circuit 290 may transmit state information, input information, and/or information related to a location of the digital pen 201 to the electronic device 101 using a short-distance communication method.
  • the communication circuit 290 may include direction information (eg, motion sensor data) of the digital pen 201 acquired through the trigger circuit 298 , voice information input through a microphone, or the remaining amount of the battery 289 . Information may be transmitted to the electronic device 101 .
  • the communication circuit 290 may transmit sensing data obtained from the sensor 299 and/or information related to the position of the digital pen 201 identified based on the sensing data to the electronic device 101 .
  • the communication circuit 290 may transmit information on the state of the button 201a included in the digital pen 201 to the electronic device 101 .
  • the short-range communication method may include at least one of Bluetooth, Bluetooth low energy (BLE), NFC, and Wi-Fi direct, but there is no limitation on the type.
  • the antenna 297 may be used to transmit or receive a signal or power to the outside (eg, the electronic device 101).
  • the digital pen 201 may include a plurality of antennas 297 , and among them, at least one antenna 297 suitable for a communication method may be selected. Through the selected at least one antenna 297 , the communication circuit 290 may exchange a signal or power with an external electronic device.
  • the trigger circuit 298 may include at least one button or a sensor circuit.
  • the processor 220 may check the input method (eg, touch or press) or type (eg, EMR button or BLE button) of the button 201a of the digital pen 201 .
  • the trigger circuit 298 may transmit a trigger signal to the electronic device 101 using an input signal of the button 201a or a signal through the sensor 299 .
  • the sensor 299 may include an acceleration sensor, a gyro sensor, and/or a geomagnetic sensor.
  • the acceleration sensor may sense information about the linear motion of the digital pen 201 and/or the acceleration of the digital pen 201 in three axes.
  • the gyro sensor may sense information related to rotation of the digital pen 201 .
  • the geomagnetic sensor may sense information about a direction in which the digital pen 201 faces within an absolute coordinate system.
  • the sensor 299 is not only a sensor for measuring movement, but also a sensor capable of generating an electrical signal or data value corresponding to an internal operating state or external environmental state of the digital pen 201 .
  • the processor 220 may transmit information obtained from the sensor 299 to the electronic device 101 through the communication circuit 290 .
  • the processor 220 based on the information obtained from the sensor 299 , information related to the position of the digital pen 201 (eg, coordinates of the digital pen 201 and/or the displacement of the digital pen 201 ) ) may be transmitted to the electronic device 101 through the communication circuit 290 .
  • FIG. 4 is a flowchart illustrating an example of an operation of classifying types of in-air gestures according to various embodiments of the present disclosure.
  • the electronic device 101 may acquire sensor data transmitted from the digital pen 201 through the communication module 190 .
  • the sensor data may include direction information (eg, motion sensor data) of the digital pen 201 and selection information of the button 201a of the digital pen 201 .
  • the electronic device 101 may form a three-dimensional (3D) gesture from the received gesture information.
  • the electronic device 101 may form a three-dimensional trajectory of the gesture as a 3D gesture by using the acquired sensor data.
  • the electronic device 101 may extract characteristic information of the 3D gesture.
  • the electronic device 101 may extract specific information such as depth information or scale information from the 3D gesture.
  • the electronic device 101 may select an informative two dimensional plane valid in the 3D gesture. For example, in the 3D gesture, the electronic device 101 may select a plane capable of identifying the user's gesture as the valid 2D plane.
  • the electronic device 101 may filter the selected valid 2D plane gesture based on the pen up/down state information.
  • the processor 120 of the electronic device 101 may identify a gesture input while the button 201a of the digital pen 201 is selected as a pen-down (or selection of the button 201a) gesture.
  • the electronic device 101 may filter the gesture input in the confirmed pen-down state, and transmit a stroke including the filtered gesture in the pen-down state to the in-air gesture classification module 310 .
  • the electronic device 101 may extract 2D characteristic information from a valid 2D plane gesture.
  • the characteristic information of the 2D plane may include a change amount (eg, x or y) or pen-up/down information on the x-axis or y-axis of the gesture.
  • the electronic device 101 performs in-air operation based on a recurrent neural network (RNN). Gesture classification can be performed.
  • the processor 120 of the electronic device 101 may transmit the in-air gesture classification result to the in-air gesture classification module 310 .
  • the electronic device 101 may classify the in-air gesture based on a combination of the extracted 3D plane characteristic information and 2D plane characteristic information. For example, when the 2D plane characteristic information for classification of the in-air gesture is not sufficiently extracted, the electronic device 101 may classify the in-air gesture by further considering the extracted 3D plane characteristic (eg, depth information or scale information) information.
  • the electronic device 101 classifies the in-air gesture by further considering the 3D characteristic of the in-air gesture input from the air, accurate classification may be possible according to the characteristic of the in-air gesture.
  • the electronic device 101 may store information related to characteristic information of a 2D gesture and characteristic information of a 3D gesture corresponding to a specific gesture type. For example, the electronic device 101 may classify the in-air gesture by determining whether the extracted characteristic information of the 2D gesture and the characteristic information of the 3D gesture correspond to characteristic information corresponding to a specific gesture type.
  • the in-air gesture classification module 310 of the electronic device 101 may check the transmitted filtered stroke or a result of the in-air gesture classification and select a recognition module.
  • the recognition module may include an in-air gesture classification module 310 , a handwriting recognition module 320 , a sketch and doodle recognition module 330 , a figure and diagram recognition module 340 or an official recognition module 350 .
  • the electronic device 101 transmits the 2D plane characteristic information extracted for the filtered stroke or the in-air gesture to the selected recognition module so that the corresponding recognition module processes the stroke or gesture. .
  • FIG. 5 is a diagram illustrating an example of an operation of filtering a pen up/down in a user's in-air gesture, according to various embodiments of the present disclosure
  • the electronic device 101 may identify the original gesture 500 input by the user using the digital pen 201 .
  • the electronic device 101 may filter the pen up/down from the original gesture 500 to distinguish the movement gesture 510 and the valid gesture 520 .
  • the movement gesture 510 may be an input in which the user moves the digital pen 201 in an up or down direction to prepare for data input.
  • the valid gesture 520 is a gesture in which the user inputs actual data, and may include the form of a word or sentence, number, figure, or image according to a preset language.
  • the electronic device 101 determines that the button 201a of the digital pen 201 is pressed as the pen-down state, and the button 201a in the original gesture 500 of the user Only gestures in a pressed state (eg, a pen-down state) can be filtered.
  • a gesture input in the pen-down state eg, a state in which the button 201a is pressed
  • a gesture input in a pen-up state eg, a state in which the button 201a is released
  • a movement gesture can do.
  • the user may input a gesture while pressing the button 201a for a desired gesture input, and the electronic device 101 performs a movement gesture based on the pen up/down state in the gesture input input during the corresponding period.
  • a gesture input that the actual user wants to input may be identified as a valid gesture 520 .
  • the electronic device 101 may select data corresponding to the valid gesture 520 from the original gesture 500 as a result of the pen-up/down filtering operation.
  • FIG. 6 is a flowchart illustrating an example of an operation of outputting a filtered gesture as text, according to various embodiments of the present disclosure.
  • the electronic device 101 may identify a pen-up/down-filtered gesture (or stroke) from a gesture input using the digital pen 201 .
  • the electronic device 101 may perform pre-processing on the filtered gesture.
  • the electronic device 101 may extract the filtered characteristic of the gesture.
  • the electronic device 101 may detect a language for the filtered gesture.
  • the electronic device 101 may detect a language for a gesture based on external data (eg, language setting or location).
  • the electronic device 101 may set a language based on the knowledge. For example, the electronic device 101 may perform operation 641 of checking the RNN weight and operation 642 of checking the language model.
  • the electronic device 101 may apply a long short term memory (LSTM) RNN algorithm.
  • LSTM long short term memory
  • the electronic device 101 may perform decoding in operation 623 .
  • the electronic device 101 may output the recognized text as a result of decoding. For example, text corresponding to 'Hello World' may be extracted from the filtered gesture and outputted.
  • FIG. 7 is a diagram illustrating an example of an operation of processing an in-air gesture in a text form in an electronic device, according to various embodiments of the present disclosure
  • the electronic device 101 is an HMD device, and a user inputs an in-air gesture using a digital pen 201 communicatively connected to the electronic device 101 while wearing the electronic device 101 . can do.
  • the electronic device 101 may display the VR image 700 .
  • the VR image 700 may include a gesture input keyboard 710 in which the user inputs an in-air gesture input in the form of text, and a gesture display area 720 in which the input text is displayed.
  • the gesture input area 710 may include a search window 711 for searching by inputting text in various forms and a button 712 for deleting the display of the gesture input keyboard 710 .
  • the electronic device 101 is an electronic device (eg, an HMD device, an AR/VR device, or a smart TV) that is in an environment in which it is important to use a keyboard for text input or is inconvenient to input text or a figure.
  • an electronic device eg, an HMD device, an AR/VR device, or a smart TV
  • a user inputs a desired text as an in-air gesture as if writing with a pen, and the electronic device 101 extracts text from the input in-air gesture and displays it in the gesture display area 720 .
  • the electronic device 101 may extract texts according to various hieroglyphic-type languages (eg, Korean, Chinese, or Japanese).
  • the user may input a gesture while pressing the button 201a of the pen 201 for the user to input a desired gesture, and the electronic device 101 may display a gesture as described above with reference to FIG. 5 .
  • the gesture input that the actual user wants to input may be confirmed as a valid gesture by filtering the movement gesture based on the pen up/down state in the gesture input input during the corresponding period.
  • FIG. 8 is a diagram illustrating an example of an operation of processing an in-air gesture in the form of a figure in an electronic device, according to various embodiments of the present disclosure
  • the electronic device 101 is an HMD device, and when the first user 801 wears the electronic device 101 , an AR image 800 may be displayed.
  • the second user 802 inputs the in-air gesture while holding the digital pen 201 communicatively connected to the electronic device 101 while the digital pen 201 communicatively connected to the electronic device 101 is in one state. could be the situation.
  • the electronic device 101 may determine the type of the in-air gesture input from the digital pen 201 as 'sketch' and process the in-air gesture.
  • the electronic device 101 may display an image of a muscle, blood vessel, or bone structure of the human body on the AR screen 800 .
  • the second user 801 may input an in-air gesture to the first user 801 wearing the electronic device 101 with the digital pen 201 to visually explain the structure of the human body.
  • the second user 802 may input 810 a sketch corresponding to a description of a specific structure with the digital pen 201 .
  • the electronic device 101 may process the sketch input 810 through the sketch and doodle recognition module 330 and display the processed sketch input 820 .
  • the electronic device 101 checks the position and movement trajectory of the sketch input 810 of the second user 802 , and applies preset display settings (eg, color, pen thickness) to the AR screen 800 . can be displayed in
  • the user may input a gesture while pressing the button 201a of the pen 201 for the user to input a desired gesture, and the electronic device 101 may display a gesture as described above with reference to FIG. 5 .
  • the gesture input that the actual user wants to input may be confirmed as a valid gesture by filtering the movement gesture based on the pen up/down state in the gesture input input during the corresponding period.
  • FIG. 9 is a diagram illustrating an example of an operation of selecting a display object using an in-air gesture in an electronic device, according to various embodiments of the present disclosure.
  • an AR screen 900 may be displayed on the electronic device 101 .
  • information 910 on objects placed in the living room and a display for selecting objects are superimposed on the image of the living room of the house.
  • objects eg, flowerpot, picture frame, stand, etc.
  • the electronic device 101 checks the type of the in-air gesture input input from the digital pen 201 communicatively connected to the electronic device 101 and applies the in-air gesture to the AR screen 900 . ) can be confirmed as an input for selecting the displayed object. For example, when the movement trajectory of the in-air gesture corresponds to the shape of a specific object among the objects displayed on the AR screen 900 , the electronic device 101 may identify the corresponding object as an input for selecting the object. The electronic device 101 may display a movement trajectory (eg, 921 , 922 or 923 ) of the in-air gesture input corresponding to the shape of a specific object and corresponding in-air gesture input.
  • a movement trajectory eg, 921 , 922 or 923
  • the electronic device 101 may check a selection input for a specific object (eg, a flowerpot). For example, the electronic device 101 may determine that the selection input has been input according to whether the button 201a of the digital pen 201 is pressed.
  • a specific object eg, a flowerpot
  • the electronic device 101 may display information 910 on the corresponding object. For example, in the information 910 , information on a corresponding flowerpot among flowerpots placed in the living room (eg, 'jade or money tree', 'hedge cactus', or 'century plant') may be highlighted.
  • the user may input a gesture while pressing the button 201a of the pen 201 for the user to input a desired gesture, and the electronic device 101 may display a gesture as described above with reference to FIG. 5 .
  • the gesture input that the actual user wants to input may be confirmed as a valid gesture by filtering the movement gesture based on the pen up/down state in the gesture input input during the corresponding period.
  • the electronic device 101 classifies and processes the in-air gesture input from the digital pen 201 , the user can conveniently manipulate the object displayed on the AR screen 900 . there is.
  • FIG. 10 is a diagram illustrating an example of an operation of controlling a display object using an in-air gesture in an electronic device, according to various embodiments of the present disclosure
  • the AR screen 1000 may be displayed on the electronic device 101 .
  • the vacuum cleaner device 1001 communicatively connected to the electronic device 101 may be photographed and displayed.
  • the cleaner device 1001 may operate according to a control command from the electronic device 101 , and the electronic device 101 may input an in-air gesture using the digital pen 201 to The cleaner apparatus 1001 may be controlled.
  • the user may use the digital pen 201 to input an input 1010 corresponding to a command to the cleaner apparatus 1001 as an in-air gesture.
  • the user may input an arrow indicating that the target of the command is the cleaner device 1001 and text corresponding to 'Clean' to instruct the cleaner device 1001 to perform a cleaning function.
  • the user may input a gesture while pressing the button 201a of the pen 201 for the user to input a desired gesture, and the electronic device 101 may display a gesture as described above with reference to FIG. 5 .
  • the gesture input that the actual user wants to input may be confirmed as a valid gesture by filtering the movement gesture based on the pen up/down state in the gesture input input during the corresponding period.
  • the electronic device 101 checks the 'cleaning function' of the cleaner device 1001 with a command corresponding to the text recognized from the input 1010 , and the cleaner device 1001 cleans It can be controlled to perform a function.
  • the user may draw and input the virtual wall 1020 with the digital pen 201 as an additional command for the cleaner device 1001 .
  • the electronic device 101 determines that the virtual wall 1020 is the cleaning area of the cleaner apparatus 1001 , and the cleaner apparatus 1001 cleans the area corresponding to the virtual wall 1020 . You can control it not to.
  • FIG. 11 is a diagram illustrating an example of an operation of performing 3D modeling using an in-air gesture in an electronic device, according to various embodiments of the present disclosure
  • an AR screen 1100 may be displayed on the electronic device 101 .
  • a 3D modeled costume graphic may be displayed on a stage image.
  • a user may input an in-air gesture of sketching a clothing design using the digital pen 201 .
  • the electronic device 101 determines that the type of the in-air gesture input through the in-air gesture classification module 310 is 'sketch', and controls the sketch and doodle recognition module 330 to process the in-air gesture.
  • the user may input a gesture while pressing the button 201a of the pen 201 for the user to input a desired gesture, and the electronic device 101 may display a gesture as described above with reference to FIG. 5 .
  • the gesture input that the actual user wants to input may be confirmed as a valid gesture by filtering the movement gesture based on the pen up/down state in the gesture input input during the corresponding period.
  • the sketch and doodle recognition module 330 may process an in-air gesture classified as 'sketch'.
  • the sketch and doodle recognition module 330 may 3D model the input in-air gesture to control the user's sketch (eg, 1110 or 1120 ) to be three-dimensionally displayed.
  • the sketch and doodle recognition module 330 controls to process the sketch, so that the digital pen 201 ) can be used for easy 3D modeling and can be used for prototyping.
  • FIG. 12 is a diagram illustrating an example of an operation of controlling a smart TV using an in-air gesture, according to various embodiments of the present disclosure.
  • a smart TV 1201 that is communicatively connected to the electronic device 101 to serve as a desktop PC is provided, and the smart TV 1201 is provided using a digital pen 201 communicatively connected to the electronic device 101 ( 1201) can be controlled.
  • the electronic device 101 may be connected to the smart TV 1201 based on DeX TM .
  • the AR screen 1201 including the image 1210 captured in real time through the electronic device 101 may be displayed on the smart TV 1201 .
  • the AR screen 1201 may include items for selecting a type of in-air gesture input and items for selecting an in-air gesture input mode.
  • Items for selecting the type of the in-air gesture input include a doodle ('doodle') 1211 , a sketch ('sketch') 1212 , a shape ('shape') 1213 , or a text ('text').
  • ) 1214 may include items for selection.
  • the items for selecting the in-air gesture input mode include an item selection mode 1221 for selecting an item displayed on the AR screen 1201 or a gesture display mode 1222 for displaying the motion trajectory of the in-air gesture. It may include items for
  • the user may point to the sketch 1212 item with the digital pen 201 while the item selection mode 1221 is selected.
  • the electronic device 101 may identify the type of the in-air gesture input as 'sketch' when the sketch 1212 item is pointed to and maintained for a predetermined time.
  • the electronic device 101 checks the in-air gesture input while the button 201a is pressed as a valid gesture, and determines the movement trajectory of the checked in-air gesture on the AR screen 1201 ) can be displayed on the
  • the electronic device 101 checks an input of an in-air gesture to control various electronic devices that are communicatively connected to the electronic device 101
  • the electronic device 101 checks and confirms the type of the in-air gesture. Depending on the type of in-air gesture, it can be processed.
  • FIG. 13 is a diagram illustrating an example of an operation of processing a user's in-air gesture according to a type in an electronic device, according to various embodiments of the present disclosure
  • the electronic device 101 may check an input of the in-air gesture 1310 through the digital pen 201 connected to communication.
  • the electronic device 101 may process the text 1211 and the mathematical formula 1312 according to the type of the in-air gesture. For example, the electronic device 101 classifies the symbol 1211 as a 'figure' and controls the figure and diagram recognition module 340 to process it, and classifies the mathematical formula 1312 as a 'formula' to a formula recognition module It can be controlled to process at 350 .
  • the electronic device 101 may display the processing result 1320 of the input in-air gesture 1310 on the screen 1300 .
  • the figure and diagram recognition module 340 may identify a figure, shape, or sign corresponding to the sign 1211 , and output it as a character 1221 that can be processed by the electronic device 101 .
  • the formula recognition module 350 may identify characters or mathematical operators constituting the mathematical formula 1212 , and output it in the form of a formula 1222 that can be processed by the electronic device 101 .
  • the user may input a gesture while pressing the button 201a of the pen 201 for the user to input a desired gesture, and the electronic device 101 may display a gesture as described above with reference to FIG. 5 .
  • the gesture input that the actual user wants to input may be confirmed as a valid gesture by filtering the movement gesture based on the pen up/down state in the gesture input input during the corresponding period.
  • the electronic device 101 classifies and processes input in-air gestures in various forms according to the type of each gesture, and thus performs an operation on the corresponding gesture according to the user's intention. can make it
  • FIG. 14 is a flowchart illustrating an example of an operation of processing an in-air gesture in an electronic device, according to various embodiments of the present disclosure.
  • the electronic device may receive an in-air gesture and button selection information from a digital pen connected through a communication module of the electronic device.
  • the button selection information may include selection and release timings of buttons of the digital pen.
  • the method of processing an in-air gesture in an electronic device includes an operation of connecting with the digital pen through a short-range communication connection, and selecting the in-air gesture and the button from the digital pen through the short-distance communication
  • the method may further include receiving information.
  • the electronic device may determine a gesture type based on the received in-air gesture and button selection information.
  • the type of the gesture input may include handwriting, sketch, figure, diagram, or formula.
  • the electronic device may recognize the in-air gesture according to the determined gesture type.
  • the recognized in-air gesture may be output through various output devices (eg, a display module) of the electronic device.
  • the operation of recognizing a gesture input in response to the selection and release timings in the received in-air gesture and the type of the gesture input are In the case of handwriting, the method may further include outputting text data based on a gesture corresponding to the selection and release timings.
  • a method of processing an in-air gesture in an electronic device includes an operation of receiving sensor data sensed through an acceleration sensor or a gyro sensor of the digital pen from the digital pen, and the received sensor data The method may further include an operation of recognizing the in-air gesture based on
  • the received in-air gesture includes at least two gestures input according to at least two types of gestures, and the at least two gestures
  • the in-air gesture processing method in an electronic device further comprising an operation of processing each of the gestures based on a corresponding gesture type and an operation of displaying the at least two gestures processed according to the gesture type.
  • 15 is a flowchart illustrating operations of the digital pen and the electronic device when the digital pen is removed from the electronic device according to various embodiments of the present disclosure
  • the digital pen 201 may be removed from the storage space of the electronic device 101 .
  • the user may take out the digital pen 201 from the storage space of the electronic device 101 .
  • the electronic device 101 may detect removal of the digital pen 201 .
  • the electronic device 101 may detect the detachment of the digital pen 201 based on non-reception of a signal from the digital pen 201 , but there is no limitation on a detachment detection method.
  • the digital pen 201 may detect removal of the digital pen 201 .
  • the digital pen 201 may detect the detachment of the digital pen 201 based on non-reception of a signal from the electronic device 101 , but there is no limitation on a detachment detection method.
  • the digital pen 201 may exchange parameters (eg, a connection interval and/or a slave latency) with the electronic device 101 .
  • the digital pen 201 may activate the acceleration sensor based on the detachment detection.
  • the digital pen 201 may sense acceleration information of the digital pen 201 in operation 1529 through the activated acceleration sensor. Although not shown, the digital pen 201 may transmit sensed acceleration information to the electronic device 101 . In various embodiments, the electronic device 101 may perform an operation based on the received acceleration information. In various embodiments, the digital pen 201 may be set to activate an acceleration sensor, and a gyro sensor that consumes relatively high power may be set to remain in an inactive state.
  • the digital pen 201 may confirm an input of a button (eg, the button 337 ) in operation 1531 .
  • the button may be implemented in any one of a physical key, a touch key, a motion key, a pressure key, and a key less method, and there is no limitation in the implementation form.
  • the digital pen 201 may activate the gyro sensor in operation 1533 .
  • the digital pen 201 may sense rotation information through the activated gyro sensor in operation 1535 .
  • the digital pen 201 may transmit information based on the sensing result.
  • the digital pen 201 may transmit sensing information acquired through the acceleration sensor and the gyro sensor to the electronic device 101 .
  • the digital pen 201 may check the coordinates (eg, two-dimensional coordinates or three-dimensional coordinates) of the digital pen 201 based on the sensing information acquired through the acceleration sensor and the gyro sensor, and the confirmed The coordinates may be transmitted to the electronic device 101 .
  • the digital pen 201 may check displacement information of the coordinates (eg, two-dimensional coordinates or three-dimensional coordinates) of the digital pen 201 based on the sensing information obtained through the acceleration sensor and the gyro sensor, , the confirmed displacement information may be transmitted to the electronic device 101 .
  • the coordinates eg, two-dimensional coordinates or three-dimensional coordinates
  • the electronic device 101 may perform an operation based on the received information.
  • the electronic device 101 may check location information of the digital pen 201 based on the sensing information, check a gesture corresponding to the location information, and perform an operation corresponding to the gesture. there is.
  • the electronic device 101 may identify a gesture corresponding to the location information and perform an operation corresponding to the gesture.
  • the digital pen 201 may transmit information to the electronic device 101 until the input of the pen button is released.
  • the electronic device 101 may identify the gesture based on the position information of the digital pen 201 that is confirmed until the release of the button input is detected.
  • the digital pen 201 may deactivate the gyro sensor again.
  • the digital pen 201 may activate both the gyro sensor and the acceleration sensor from the time of detection of detachment.
  • the position information of the digital pen 201 before the button input may be used to correct the gesture direction, and gesture recognition accuracy may be improved.
  • the electronic device 101 may check the initial posture information of the digital pen 201 and recognize the gesture using a displacement based on this.
  • the electronic device may have various types of devices.
  • the electronic device may include, for example, a portable communication device (eg, a smart phone), a computer device, a portable multimedia device, a portable medical device, a camera, a wearable device, or a home appliance device.
  • a portable communication device eg, a smart phone
  • a computer device e.g., a smart phone
  • a portable multimedia device e.g., a portable medical device
  • a camera e.g., a portable medical device
  • a camera e.g., a portable medical device
  • a camera e.g., a portable medical device
  • a wearable device e.g., a smart bracelet
  • a home appliance device e.g., a home appliance
  • first, second, or first or second may be used simply to distinguish the element from other elements in question, and may refer to elements in other aspects (e.g., importance or order) is not limited. It is said that one (eg, first) component is “coupled” or “connected” to another (eg, second) component, with or without the terms “functionally” or “communicatively”. When referenced, it means that one component can be connected to the other component directly (eg by wire), wirelessly, or through a third component.
  • module used in various embodiments of this document may include a unit implemented in hardware, software, or firmware, and is interchangeable with terms such as, for example, logic, logic block, component, or circuit.
  • a module may be an integrally formed part or a minimum unit or a part of the part that performs one or more functions.
  • the module may be implemented in the form of an application-specific integrated circuit (ASIC).
  • ASIC application-specific integrated circuit
  • one or more instructions stored in a storage medium may be implemented as software (eg, the program 140) including
  • a processor eg, processor 120
  • a device eg, electronic device 101
  • the one or more instructions may include code generated by a compiler or code executable by an interpreter.
  • the device-readable storage medium may be provided in the form of a non-transitory storage medium.
  • 'non-transitory' only means that the storage medium is a tangible device and does not include a signal (eg, electromagnetic wave), and this term is used in cases where data is semi-permanently stored in the storage medium and It does not distinguish between temporary storage cases.
  • a signal eg, electromagnetic wave
  • the method according to various embodiments disclosed in this document may be provided as included in a computer program product.
  • Computer program products may be traded between sellers and buyers as commodities.
  • the computer program product is distributed in the form of a machine-readable storage medium (eg compact disc read only memory (CD-ROM)), or through an application store (eg Play StoreTM) or on two user devices ( It can be distributed (eg downloaded or uploaded) directly between smartphones (eg: smartphones) and online.
  • a part of the computer program product may be temporarily stored or temporarily created in a machine-readable storage medium such as a memory of a server of a manufacturer, a server of an application store, or a relay server.
  • each component (eg, module or program) of the above-described components may include a singular or a plurality of entities, and some of the plurality of entities may be separately disposed in other components. there is.
  • one or more components or operations among the above-described corresponding components may be omitted, or one or more other components or operations may be added.
  • a plurality of components eg, a module or a program
  • the integrated component may perform one or more functions of each component of the plurality of components identically or similarly to those performed by the corresponding component among the plurality of components prior to the integration. .
  • operations performed by a module, program, or other component are executed sequentially, in parallel, repeatedly, or heuristically, or one or more of the operations are executed in a different order, or omitted. or one or more other operations may be added.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

An electronic device and a method for processing an in-air gesture in the electronic device, according to various embodiments of the present document, are provided, the electronic device comprising: a communication module; at least one processor; a display module; and a memory, wherein the memory may store instructions that, when executed, cause the processor to receive in-air gesture and button selection information from a digital pen connected through the communication module, determine the type of gesture on the basis of the received in-air gesture and button selection information, recognize the in-air gesture according to the determined gesture type, and control the display module to output the recognized in-air gesture. Other various embodiments are possible.

Description

전자 장치 및 전자 장치에서 인 에어 제스처를 처리하는 방법How to handle in-air gestures on electronic devices and electronic devices
본 문서의 다양한 실시 예들은, 전자 장치 및 전자 장치에서 인 에어 제스처(in-air gesture)를 인식하고 처리하는 방법에 관한 것이다.Various embodiments of the present document relate to an electronic device and a method for recognizing and processing an in-air gesture in the electronic device.
최근 다양한 전자 장치(예, 증강 현실(augmented reality: AR) 장치, 가상 현실(virtual reality: VR) 장치 또는 스마트 TV)들에 대해 사용자 친화적인 데이터 입력 인터페이스가 요구되고 있다. 이러한 장치들에 데이터를 입력하기 위해 음성 인식 기반 또는 제스처 기반의 입력 방식을 사용할 수 있다. Recently, a user-friendly data input interface is required for various electronic devices (eg, augmented reality (AR) devices, virtual reality (VR) devices, or smart TVs). To input data to these devices, a voice recognition-based or gesture-based input method may be used.
제스처 기반의 입력 방식 중 손글씨와 같은 입력 형태를 이용하는 방식은 인간과 기계 간에 가장 자연스럽게 인터랙션(interaction)할 수 있는 방법들 중 하나이다. 상기 제스처 인식 기술은 비디오 추적 기술에 기반할 수 있다. Among gesture-based input methods, a method using an input form such as handwriting is one of the most natural methods for interaction between a human and a machine. The gesture recognition technology may be based on a video tracking technology.
음성 인식 기반 또는 제스처 기반의 입력 방식을 사용함에 따라, 낮은 신뢰성, 개인 정보 입력의 부적절함, 또는 인식된 데이터를 변경할 수 있는 기회가 부족함 등 다양한 단점이 야기될 수 있다. As a voice recognition-based or gesture-based input method is used, various disadvantages, such as low reliability, inappropriate input of personal information, or lack of opportunity to change recognized data, may occur.
또한, 모든 필기 데이터 및 제어 제스처는 특별한 메커니즘 없이 하나의 스트로크(stroke)로 기록될 수 있으며, 콘텐트(예, 제어 제스처, 텍스트, 도형, 스케치 등)에 대한 자유 형식 입력의 경우 상기 필기 데이터 및 제스처를 다른 제스처 또는 스트로크로 분리하는 것이 매우 복잡할 수 있다.In addition, all handwriting data and control gestures can be recorded as one stroke without a special mechanism, and in the case of free-form input to content (eg, control gestures, text, figures, sketches, etc.), the handwriting data and gestures It can be very complicated to separate the s into different gestures or strokes.
다양한 실시 예에 따른 전자 장치 및 전자 장치에서 인 에어 제스처를 처리하는 방법은, 센서 기반으로 공중에서 입력된 인 에어 제스처에서, 펜 업/다운을 감지하고, 제스처의 종류를 분류하여 상기 제스처 입력을 처리할 수 있다.An electronic device and a method of processing an in-air gesture in an electronic device according to various embodiments of the present disclosure include detecting pen up/down in an in-air gesture input from the air based on a sensor, classifying the type of gesture, and performing the gesture input. can be processed
본 문서의 다양한 실시 예에 따른, 전자 장치는 통신 모듈; 적어도 하나의 프로세서; 디스플레이 모듈; 및 메모리;를 포함하고, 상기 메모리는, 실행 시에, 상기 프로세서가, 상기 통신 모듈을 통해 연결된 디지털 펜으로부터 인 에어 제스처(in-air gesture) 및 버튼 선택 정보를 수신하고, 상기 수신된 인 에어 제스처 및 버튼 선택 정보에 기반하여 제스처 종류를 판단하고, 상기 판단한 제스처 종류에 따라 상기 인 에어 제스처를 인식하고, 상기 인식된 인 에어 제스처를 출력하도록 상기 디스플레이 모듈을 제어하는 인스트럭션들(instructions)을 저장할 수 있다.According to various embodiments of the present disclosure, an electronic device may include a communication module; at least one processor; display module; and a memory; wherein, when executed, the processor receives in-air gesture and button selection information from a digital pen connected through the communication module, and the received in-air Stores instructions for determining a gesture type based on gesture and button selection information, recognizing the in-air gesture according to the determined gesture type, and controlling the display module to output the recognized in-air gesture. can
본 문서의 다양한 실시 예에 따른 전자 장치에서 인 에어 제스처를 처리하는 방법은, 상기 전자 장치의 통신 모듈을 통해 연결된 디지털 펜으로부터 인 에어 제스처(in-air gesture) 및 버튼 선택 정보를 수신하는 동작; 상기 수신된 인 에어 제스처 및 버튼 선택 정보에 기반하여 제스처 종류를 판단하는 동작; 상기 판단한 제스처 종류에 따라 상기 인 에어 제스처를 인식하는 동작; 및 상기 인식된 인 에어 제스처를 출력하는 동작;을 포함할 수 있다.According to various embodiments of the present disclosure, a method of processing an in-air gesture in an electronic device includes: receiving in-air gesture and button selection information from a digital pen connected through a communication module of the electronic device; determining a gesture type based on the received in-air gesture and button selection information; recognizing the in-air gesture according to the determined gesture type; and outputting the recognized in-air gesture.
본 문서의 다양한 실시 예에 따른 전자 장치 및 전자 장치에서 인 에어 제스처를 처리하는 방법은, 사용자의 인 에어 제스처를 종류에 따라 분류하여 처리함에 따라, 사용자가 직관적으로 전자 장치를 제어하도록 할 수 있다.An electronic device and a method of processing an in-air gesture in the electronic device according to various embodiments of the present document classify and process the user's in-air gesture according to types, so that the user can intuitively control the electronic device .
도 1은 본 문서의 다양한 실시 예에 따른 네트워크 환경 내의 전자 장치의 블럭도이다. 1 is a block diagram of an electronic device in a network environment according to various embodiments of the present disclosure;
도 2a는 본 문서의 다양한 실시 예에 따라, 전자 장치로 인 에어 제스처가 입력되는 상황의 일 예를 도시한 도면이다. 2A is a diagram illustrating an example of a situation in which an in-air gesture is input to an electronic device, according to various embodiments of the present disclosure;
도 2b는 본 문서의 다양한 실시 예에 따라, 전자 장치로 인 에어 제스처가 입력되는 상황의 일 예를 도시한 도면이다.2B is a diagram illustrating an example of a situation in which an in-air gesture is input to an electronic device, according to various embodiments of the present disclosure;
도 2c는 본 문서의 다양한 실시 예에 따라, 전자 장치로 인 에어 제스처가 입력되는 상황의 일 예를 도시한 도면이다.2C is a diagram illustrating an example of a situation in which an in-air gesture is input to an electronic device, according to various embodiments of the present disclosure;
도 2d는 본 문서의 다양한 실시 예에 따라, 전자 장치로 인 에어 제스처가 입력되는 상황의 일 예를 도시한 도면이다.2D is a diagram illustrating an example of a situation in which an in-air gesture is input to an electronic device, according to various embodiments of the present disclosure;
도 2e는 본 문서의 다양한 실시 예에 따라, 전자 장치로 인 에어 제스처가 입력되는 상황의 일 예를 도시한 도면이다.2E is a diagram illustrating an example of a situation in which an in-air gesture is input to an electronic device, according to various embodiments of the present disclosure;
도 3a는 본 문서의 다양한 실시 예에 따른 전자 장치 및 디지털 펜 구성의 일 예를 도시한 블록도이다. 3A is a block diagram illustrating an example of a configuration of an electronic device and a digital pen according to various embodiments of the present disclosure;
도 3b는 본 문서의 다양한 실시 예에 따른 인 에어 제스처의 입력 및 출력의 다양한 예들을 도시한 도면이다. 3B is a diagram illustrating various examples of input and output of an in-air gesture according to various embodiments of the present disclosure.
도 4는 본 문서의 다양한 실시 예에 따른 인 에어 제스처의 종류를 분류하는 동작의 일 예를 도시한 흐름도이다. 4 is a flowchart illustrating an example of an operation of classifying types of in-air gestures according to various embodiments of the present disclosure.
도 5는 본 문서의 다양한 실시 예에 따라, 사용자의 인 에어 제스처에서 펜 업/다운을 필터링하는 동작의 일 예를 도시한 도면이다. 5 is a diagram illustrating an example of an operation of filtering a pen up/down in a user's in-air gesture, according to various embodiments of the present disclosure;
도 6은 본 문서의 다양한 실시 예에 따라, 필터링된 제스처를 텍스트로 출력하는 동작의 일 예를 도시한 흐름도이다. 6 is a flowchart illustrating an example of an operation of outputting a filtered gesture as text, according to various embodiments of the present disclosure.
도 7은 본 문서의 다양한 실시 예에 따라, 전자 장치에서 텍스트 형태의 인 에어 제스처를 처리하는 동작의 일 예를 도시한 도면이다. 7 is a diagram illustrating an example of an operation of processing an in-air gesture in a text form in an electronic device, according to various embodiments of the present disclosure;
도 8은 본 문서의 다양한 실시 예에 따라, 전자 장치에서 도형 형태의 인 에어 제스처를 처리하는 동작의 일 예를 도시한 도면이다. 8 is a diagram illustrating an example of an operation of processing an in-air gesture in the form of a figure in an electronic device, according to various embodiments of the present disclosure;
도 9는 본 문서의 다양한 실시 예에 따라, 전자 장치에서 인 에어 제스처를 이용하여 표시 객체를 선택하는 동작의 일 예를 도시한 도면이다.9 is a diagram illustrating an example of an operation of selecting a display object using an in-air gesture in an electronic device, according to various embodiments of the present disclosure;
도 10은 본 문서의 다양한 실시 예에 따라, 전자 장치에서 인 에어 제스처를 이용하여 표시 객체를 제어하는 동작의 일 예를 도시한 도면이다.10 is a diagram illustrating an example of an operation of controlling a display object using an in-air gesture in an electronic device, according to various embodiments of the present disclosure;
도 11은 본 문서의 다양한 실시 예에 따라, 전자 장치에서 인 에어 제스처를 이용하여 3D 모델링을 수행하는 동작의 일 예를 도시한 도면이다.11 is a diagram illustrating an example of an operation of performing 3D modeling using an in-air gesture in an electronic device, according to various embodiments of the present disclosure;
도 12는 본 문서의 다양한 실시 예에 따라, 인 에어 제스처를 이용하여 스마트 TV를 제어하는 동작의 일 예를 도시한 도면이다. 12 is a diagram illustrating an example of an operation of controlling a smart TV using an in-air gesture, according to various embodiments of the present disclosure.
도 13은 본 문서의 다양한 실시 예에 따라, 전자 장치에서 사용자의 인 에어 제스처를 종류에 따라 처리하는 동작의 일 예를 도시한 도면이다. 13 is a diagram illustrating an example of an operation of processing a user's in-air gesture according to a type in an electronic device, according to various embodiments of the present disclosure;
도 14는 본 문서의 다양한 실시 예에 따른, 전자 장치에서 인 에어 제스처를 처리하는 동작의 일 예를 도시한 흐름도이다.14 is a flowchart illustrating an example of an operation of processing an in-air gesture in an electronic device, according to various embodiments of the present disclosure.
도 15는 본 문서의 다양한 실시 예에 따라, 전자 장치와 디지털 펜 간의 인 에어 제스처를 처리하는 동작의 일 예를 도시한 흐름도이다.15 is a flowchart illustrating an example of an operation of processing an in-air gesture between an electronic device and a digital pen, according to various embodiments of the present disclosure;
이하, 본 문서의 다양한 실시 예들이 첨부된 도면을 참조하여 기재된다. 실시 예 및 이에 사용된 용어들은 본 문서에 기재된 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 해당 실시 예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 본 문서에서, "A 또는 B" 또는 "A 또는 B 중 적어도 하나" 등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. "제 1," "제 2," "첫째," 또는 "둘째,"등의 표현들은 해당 구성요소들을, 순서 또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에 "(기능적으로 또는 통신적으로) 연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제 3 구성요소)를 통하여 연결될 수 있다. Hereinafter, various embodiments of the present document will be described with reference to the accompanying drawings. Examples and terms used therein are not intended to limit the technology described in this document to specific embodiments, and should be understood to include various modifications, equivalents, or substitutions of the embodiments. In connection with the description of the drawings, like reference numerals may be used for like components. The singular expression may include the plural expression unless the context clearly dictates otherwise. In this document, expressions such as “A or B” or “at least one of A or B” may include all possible combinations of items listed together. Expressions such as "first," "second," "first," or "second," can modify the corresponding elements, regardless of order or importance, and to distinguish one element from another element. It is used only and does not limit the corresponding components. When an (eg, first) component is referred to as being “(functionally or communicatively) connected” or “connected” to another (eg, second) component, that component is It may be directly connected to the component or may be connected through another component (eg, a third component).
본 문서에서, "~하도록 구성된(또는 설정된)(configured to)"은 상황에 따라, 예를 들면, 하드웨어적 또는 소프트웨어적으로 "~에 적합한," "~하는 능력을 가지는," "~하도록 변경된," "~하도록 만들어진," "~를 할 수 있는," 또는 "~하도록 설계된"과 상호 호환적으로(interchangeably) 사용될 수 있다. 어떤 상황에서는, "~하도록 구성된 장치"라는 표현은, 그 장치가 다른 장치 또는 부품들과 함께 "~할 수 있는" 것을 의미할 수 있다. 예를 들면, 문구 "A, B, 및 C를 수행하도록 구성된(또는 설정된) 프로세서"는 해당 동작을 수행하기 위한 전용 프로세서(예: 임베디드 프로세서), 또는 메모리 장치에 저장된 하나 이상의 소프트웨어 프로그램들을 실행함으로써, 해당 동작들을 수행할 수 있는 범용 프로세서(예: CPU 또는 application processor)를 의미할 수 있다. In this document, "configured (or configured to)" means "suitable for," "having the ability to," "modified to," depending on the context, for example, hardware or software. ," "made to," "capable of," or "designed to" may be used interchangeably. In some circumstances, the expression “a device configured to” may mean that the device is “capable of” with other devices or parts. For example, the phrase "a processor configured (or configured to perform) A, B, and C" refers to a dedicated processor (eg, an embedded processor) for performing the corresponding operations, or by executing one or more software programs stored in a memory device. , may refer to a general-purpose processor (eg, a CPU or an application processor) capable of performing corresponding operations.
본 문서의 다양한 실시 예들에 따른 전자 장치는, 예를 들면, 스마트폰, 태블릿 PC, 이동 전화기, 영상 전화기, 전자책 리더기, 데스크탑 PC, 랩탑 PC, 넷북 컴퓨터, 워크스테이션, 서버, PDA, PMP(portable multimedia player), MP3 플레이어, 의료기기, 카메라, 또는 웨어러블 장치 중 적어도 하나를 포함할 수 있다. 웨어러블 장치는 액세서리형(예: 시계, 반지, 팔찌, 발찌, 목걸이, 안경, 콘택트 렌즈, 또는 머리 착용형 장치(head-mounted-device(HMD)), 직물 또는 의류 일체형(예: 전자 의복), 신체 부착형(예: 스킨 패드 또는 문신), 또는 생체 이식형 회로 중 적어도 하나를 포함할 수 있다. 어떤 실시 예들에서, 전자 장치는, 예를 들면, 텔레비전, DVD(digital video disk) 플레이어, 오디오, 냉장고, 에어컨, 청소기, 오븐, 전자레인지, 세탁기, 공기 청정기, 셋톱 박스, 홈 오토매이션 컨트롤 패널, 보안 컨트롤 패널, 미디어 박스(예: 삼성 HomeSyncTM, 애플TVTM, 또는 구글 TVTM), 게임 콘솔(예: XboxTM, PlayStationTM), 전자 사전, 전자 키, 캠코더, 또는 전자 액자 중 적어도 하나를 포함할 수 있다. The electronic device according to various embodiments of the present disclosure may include, for example, a smartphone, a tablet PC, a mobile phone, a video phone, an e-book reader, a desktop PC, a laptop PC, a netbook computer, a workstation, a server, a PDA, a PMP ( portable multimedia player), an MP3 player, a medical device, a camera, or a wearable device. A wearable device may be an accessory (e.g., watch, ring, bracelet, anklet, necklace, eyewear, contact lens, or head-mounted-device (HMD)), a textile or clothing integral (e.g. electronic garment); It may include at least one of a body-worn (eg, skin pad or tattoo) or bioimplantable circuit In some embodiments, the electronic device may include, for example, a television, digital video disk (DVD) player, audio , refrigerator, air conditioner, vacuum cleaner, oven, microwave oven, washing machine, air purifier, set-top box, home automation control panel, security control panel, media box (eg Samsung HomeSync TM , Apple TV TM , or Google TV TM ); It may include at least one of a game console (eg, Xbox TM , PlayStation TM ), an electronic dictionary, an electronic key, a camcorder, or an electronic picture frame.
다른 실시 예에서, 전자 장치는, 각종 의료기기(예: 각종 휴대용 의료측정기기(혈당 측정기, 심박 측정기, 혈압 측정기, 또는 체온 측정기 등), MRA(magnetic resonance angiography), MRI(magnetic resonance imaging), CT(computed tomography), 촬영기, 또는 초음파기 등), 네비게이션 장치, 위성 항법 시스템(GNSS(global navigation satellite system)), EDR(event data recorder), FDR(flight data recorder), 자동차 인포테인먼트 장치, 선박용 전자 장비(예: 선박용 항법 장치, 자이로 콤파스 등), 항공 전자기기(avionics), 보안 기기, 차량용 헤드 유닛(head unit), 산업용 또는 가정용 로봇, 드론(drone), 금융 기관의 ATM, 상점의 POS(point of sales), 또는 사물 인터넷 장치 (예: 전구, 각종 센서, 스프링클러 장치, 화재 경보기, 온도조절기, 가로등, 토스터, 운동기구, 온수탱크, 히터, 보일러 등) 중 적어도 하나를 포함할 수 있다. 어떤 실시 예에 따르면, 전자 장치는 가구, 건물/구조물 또는 자동차의 일부, 전자 보드(electronic board), 전자 사인 수신 장치(electronic signature receiving device), 프로젝터, 또는 각종 계측 기기(예: 수도, 전기, 가스, 또는 전파 계측 기기 등) 중 적어도 하나를 포함할 수 있다. 다양한 실시 예에서, 전자 장치는 플렉서블하거나, 또는 전술한 다양한 장치들 중 둘 이상의 조합일 수 있다. 본 문서의 실시 예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다. 본 문서에서, 사용자라는 용어는 전자 장치를 사용하는 사람 또는 전자 장치를 사용하는 장치(예: 인공지능 전자 장치)를 지칭할 수 있다. In another embodiment, the electronic device may include various medical devices (eg, various portable medical measuring devices (eg, a blood glucose monitor, a heart rate monitor, a blood pressure monitor, or a body temperature monitor), magnetic resonance angiography (MRA), magnetic resonance imaging (MRI), CT (computed tomography), imager, or ultrasound machine, etc.), navigation device, global navigation satellite system (GNSS), event data recorder (EDR), flight data recorder (FDR), automotive infotainment device, marine electronic equipment (e.g. navigation devices for ships, gyro compasses, etc.), avionics, security devices, head units for vehicles, industrial or household robots, drones, ATMs in financial institutions, point of sale (POS) in stores of sales) or IoT devices (eg, light bulbs, various sensors, sprinkler devices, fire alarms, thermostats, street lights, toasters, exercise equipment, hot water tanks, heaters, boilers, etc.). In some embodiments, the electronic device is a piece of furniture, a building/structure or a vehicle, an electronic board, an electronic signature receiving device, a projector, or various measuring devices (eg, water, electricity, gas, or a radio wave measuring device). In various embodiments, the electronic device may be flexible or a combination of two or more of the various devices described above. The electronic device according to the embodiment of the present document is not limited to the above-described devices. In this document, the term user may refer to a person who uses an electronic device or a device (eg, an artificial intelligence electronic device) using the electronic device.
이하, 첨부 도면을 참조하여, 본 문서의 다양한 실시 예에 따른 전자 장치 및 서비스 디스커버리하는 전자 장치 및 방법이 설명된다. 본 문서에서, 사용자라는 용어는 전자 장치를 사용하는 사람 또는 전자 장치를 사용하는 장치(예: 인공지능 전자 장치)를 지칭할 수 있다. Hereinafter, an electronic device and an electronic device and method for service discovery according to various embodiments of the present disclosure will be described with reference to the accompanying drawings. In this document, the term user may refer to a person who uses an electronic device or a device (eg, an artificial intelligence electronic device) using the electronic device.
도 1은 본 문서의 다양한 실시 예에 따른, 네트워크 환경(100) 내의 전자 장치(101)의 블럭도이다. 1 is a block diagram of an electronic device 101 in a network environment 100 according to various embodiments of the present disclosure.
도 1은, 다양한 실시예들에 따른, 네트워크 환경(100) 내의 전자 장치(101)의 블록도이다. 도 1을 참조하면, 네트워크 환경(100)에서 전자 장치(101)는 제 1 네트워크(198)(예: 근거리 무선 통신 네트워크)를 통하여 전자 장치(102)와 통신하거나, 또는 제 2 네트워크(199)(예: 원거리 무선 통신 네트워크)를 통하여 전자 장치(104) 또는 서버(108)와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 서버(108)를 통하여 전자 장치(104)와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 프로세서(120), 메모리(130), 입력 모듈(150), 음향 출력 모듈(155), 디스플레이 모듈(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 연결 단자(178), 햅틱 모듈(179), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 가입자 식별 모듈(196), 또는 안테나 모듈(197)을 포함할 수 있다. 어떤 실시예에서는, 전자 장치(101)에는, 이 구성요소들 중 적어도 하나(예: 연결 단자(178))가 생략되거나, 하나 이상의 다른 구성요소가 추가될 수 있다. 어떤 실시예에서는, 이 구성요소들 중 일부들(예: 센서 모듈(176), 카메라 모듈(180), 또는 안테나 모듈(197))은 하나의 구성요소(예: 디스플레이 모듈(160))로 통합될 수 있다.1 is a block diagram of an electronic device 101 in a network environment 100 according to various embodiments. Referring to FIG. 1 , in a network environment 100 , an electronic device 101 communicates with an electronic device 102 through a first network 198 (eg, a short-range wireless communication network) or a second network 199 . It may communicate with the electronic device 104 or the server 108 through (eg, a long-distance wireless communication network). According to an embodiment, the electronic device 101 may communicate with the electronic device 104 through the server 108 . According to an embodiment, the electronic device 101 includes a processor 120 , a memory 130 , an input module 150 , a sound output module 155 , a display module 160 , an audio module 170 , and a sensor module ( 176), interface 177, connection terminal 178, haptic module 179, camera module 180, power management module 188, battery 189, communication module 190, subscriber identification module 196 , or an antenna module 197 may be included. In some embodiments, at least one of these components (eg, the connection terminal 178 ) may be omitted or one or more other components may be added to the electronic device 101 . In some embodiments, some of these components (eg, sensor module 176 , camera module 180 , or antenna module 197 ) are integrated into one component (eg, display module 160 ). can be
프로세서(120)는, 예를 들면, 소프트웨어(예: 프로그램(140))를 실행하여 프로세서(120)에 연결된 전자 장치(101)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)를 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일실시예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(120)는 다른 구성요소(예: 센서 모듈(176) 또는 통신 모듈(190))로부터 수신된 명령 또는 데이터를 휘발성 메모리(132)에 저장하고, 휘발성 메모리(132)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리(134)에 저장할 수 있다. 일실시예에 따르면, 프로세서(120)는 메인 프로세서(121)(예: 중앙 처리 장치 또는 어플리케이션 프로세서) 또는 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(123)(예: 그래픽 처리 장치, 신경망 처리 장치(NPU: neural processing unit), 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 예를 들어, 전자 장치(101)가 메인 프로세서(121) 및 보조 프로세서(123)를 포함하는 경우, 보조 프로세서(123)는 메인 프로세서(121)보다 저전력을 사용하거나, 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서(123)는 메인 프로세서(121)와 별개로, 또는 그 일부로서 구현될 수 있다.The processor 120, for example, executes software (eg, a program 140) to execute at least one other component (eg, a hardware or software component) of the electronic device 101 connected to the processor 120 . It can control and perform various data processing or operations. According to one embodiment, as at least part of data processing or operation, the processor 120 converts commands or data received from other components (eg, the sensor module 176 or the communication module 190 ) to the volatile memory 132 . may be stored in the volatile memory 132 , and may process commands or data stored in the volatile memory 132 , and store the result data in the non-volatile memory 134 . According to an embodiment, the processor 120 is the main processor 121 (eg, a central processing unit or an application processor) or a secondary processor 123 (eg, a graphic processing unit, a neural network processing unit) a neural processing unit (NPU), an image signal processor, a sensor hub processor, or a communication processor). For example, when the electronic device 101 includes the main processor 121 and the sub-processor 123 , the sub-processor 123 may use less power than the main processor 121 or may be set to be specialized for a specified function. can The auxiliary processor 123 may be implemented separately from or as a part of the main processor 121 .
보조 프로세서(123)는, 예를 들면, 메인 프로세서(121)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(121)를 대신하여, 또는 메인 프로세서(121)가 액티브(예: 어플리케이션 실행) 상태에 있는 동안 메인 프로세서(121)와 함께, 전자 장치(101)의 구성요소들 중 적어도 하나의 구성요소(예: 디스플레이 모듈(160), 센서 모듈(176), 또는 통신 모듈(190))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일실시예에 따르면, 보조 프로세서(123)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성요소(예: 카메라 모듈(180) 또는 통신 모듈(190))의 일부로서 구현될 수 있다. 일실시예에 따르면, 보조 프로세서(123)(예: 신경망 처리 장치)는 인공지능 모델의 처리에 특화된 하드웨어 구조를 포함할 수 있다. 인공지능 모델은 기계 학습을 통해 생성될 수 있다. 이러한 학습은, 예를 들어, 인공지능이 수행되는 전자 장치(101) 자체에서 수행될 수 있고, 별도의 서버(예: 서버(108))를 통해 수행될 수도 있다. 학습 알고리즘은, 예를 들어, 지도형 학습(supervised learning), 비지도형 학습(unsupervised learning), 준지도형 학습(semi-supervised learning) 또는 강화 학습(reinforcement learning)을 포함할 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은, 복수의 인공 신경망 레이어들을 포함할 수 있다. 인공 신경망은 심층 신경망(DNN: deep neural network), CNN(convolutional neural network), RNN(recurrent neural network), RBM(restricted boltzmann machine), DBN(deep belief network), BRDNN(bidirectional recurrent deep neural network), 심층 Q-네트워크(deep Q-networks) 또는 상기 중 둘 이상의 조합 중 하나일 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은 하드웨어 구조 이외에, 추가적으로 또는 대체적으로, 소프트웨어 구조를 포함할 수 있다. The auxiliary processor 123 is, for example, on behalf of the main processor 121 while the main processor 121 is in an inactive (eg, sleep) state, or the main processor 121 is active (eg, executing an application). ), together with the main processor 121, at least one of the components of the electronic device 101 (eg, the display module 160, the sensor module 176, or the communication module 190) It is possible to control at least some of the related functions or states. According to an embodiment, the co-processor 123 (eg, an image signal processor or a communication processor) may be implemented as part of another functionally related component (eg, the camera module 180 or the communication module 190). there is. According to an embodiment, the auxiliary processor 123 (eg, a neural network processing device) may include a hardware structure specialized for processing an artificial intelligence model. Artificial intelligence models can be created through machine learning. Such learning may be performed, for example, in the electronic device 101 itself on which artificial intelligence is performed, or may be performed through a separate server (eg, the server 108). The learning algorithm may include, for example, supervised learning, unsupervised learning, semi-supervised learning, or reinforcement learning, but in the above example not limited The artificial intelligence model may include a plurality of artificial neural network layers. Artificial neural networks include deep neural networks (DNNs), convolutional neural networks (CNNs), recurrent neural networks (RNNs), restricted boltzmann machines (RBMs), deep belief networks (DBNs), bidirectional recurrent deep neural networks (BRDNNs), It may be one of deep Q-networks or a combination of two or more of the above, but is not limited to the above example. The artificial intelligence model may include, in addition to, or alternatively, a software structure in addition to the hardware structure.
메모리(130)는, 전자 장치(101)의 적어도 하나의 구성요소(예: 프로세서(120) 또는 센서 모듈(176))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램(140)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(130)는, 휘발성 메모리(132) 또는 비휘발성 메모리(134)를 포함할 수 있다. The memory 130 may store various data used by at least one component of the electronic device 101 (eg, the processor 120 or the sensor module 176 ). The data may include, for example, input data or output data for software (eg, the program 140 ) and instructions related thereto. The memory 130 may include a volatile memory 132 or a non-volatile memory 134 .
프로그램(140)은 메모리(130)에 소프트웨어로서 저장될 수 있으며, 예를 들면, 운영 체제(142), 미들 웨어(144) 또는 어플리케이션(146)을 포함할 수 있다. The program 140 may be stored as software in the memory 130 , and may include, for example, an operating system 142 , middleware 144 , or an application 146 .
입력 모듈(150)은, 전자 장치(101)의 구성요소(예: 프로세서(120))에 사용될 명령 또는 데이터를 전자 장치(101)의 외부(예: 사용자)로부터 수신할 수 있다. 입력 모듈(150)은, 예를 들면, 마이크, 마우스, 키보드, 키(예: 버튼), 또는 디지털 펜(예: 스타일러스 펜)을 포함할 수 있다. The input module 150 may receive a command or data to be used in a component (eg, the processor 120 ) of the electronic device 101 from the outside (eg, a user) of the electronic device 101 . The input module 150 may include, for example, a microphone, a mouse, a keyboard, a key (eg, a button), or a digital pen (eg, a stylus pen).
음향 출력 모듈(155)은 음향 신호를 전자 장치(101)의 외부로 출력할 수 있다. 음향 출력 모듈(155)은, 예를 들면, 스피커 또는 리시버를 포함할 수 있다. 스피커는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있다. 리시버는 착신 전화를 수신하기 위해 사용될 수 있다. 일실시예에 따르면, 리시버는 스피커와 별개로, 또는 그 일부로서 구현될 수 있다.The sound output module 155 may output a sound signal to the outside of the electronic device 101 . The sound output module 155 may include, for example, a speaker or a receiver. The speaker can be used for general purposes such as multimedia playback or recording playback. The receiver may be used to receive an incoming call. According to one embodiment, the receiver may be implemented separately from or as part of the speaker.
디스플레이 모듈(160)은 전자 장치(101)의 외부(예: 사용자)로 정보를 시각적으로 제공할 수 있다. 디스플레이 모듈(160)은, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일실시예에 따르면, 디스플레이 모듈(160)은 터치를 감지하도록 설정된 터치 센서, 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 압력 센서를 포함할 수 있다. The display module 160 may visually provide information to the outside (eg, a user) of the electronic device 101 . The display module 160 may include, for example, a control circuit for controlling a display, a hologram device, or a projector and a corresponding device. According to an embodiment, the display module 160 may include a touch sensor configured to sense a touch or a pressure sensor configured to measure the intensity of a force generated by the touch.
오디오 모듈(170)은 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 일실시예에 따르면, 오디오 모듈(170)은, 입력 모듈(150)을 통해 소리를 획득하거나, 음향 출력 모듈(155), 또는 전자 장치(101)와 직접 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(102))(예: 스피커 또는 헤드폰)를 통해 소리를 출력할 수 있다.The audio module 170 may convert a sound into an electric signal or, conversely, convert an electric signal into a sound. According to an embodiment, the audio module 170 acquires a sound through the input module 150 , or an external electronic device (eg, a sound output module 155 ) connected directly or wirelessly with the electronic device 101 . A sound may be output through the electronic device 102 (eg, a speaker or headphones).
센서 모듈(176)은 전자 장치(101)의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 사용자 상태)를 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 일실시예에 따르면, 센서 모듈(176)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다. The sensor module 176 detects an operating state (eg, power or temperature) of the electronic device 101 or an external environmental state (eg, user state), and generates an electrical signal or data value corresponding to the sensed state. can do. According to an embodiment, the sensor module 176 may include, for example, a gesture sensor, a gyro sensor, a barometric pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, a color sensor, an IR (infrared) sensor, a biometric sensor, It may include a temperature sensor, a humidity sensor, or an illuminance sensor.
인터페이스(177)는 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 직접 또는 무선으로 연결되기 위해 사용될 수 있는 하나 이상의 지정된 프로토콜들을 지원할 수 있다. 일실시예에 따르면, 인터페이스(177)는, 예를 들면, HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.The interface 177 may support one or more designated protocols that may be used by the electronic device 101 to directly or wirelessly connect with an external electronic device (eg, the electronic device 102 ). According to an embodiment, the interface 177 may include, for example, a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, an SD card interface, or an audio interface.
연결 단자(178)는, 그를 통해서 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 물리적으로 연결될 수 있는 커넥터를 포함할 수 있다. 일실시예에 따르면, 연결 단자(178)는, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.The connection terminal 178 may include a connector through which the electronic device 101 can be physically connected to an external electronic device (eg, the electronic device 102 ). According to an embodiment, the connection terminal 178 may include, for example, an HDMI connector, a USB connector, an SD card connector, or an audio connector (eg, a headphone connector).
햅틱 모듈(179)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 일실시예에 따르면, 햅틱 모듈(179)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.The haptic module 179 may convert an electrical signal into a mechanical stimulus (eg, vibration or movement) or an electrical stimulus that the user can perceive through tactile or kinesthetic sense. According to an embodiment, the haptic module 179 may include, for example, a motor, a piezoelectric element, or an electrical stimulation device.
카메라 모듈(180)은 정지 영상 및 동영상을 촬영할 수 있다. 일실시예에 따르면, 카메라 모듈(180)은 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다.The camera module 180 may capture still images and moving images. According to an embodiment, the camera module 180 may include one or more lenses, image sensors, image signal processors, or flashes.
전력 관리 모듈(188)은 전자 장치(101)에 공급되는 전력을 관리할 수 있다. 일실시예에 따르면, 전력 관리 모듈(188)은, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구현될 수 있다.The power management module 188 may manage power supplied to the electronic device 101 . According to an embodiment, the power management module 188 may be implemented as, for example, at least a part of a power management integrated circuit (PMIC).
배터리(189)는 전자 장치(101)의 적어도 하나의 구성요소에 전력을 공급할 수 있다. 일실시예에 따르면, 배터리(189)는, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.The battery 189 may supply power to at least one component of the electronic device 101 . According to one embodiment, battery 189 may include, for example, a non-rechargeable primary cell, a rechargeable secondary cell, or a fuel cell.
통신 모듈(190)은 전자 장치(101)와 외부 전자 장치(예: 전자 장치(102), 전자 장치(104), 또는 서버(108)) 간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(190)은 프로세서(120)(예: 어플리케이션 프로세서)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일실시예에 따르면, 통신 모듈(190)은 무선 통신 모듈(192)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(194)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제 1 네트워크(198)(예: 블루투스, WiFi(wireless fidelity) direct 또는 IrDA(infrared data association)와 같은 근거리 통신 네트워크) 또는 제 2 네트워크(199)(예: 레거시 셀룰러 네트워크, 5G 네트워크, 차세대 통신 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부의 전자 장치(104)와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성요소(예: 단일 칩)로 통합되거나, 또는 서로 별도의 복수의 구성요소들(예: 복수 칩들)로 구현될 수 있다. 무선 통신 모듈(192)은 가입자 식별 모듈(196)에 저장된 가입자 정보(예: 국제 모바일 가입자 식별자(IMSI))를 이용하여 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크 내에서 전자 장치(101)를 확인 또는 인증할 수 있다. The communication module 190 is a direct (eg, wired) communication channel or a wireless communication channel between the electronic device 101 and an external electronic device (eg, the electronic device 102, the electronic device 104, or the server 108). It can support establishment and communication performance through the established communication channel. The communication module 190 may include one or more communication processors that operate independently of the processor 120 (eg, an application processor) and support direct (eg, wired) communication or wireless communication. According to one embodiment, the communication module 190 is a wireless communication module 192 (eg, a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module) or a wired communication module 194 (eg, : It may include a LAN (local area network) communication module, or a power line communication module). A corresponding communication module among these communication modules is a first network 198 (eg, a short-range communication network such as Bluetooth, wireless fidelity (WiFi) direct, or infrared data association (IrDA)) or a second network 199 (eg, legacy It may communicate with the external electronic device 104 through a cellular network, a 5G network, a next-generation communication network, the Internet, or a computer network (eg, a telecommunication network such as a LAN or a WAN). These various types of communication modules may be integrated into one component (eg, a single chip) or may be implemented as a plurality of components (eg, multiple chips) separate from each other. The wireless communication module 192 uses the subscriber information (eg, International Mobile Subscriber Identifier (IMSI)) stored in the subscriber identification module 196 within a communication network such as the first network 198 or the second network 199 . The electronic device 101 may be identified or authenticated.
무선 통신 모듈(192)은 4G 네트워크 이후의 5G 네트워크 및 차세대 통신 기술, 예를 들어, NR 접속 기술(new radio access technology)을 지원할 수 있다. NR 접속 기술은 고용량 데이터의 고속 전송(eMBB(enhanced mobile broadband)), 단말 전력 최소화와 다수 단말의 접속(mMTC(massive machine type communications)), 또는 고신뢰도와 저지연(URLLC(ultra-reliable and low-latency communications))을 지원할 수 있다. 무선 통신 모듈(192)은, 예를 들어, 높은 데이터 전송률 달성을 위해, 고주파 대역(예: mmWave 대역)을 지원할 수 있다. 무선 통신 모듈(192)은 전자 장치(101), 외부 전자 장치(예: 전자 장치(104)) 또는 네트워크 시스템(예: 제 2 네트워크(199))에 규정되는 다양한 요구사항을 지원할 수 있다. 일실시예에 따르면, 무선 통신 모듈(192)은 eMBB 실현을 위한 Peak data rate(예: 20Gbps 이상), mMTC 실현을 위한 손실 Coverage(예: 164dB 이하), 또는 URLLC 실현을 위한 U-plane latency(예: 다운링크(DL) 및 업링크(UL) 각각 0.5ms 이하, 또는 라운드 트립 1ms 이하)를 지원할 수 있다.The wireless communication module 192 may support a 5G network after a 4G network and a next-generation communication technology, for example, a new radio access technology (NR). NR access technology includes high-speed transmission of high-capacity data (eMBB (enhanced mobile broadband)), minimization of terminal power and access to multiple terminals (mMTC (massive machine type communications)), or high reliability and low latency (URLLC (ultra-reliable and low-latency) -latency communications)). The wireless communication module 192 may support a high frequency band (eg, mmWave band) to achieve a high data rate, for example. The wireless communication module 192 may support various requirements specified in the electronic device 101 , an external electronic device (eg, the electronic device 104 ), or a network system (eg, the second network 199 ). According to an embodiment, the wireless communication module 192 may include a peak data rate (eg, 20 Gbps or more) for realizing eMBB, loss coverage (eg, 164 dB or less) for realizing mMTC, or U-plane latency for realizing URLLC ( Example: downlink (DL) and uplink (UL) each 0.5 ms or less, or round trip 1 ms or less).
안테나 모듈(197)은 신호 또는 전력을 외부(예: 외부의 전자 장치)로 송신하거나 외부로부터 수신할 수 있다. 일실시예에 따르면, 안테나 모듈(197)은 서브스트레이트(예: PCB) 위에 형성된 도전체 또는 도전성 패턴으로 이루어진 방사체를 포함하는 안테나를 포함할 수 있다. 일실시예에 따르면, 안테나 모듈(197)은 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다. 이런 경우, 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 적어도 하나의 안테나가, 예를 들면, 통신 모듈(190)에 의하여 상기 복수의 안테나들로부터 선택될 수 있다. 신호 또는 전력은 상기 선택된 적어도 하나의 안테나를 통하여 통신 모듈(190)과 외부의 전자 장치 간에 송신되거나 수신될 수 있다. 어떤 실시예에 따르면, 방사체 이외에 다른 부품(예: RFIC(radio frequency integrated circuit))이 추가로 안테나 모듈(197)의 일부로 형성될 수 있다. The antenna module 197 may transmit or receive a signal or power to the outside (eg, an external electronic device). According to an embodiment, the antenna module 197 may include an antenna including a conductor formed on a substrate (eg, a PCB) or a radiator formed of a conductive pattern. According to an embodiment, the antenna module 197 may include a plurality of antennas (eg, an array antenna). In this case, at least one antenna suitable for a communication method used in a communication network such as the first network 198 or the second network 199 is connected from the plurality of antennas by, for example, the communication module 190 . can be selected. A signal or power may be transmitted or received between the communication module 190 and an external electronic device through the selected at least one antenna. According to some embodiments, other components (eg, a radio frequency integrated circuit (RFIC)) other than the radiator may be additionally formed as a part of the antenna module 197 .
다양한 실시예에 따르면, 안테나 모듈(197)은 mmWave 안테나 모듈을 형성할 수 있다. 일실시예에 따르면, mmWave 안테나 모듈은 인쇄 회로 기판, 상기 인쇄 회로 기판의 제 1 면(예: 아래 면)에 또는 그에 인접하여 배치되고 지정된 고주파 대역(예: mmWave 대역)을 지원할 수 있는 RFIC, 및 상기 인쇄 회로 기판의 제 2 면(예: 윗 면 또는 측 면)에 또는 그에 인접하여 배치되고 상기 지정된 고주파 대역의 신호를 송신 또는 수신할 수 있는 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다.According to various embodiments, the antenna module 197 may form a mmWave antenna module. According to one embodiment, the mmWave antenna module comprises a printed circuit board, an RFIC disposed on or adjacent to a first side (eg, bottom side) of the printed circuit board and capable of supporting a designated high frequency band (eg, mmWave band); and a plurality of antennas (eg, an array antenna) disposed on or adjacent to a second side (eg, top or side) of the printed circuit board and capable of transmitting or receiving signals of the designated high frequency band. can do.
상기 구성요소들 중 적어도 일부는 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input and output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))을 통해 서로 연결되고 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.At least some of the components are connected to each other through a communication method between peripheral devices (eg, a bus, general purpose input and output (GPIO), serial peripheral interface (SPI), or mobile industry processor interface (MIPI)) and a signal ( eg commands or data) can be exchanged with each other.
일실시예에 따르면, 명령 또는 데이터는 제 2 네트워크(199)에 연결된 서버(108)를 통해서 전자 장치(101)와 외부의 전자 장치(104)간에 송신 또는 수신될 수 있다. 외부의 전자 장치(102, 또는 104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 일실시예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 외부의 전자 장치들(102, 104, 또는 108) 중 하나 이상의 외부의 전자 장치들에서 실행될 수 있다. 예를 들면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로, 또는 사용자 또는 다른 장치로부터의 요청에 반응하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 하나 이상의 외부의 전자 장치들에게 그 기능 또는 그 서비스의 적어도 일부를 수행하라고 요청할 수 있다. 상기 요청을 수신한 하나 이상의 외부의 전자 장치들은 요청된 기능 또는 서비스의 적어도 일부, 또는 상기 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행의 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 상기 결과를, 그대로 또는 추가적으로 처리하여, 상기 요청에 대한 응답의 적어도 일부로서 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 모바일 에지 컴퓨팅(MEC: mobile edge computing), 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다. 전자 장치(101)는, 예를 들어, 분산 컴퓨팅 또는 모바일 에지 컴퓨팅을 이용하여 초저지연 서비스를 제공할 수 있다. 다른 실시예에 있어서, 외부의 전자 장치(104)는 IoT(internet of things) 기기를 포함할 수 있다. 서버(108)는 기계 학습 및/또는 신경망을 이용한 지능형 서버일 수 있다. 일실시예에 따르면, 외부의 전자 장치(104) 또는 서버(108)는 제 2 네트워크(199) 내에 포함될 수 있다. 전자 장치(101)는 5G 통신 기술 및 IoT 관련 기술을 기반으로 지능형 서비스(예: 스마트 홈, 스마트 시티, 스마트 카, 또는 헬스 케어)에 적용될 수 있다. According to an embodiment, the command or data may be transmitted or received between the electronic device 101 and the external electronic device 104 through the server 108 connected to the second network 199 . Each of the external electronic devices 102 or 104 may be the same as or different from the electronic device 101 . According to an embodiment, all or a part of operations executed in the electronic device 101 may be executed in one or more external electronic devices 102 , 104 , or 108 . For example, when the electronic device 101 is to perform a function or service automatically or in response to a request from a user or other device, the electronic device 101 may perform the function or service itself instead of executing the function or service itself. Alternatively or additionally, one or more external electronic devices may be requested to perform at least a part of the function or the service. One or more external electronic devices that have received the request may execute at least a part of the requested function or service, or an additional function or service related to the request, and transmit a result of the execution to the electronic device 101 . The electronic device 101 may process the result as it is or additionally and provide it as at least a part of a response to the request. For this, for example, cloud computing, distributed computing, mobile edge computing (MEC), or client-server computing technology may be used. The electronic device 101 may provide an ultra-low latency service using, for example, distributed computing or mobile edge computing. In another embodiment, the external electronic device 104 may include an Internet of things (IoT) device. Server 108 may be an intelligent server using machine learning and/or neural networks. According to an embodiment, the external electronic device 104 or the server 108 may be included in the second network 199 . The electronic device 101 may be applied to an intelligent service (eg, smart home, smart city, smart car, or health care) based on 5G communication technology and IoT-related technology.
도 2a 내지 2e는 본 문서의 다양한 실시 예에 따라, 전자 장치로 인 에어 제스처가 입력되는 상황의 다양한 예들을 도시한 도면들이다. 2A to 2E are diagrams illustrating various examples of a situation in which an in-air gesture is input to an electronic device, according to various embodiments of the present disclosure;
본 문서의 다양한 실시 예에 따르면, 사용자(202)는 인 에어 제스처를 입력하기 위해, 디지털 펜(201)(예, 스타일러스 펜)을 이용할 수 있다. 예컨대, 상기 디지털 펜(201)은 적어도 하나의 버튼(201a)을 포함하며, 상기 버튼(201a)이 선택됨에 따라 전자 장치(101)에서 인 에어 제스처에 대한 미리 지정된 기능을 수행하도록 할 수 있다. 다양한 실시예에 따라, 후술하는 설명에서는 상기 버튼(201a)이 눌러진 상태를 펜 다운(pen down) 상태라 지칭할 수 있으며, 상기 버튼(201a)의 누름이 해제된 상태를 펜 업(pen up) 상태라 지칭할 수 있다.According to various embodiments of the present disclosure, the user 202 may use the digital pen 201 (eg, a stylus pen) to input an in-air gesture. For example, the digital pen 201 may include at least one button 201a, and when the button 201a is selected, the electronic device 101 may perform a predetermined function for the in-air gesture. According to various embodiments, in the following description, a state in which the button 201a is pressed may be referred to as a pen down state, and a state in which the button 201a is released is referred to as a pen up state. ) can be referred to as a state.
본 문서의 다양한 실시 예에 따른 디지털 펜(예, S 펜TM )에는 제스처를 추적하고, 특히 필기 및 손으로 그린 물체 입력에 사용할 수 있는 관성 시스템(예, 가속도 센서, 자이로 센서)이 장착될 수 있다. The digital pen (eg, S Pen TM ) according to various embodiments of the present document may be equipped with an inertial system (eg, an acceleration sensor, a gyro sensor) that can be used to track gestures and, in particular, to input handwriting and hand-drawn objects. there is.
도 2a를 참조하면, 전자 장치(101)는 웨어러블 장치로서 사용자(202)의 신체 일부(예, 머리)에 착용 가능한 형태일 수 있다. 사용자(202)는 디지털 펜(201)을 이용하여 인 에어 제스처의 일 종류로 손글씨(handwriting) 데이터를 입력할 수 있다. 예컨대, 사용자(202)는 디지털 펜(201)을 이용하여 "hello"에 해당하는 손글씨를 입력할 수 있다. Referring to FIG. 2A , the electronic device 101 may be a wearable device and may be wearable on a body part (eg, head) of a user 202 . The user 202 may input handwriting data as an in-air gesture by using the digital pen 201 . For example, the user 202 may input a handwriting corresponding to "hello" using the digital pen 201 .
도 2b를 참조하면, 전자 장치(101)는 태블릿 PC(tablet personal computer)로서, 디지털 펜(201)의 접촉을 감지하는 디스플레이 모듈(160)을 포함할 수 있다. Referring to FIG. 2B , the electronic device 101 is a tablet personal computer (PC) and may include a display module 160 that detects a contact of the digital pen 201 .
본 문서의 다양한 실시 예에 다르면, 사용자(202)는 디지털 펜(201)을 파지한 상태로 상기 디스플레이 모듈(160) 상에 손글씨를 작성할 수 있다. 예컨대, 상기 전자 장치(101)는 디지털 펜(201)이 디스플레이 모듈(160)과 터치되는 지점을 추적하고, 상기 지점들로 이뤄지는 궤적을 손글씨 데이터(221)로 확인할 수 있다. According to various embodiments of the present disclosure, the user 202 may write handwriting on the display module 160 while holding the digital pen 201 . For example, the electronic device 101 may track a point where the digital pen 201 touches the display module 160 , and may identify a trajectory made up of the points as the handwriting data 221 .
도 2c를 참고하면, 사용자(202)는 디지털 펜(201)을 이용하여 전자 장치(101)의 기능을 제어할 수 있다. 예컨대, 전자 장치(101)에서는 카메라 어플리케이션이 실행될 수 있다. Referring to FIG. 2C , the user 202 may control the function of the electronic device 101 using the digital pen 201 . For example, the electronic device 101 may execute a camera application.
본 문서의 다양한 실시 예에 따르면, 전자 장치(101)에서는 디지털 펜(201)으로부터의 입력에 따라 상기 카메라 어플리케이션에서의 기능을 제어할 수 있다. 예컨대, 상기 전자 장치(101)의 화면상에 카메라 모듈(180)을 통해 획득된 영상이 표시되고, 디지털 펜(201)의 버튼(201a)이 선택되면, 버튼(201a)이 선택된 시점에 전자 장치(101)에 표시된 화면이 촬영될 수 있다. According to various embodiments of the present disclosure, the electronic device 101 may control a function in the camera application according to an input from the digital pen 201 . For example, when an image acquired through the camera module 180 is displayed on the screen of the electronic device 101 and the button 201a of the digital pen 201 is selected, the electronic device at the time when the button 201a is selected. The screen displayed at 101 may be photographed.
도 2d를 참조하면, 전자 장치(101)에서는 디지털 펜(201)을 이용한 콘텐트 편집 기능을 제공할 수 있다. 예컨대, 전자 장치(101)의 사용자는 촬영된 이미지(204)를 선택하고, 상기 디지털 펜(201)을 이용하여 상기 이미지(204) 상으로 입력되는 글씨(예, 'JOSH') 또는 다양한 표시들을 입력할 수 있다. 상기 전자 장치(101)에서는 상기 이미지(204)에 글씨 또는 표시들을 합성하여 화면상에 표시하거나 메모리에 저장할 수 있다. Referring to FIG. 2D , the electronic device 101 may provide a content editing function using the digital pen 201 . For example, the user of the electronic device 101 selects a photographed image 204 , and uses the digital pen 201 to display text (eg, 'JOSH') or various displays input to the image 204 . can be entered. The electronic device 101 may synthesize text or marks in the image 204 and display it on a screen or store it in a memory.
도 2e를 참조하면, 전자 장치(101)는 모니터 형태의 장치일 수 있다. 예컨대, 상기 전자 장치(101)에서는 실행 가능한 다양한 어플리케이션들이 표시될 수 있다. Referring to FIG. 2E , the electronic device 101 may be a monitor type device. For example, various executable applications may be displayed on the electronic device 101 .
본 문서의 다양한 실시 예에 따르면, 전자 장치(101)는 원격으로 디지털 펜(201)의 입력을 감지하고, 상기 어플리케이션들 중 감지된 입력에 대응하는 어플리케이션에 대해 미리 지정된 기능을 수행할 수 있다. 예컨대, 전자 장치(101)는 상기 감지된 입력을 해당 어플리케이션을 선택하고, 실행 시키는 명령으로 확인할 수 있다. According to various embodiments of the present disclosure, the electronic device 101 may remotely detect an input of the digital pen 201 and perform a predetermined function with respect to an application corresponding to the sensed input among the applications. For example, the electronic device 101 may identify the detected input as a command for selecting and executing a corresponding application.
도 3a는 본 문서의 다양한 실시 예에 따른 전자 장치 및 디지털 펜 구성의 일 예를 도시한 블록도이다. 3A is a block diagram illustrating an example of a configuration of an electronic device and a digital pen according to various embodiments of the present disclosure;
도 3a를 참조하면, 전자 장치(101)는 디지털 펜(201)과 통신 연결되어 상기 디지털 펜(201)으로부터 인 에어 제스처에 대응하는 정보를 수신할 수 있다. Referring to FIG. 3A , the electronic device 101 is communicatively connected to the digital pen 201 to receive information corresponding to an in-air gesture from the digital pen 201 .
본 문서의 다양한 실시 예에 따르면, 전자 장치(101)는 프로세서(120), 메모리(130), 디스플레이 모듈(160), 센서 모듈(176) 및 통신 모듈(190)을 포함할 수 있다. 상기 프로세서(120)는 인 에어 제스처 분류 모듈(310), 손글씨 인식 모듈(320), 스케치 및 두들 인식 모듈(330), 도형 및 다이어그램 인식 모듈(340) 또는 공식 인식 모듈(350)을 포함할 수 있다. According to various embodiments of the present disclosure, the electronic device 101 may include a processor 120 , a memory 130 , a display module 160 , a sensor module 176 , and a communication module 190 . The processor 120 may include an in-air gesture classification module 310 , a handwriting recognition module 320 , a sketch and doodle recognition module 330 , a figure and diagram recognition module 340 or an official recognition module 350 . there is.
본 문서의 다양한 실시 예에 따르면, 전자 장치(101)는 웨어러블 장치로서, 안경/헬멧 형태의 HMD 장치, 헤드셋(headset), 헤드 업(head-up) 디스플레이 장치 또는 홀로그래픽(holographic)디스플레이 장치일 수 있으며, 그 외 다양한 형태의 디스플레이 장치가 가능할 수 있다. According to various embodiments of the present disclosure, the electronic device 101 is a wearable device, and may be an HMD device in the form of glasses/helmet, a headset, a head-up display device, or a holographic display device. In addition, various types of display devices may be possible.
본 문서의 다양한 실시 예에 따르면, 프로세서(120)가 다양한 모듈들을 포함하는 것으로 설명하였지만, 상기 구성들 중 일부가 생략 또는 삭제될 수 있으며, 프로세서(120)에서 해당 모듈의 동작을 수행하도록 구성될 수 있다. According to various embodiments of the present document, although the processor 120 has been described as including various modules, some of the components may be omitted or deleted, and the processor 120 may be configured to perform the operation of the module. can
본 문서의 다양한 실시 예에 따르면, 인 에어 제스처 분류 모듈(310)은 디지털 펜(202)을 통해 원격으로 입력되는 인 에어 제스처의 종류를 분류할 수 있다. 예컨대, 상기 인 에어 제스처의 종류는 손글씨, 스케치(sketch), 두들(doodle), 도형(shape), 다이어그램(diagram) 또는 공식(formula)을 포함할 수 있으며, 그 외 다양한 분류 항목을 포함할 수 있다. According to various embodiments of the present document, the in-air gesture classification module 310 may classify the types of in-air gestures remotely input through the digital pen 202 . For example, the type of the in-air gesture may include handwriting, a sketch, a doodle, a shape, a diagram, or a formula, and may include various other classification items. there is.
본 문서의 다양한 실시 예에 따르면, 손글씨 인식 모듈(320)은 인 에어 제스처 분류 모듈(310)로부터 손글씨로 분류된 인 에어 제스처의 데이터를 처리할 수 있다. 예컨대, 손글씨 인식 모듈(320)은 인 에어 제스처에 해당하는 텍스트를 인식하고, 인 에어 제스처를 디스플레이 모듈(160)을 통해 화면상에 텍스트의 형태로 출력할 수 있다. According to various embodiments of the present document, the handwriting recognition module 320 may process data of the in-air gesture classified as handwriting from the in-air gesture classification module 310 . For example, the handwriting recognition module 320 may recognize a text corresponding to the in-air gesture and output the in-air gesture in the form of text on the screen through the display module 160 .
본 문서의 다양한 실시 예에 따르면, 스케치 및 두들 인식 모듈(330)은 인 에어 제스처 분류 모듈(310)로부터 스케치 또는 두들로 분류된 인 에어 제스처의 데이터를 처리할 수 있다. 예컨대, 스케치 및 두들 인식 모듈(330)은 인 에어 제스처에서 특징을 추출하고, 상기 추출한 특징에 대응하는 사진 또는 객체의 이미지를 디스플레이 모듈(160)을 통해 화면상에 출력할 수 있다. According to various embodiments of the present disclosure, the sketch and doodle recognition module 330 may process data of the in-air gesture classified into sketches or doodles from the in-air gesture classification module 310 . For example, the sketch and doodle recognition module 330 may extract a feature from the in-air gesture and output a photo or an image of an object corresponding to the extracted feature on the screen through the display module 160 .
본 문서의 다양한 실시 예에 따르면, 도형 및 다이어그램 인식 모듈(340)은 인 에어 제스처 분류 모듈(310)로부터 도형 또는 다이어그램으로 분류된 인 에어 제스처의 데이터를 처리할 수 있다. 예컨대, 도형 및 다이어그램 인식 모듈(340)은 인 에어 제스처에 대응하는 도형 또는 다이어그램을 인식하고, 인 에어 제스처를 인식된 도형 또는 다이어그램의 형태로 디스플레이 모듈(160)을 통해 화면상에 출력할 수 있다. According to various embodiments of the present disclosure, the figure and diagram recognition module 340 may process data of an in-air gesture classified as a figure or diagram from the in-air gesture classification module 310 . For example, the figure and diagram recognition module 340 may recognize a figure or diagram corresponding to the in-air gesture, and output the in-air gesture on the screen through the display module 160 in the form of the recognized figure or diagram. .
본 문서의 다양한 실시 예에 따르면, 공식 인식 모듈(350)은 인 에어 제스처 분류 모듈(310)로부터 공식으로 분류된 인 에어 제스처의 데이터를 처리할 수 있다. 예컨대, 공식 인식 모듈(350)은 인 에어 제스처의 데이터에서 숫자, 수식 기호, 연산자 등을 추출하여, 공식의 형태로 인 에어 제스처를 디스플레이 모듈(160)을 통해 화면상에 출력할 수 있다. According to various embodiments of the present document, the formula recognition module 350 may process the in-air gesture data classified as a formula by the in-air gesture classification module 310 . For example, the formula recognition module 350 may extract numbers, formula symbols, operators, etc. from the data of the in-air gesture, and output the in-air gesture in the form of a formula on the screen through the display module 160 .
본 문서의 다양한 실시 예에 따르면, 메모리(130)는 실행 시에, 상기 프로세서(120)(또는 보조 프로세서(123))가, 상기 통신 모듈(190)을 통해 연결된 디지털 펜으로부터 인 에어 제스처 및 버튼 선택 정보를 수신하고, 상기 수신된 인 에어 제스처 및 버튼 선택 정보에 기반하여 제스처 종류를 판단하고, 상기 판단한 제스처 종류에 따라 상기 인 에어 제스처를 인식하고, 상기 인식된 인 에어 제스처를 출력하도록 상기 디스플레이 모듈을 제어하는 인스트럭션들을 저장할 수 있다.According to various embodiments of the present disclosure, when the memory 130 is executed, the processor 120 (or the auxiliary processor 123 ) receives an in-air gesture and a button from a digital pen connected through the communication module 190 . Receive selection information, determine a gesture type based on the received in-air gesture and button selection information, recognize the in-air gesture according to the determined gesture type, and output the recognized in-air gesture You can store instructions that control the module.
본 문서의 다양한 실시 예에 따르면, 디스플레이 모듈(160)은 프로세서(120)를 통해 출력되는 인 에어 제스처의 데이터를 표시할 수 있다. 예컨대, 상기 인 에어 제스처의 데이터는, 손글씨, 스케치, 두들, 도형, 다이어그램 또는 공식의 형태로 출력되어 디스플레이 모듈(160)에 표시될 수 있다. According to various embodiments of the present disclosure, the display module 160 may display data of the in-air gesture output through the processor 120 . For example, the data of the in-air gesture may be output in the form of handwriting, sketch, doodle, figure, diagram, or formula and displayed on the display module 160 .
본 문서의 다양한 실시 예에 따르면, 센서 모듈(176)은 인 에어 제스처를 감지할 수 있다. 예컨대, 센서 모듈(176)은 제스처 센서, 가속도 센서 또는 근접 센서를 포함할 수 있으며, 그 외 인 에어 제스처를 감지 또는 분류하기 위한 다양한 센서들이 포함될 수 있다. According to various embodiments of the present document, the sensor module 176 may detect an in-air gesture. For example, the sensor module 176 may include a gesture sensor, an acceleration sensor, or a proximity sensor, and various other sensors for detecting or classifying an in-air gesture may be included.
본 문서의 다양한 실시 예에 따르면, 통신 모듈(190)은 전자 장치(101)와 디지털 펜(201)과의 통신 연결을 수행할 수 있다. 예컨대, 상기 통신 모듈(190)은 근거리 통신 방식(예, BLE)을 통해 상기 전자 장치(101)와 디지털 펜(201)을 연결하여, 상기 디지털 펜(201)으로부터의 버튼(201a) 입력 또는 인 에어 제스처와 관련된 정보를 수신할 수 있다. According to various embodiments of the present disclosure, the communication module 190 may perform communication connection between the electronic device 101 and the digital pen 201 . For example, the communication module 190 connects the electronic device 101 and the digital pen 201 through a short-distance communication method (eg, BLE) to input or print a button 201a from the digital pen 201 . Information related to the air gesture may be received.
도 3b는 본 문서의 다양한 실시 예에 따른 인 에어 제스처의 입력 및 출력의 다양한 예들을 도시한 도면이다. 3B is a diagram illustrating various examples of input and output of an in-air gesture according to various embodiments of the present disclosure.
도 3b를 참조하면, 사용자(202)는 디지털 펜(201)을 이용하여 다양한 제스처를 입력할 수 있다. 예컨대, 전자 장치(101)에서는 상기 제스처 입력이 원격으로 입력되는 인 에어 제스처로서, 인 에어 제스처 분류 모듈(310)을 통해 인 에어 제스처의 종류가 분류되도록 제어할 수 있다. Referring to FIG. 3B , the user 202 may input various gestures using the digital pen 201 . For example, as an in-air gesture to which the gesture input is remotely input, the electronic device 101 may control to classify the in-air gesture type through the in-air gesture classification module 310 .
본 문서의 다양한 실시 예에 따르면, 사용자(202)는 'Hello'에 해당하는 제스처(320a)를 입력할 수 있다. 인 에어 제스처 분류 모듈(310)은 입력된 제스처(320a)의 종류를 손글씨로 분류하고, 손글씨 인식 모듈(320)에서 상기 제스처(320a)를 처리하도록 할 수 있다. According to various embodiments of the present document, the user 202 may input a gesture 320a corresponding to 'Hello'. The in-air gesture classification module 310 may classify the type of the input gesture 320a as handwriting, and allow the handwriting recognition module 320 to process the gesture 320a.
본 문서의 다양한 실시 예에 따르면, 손글씨 인식 모듈(320)에서는 상기 제스처(320a)에 해당하는 언어를 확인하고, 해당 언어에서 상기 제스처(320a)에 대응하는 문자를 확인할 수 있다. 상기 확인된 문자는 텍스트 데이터(320b)의 형태로 출력될 수 있다. According to various embodiments of the present document, the handwriting recognition module 320 may identify a language corresponding to the gesture 320a and identify a character corresponding to the gesture 320a in the language. The confirmed character may be output in the form of text data 320b.
본 문서의 다양한 실시 예에 따르면, 사용자(202)는 고양이 그림에 해당하는 제스처(330a)를 입력할 수 있다. 인 에어 제스처 분류 모듈(310)은 입력된 제스처(330a)의 종류를 스케치 또는 두들로 분류하고, 스케치 및 두들 인식 모듈(330)에서 상기 제스처(330a)를 처리하도록 할 수 있다. According to various embodiments of the present disclosure, the user 202 may input a gesture 330a corresponding to a picture of a cat. The in-air gesture classification module 310 may classify the type of the input gesture 330a into sketches or doodles, and allow the sketch and doodle recognition module 330 to process the gesture 330a.
본 문서의 다양한 실시 예에 따르면, 스케치 및 두들 인식 모듈(330)에서는 상기 제스처(330a)에 해당하는 사진 또는 객체를 확인할 수 있다. 상기 확인된 사진 또는 객체는 이미지 데이터(330b)의 형태로 출력될 수 있다. According to various embodiments of the present document, the sketch and doodle recognition module 330 may identify a photo or object corresponding to the gesture 330a. The identified photo or object may be output in the form of image data 330b.
본 문서의 다양한 실시 예에 따르면, 사용자(202)는 다이어그램의 형태의 제스처(340a)를 입력할 수 있다. 인 에어 제스처 분류 모듈(310)은 입력된 제스처(340a)의 종류를 도형 또는 다이어그램으로 분류하고, 도형 및 다이어그램 인식 모듈(340)에서 상기 제스처(340a)를 처리하도록 할 수 있다. According to various embodiments of the present document, the user 202 may input a gesture 340a in the form of a diagram. The in-air gesture classification module 310 may classify the type of the input gesture 340a into a figure or diagram, and allow the figure and diagram recognition module 340 to process the gesture 340a.
본 문서의 다양한 실시 예에 따르면, 도형 및 다이어그램 인식 모듈(340)에서는 상기 제스처(340a)에 해당하는 다이어그램 구조(예, 비율, 색, 수치)를 확인하고, 해당 다이어그램 구조에 따라 상기 제스처(340a)를 다이어그램 객체(340b)의 형태로 출력할 수 있다. According to various embodiments of the present document, the figure and diagram recognition module 340 checks a diagram structure (eg, ratio, color, and numerical value) corresponding to the gesture 340a, and according to the diagram structure, the gesture 340a ) can be output in the form of a diagram object 340b.
본 문서의 다양한 실시 예에 따르면, 사용자(202)는 'E=mc2'에 해당하는 제스처(350a)를 입력할 수 있다. 인 에어 제스처 분류 모듈(310)은 입력된 제스처(350a)의 종류를 공식으로 분류하고, 공식 인식 모듈(350)에서 상기 제스처(350a)를 처리하도록 할 수 있다. According to various embodiments of the present disclosure, the user 202 may input a gesture 350a corresponding to 'E=mc 2 '. The in-air gesture classification module 310 may classify the type of the input gesture 350a into a formula, and allow the formula recognition module 350 to process the gesture 350a.
본 문서의 다양한 실시 예에 따르면, 공식 인식 모듈(350)에서는 상기 제스처(350a)에서, 숫자, 수식 기호, 연산자 등을 추출하고, 추출된 숫자, 수식 기호 또는 연산자를 공식(350b)의 형태로 출력할 수 있다. According to various embodiments of the present disclosure, the formula recognition module 350 extracts a number, a formula symbol, an operator, etc. from the gesture 350a, and converts the extracted number, formula symbol or operator into the form of the formula 350b can be printed out.
다시 도 3a를 참조하면, 디지털 펜(201)은, 버튼(201a), 프로세서(220), 메모리(230), 공진 회로(287), 충전 회로(288), 배터리(289), 통신 회로(290), 안테나(297), 트리거 회로(298) 및/또는 센서(299)를 포함할 수 있다. 어떤 실시예들에서는, 상기 디지털 펜(201)의 프로세서(220), 공진 회로(287)의 적어도 일부 및/또는 통신 회로(290)의 적어도 일부는 인쇄회로기판 상에 또는 칩 형태로 구성될 수 있다. 상기 버튼(201a), 프로세서(220), 공진 회로(287) 및/또는 통신 회로(290)는 메모리(230), 충전 회로(288), 배터리(289), 안테나(297), 트리거 회로(298) 및/또는 센서(299)와 전기적으로 연결될 수 있다.Referring back to FIG. 3A , the digital pen 201 includes a button 201a , a processor 220 , a memory 230 , a resonance circuit 287 , a charging circuit 288 , a battery 289 , and a communication circuit 290 . ), an antenna 297 , a trigger circuit 298 and/or a sensor 299 . In some embodiments, the processor 220 of the digital pen 201, at least a portion of the resonant circuit 287, and/or at least a portion of the communication circuit 290 may be configured on a printed circuit board or in the form of a chip. there is. The button 201a , the processor 220 , the resonant circuit 287 and/or the communication circuit 290 includes a memory 230 , a charging circuit 288 , a battery 289 , an antenna 297 , and a trigger circuit 298 . ) and/or the sensor 299 may be electrically connected.
본 문서의 다양한 실시 예에 따른 버튼(201a)은 물리적인 버튼의 형태로서 디지털 펜(201) 외부에 돌출되어 장착될 수 있다. 예컨대, 프로세서(220)는 상기 버튼(201a)이 선택되면, 상기 버튼(201a)이 선택되는 동안의 시점 정보 및 인 에어 제스처의 정보를 전자 장치(101)로 전송할 수 있다. The button 201a according to various embodiments of the present document may be mounted on the outside of the digital pen 201 in the form of a physical button. For example, when the button 201a is selected, the processor 220 may transmit, to the electronic device 101 , viewpoint information and in-air gesture information while the button 201a is selected.
본 문서의 다양한 실시 예에 따르면, 전자 장치(101)에서는 상기 버튼(201a)이 선택되는 동안에 입력된 인 에어 제스처를 펜 다운(또는 버튼(201a) 선택) 상태의 제스처로 확인하고, 상기 확인된 펜 다운 상태의 제스처를 펜 업 상태의 제스처와 구분하여 처리할 수 있다. According to various embodiments of the present disclosure, the electronic device 101 identifies the in-air gesture input while the button 201a is selected as a gesture in the pen-down (or selects the button 201a) state, and the checked The gesture in the pen-down state may be processed separately from the gesture in the pen-up state.
본 문서의 다양한 실시 예에 따른 프로세서(220)는, 커스터마이즈드(customized) 하드웨어 모듈 또는 소프트웨어(예를 들어, 어플리케이션 프로그램)를 실행하도록 구성된 제너릭(generic) 프로세서를 포함할 수 있다. 상기 프로세서(220)는, 디지털 펜(201)에 구비된 다양한 센서들, 데이터 측정 모듈, 입출력 인터페이스, 디지털 펜(201)의 상태 또는 환경을 관리하는 모듈 또는 통신 모듈 중 적어도 하나를 포함하는 하드웨어적인 구성 요소(기능) 또는 소프트웨어적인 요소(프로그램)를 포함할 수 있다. 상기 프로세서(220)는 예를 들어, 하드웨어, 소프트웨어 또는 펌웨어(firmware) 중 하나 또는 둘 이상의 조합을 포함할 수 있다. 일 실시 예에 따르면, 프로세서(220)는 버튼(예: 버튼(337))의 눌림 상태를 나타내는 정보, 센서(299)에 의하여 획득된 센싱 정보, 및/또는 센싱 정보에 기반하여 계산된 정보(예: 디지털 펜(201)의 위치와 연관된 정보)를, 통신 회로(290)를 통하여 전자 장치(101)로 송신하도록 설정될 수 있다. The processor 220 according to various embodiments of the present document may include a generic processor configured to execute a customized hardware module or software (eg, an application program). The processor 220 includes at least one of various sensors included in the digital pen 201, a data measurement module, an input/output interface, a module for managing the state or environment of the digital pen 201, or a communication module. It may include a component (function) or a software element (program). The processor 220 may include, for example, one or a combination of two or more of hardware, software, and firmware. According to an embodiment, the processor 220 includes information indicating a pressed state of a button (eg, button 337), sensing information acquired by the sensor 299, and/or information calculated based on the sensing information ( For example, information related to the position of the digital pen 201 may be set to be transmitted to the electronic device 101 through the communication circuit 290 .
본 문서의 다양한 실시 예에 따른 공진 회로(287)는, 전자 장치(101)의 디지타이저(예: 표시 장치(160))로부터 발생되는 전자기장 신호에 기반하여 공진될 수 있으며, 공진에 의하여 전자기 공명 방식(electro-magnetic resonance, EMR) 입력 신호(또는, 자기장 및)를 방사할 수 있다. 전자 장치(101)는, 전자기 공명 방식 입력 신호를 이용하여, 전자 장치(101) 상의 디지털 펜(201)의 위치를 확인할 수 있다. 예를 들어, 전자 장치(101)는, 디지타이저 내의 복수 개의 채널들(예: 복수 개의 루프 코일들) 각각에서, 전자기 공명 방식 입력 신호에 의하여 발생되는 유도 기전력(예: 출력 전류)의 크기에 기반하여, 디지털 펜(201)의 위치를 확인할 수 있다. 한편, 상술한 바에서는, 전자 장치(101) 및 디지털 펜(201)이 EMR 방식에 기반하여 동작하는 것과 같이 설명되었지만, 이는 단순히 예시적인 것으로, 전자 장치(101)는 ECR(electrically coupled resonance) 방식에 기반하여 전기장에 기반한 신호를 발생시킬 수도 있다. 디지털 펜(201)의 공진 회로는, 전기장에 의하여 공진될 수 있다. 전자 장치(101)는, 디지털 펜(201)에서의 공진에 의한 복수 개의 채널들(예: 전극들)에서의 전위를 확인할 수 있으며, 전위에 기반하여 디지털 펜(201)의 위치를 확인할 수도 있다. 디지털 펜(201)은, AES(active electrostatic) 방식으로 구현될 수도 있으며, 그 구현 종류에는 제한이 없음을 당업자는 이해할 것이다. 아울러, 전자 장치(101)는 터치 패널의 적어도 하나의 전극과 연관된 커패시턴스(셀프 커패시턴스 또는 뮤추얼 커패시턴스)의 변경에 기반하여 디지털 펜(201)을 검출할 수도 있다. 이 경우, 디지털 펜(201)에는 공진 회로가 포함되지 않을 수도 있다. 본 개시에서 "패널", 또는 "센싱 패널"은, 디지타이저 및 TSP(touch screen panel)를 포괄하는 용어로 이용될 수 있다.The resonance circuit 287 according to various embodiments of the present disclosure may resonate based on an electromagnetic field signal generated from a digitizer (eg, the display device 160 ) of the electronic device 101 , and by resonance, an electromagnetic resonance method It can radiate (electro-magnetic resonance, EMR) input signal (or magnetic field and). The electronic device 101 may identify the position of the digital pen 201 on the electronic device 101 by using the electromagnetic resonance method input signal. For example, the electronic device 101, in each of a plurality of channels (eg, a plurality of loop coils) in the digitizer, based on the magnitude of an induced electromotive force (eg, output current) generated by an electromagnetic resonance input signal Thus, the position of the digital pen 201 may be confirmed. Meanwhile, in the above-mentioned bar, although it has been described that the electronic device 101 and the digital pen 201 operate based on the EMR method, this is merely an example, and the electronic device 101 is electrically coupled resonance (ECR) method. It is also possible to generate a signal based on an electric field based on The resonance circuit of the digital pen 201 may be resonated by an electric field. The electronic device 101 may check a potential in a plurality of channels (eg, electrodes) due to resonance in the digital pen 201 , and may also check a position of the digital pen 201 based on the potential . Those skilled in the art will understand that the digital pen 201 may be implemented in an active electrostatic (AES) method, and there is no limitation in the type of implementation. In addition, the electronic device 101 may detect the digital pen 201 based on a change in capacitance (self capacitance or mutual capacitance) associated with at least one electrode of the touch panel. In this case, the digital pen 201 may not include a resonance circuit. In the present disclosure, “panel” or “sensing panel” may be used as a term encompassing a digitizer and a touch screen panel (TSP).
다양한 실시예에 따라서, 공진 회로(287)를 통하여 패턴을 가지는 신호가 수신될 수 있다. 프로세서(220)는, 공진 회로(287)를 통하여 수신된 신호의 패턴을 분석하여, 분석 결과에 기반하여 동작을 수행할 수 있다. 다양한 실시예에 따른 디지털 펜(201)은, 공진 회로(287)를 통하여 하나의 제 1 통신을 수행할 수 있으며, 통신 회로(290)를 통하여 제 2 통신을 수행할 수 있다. 예를 들어, 디지털 펜(201)은, 전자 장치(101)에 삽입된 경우에 공진 회로(287)를 통하여 전자 장치(101)로부터 정보를 수신할 수 있다. 예를 들어, 디지털 펜(201)은, 전자 장치(101)로부터 탈거된 경우에 통신 회로(290)를 통하여 통신 신호를 수신할 수 있으나, 삽입된 경우에도 통신 회로(290)를 통한 통신 신호 수신이 가능할 수 있다.According to various embodiments, a signal having a pattern may be received through the resonance circuit 287 . The processor 220 may analyze a pattern of a signal received through the resonance circuit 287 and perform an operation based on the analysis result. The digital pen 201 according to various embodiments may perform one first communication through the resonance circuit 287 and may perform a second communication through the communication circuit 290 . For example, when the digital pen 201 is inserted into the electronic device 101 , the digital pen 201 may receive information from the electronic device 101 through the resonance circuit 287 . For example, the digital pen 201 may receive a communication signal through the communication circuit 290 when it is removed from the electronic device 101 , but receives a communication signal through the communication circuit 290 even when inserted. This may be possible.
본 문서의 다양한 실시 예에 따른 메모리(230)는, 디지털 펜(201)의 동작에 관련된 정보를 저장할 수 있다. 예를 들어, 상기 정보는 상기 전자 장치(101)와의 통신을 위한 정보 및 디지털 펜(201)의 입력 동작에 관련된 주파수 정보를 포함할 수 있다. 아울러, 메모리(230)는, 센서(299)의 센싱 데이터로부터 디지털 펜(201)의 위치에 대한 정보(예: 좌표 정보, 및/또는 변위 정보)를 계산하기 위한 프로그램(또는, 어플리케이션, 알고리즘, 또는 처리 루프)을 저장할 수도 있다. 메모리(230)는, 통신 회로(290)의 통신 스택을 저장할 수도 있다. 구현에 따라, 통신 회로(290) 및/또는 프로세서(220)는 전용 메모리를 포함할 수도 있다.The memory 230 according to various embodiments of the present document may store information related to the operation of the digital pen 201 . For example, the information may include information for communication with the electronic device 101 and frequency information related to an input operation of the digital pen 201 . In addition, the memory 230 includes a program (or application, algorithm, or processing loop). The memory 230 may store a communication stack of the communication circuit 290 . Depending on the implementation, communication circuitry 290 and/or processor 220 may include dedicated memory.
본 문서의 다양한 실시 예에 따른 공진 회로(287)는, 코일(coil)(또는, 인덕터(inductor)) 및/또는 캐패시터(capacitor)를 포함할 수 있다. 상기 공진 회로(287)는, 입력되는 전기장 및/또는 자기장(예: 전자 장치(101)의 디지타이저로부터 발생되는 전기장 및/또는 자기장)에 기반하여 공진할 수 있다. 디지털 펜(201)이 EMR 방식에 의하여 신호를 전송하는 경우, 디지털 펜(201)은 전자 장치(101)의 유도성 패널(inductive panel)로부터 발생되는 전자기장(electromagnetic field)에 기반하여, 공진 주파수를 포함하는 신호를 생성할 수 있다. 디지털 펜(201)이 AES 방식에 의하여 신호를 전송하는 경우, 디지털 펜(201)은 전자 장치(101)와 용량 결합(capacity coupling)을 이용하여 신호를 생성할 수 있다. 디지털 펜(201)이 ECR 방식에 의하여 신호를 전송하는 경우, 디지털 펜(201)은 전자 장치의 용량성(capacitive) 장치로부터 발생되는 전기장(electric field)에 기반하여, 공진 주파수를 포함하는 신호를 생성할 수 있다. 일 실시 예에 따르면, 상기 공진 회로(287)는 사용자의 조작 상태에 따라 전자기장의 세기 또는 주파수를 변경시키는데 이용될 수 있다. 예를 들어, 상기 공진 회로(287)는, 호버링 입력, 드로잉 입력, 버튼 입력 또는 이레이징 입력을 인식하기 위한 다양한 주파수를 제공할 수 있다. 예를 들어, 공진 회로(287)는, 복수 개의 커패시터의 연결 조합에 따라 다양한 공진 주파수를 제공할 수 있거나, 또는 가변 인덕터, 및/또는 가변 커패시터에 기반하여 다양한 공진 주파수를 제공할 수도 있다.The resonance circuit 287 according to various embodiments of the present document may include a coil (or an inductor) and/or a capacitor. The resonance circuit 287 may resonate based on an input electric field and/or magnetic field (eg, an electric field and/or magnetic field generated by a digitizer of the electronic device 101 ). When the digital pen 201 transmits a signal by the EMR method, the digital pen 201 sets a resonance frequency based on an electromagnetic field generated from an inductive panel of the electronic device 101 . It is possible to generate a signal containing When the digital pen 201 transmits a signal using the AES method, the digital pen 201 may generate a signal using the electronic device 101 and capacitive coupling. When the digital pen 201 transmits a signal by the ECR method, the digital pen 201 transmits a signal including a resonant frequency based on an electric field generated from a capacitive device of an electronic device. can create According to an embodiment, the resonance circuit 287 may be used to change the intensity or frequency of the electromagnetic field according to a user's manipulation state. For example, the resonance circuit 287 may provide various frequencies for recognizing a hovering input, a drawing input, a button input, or an erasing input. For example, the resonant circuit 287 may provide various resonant frequencies according to a connection combination of a plurality of capacitors, or may provide various resonant frequencies based on a variable inductor and/or a variable capacitor.
본 문서의 다양한 실시 예에 따른 충전 회로(288)는 스위칭 회로에 기반하여 공진 회로(287)와 연결된 경우, 공진 회로(287)에서 발생되는 공진 신호를 직류 신호로 정류하여 배터리(289)에 제공할 수 있다. 일 실시 예에 따르면, 디지털 펜(201)은 충전 회로(288)에서 감지되는 직류 신호의 전압 레벨을 이용하여, 상기 전자 장치(101)에 디지털 펜(201)이 삽입되었는지 여부를 확인할 수 있다. 또는, 디지털 펜(201)은 충전 회로(288)에서 확인되는 신호에 대응하는 패턴을 확인하여, 디지털 펜(201)이 삽입되었는지 여부를 확인할 수도 있다.When the charging circuit 288 according to various embodiments of the present disclosure is connected to the resonance circuit 287 based on the switching circuit, the resonance signal generated in the resonance circuit 287 is rectified into a DC signal and provided to the battery 289 can do. According to an embodiment, the digital pen 201 may determine whether the digital pen 201 is inserted into the electronic device 101 by using the voltage level of the DC signal detected by the charging circuit 288 . Alternatively, the digital pen 201 may check whether the digital pen 201 is inserted by checking a pattern corresponding to the signal checked by the charging circuit 288 .
본 문서의 다양한 실시 예에 따른 배터리(289)는 디지털 펜(201)의 동작에 요구되는 전력을 저장하도록 구성될 수 있다. 상기 배터리(289)는, 예를 들어, 리튬-이온 배터리, 또는 캐패시터를 포함할 수 있으며, 충전식 또는 교환식일 수 있다. 일 실시 예에 따르면, 배터리(289)는 충전 회로(288)로부터 제공받은 전력(예를 들어, 직류 신호(직류 전력))을 이용하여 충전될 수 있다. The battery 289 according to various embodiments of the present document may be configured to store power required for the operation of the digital pen 201 . The battery 289 may include, for example, a lithium-ion battery or a capacitor, and may be rechargeable or replaceable. According to an embodiment, the battery 289 may be charged using power (eg, a DC signal (direct current power)) provided from the charging circuit 288 .
본 문서의 다양한 실시 예에 따른 통신 회로(290)는, 디지털 펜(201)과 전자 장치(101)의 통신 모듈(190) 간의 무선 통신 기능을 수행하도록 구성될 수 있다. 일 실시 예에 따르면, 통신 회로(290)는 근거리 통신 방식을 이용하여 디지털 펜(201)의 상태 정보, 입력 정보, 및/또는 위치와 연관된 정보를 전자 장치(101)로 전송할 수 있다. 예를 들어, 통신 회로(290)는 트리거 회로(298)를 통해 획득한 디지털 펜(201)의 방향 정보(예: 모션 센서 데이터), 마이크로 폰을 통해 입력된 음성 정보 또는 배터리(289)의 잔량 정보를 전자 장치(101)로 전송할 수 있다. 예를 들어, 통신 회로(290)는, 센서(299)로부터 획득된 센싱 데이터, 및/또는 센싱 데이터에 기반하여 확인된 디지털 펜(201)의 위치와 연관된 정보를 전자 장치(101)로 송신할 수 있다. 예를 들어, 통신 회로(290)는, 디지털 펜(201)에 구비된 버튼(201a)의 상태에 대한 정보를 전자 장치(101)로 송신할 수 있다. 일 예로, 근거리 통신 방식은 블루투스, BLE(bluetooth low energy), NFC, Wi-Fi direct 중 적어도 하나를 포함할 수 있으나, 그 종류에는 제한이 없다.The communication circuit 290 according to various embodiments of the present disclosure may be configured to perform a wireless communication function between the digital pen 201 and the communication module 190 of the electronic device 101 . According to an embodiment, the communication circuit 290 may transmit state information, input information, and/or information related to a location of the digital pen 201 to the electronic device 101 using a short-distance communication method. For example, the communication circuit 290 may include direction information (eg, motion sensor data) of the digital pen 201 acquired through the trigger circuit 298 , voice information input through a microphone, or the remaining amount of the battery 289 . Information may be transmitted to the electronic device 101 . For example, the communication circuit 290 may transmit sensing data obtained from the sensor 299 and/or information related to the position of the digital pen 201 identified based on the sensing data to the electronic device 101 . can For example, the communication circuit 290 may transmit information on the state of the button 201a included in the digital pen 201 to the electronic device 101 . For example, the short-range communication method may include at least one of Bluetooth, Bluetooth low energy (BLE), NFC, and Wi-Fi direct, but there is no limitation on the type.
본 문서의 다양한 실시 예에 따른 안테나(297)는 신호 또는 전력을 외부(예를 들어, 상기 전자 장치(101))로 송신하거나 외부로부터 수신하는데 이용될 수 있다. 일 실시 예에 따르면, 디지털 펜(201)은, 복수의 안테나(297)들을 포함할 수 있고, 이들 중에, 통신 방식에 적합한 적어도 하나의 안테나(297)를 선택할 수 있다. 상기 선택된 적어도 하나의 안테나(297)를 통하여, 통신 회로(290)는 신호 또는 전력을 외부 전자 장치와 교환할 수 있다.The antenna 297 according to various embodiments of the present document may be used to transmit or receive a signal or power to the outside (eg, the electronic device 101). According to an embodiment, the digital pen 201 may include a plurality of antennas 297 , and among them, at least one antenna 297 suitable for a communication method may be selected. Through the selected at least one antenna 297 , the communication circuit 290 may exchange a signal or power with an external electronic device.
본 문서의 다양한 실시 예에 따른 트리거 회로(298)는 적어도 하나의 버튼 또는 센서 회로를 포함할 수 있다. 일 실시 예에 따르면, 프로세서(220)는 디지털 펜(201)의 버튼(201a)의 입력 방식(예를 들어, 터치 또는 눌림) 또는 종류(예를 들어, EMR 버튼 또는 BLE 버튼)를 확인할 수 있다. 일 실시 예에 따르면, 트리거 회로(298)는 버튼(201a)의 입력 신호 또는 센서(299)를 통한 신호를 이용하여 전자 장치(101)로 트리거 신호를 전송할 수 있다.The trigger circuit 298 according to various embodiments of the present document may include at least one button or a sensor circuit. According to an embodiment, the processor 220 may check the input method (eg, touch or press) or type (eg, EMR button or BLE button) of the button 201a of the digital pen 201 . . According to an embodiment, the trigger circuit 298 may transmit a trigger signal to the electronic device 101 using an input signal of the button 201a or a signal through the sensor 299 .
본 문서의 다양한 실시 예에 따른 센서(299)는, 가속도 센서(accelerometer), 자이로 센서(gyro sensor), 및/또는 지자계 센서(geomagnetic sensor)를 포함할 수 있다. 가속도 센서는, 디지털 펜(201)의 리니어한 움직임 및/또는 디지털 펜(201)의 3축에 대한 가속도에 대한 정보를 센싱할 수 있다. 자이로 센서는, 디지털 펜(201)의 회전과 관련된 정보를 센싱할 수 있다. 지자계 센서는, 디지털 펜(201)의 절대 좌표계 내에서의 향하는 방향에 대한 정보를 센싱할 수 있다. 일 실시 예에 따르면, 센서(299)는, 움직임을 측정하기 위한 센서뿐만 아니라, 디지털 펜(201)의 내부의 작동 상태 또는 외부의 환경 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있는 센서, 예를 들어, 배터리 잔량 감지 센서, 압력 센서, 광 센서, 온도 센서, 생체 센서 중 적어도 하나를 포함할 수 있다. 다양한 실시예에 따라서, 프로세서(220)는, 센서(299)로부터 획득한 정보를, 통신 회로(290)를 통하여 전자 장치(101)로 송신할 수 있다. 또는, 프로세서(220)는, 센서(299)로부터 획득한 정보에 기반하여, 디지털 펜(201)의 위치와 연관된 정보(예: 디지털 펜(201)의 좌표 및/또는 디지털 펜(201)의 변위)를, 통신 회로(290)를 통하여 전자 장치(101)로 송신할 수도 있다.The sensor 299 according to various embodiments of the present document may include an acceleration sensor, a gyro sensor, and/or a geomagnetic sensor. The acceleration sensor may sense information about the linear motion of the digital pen 201 and/or the acceleration of the digital pen 201 in three axes. The gyro sensor may sense information related to rotation of the digital pen 201 . The geomagnetic sensor may sense information about a direction in which the digital pen 201 faces within an absolute coordinate system. According to an embodiment, the sensor 299 is not only a sensor for measuring movement, but also a sensor capable of generating an electrical signal or data value corresponding to an internal operating state or external environmental state of the digital pen 201 . , for example, may include at least one of a remaining battery level sensor, a pressure sensor, an optical sensor, a temperature sensor, and a biometric sensor. According to various embodiments, the processor 220 may transmit information obtained from the sensor 299 to the electronic device 101 through the communication circuit 290 . Alternatively, the processor 220, based on the information obtained from the sensor 299 , information related to the position of the digital pen 201 (eg, coordinates of the digital pen 201 and/or the displacement of the digital pen 201 ) ) may be transmitted to the electronic device 101 through the communication circuit 290 .
도 4는 본 문서의 다양한 실시 예에 따른 인 에어 제스처의 종류를 분류하는 동작의 일 예를 도시한 흐름도이다. 4 is a flowchart illustrating an example of an operation of classifying types of in-air gestures according to various embodiments of the present disclosure.
도 4를 참조하면, 410 동작에서 전자 장치(101)는 통신 모듈(190)을 통해 디지털 펜(201)으로부터 전송된 센서 데이터를 획득할 수 있다. 예컨대, 상기 센서 데이터는 디지털 펜(201)의 방향 정보(예: 모션 센서 데이터), 디지털 펜(201)의 버튼(201a) 선택 정보를 포함할 수 있다. Referring to FIG. 4 , in operation 410 , the electronic device 101 may acquire sensor data transmitted from the digital pen 201 through the communication module 190 . For example, the sensor data may include direction information (eg, motion sensor data) of the digital pen 201 and selection information of the button 201a of the digital pen 201 .
420 동작에서 전자 장치(101)는 수신된 제스처 정보로부터 3D(three-dimensional) 제스처를 형성할 수 있다. 예컨대, 전자 장치(101)는 획득된 센서 데이터를 이용하여, 제스처에 대한 3차원적인 궤적을 3D 제스처로 형성할 수 있다. In operation 420 , the electronic device 101 may form a three-dimensional (3D) gesture from the received gesture information. For example, the electronic device 101 may form a three-dimensional trajectory of the gesture as a 3D gesture by using the acquired sensor data.
421 동작에서 전자 장치(101)는 3D 제스처의 특성 정보를 추출할 수 있다. 예컨대, 전자 장치(101)는 상기 3D 제스처에서 깊이 정보 또는 스케일 정보 등의 특정 정보를 추출할 수 있다. In operation 421, the electronic device 101 may extract characteristic information of the 3D gesture. For example, the electronic device 101 may extract specific information such as depth information or scale information from the 3D gesture.
430 동작에서 전자 장치(101)는 3D 제스처에서 유효한 2D 평면(informative two dimensional plane)을 선택할 수 있다. 예컨대, 전자 장치(101)는 3D 제스처에서 사용자의 제스처에 대한 식별이 가능한 평면을 상기 유효한 2D 평면으로 선택할 수 있다. In operation 430 , the electronic device 101 may select an informative two dimensional plane valid in the 3D gesture. For example, in the 3D gesture, the electronic device 101 may select a plane capable of identifying the user's gesture as the valid 2D plane.
440 동작에서 전자 장치(101)는 선택된 유효한 2D 평면의 제스처를 펜 업/다운 상태 정보에 기반하여 필터링할 수 있다. 전자 장치(101)의 프로세서(120)는 상기 디지털 펜(201)의 버튼(201a)이 선택되는 동안 입력된 제스처를 펜 다운(또는 버튼(201a) 선택) 제스처로 확인할 수 있다. 전자 장치(101)는 확인된 펜 다운 상태에서 입력된 제스처를 필터링하고, 상기 필터링된 펜 다운 상태의 제스처를 포함하는 스트로크를 인 에어 제스처 분류 모듈(310)로 전달할 수 있다. In operation 440 , the electronic device 101 may filter the selected valid 2D plane gesture based on the pen up/down state information. The processor 120 of the electronic device 101 may identify a gesture input while the button 201a of the digital pen 201 is selected as a pen-down (or selection of the button 201a) gesture. The electronic device 101 may filter the gesture input in the confirmed pen-down state, and transmit a stroke including the filtered gesture in the pen-down state to the in-air gesture classification module 310 .
441 동작에서 전자 장치(101)는 유효한 2D 평면의 제스처에서 2D 특성 정보를 추출할 수 있다. 예컨대, 2D 평면의 특성 정보는 제스처의 x축 또는 y축 상의 변화량(예, x 또는 y) 또는 펜 업/다운 정보를 포함할 수 있다. In operation 441 , the electronic device 101 may extract 2D characteristic information from a valid 2D plane gesture. For example, the characteristic information of the 2D plane may include a change amount (eg, x or y) or pen-up/down information on the x-axis or y-axis of the gesture.
본 문서의 다양한 실시 예에 따르면, 421 동작 또는 441 동작의 수행 결과, 3D 평면 특성 정보 및 2D 평면 특성 정보가 추출되면, 450 동작에서 전자 장치(101)는 RNN(recurrent neural network) 기반의 인 에어 제스처 분류를 수행할 수 있다. 전자 장치(101)의 프로세서(120)는 인 에어 제스처 분류의 결과를 인 에어 제스처 분류 모듈(310)로 전달할 수 있다. According to various embodiments of the present disclosure, if 3D plane characteristic information and 2D plane characteristic information are extracted as a result of performing operation 421 or 441 , in operation 450 , the electronic device 101 performs in-air operation based on a recurrent neural network (RNN). Gesture classification can be performed. The processor 120 of the electronic device 101 may transmit the in-air gesture classification result to the in-air gesture classification module 310 .
본 문서의 다양한 실시 예에 따르면, 전자 장치(101)는 추출된 3D 평면 특성 정보 및 2D 평면 특성 정보의 조합에 기반하여, 인 에어 제스처를 분류할 수 있다. 예컨대, 전자 장치(101)는 인 에어 제스처 분류를 위한 2D 평면 특성 정보가 충분히 추출되지 않은 경우, 추출된 3D 평면 특성(예, 깊이 정보 또는 스케일 정보) 정보를 더 고려하여 인 에어 제스처를 분류할 수 있다. 전자 장치(101)에서는 공중에서 입력되는 인 에어 제스처의 3D 특성을 더 고려하여 인 에어 제스처를 분류함에 따라, 해당 인 에어 제스처의 특성에 맞는 정확한 분류가 가능할 수 있다. According to various embodiments of the present disclosure, the electronic device 101 may classify the in-air gesture based on a combination of the extracted 3D plane characteristic information and 2D plane characteristic information. For example, when the 2D plane characteristic information for classification of the in-air gesture is not sufficiently extracted, the electronic device 101 may classify the in-air gesture by further considering the extracted 3D plane characteristic (eg, depth information or scale information) information. can As the electronic device 101 classifies the in-air gesture by further considering the 3D characteristic of the in-air gesture input from the air, accurate classification may be possible according to the characteristic of the in-air gesture.
본 문서의 다양한 실시 예에 따르면, 전자 장치(101)는 특정 제스처 종류에 대응하는 2D 제스처의 특성 정보 및 3D 제스처의 특성 정보와 관련된 정보를 저장할 수 있다. 예컨대, 전자 장치(101)는 추출된 2D 제스처의 특성 정보 및 3D 제스처의 특성 정보가 특정 제스처 종류에 해당하는 특성 정보에 대응하는지를 판단하여 인 에어 제스처를 분류할 수 있다. According to various embodiments of the present disclosure, the electronic device 101 may store information related to characteristic information of a 2D gesture and characteristic information of a 3D gesture corresponding to a specific gesture type. For example, the electronic device 101 may classify the in-air gesture by determining whether the extracted characteristic information of the 2D gesture and the characteristic information of the 3D gesture correspond to characteristic information corresponding to a specific gesture type.
460 동작에서 전자 장치(101)의 인 에어 제스처 분류 모듈(310)은 전달된 필터링된 스트로크 또는 인 에어 제스처 분류의 결과를 확인하고, 인식 모듈을 선택할 수 있다. 예컨대, 상기 인식 모듈은 인 에어 제스처 분류 모듈(310), 손글씨 인식 모듈(320), 스케치 및 두들 인식 모듈(330), 도형 및 다이어그램 인식 모듈(340) 또는 공식 인식 모듈(350)을 포함할 수 있으며, 전자 장치(101)는 제스처 분류의 결과에 따라, 필터링된 스트로크 또는 인 에어 제스처에 대해 추출된 2D 평면 특성 정보를 선택된 인식 모듈로 전달하여 해당 인식 모듈에서 스트로크 또는 제스처를 처리하도록 할 수 있다. In operation 460 , the in-air gesture classification module 310 of the electronic device 101 may check the transmitted filtered stroke or a result of the in-air gesture classification and select a recognition module. For example, the recognition module may include an in-air gesture classification module 310 , a handwriting recognition module 320 , a sketch and doodle recognition module 330 , a figure and diagram recognition module 340 or an official recognition module 350 . Also, according to the result of the gesture classification, the electronic device 101 transmits the 2D plane characteristic information extracted for the filtered stroke or the in-air gesture to the selected recognition module so that the corresponding recognition module processes the stroke or gesture. .
도 5는 본 문서의 다양한 실시 예에 따라, 사용자의 인 에어 제스처에서 펜 업/다운을 필터링하는 동작의 일 예를 도시한 도면이다. 5 is a diagram illustrating an example of an operation of filtering a pen up/down in a user's in-air gesture, according to various embodiments of the present disclosure;
도 5를 참조하면, 전자 장치(101)는 사용자가 디지털 펜(201)을 이용하여 입력한 제스처 원본(500)을 확인할 수 있다. Referring to FIG. 5 , the electronic device 101 may identify the original gesture 500 input by the user using the digital pen 201 .
본 문서의 다양한 실시 예에 따르면, 전자 장치(101)는 상기 제스처 원본(500)에서 펜 업/다운을 필터링하여, 움직임 제스처(510) 및 유효한 제스처(520)를 구분할 수 있다. 예컨대, 상기 움직임 제스처(510)은 사용자가 데이터 입력을 준비하기 위해 디지털 펜(201)을 위 혹은 아래 방향으로 움직이는 입력일 수 있다. 상기 유효한 제스처(520)는 사용자가 실제 데이터를 입력하는 제스처로서, 미리 설정된 언어에 따른 단어 혹은 문장, 숫자, 도형, 이미지의 형태를 포함할 수 있다. According to various embodiments of the present disclosure, the electronic device 101 may filter the pen up/down from the original gesture 500 to distinguish the movement gesture 510 and the valid gesture 520 . For example, the movement gesture 510 may be an input in which the user moves the digital pen 201 in an up or down direction to prepare for data input. The valid gesture 520 is a gesture in which the user inputs actual data, and may include the form of a word or sentence, number, figure, or image according to a preset language.
본 문서의 다양한 실시 예에 따르면, 전자 장치(101)는 디지털 펜(201)의 버튼(201a)이 눌려진 상태를 펜 다운 상태로 판단하고, 사용자의 제스처 원본(500) 에서 상기 버튼(201a)이 눌려진 상태(예컨대, 펜 다운 상태)에서의 제스처만을 필터링할 수 있다. 상기 펜 다운 상태(예컨대, 버튼(201a)이 눌려진 상태)에서 입력된 제스처를 유효한 제스처로 분류하고, 펜 업 상태(예컨대, 버튼(201a)이 해제된 상태)에서 입력된 제스처를 움직임 제스처로 분류할 수 있다. 예컨대, 사용자는 사용자가 원하는 제스처 입력을 위해 버튼(201a)을 누른 상태로 제스처를 입력할 수 있으며, 전자 장치(101)는 해당 기간에 입력된 제스처 입력에서 펜 업/다운 상태에 기반하여 움직임 제스처를 필터링(510)하여 실제 사용자가 입력하고자 하는 제스처 입력을 유효한 제스처(520)로 확인할 수 있다. According to various embodiments of the present disclosure, the electronic device 101 determines that the button 201a of the digital pen 201 is pressed as the pen-down state, and the button 201a in the original gesture 500 of the user Only gestures in a pressed state (eg, a pen-down state) can be filtered. A gesture input in the pen-down state (eg, a state in which the button 201a is pressed) is classified as a valid gesture, and a gesture input in a pen-up state (eg, a state in which the button 201a is released) is classified as a movement gesture. can do. For example, the user may input a gesture while pressing the button 201a for a desired gesture input, and the electronic device 101 performs a movement gesture based on the pen up/down state in the gesture input input during the corresponding period. By filtering 510 , a gesture input that the actual user wants to input may be identified as a valid gesture 520 .
본 문서의 다양한 실시 예에 따르면, 전자 장치(101)는 펜 업/다운 필터링 동작의 결과로, 제스처 원본(500)에서 유효한 제스처(520)에 대응하는 데이터를 선택할 수 있다. According to various embodiments of the present disclosure, the electronic device 101 may select data corresponding to the valid gesture 520 from the original gesture 500 as a result of the pen-up/down filtering operation.
도 6은 본 문서의 다양한 실시 예에 따라, 필터링된 제스처를 텍스트로 출력하는 동작의 일 예를 도시한 흐름도이다. 6 is a flowchart illustrating an example of an operation of outputting a filtered gesture as text, according to various embodiments of the present disclosure.
도 6을 참조하면, 610 동작에서 전자 장치(101)에서는 디지털 펜(201)을 이용하여 입력된 제스처에서 펜 업/다운 필터링된 제스처(또는, 스트로크)를 확인할 수 있다. Referring to FIG. 6 , in operation 610 , the electronic device 101 may identify a pen-up/down-filtered gesture (or stroke) from a gesture input using the digital pen 201 .
620 동작에서 전자 장치(101)는 필터링된 제스처에 대한 전처리(pre-processing)를 수행할 수 있다. In operation 620, the electronic device 101 may perform pre-processing on the filtered gesture.
621 동작에서 전자 장치(101)는 필터링된 제스처의 특성을 추출할 수 있다. In operation 621 , the electronic device 101 may extract the filtered characteristic of the gesture.
631 동작에서 전자 장치(101)는 필터링된 제스처에 대한 언어를 감지할 수 있다. 예컨대, 전자 장치(101)는 외부 데이터(예, 언어 설정 또는 위치)에 기반하여 제스처에 대한 언어를 감지할 수 있다. In operation 631 , the electronic device 101 may detect a language for the filtered gesture. For example, the electronic device 101 may detect a language for a gesture based on external data (eg, language setting or location).
640 동작에서 전자 장치(101)는 지식 기반으로 언어를 설정할 수 있다. 예컨대, 전자 장치(101)는 RNN 가중치를 확인하는 641 동작 및 언어 모델을 확인하는 642 동작을 수행할 수 있다. In operation 640 , the electronic device 101 may set a language based on the knowledge. For example, the electronic device 101 may perform operation 641 of checking the RNN weight and operation 642 of checking the language model.
전술된 621 동작 및 641 동작의 수행 결과, 필터링된 제스처에서 특성을 추출하고 및 RNN 가중치를 확인하면, 622 동작에서 전자 장치(101)는 LSTM(long short term memory) RNN 알고리즘을 적용할 수 있다. As a result of performing the above-described operations 621 and 641 , if a characteristic is extracted from the filtered gesture and an RNN weight is checked, in operation 622 , the electronic device 101 may apply a long short term memory (LSTM) RNN algorithm.
전술된 622 동작 및 642 동작의 수행 결과, LSTM RNN 알고리즘을 적용하고, 언어 모델을 확인하면, 623 동작에서 전자 장치(101)는 디코딩을 수행할 수 있다. As a result of performing operations 622 and 642 described above, if the LSTM RNN algorithm is applied and the language model is checked, the electronic device 101 may perform decoding in operation 623 .
650 동작에서 전자 장치(101)는 디코딩의 수행 결과, 인식된 텍스트를 출력할 수 있다. 예컨대, 필터링된 제스처에서 'Hello World'에 해당하는 텍스트를 추출하여 출력할 수 있다. In operation 650 , the electronic device 101 may output the recognized text as a result of decoding. For example, text corresponding to 'Hello World' may be extracted from the filtered gesture and outputted.
도 7은 본 문서의 다양한 실시 예에 따라, 전자 장치에서 텍스트 형태의 인 에어 제스처를 처리하는 동작의 일 예를 도시한 도면이다. 7 is a diagram illustrating an example of an operation of processing an in-air gesture in a text form in an electronic device, according to various embodiments of the present disclosure;
도 7을 참조하면, 전자 장치(101)는 HMD 장치로서, 사용자가 전자 장치(101)를 착용한 상태에서 상기 전자 장치(101)와 통신 연결된 디지털 펜(201)을 이용하여 인 에어 제스처를 입력할 수 있다. Referring to FIG. 7 , the electronic device 101 is an HMD device, and a user inputs an in-air gesture using a digital pen 201 communicatively connected to the electronic device 101 while wearing the electronic device 101 . can do.
본 문서의 다양한 실시 예에 따르면, 전자 장치(101)에서는 VR 영상(700)을 표시할 수 있다. 상기 VR 영상(700)은 사용자가 텍스트 형태의 인 에어 제스처 입력을 입력하는 제스처 입력 키보드(710) 및 상기 입력한 텍스트가 표시되는 제스처 표시 영역(720)을 포함할 수 있다. 상기 제스처 입력 영역(710)은 텍스트를 다양한 형태로 입력하여 검색할 수 있는 검색 창(711) 및 제스처 입력 키보드(710)의 표시를 삭제하기 위한 버튼(712)을 포함할 수 있다. According to various embodiments of the present document, the electronic device 101 may display the VR image 700 . The VR image 700 may include a gesture input keyboard 710 in which the user inputs an in-air gesture input in the form of text, and a gesture display area 720 in which the input text is displayed. The gesture input area 710 may include a search window 711 for searching by inputting text in various forms and a button 712 for deleting the display of the gesture input keyboard 710 .
본 문서의 다양한 실시 예에 따르면, 전자 장치(101)는 텍스트 입력을 위해 키보드 사용이 중요한 환경에 있거나, 텍스트 또는 도형 입력이 불편한 전자 장치(예, HMD 장치, AR/VR 장치 또는 스마트 TV)일 수 있다. According to various embodiments of the present disclosure, the electronic device 101 is an electronic device (eg, an HMD device, an AR/VR device, or a smart TV) that is in an environment in which it is important to use a keyboard for text input or is inconvenient to input text or a figure. can
본 문서의 다양한 실시 예에 따르면, 사용자는 펜으로 글씨를 쓰듯이 원하는 텍스트를 인 에어 제스처로 입력하고, 전자 장치(101)에서는 입력된 인 에어 제스처에서 텍스트를 추출하여 제스처 표시 영역(720)에 표시할 수 있다. 상기 전자 장치(101)는 다양한 상형 문자 형태의 언어(예, 한국어, 중국어, 또는 일본어)에 따른 텍스트를 추출할 수 있다. 다양한 실시예에 따라, 사용자는 사용자가 원하는 제스처 입력을 위해 펜(201)의 버튼(201a)을 누른 상태로 제스처를 입력할 수 있으며, 전자 장치(101)는 도 5의 설명에서 상술한 바와 같이 해당 기간에 입력된 제스처 입력에서 펜 업/다운 상태에 기반하여 움직임 제스처를 필터링하여 실제 사용자가 입력하고자 하는 제스처 입력을 유효한 제스처로 확인할 수 있다.According to various embodiments of the present disclosure, a user inputs a desired text as an in-air gesture as if writing with a pen, and the electronic device 101 extracts text from the input in-air gesture and displays it in the gesture display area 720 . can be displayed The electronic device 101 may extract texts according to various hieroglyphic-type languages (eg, Korean, Chinese, or Japanese). According to various embodiments, the user may input a gesture while pressing the button 201a of the pen 201 for the user to input a desired gesture, and the electronic device 101 may display a gesture as described above with reference to FIG. 5 . The gesture input that the actual user wants to input may be confirmed as a valid gesture by filtering the movement gesture based on the pen up/down state in the gesture input input during the corresponding period.
도 8은 본 문서의 다양한 실시 예에 따라, 전자 장치에서 도형 형태의 인 에어 제스처를 처리하는 동작의 일 예를 도시한 도면이다. 8 is a diagram illustrating an example of an operation of processing an in-air gesture in the form of a figure in an electronic device, according to various embodiments of the present disclosure;
도 8을 참조하면, 전자 장치(101)는 HMD 장치로서, 제1 사용자(801)가 전자 장치(101)를 착용하면, AR의 영상(800)을 표시할 수 있다. 제2 사용자(802)는 상기 전자 장치(101)와 통신 연결된 디지털 펜(201)이 한 상태에서 상기 전자 장치(101)와 통신 연결된 디지털 펜(201)을 파지한 상태로 인 에어 제스처를 입력하는 상황일 수 있다. Referring to FIG. 8 , the electronic device 101 is an HMD device, and when the first user 801 wears the electronic device 101 , an AR image 800 may be displayed. The second user 802 inputs the in-air gesture while holding the digital pen 201 communicatively connected to the electronic device 101 while the digital pen 201 communicatively connected to the electronic device 101 is in one state. could be the situation.
본 문서의 다양한 실시 예에 따르면, 전자 장치(101)는 디지털 펜(201)으로부터 입력되는 인 에어 제스처의 종류를 '스케치'로 판단하여 상기 인 에어 제스처를 처리할 수 있다. According to various embodiments of the present document, the electronic device 101 may determine the type of the in-air gesture input from the digital pen 201 as 'sketch' and process the in-air gesture.
본 문서의 다양한 실시 예에 따르면, 전자 장치(101)는 인체의 근육, 혈관 또는 뼈 구조에 대한 이미지를 AR 화면(800)에 표시할 수 있다. 제2 사용자(801)는 전자 장치(101)를 착용하고 있는 제1 사용자(801)에게 인체 구조에 대한 시각적 설명을 위해, 디지털 펜(201)으로 인 에어 제스처를 입력할 수 있다. According to various embodiments of the present disclosure, the electronic device 101 may display an image of a muscle, blood vessel, or bone structure of the human body on the AR screen 800 . The second user 801 may input an in-air gesture to the first user 801 wearing the electronic device 101 with the digital pen 201 to visually explain the structure of the human body.
본 문서의 다양한 실시 예에 따르면, 제2 사용자(802)는 디지털 펜(201)으로 특정 구조에 대한 설명에 해당하는 스케치를 입력(810)할 수 있다. 상기 전자 장치(101)는 스케치 및 두들 인식 모듈(330)을 통해 상기 스케치 입력(810)을 처리하고, 처리된 스케치 입력(820)을 표시할 수 있다. 예컨대, 전자 장치(101)는 제2 사용자(802)의 스케치 입력(810)에 대한 위치 및 움직임 궤적을 확인하고, 미리 설정된 표시 설정(예, 색, 펜 굵기)을 적용하여 AR 화면(800)에 표시할 수 있다. 다양한 실시예에 따라, 사용자는 사용자가 원하는 제스처 입력을 위해 펜(201)의 버튼(201a)을 누른 상태로 제스처를 입력할 수 있으며, 전자 장치(101)는 도 5의 설명에서 상술한 바와 같이 해당 기간에 입력된 제스처 입력에서 펜 업/다운 상태에 기반하여 움직임 제스처를 필터링하여 실제 사용자가 입력하고자 하는 제스처 입력을 유효한 제스처로 확인할 수 있다.According to various embodiments of the present document, the second user 802 may input 810 a sketch corresponding to a description of a specific structure with the digital pen 201 . The electronic device 101 may process the sketch input 810 through the sketch and doodle recognition module 330 and display the processed sketch input 820 . For example, the electronic device 101 checks the position and movement trajectory of the sketch input 810 of the second user 802 , and applies preset display settings (eg, color, pen thickness) to the AR screen 800 . can be displayed in According to various embodiments, the user may input a gesture while pressing the button 201a of the pen 201 for the user to input a desired gesture, and the electronic device 101 may display a gesture as described above with reference to FIG. 5 . The gesture input that the actual user wants to input may be confirmed as a valid gesture by filtering the movement gesture based on the pen up/down state in the gesture input input during the corresponding period.
도 9는 본 문서의 다양한 실시 예에 따라, 전자 장치에서 인 에어 제스처를 이용하여 표시 객체를 선택하는 동작의 일 예를 도시한 도면이다.9 is a diagram illustrating an example of an operation of selecting a display object using an in-air gesture in an electronic device, according to various embodiments of the present disclosure;
도 9를 참조하면, 전자 장치(101)에서는 AR 화면(900)이 표시될 수 있다. 상기 AR 화면(900)에서는 집 거실을 촬영한 이미지에, 집 거실에 놓여있는 객체들에 대한 정보(910) 및 객체들(예, 화분, 액자, 스탠드 등)을 선택하기 위한 표시가 중첩되어 표시될 수 있다. Referring to FIG. 9 , an AR screen 900 may be displayed on the electronic device 101 . In the AR screen 900, information 910 on objects placed in the living room and a display for selecting objects (eg, flowerpot, picture frame, stand, etc.) are superimposed on the image of the living room of the house. can be
본 문서의 다양한 실시 예에 따르면, 전자 장치(101)는 전자 장치(101)와 통신 연결된 디지털 펜(201)으로부터 입력되는 인 에어 제스처 입력의 종류를 확인하고, 상기 인 에어 제스처를 AR 화면(900)에 표시된 객체를 선택하기 위한 입력으로 확인할 수 있다. 예컨대, 전자 장치(101)는 상기 인 에어 제스처의 움직임 궤적이, AR 화면(900)에 표시된 객체들 중 특정 객체의 모양과 대응하는 경우, 해당 객체를 선택하기 위한 입력으로 확인할 수 있다. 전자 장치(101)에서는 특정 객체의 모양과 대응하는 인 에어 제스처 입력에 대해 해당 인 에어 제스처 입력의 움직임 궤적(예, 921, 922 또는 923)을 표시할 수 있다. According to various embodiments of the present disclosure, the electronic device 101 checks the type of the in-air gesture input input from the digital pen 201 communicatively connected to the electronic device 101 and applies the in-air gesture to the AR screen 900 . ) can be confirmed as an input for selecting the displayed object. For example, when the movement trajectory of the in-air gesture corresponds to the shape of a specific object among the objects displayed on the AR screen 900 , the electronic device 101 may identify the corresponding object as an input for selecting the object. The electronic device 101 may display a movement trajectory (eg, 921 , 922 or 923 ) of the in-air gesture input corresponding to the shape of a specific object and corresponding in-air gesture input.
본 문서의 다양한 실시 예에 따르면, 전자 장치(101)는 특정 객체(예, 화분)에 대한 선택 입력을 확인할 수 있다. 예컨대, 전자 장치(101)는 디지털 펜(201)의 버튼(201a)이 눌렸는지에 따라, 상기 선택 입력이 입력된 것으로 확인할 수 있다. According to various embodiments of the present disclosure, the electronic device 101 may check a selection input for a specific object (eg, a flowerpot). For example, the electronic device 101 may determine that the selection input has been input according to whether the button 201a of the digital pen 201 is pressed.
본 문서의 다양한 실시 예에 따르면, 전자 장치(101)는 특정 객체(예, 화분)에 대한 선택 입력을 입력되면, 해당 객체에 대한 정보(910)를 표시할 수 있다. 예컨대, 상기 정보(910)는 거실에 놓인 화분들(예, 'jade or money tree', 'hedge cactus' 또는 'century plant') 중 해당하는 화분에 대한 정보가 강조 표시될 수 있다. 다양한 실시예에 따라, 사용자는 사용자가 원하는 제스처 입력을 위해 펜(201)의 버튼(201a)을 누른 상태로 제스처를 입력할 수 있으며, 전자 장치(101)는 도 5의 설명에서 상술한 바와 같이 해당 기간에 입력된 제스처 입력에서 펜 업/다운 상태에 기반하여 움직임 제스처를 필터링하여 실제 사용자가 입력하고자 하는 제스처 입력을 유효한 제스처로 확인할 수 있다.According to various embodiments of the present disclosure, when a selection input for a specific object (eg, flowerpot) is input, the electronic device 101 may display information 910 on the corresponding object. For example, in the information 910 , information on a corresponding flowerpot among flowerpots placed in the living room (eg, 'jade or money tree', 'hedge cactus', or 'century plant') may be highlighted. According to various embodiments, the user may input a gesture while pressing the button 201a of the pen 201 for the user to input a desired gesture, and the electronic device 101 may display a gesture as described above with reference to FIG. 5 . The gesture input that the actual user wants to input may be confirmed as a valid gesture by filtering the movement gesture based on the pen up/down state in the gesture input input during the corresponding period.
본 문서의 다양한 실시 예에 따르면, 전자 장치(101)는 디지털 펜(201)으로부터의 인 에어 제스처 입력을 분류하고 처리함에 따라, 사용자가 AR 화면(900)에 표시된 객체를 편리하게 조작하도록 할 수 있다. According to various embodiments of the present disclosure, as the electronic device 101 classifies and processes the in-air gesture input from the digital pen 201 , the user can conveniently manipulate the object displayed on the AR screen 900 . there is.
도 10은 본 문서의 다양한 실시 예에 따라, 전자 장치에서 인 에어 제스처를 이용하여 표시 객체를 제어하는 동작의 일 예를 도시한 도면이다.10 is a diagram illustrating an example of an operation of controlling a display object using an in-air gesture in an electronic device, according to various embodiments of the present disclosure;
도 10을 참조하면, 전자 장치(101)에서는 AR 화면(1000)이 표시될 수 있다. 상기 AR 화면(1000)에는 전자 장치(101)와 통신 연결된 청소기 장치(1001)가 촬영되어 표시될 수 있다. Referring to FIG. 10 , the AR screen 1000 may be displayed on the electronic device 101 . On the AR screen 1000 , the vacuum cleaner device 1001 communicatively connected to the electronic device 101 may be photographed and displayed.
본 문서의 다양한 실시 예에 따르면, 청소기 장치(1001)는 전자 장치(101)로부터의 제어 명령에 따라 동작할 수 있으며, 전자 장치(101)는 디지털 펜(201)을 이용한 인 에어 제스처를 입력하여 상기 청소기 장치(1001)를 제어할 수 있다. According to various embodiments of the present disclosure, the cleaner device 1001 may operate according to a control command from the electronic device 101 , and the electronic device 101 may input an in-air gesture using the digital pen 201 to The cleaner apparatus 1001 may be controlled.
본 문서의 다양한 실시 예에 따르면, 사용자는 디지털 펜(201)을 이용하여, 청소기 장치(1001)에 대한 명령에 해당하는 입력(1010)을 인 에어 제스처로 입력할 수 있다. 예컨대, 상기 사용자는 명령의 대상이 청소기 장치(1001)임을 나타내는 화살표 및 상기 청소기 장치(1001)의 청소 기능의 수행을 명령하기 위해, 'Clean'에 해당하는 텍스트를 입력할 수 있다. 다양한 실시예에 따라, 사용자는 사용자가 원하는 제스처 입력을 위해 펜(201)의 버튼(201a)을 누른 상태로 제스처를 입력할 수 있으며, 전자 장치(101)는 도 5의 설명에서 상술한 바와 같이 해당 기간에 입력된 제스처 입력에서 펜 업/다운 상태에 기반하여 움직임 제스처를 필터링하여 실제 사용자가 입력하고자 하는 제스처 입력을 유효한 제스처로 확인할 수 있다.According to various embodiments of the present disclosure, the user may use the digital pen 201 to input an input 1010 corresponding to a command to the cleaner apparatus 1001 as an in-air gesture. For example, the user may input an arrow indicating that the target of the command is the cleaner device 1001 and text corresponding to 'Clean' to instruct the cleaner device 1001 to perform a cleaning function. According to various embodiments, the user may input a gesture while pressing the button 201a of the pen 201 for the user to input a desired gesture, and the electronic device 101 may display a gesture as described above with reference to FIG. 5 . The gesture input that the actual user wants to input may be confirmed as a valid gesture by filtering the movement gesture based on the pen up/down state in the gesture input input during the corresponding period.
본 문서의 다양한 실시 예에 따르면, 전자 장치(101)는 상기 입력(1010)으로부터 인식된 텍스트에 대응하는 명령으로 청소기 장치(1001)의 '청소 기능'을 확인하고, 청소기 장치(1001)가 청소 기능을 수행하도록 제어할 수 있다. According to various embodiments of the present disclosure, the electronic device 101 checks the 'cleaning function' of the cleaner device 1001 with a command corresponding to the text recognized from the input 1010 , and the cleaner device 1001 cleans It can be controlled to perform a function.
본 문서의 다양한 실시 예에 따르면, 사용자는 청소기 장치(1001)에 대한 추가 명령으로 디지털 펜(201)으로 가상의 벽(1020)을 그려 입력할 수 있다. 전자 장치(101)에서는 상기 가상의 벽(1020)을 상기 청소기 장치(1001)의 청소 영역을 설정한 것으로 판단하고, 상기 청소기 장치(1001)가 상기 가상의 벽(1020)에 해당하는 영역을 청소하지 않도록 제어할 수 있다. According to various embodiments of the present disclosure, the user may draw and input the virtual wall 1020 with the digital pen 201 as an additional command for the cleaner device 1001 . The electronic device 101 determines that the virtual wall 1020 is the cleaning area of the cleaner apparatus 1001 , and the cleaner apparatus 1001 cleans the area corresponding to the virtual wall 1020 . You can control it not to.
도 11은 본 문서의 다양한 실시 예에 따라, 전자 장치에서 인 에어 제스처를 이용하여 3D 모델링을 수행하는 동작의 일 예를 도시한 도면이다.11 is a diagram illustrating an example of an operation of performing 3D modeling using an in-air gesture in an electronic device, according to various embodiments of the present disclosure;
도 11을 참조하면, 전자 장치(101)에서는 AR 화면(1100)이 표시될 수 있다. 예컨대, 상기 AR 화면(1100)에서는 무대 이미지에 3D 모델링된 의상 그래픽이 표시될 수 있다. Referring to FIG. 11 , an AR screen 1100 may be displayed on the electronic device 101 . For example, on the AR screen 1100, a 3D modeled costume graphic may be displayed on a stage image.
본 문서의 다양한 실시 예에 따르면, 사용자는 디지털 펜(201)을 이용하여 의상 디자인을 스케치하는 인 에어 제스처를 입력할 수 있다. 전자 장치(101)는 인 에어 제스처 분류 모듈(310)을 통해 입력된 인 에어 제스처의 종류가 '스케치'인 것으로 판단하고, 스케치 및 두들 인식 모듈(330)에서 상기 인 에어 제스처를 처리하도록 제어할 수 있다. 다양한 실시예에 따라, 사용자는 사용자가 원하는 제스처 입력을 위해 펜(201)의 버튼(201a)을 누른 상태로 제스처를 입력할 수 있으며, 전자 장치(101)는 도 5의 설명에서 상술한 바와 같이 해당 기간에 입력된 제스처 입력에서 펜 업/다운 상태에 기반하여 움직임 제스처를 필터링하여 실제 사용자가 입력하고자 하는 제스처 입력을 유효한 제스처로 확인할 수 있다.According to various embodiments of the present disclosure, a user may input an in-air gesture of sketching a clothing design using the digital pen 201 . The electronic device 101 determines that the type of the in-air gesture input through the in-air gesture classification module 310 is 'sketch', and controls the sketch and doodle recognition module 330 to process the in-air gesture. can According to various embodiments, the user may input a gesture while pressing the button 201a of the pen 201 for the user to input a desired gesture, and the electronic device 101 may display a gesture as described above with reference to FIG. 5 . The gesture input that the actual user wants to input may be confirmed as a valid gesture by filtering the movement gesture based on the pen up/down state in the gesture input input during the corresponding period.
본 문서의 다양한 실시 예에 따르면, 스케치 및 두들 인식 모듈(330)에서는 '스케치'로 분류된 인 에어 제스처를 처리할 수 있다. 예컨대, 스케치 및 두들 인식 모듈(330)은 입력된 인 에어 제스처를 3D 모델링하여 사용자의 스케치(예, 1110 또는 1120)가 입체적으로 표시되도록 제어할 수 있다. According to various embodiments of this document, the sketch and doodle recognition module 330 may process an in-air gesture classified as 'sketch'. For example, the sketch and doodle recognition module 330 may 3D model the input in-air gesture to control the user's sketch (eg, 1110 or 1120 ) to be three-dimensionally displayed.
본 문서의 다양한 실시 예에 따라, 전자 장치(101)에서는 인 에어 제스처의 종류가 '스케치'로 분류됨에 따라, 스케치 및 두들 인식 모듈(330)에서 스케치를 처리하도록 제어함에 따라, 디지털 펜(201)을 이용하여 쉽게 3D 모델링을 수행하고, 프로토타이핑(prototyping)에 활용할 수 있다. According to various embodiments of the present disclosure, as the type of the in-air gesture is classified as 'sketch' in the electronic device 101, the sketch and doodle recognition module 330 controls to process the sketch, so that the digital pen 201 ) can be used for easy 3D modeling and can be used for prototyping.
도 12는 본 문서의 다양한 실시 예에 따라, 인 에어 제스처를 이용하여 스마트 TV를 제어하는 동작의 일 예를 도시한 도면이다. 12 is a diagram illustrating an example of an operation of controlling a smart TV using an in-air gesture, according to various embodiments of the present disclosure.
도 12를 참조하면, 전자 장치(101)와 통신 연결되어 데스크톱 PC 역할을 수행하는 스마트 TV(1201)가 구비되며, 전자 장치(101)와 통신 연결된 디지털 펜(201)을 이용하여 상기 스마트 TV(1201)를 제어하도록 할 수 있다. 예컨대, 전자 장치(101)는 DeXTM 기반으로 스마트 TV(1201)와 연결될 수 있다. Referring to FIG. 12 , a smart TV 1201 that is communicatively connected to the electronic device 101 to serve as a desktop PC is provided, and the smart TV 1201 is provided using a digital pen 201 communicatively connected to the electronic device 101 ( 1201) can be controlled. For example, the electronic device 101 may be connected to the smart TV 1201 based on DeX TM .
본 문서의 다양한 실시 예에 따르면, 스마트 TV(1201)에서는 전자 장치(101)를 통해 실시간으로 촬영되는 영상(1210)을 포함하는 AR 화면(1201)이 표시될 수 있다. 예컨대, 상기 AR 화면(1201)에는, 인 에어 제스처 입력의 종류를 선택하기 위한 항목들 및 인 에어 제스처 입력 모드를 선택하기 위한 항목들들 포함할 수 있다. 상기 인 에어 제스처 입력의 종류를 선택하기 위한 항목들에는, 두들('doodle')(1211), 스케치('sketch')(1212), 도형('shape')(1213) 또는 텍스트('text')(1214)로 선택하기 위한 항목들을 포함할 수 있다. 상기 인 에어 제스처 입력 모드를 선택하기 위한 항목들은, AR 화면(1201)에 표시된 항목을 선택하기 위한 항목 선택 모드(1221) 또는 인 에어 제스처의 움직임 궤적을 표시하기 위한 제스처 표시 모드(1222)를 선택하기 위한 항목들을 포함할 수 있다. According to various embodiments of the present disclosure, the AR screen 1201 including the image 1210 captured in real time through the electronic device 101 may be displayed on the smart TV 1201 . For example, the AR screen 1201 may include items for selecting a type of in-air gesture input and items for selecting an in-air gesture input mode. Items for selecting the type of the in-air gesture input include a doodle ('doodle') 1211 , a sketch ('sketch') 1212 , a shape ('shape') 1213 , or a text ('text'). ) 1214 may include items for selection. The items for selecting the in-air gesture input mode include an item selection mode 1221 for selecting an item displayed on the AR screen 1201 or a gesture display mode 1222 for displaying the motion trajectory of the in-air gesture. It may include items for
본 문서의 다양한 실시 예에 따르면, 사용자는 항목 선택 모드(1221)가 선택된 상태에서, 디지털 펜(201)으로 스케치(1212) 항목을 가리킬 수 있다. 전자 장치(101)는 상기 스케치(1212) 항목을 가리킨 채로 일정 시간 유지되는 경우, 인 에어 제스처 입력의 종류를 '스케치'로 확인할 수 있다. According to various embodiments of the present disclosure, the user may point to the sketch 1212 item with the digital pen 201 while the item selection mode 1221 is selected. The electronic device 101 may identify the type of the in-air gesture input as 'sketch' when the sketch 1212 item is pointed to and maintained for a predetermined time.
본 문서의 다양한 실시 예에 따르면, 전자 장치(101)는 버튼(201a)이 눌려진 상태로 입력되는 인 에어 제스처를 유효한 제스처로 확인하고, 상기 확인된 인 에어 제스처의 움직임 궤적을 상기 AR 화면(1201) 상에 표시할 수 있다. According to various embodiments of the present disclosure, the electronic device 101 checks the in-air gesture input while the button 201a is pressed as a valid gesture, and determines the movement trajectory of the checked in-air gesture on the AR screen 1201 ) can be displayed on the
본 문서의 다양한 실시 예에 따르면, 전자 장치(101)는 전자 장치(101)와 통신 연결된 다양한 전자 장치들을 제어하기 위해, 인 에어 제스처의 입력을 확인하면, 상기 인 에어 제스처의 종류를 확인하고 확인된 종류에 따라 인 에어 제스처를 처리할 수 있다. According to various embodiments of the present disclosure, when the electronic device 101 checks an input of an in-air gesture to control various electronic devices that are communicatively connected to the electronic device 101, the electronic device 101 checks and confirms the type of the in-air gesture. Depending on the type of in-air gesture, it can be processed.
도 13은 본 문서의 다양한 실시 예에 따라, 전자 장치에서 사용자의 인 에어 제스처를 종류에 따라 처리하는 동작의 일 예를 도시한 도면이다. 13 is a diagram illustrating an example of an operation of processing a user's in-air gesture according to a type in an electronic device, according to various embodiments of the present disclosure;
도 13을 참조하면, 전자 장치(101)는 통신 연결된 디지털 펜(201)을 통한 인 에어 제스처(1310)의 입력을 확인할 수 있다. 사용자가 입력한 인 에어 제스처(1310)는 'ⓜ->ⓔ'에 해당하는 기호(1211) 및 'E=mc2'에 해당하는 수학 공식(1312)를 포함할 수 있다. Referring to FIG. 13 , the electronic device 101 may check an input of the in-air gesture 1310 through the digital pen 201 connected to communication. The in-air gesture 1310 input by the user may include a symbol 1211 corresponding to 'ⓜ->ⓔ' and a mathematical formula 1312 corresponding to 'E=mc 2 '.
본 문서의 다양한 실시 예에 따르면, 전자 장치(101)는 텍스트(1211) 및 수학 공식(1312)를 인 에어 제스처의 종류에 따라 처리할 수 있다. 예컨대, 전자 장치(101)는 상기 기호(1211)는 '도형'로 분류하여 도형 및 다이어그램 인식 모듈(340)에서 처리하도록 제어하고, 상기 수학 공식(1312)는 '공식'으로 분류하여 공식 인식 모듈(350)에서 처리하도록 제어할 수 있다. According to various embodiments of the present disclosure, the electronic device 101 may process the text 1211 and the mathematical formula 1312 according to the type of the in-air gesture. For example, the electronic device 101 classifies the symbol 1211 as a 'figure' and controls the figure and diagram recognition module 340 to process it, and classifies the mathematical formula 1312 as a 'formula' to a formula recognition module It can be controlled to process at 350 .
본 문서의 다양한 실시 예에 따르면, 전자 장치(101)는 입력된 인 에어 제스처(1310)의 처리 결과(1320)를 화면(1300)에 표시할 수 있다. 예컨대, 도형 및 다이어그램 인식 모듈(340)은 상기 기호(1211)에 대응하는 도형, 모양 또는 기호를 확인하고, 전자 장치(101)에서 처리 가능한 문자(1221)로 출력할 수 있다. 공식 인식 모듈(350)은 상기 수학 공식(1212)를 구성하는 문자 또는 수학 연산자를 확인하고, 전자 장치(101)에서 처리 가능한 공식(1222)의 형태로 출력할 수 있다. 다양한 실시예에 따라, 사용자는 사용자가 원하는 제스처 입력을 위해 펜(201)의 버튼(201a)을 누른 상태로 제스처를 입력할 수 있으며, 전자 장치(101)는 도 5의 설명에서 상술한 바와 같이 해당 기간에 입력된 제스처 입력에서 펜 업/다운 상태에 기반하여 움직임 제스처를 필터링하여 실제 사용자가 입력하고자 하는 제스처 입력을 유효한 제스처로 확인할 수 있다.According to various embodiments of the present disclosure, the electronic device 101 may display the processing result 1320 of the input in-air gesture 1310 on the screen 1300 . For example, the figure and diagram recognition module 340 may identify a figure, shape, or sign corresponding to the sign 1211 , and output it as a character 1221 that can be processed by the electronic device 101 . The formula recognition module 350 may identify characters or mathematical operators constituting the mathematical formula 1212 , and output it in the form of a formula 1222 that can be processed by the electronic device 101 . According to various embodiments, the user may input a gesture while pressing the button 201a of the pen 201 for the user to input a desired gesture, and the electronic device 101 may display a gesture as described above with reference to FIG. 5 . The gesture input that the actual user wants to input may be confirmed as a valid gesture by filtering the movement gesture based on the pen up/down state in the gesture input input during the corresponding period.
본 문서의 다양한 실시 예에 따르면, 전자 장치(101)는 다양한 형태로 입력된 인 에어 제스처에 대해, 각 제스처의 종류에 따라 구분하여 처리함에 따라, 사용자의 의도에 따라 해당 제스처에 대한 동작을 수행하도록 할 수 있다. According to various embodiments of the present disclosure, the electronic device 101 classifies and processes input in-air gestures in various forms according to the type of each gesture, and thus performs an operation on the corresponding gesture according to the user's intention. can make it
도 14는 본 문서의 다양한 실시 예에 따른, 전자 장치에서 인 에어 제스처를 처리하는 동작의 일 예를 도시한 흐름도이다.14 is a flowchart illustrating an example of an operation of processing an in-air gesture in an electronic device, according to various embodiments of the present disclosure.
도 14를 참조하면, 1410 동작에서 전자 장치는 상기 전자 장치의 통신 모듈을 통해 연결된 디지털 펜으로부터 인 에어 제스처(in-air gesture) 및 버튼 선택 정보를 수신할 수 있다. 상기 버튼 선택 정보는, 상기 디지털 펜의 버튼의 선택 및 해제 시점을 포함할 수 있다. Referring to FIG. 14 , in operation 1410 , the electronic device may receive an in-air gesture and button selection information from a digital pen connected through a communication module of the electronic device. The button selection information may include selection and release timings of buttons of the digital pen.
본 문서의 다양한 실시 예에 따른 전자 장치에서 인 에어 제스처를 처리하는 방법은, 근거리 통신 연결을 통해 상기 디지털 펜과 연결하는 동작 및 상기 근거리 통신을 통해 상기 디지털 펜으로부터 상기 인 에어 제스처 및 상기 버튼 선택 정보를 수신하는 동작을 더 포함할 수 있다. The method of processing an in-air gesture in an electronic device according to various embodiments of the present document includes an operation of connecting with the digital pen through a short-range communication connection, and selecting the in-air gesture and the button from the digital pen through the short-distance communication The method may further include receiving information.
1420 동작에서 전자 장치는 상기 수신된 인 에어 제스처 및 버튼 선택 정보에 기반하여 제스처 종류를 판단할 수 있다. 예컨대, 상기 제스처 입력의 종류는, 손글씨, 스케치, 도형, 다이어 그램 또는 공식을 포함할 수 있다. In operation 1420, the electronic device may determine a gesture type based on the received in-air gesture and button selection information. For example, the type of the gesture input may include handwriting, sketch, figure, diagram, or formula.
1430 동작에서 전자 장치는 상기 판단한 제스처 종류에 따라 상기 인 에어 제스처를 인식할 수 있다. 예컨대, 전자 장치의 다양한 출력 장치(예, 디스플레이 모듈)을 통해 인식된 인 에어 제스처를 출력할 수 있다. In operation 1430, the electronic device may recognize the in-air gesture according to the determined gesture type. For example, the recognized in-air gesture may be output through various output devices (eg, a display module) of the electronic device.
본 문서의 다양한 실시 예에 따른 전자 장치에서 인 에어 제스처를 처리하는 방법은, 상기 수신된 인 에어 제스처에서 상기 선택 및 해제 시점에 대응하여 입력된 제스처를 인식하는 동작과 상기 제스처 입력의 종류가 상기 손글씨인 경우, 상기 선택 및 해제 시점에 대응하는 제스처에 기반으로 텍스트 데이터를 출력하는 동작을 더 포함할 수 있다. In the method for processing an in-air gesture in an electronic device according to various embodiments of the present disclosure, the operation of recognizing a gesture input in response to the selection and release timings in the received in-air gesture and the type of the gesture input are In the case of handwriting, the method may further include outputting text data based on a gesture corresponding to the selection and release timings.
본 문서의 다양한 실시 예에 따른 전자 장치에서 인 에어 제스처를 처리하는 방법은, 상기 디지털 펜으로부터, 상기 디지털 펜의 가속도 센서 또는 자이로 센서를 통해 감지된 센서 데이터를 수신하는 동작 및 상기 수신된 센서 데이터에 기반하여 상기 인 에어 제스처를 인식하는 동작을 더 포함할 수 있다. According to various embodiments of the present disclosure, a method of processing an in-air gesture in an electronic device includes an operation of receiving sensor data sensed through an acceleration sensor or a gyro sensor of the digital pen from the digital pen, and the received sensor data The method may further include an operation of recognizing the in-air gesture based on
본 문서의 다양한 실시 예에 따른 전자 장치에서 인 에어 제스처를 처리하는 방법은, 상기 수신된 인 에어 제스처는 적어도 두 개의 제스처 종류들에 따라 입력되는 적어도 두 개의 제스처들을 포함하며, 상기 적어도 두 개의 제스처들 각각을 해당하는 제스처 종류에 기반하여 처리하는 동작 및 상기 제스처 종류에 따라 처리된 상기 적어도 두 개의 제스처들이 표시 동작을 더 포함하는, 전자 장치에서의 인 에어 제스처 처리 방법.In the method of processing an in-air gesture in an electronic device according to various embodiments of the present disclosure, the received in-air gesture includes at least two gestures input according to at least two types of gestures, and the at least two gestures The in-air gesture processing method in an electronic device, further comprising an operation of processing each of the gestures based on a corresponding gesture type and an operation of displaying the at least two gestures processed according to the gesture type.
도 15는 본 문서의 다양한 실시 예에 따른 디지털 펜의 전자 장치 탈거 시의 디지털 펜 및 전자 장치의 동작을 설명하기 위한 흐름도이다. 15 is a flowchart illustrating operations of the digital pen and the electronic device when the digital pen is removed from the electronic device according to various embodiments of the present disclosure;
도 15를 참고하면, 1521 동작에서, 디지털 펜(201)은, 전자 장치(101)의 수납 공간으로부터 탈거될 수 있다. 예를 들어, 사용자는, 전자 장치(101)의 수납 공간으로부터 디지털 펜(201)을 꺼낼 수 있다. Referring to FIG. 15 , in operation 1521 , the digital pen 201 may be removed from the storage space of the electronic device 101 . For example, the user may take out the digital pen 201 from the storage space of the electronic device 101 .
1523 동작에서, 전자 장치(101)는, 디지털 펜(201)의 탈거를 감지할 수 있다. 예를 들어, 전자 장치(101)는, 디지털 펜(201)으로부터의 신호 미수신에 기반하여 디지털 펜(201)의 탈거를 감지할 수 있으나, 탈거 감지 방법에는 제한이 없다. In operation 1523 , the electronic device 101 may detect removal of the digital pen 201 . For example, the electronic device 101 may detect the detachment of the digital pen 201 based on non-reception of a signal from the digital pen 201 , but there is no limitation on a detachment detection method.
1525 동작에서, 디지털 펜(201)은, 디지털 펜(201)의 탈거를 감지할 수 있다. 예를 들어, 디지털 펜(201)은, 전자 장치(101)로부터의 신호 미수신에 기반하여 디지털 펜(201)의 탈거를 감지할 수 있으나, 탈거 감지 방법에는 제한이 없다. 탈거가 감지된 경우, 디지털 펜(201)은 전자 장치(101)와 파라미터(예: 연결 인터벌(connection interval) 및/또는 슬레이브 레이튼시(slave latency))를 교환할 수도 있다.In operation 1525 , the digital pen 201 may detect removal of the digital pen 201 . For example, the digital pen 201 may detect the detachment of the digital pen 201 based on non-reception of a signal from the electronic device 101 , but there is no limitation on a detachment detection method. When detachment is detected, the digital pen 201 may exchange parameters (eg, a connection interval and/or a slave latency) with the electronic device 101 .
다양한 실시예에 따라서, 디지털 펜(201)은, 1527 동작에서, 탈거 감지에 기반하여, 가속도 센서를 활성화할 수 있다. According to various embodiments, in operation 1527 , the digital pen 201 may activate the acceleration sensor based on the detachment detection.
디지털 펜(201)은, 활성화한 가속도 센서를 통하여, 1529 동작에서, 디지털 펜(201)의 가속도 정보를 센싱할 수 있다. 도시되지는 않았지만, 디지털 펜(201)은, 센싱된 가속도 정보를 전자 장치(101)로 송신할 수도 있다. 다양한 실시예에서, 전자 장치(101)는, 수신한 가속도 정보에 기반하는 동작을 수행할 수 있다. 다양한 실시예에서, 디지털 펜(201)은, 가속도 센서를 활성화하고, 상대적으로 높은 전력을 소모하는 자이로 센서는, 비활성화 상태를 유지하도록 설정될 수도 있다.The digital pen 201 may sense acceleration information of the digital pen 201 in operation 1529 through the activated acceleration sensor. Although not shown, the digital pen 201 may transmit sensed acceleration information to the electronic device 101 . In various embodiments, the electronic device 101 may perform an operation based on the received acceleration information. In various embodiments, the digital pen 201 may be set to activate an acceleration sensor, and a gyro sensor that consumes relatively high power may be set to remain in an inactive state.
다양한 실시예에 따라서, 디지털 펜(201)은, 1531 동작에서, 버튼(예: 버튼(337))의 입력을 확인할 수 있다. 버튼은, 물리 키, 터치 키, 모션 키, 압력 키, 키 리스(key less)의 방식 중 어느 하나로 구현될 수 있으며, 구현 형태에는 제한이 없다. According to various embodiments, the digital pen 201 may confirm an input of a button (eg, the button 337 ) in operation 1531 . The button may be implemented in any one of a physical key, a touch key, a motion key, a pressure key, and a key less method, and there is no limitation in the implementation form.
버튼 입력이 확인되면, 디지털 펜(201)은, 1533 동작에서, 자이로 센서를 활성화할 수 있다. When the button input is confirmed, the digital pen 201 may activate the gyro sensor in operation 1533 .
디지털 펜(201)은 활성화한 자이로 센서를 통하여, 1535 동작에서, 회전 정보를 센싱할 수 있다. The digital pen 201 may sense rotation information through the activated gyro sensor in operation 1535 .
1537 동작에서, 디지털 펜(201)은, 센싱 결과에 기반한 정보를 송신할 수 있다. 예를 들어, 디지털 펜(201)은, 가속도 센서 및 자이로 센서를 통하여 획득한 센싱 정보를, 전자 장치(101)로 송신할 수 있다. 또는, 디지털 펜(201)은, 가속도 센서 및 자이로 센서를 통하여 획득한 센싱 정보에 기반하여, 디지털 펜(201)의 좌표(예: 2차원 좌표, 또는 3차원 좌표)를 확인할 수 있으며, 확인된 좌표를 전자 장치(101)로 송신할 수 있다. 또는, 디지털 펜(201)은, 가속도 센서 및 자이로 센서를 통하여 획득한 센싱 정보에 기반하여, 디지털 펜(201)의 좌표(예: 2차원 좌표, 또는 3차원 좌표)의 변위 정보를 확인할 수 있으며, 확인된 변위 정보를 전자 장치(101)로 송신할 수 있다. In operation 1537 , the digital pen 201 may transmit information based on the sensing result. For example, the digital pen 201 may transmit sensing information acquired through the acceleration sensor and the gyro sensor to the electronic device 101 . Alternatively, the digital pen 201 may check the coordinates (eg, two-dimensional coordinates or three-dimensional coordinates) of the digital pen 201 based on the sensing information acquired through the acceleration sensor and the gyro sensor, and the confirmed The coordinates may be transmitted to the electronic device 101 . Alternatively, the digital pen 201 may check displacement information of the coordinates (eg, two-dimensional coordinates or three-dimensional coordinates) of the digital pen 201 based on the sensing information obtained through the acceleration sensor and the gyro sensor, , the confirmed displacement information may be transmitted to the electronic device 101 .
1539 동작에서, 전자 장치(101)는, 수신한 정보에 기반하여 동작을 수행할 수 있다. 전자 장치(101)는, 센싱 정보를 수신한 경우에는, 센싱 정보에 기반한 디지털 펜(201)의 위치 정보를 확인하고, 위치 정보에 대응하는 제스처를 확인하고, 제스처에 대응하는 동작을 수행할 수 있다. 전자 장치(101)는, 디지털 펜(201)의 위치 정보를 수신한 경우에는, 위치 정보에 대응하는 제스처를 확인하고, 제스처에 대응하는 동작을 수행할 수 있다. 예를 들어, 디지털 펜(201)은, 펜 버튼의 입력이 해제될 때까지 정보를 전자 장치(101)로 송신할 수 있다. 전자 장치(101)는, 버튼의 입력 해제가 검출되기 전까지 확인된 디지털 펜(201)의 위치 정보에 기반하여, 제스처를 확인할 수 있다. 버튼의 입력 해제가 검출되면, 디지털 펜(201)은 자이로 센서를 다시 비활성화시킬 수도 있다. 다만, 다양한 실시예에서, 디지털 펜(201)은, 탈거 감지시부터 자이로 센서 및 가속도 센서를 모두 활성화시킬 수도 있다. 이 경우, 버튼 입력 이전의 디지털 펜(201)의 위치 정보는, 제스처 방향에 대한 보정에 이용될 수 있으며, 제스처 인식 정확도가 향상될 수 있다. 예를 들어, 전자 장치(101)는, 디지털 펜(201)의 초기 자세 정보를 확인하고, 이를 기준으로 한 변위를 이용하여 제스처를 인식할 수도 있다.In operation 1539, the electronic device 101 may perform an operation based on the received information. When sensing information is received, the electronic device 101 may check location information of the digital pen 201 based on the sensing information, check a gesture corresponding to the location information, and perform an operation corresponding to the gesture. there is. When receiving the location information of the digital pen 201 , the electronic device 101 may identify a gesture corresponding to the location information and perform an operation corresponding to the gesture. For example, the digital pen 201 may transmit information to the electronic device 101 until the input of the pen button is released. The electronic device 101 may identify the gesture based on the position information of the digital pen 201 that is confirmed until the release of the button input is detected. When the release of the button input is detected, the digital pen 201 may deactivate the gyro sensor again. However, in various embodiments, the digital pen 201 may activate both the gyro sensor and the acceleration sensor from the time of detection of detachment. In this case, the position information of the digital pen 201 before the button input may be used to correct the gesture direction, and gesture recognition accuracy may be improved. For example, the electronic device 101 may check the initial posture information of the digital pen 201 and recognize the gesture using a displacement based on this.
본 문서에 개시된 다양한 실시예들에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치(예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 또는 가전 장치를 포함할 수 있다. 본 문서의 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.The electronic device according to various embodiments disclosed in this document may have various types of devices. The electronic device may include, for example, a portable communication device (eg, a smart phone), a computer device, a portable multimedia device, a portable medical device, a camera, a wearable device, or a home appliance device. The electronic device according to the embodiment of the present document is not limited to the above-described devices.
본 문서의 다양한 실시예들 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시예들로 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나", "A 또는 B 중 적어도 하나", "A, B 또는 C", "A, B 및 C 중 적어도 하나", 및 "A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에, "기능적으로" 또는 "통신적으로"라는 용어와 함께 또는 이런 용어 없이, "커플드" 또는 "커넥티드"라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 제 3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.The various embodiments of this document and terms used therein are not intended to limit the technical features described in this document to specific embodiments, but it should be understood to include various modifications, equivalents, or substitutions of the embodiments. In connection with the description of the drawings, like reference numerals may be used for similar or related components. The singular form of the noun corresponding to the item may include one or more of the item, unless the relevant context clearly dictates otherwise. As used herein, "A or B", "at least one of A and B", "at least one of A or B", "A, B or C", "at least one of A, B and C", and "A , B, or C" each may include any one of the items listed together in the corresponding one of the phrases, or all possible combinations thereof. Terms such as "first", "second", or "first" or "second" may be used simply to distinguish the element from other elements in question, and may refer to elements in other aspects (e.g., importance or order) is not limited. It is said that one (eg, first) component is "coupled" or "connected" to another (eg, second) component, with or without the terms "functionally" or "communicatively". When referenced, it means that one component can be connected to the other component directly (eg by wire), wirelessly, or through a third component.
본 문서의 다양한 실시예들에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로와 같은 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일실시예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다. The term “module” used in various embodiments of this document may include a unit implemented in hardware, software, or firmware, and is interchangeable with terms such as, for example, logic, logic block, component, or circuit. can be used as A module may be an integrally formed part or a minimum unit or a part of the part that performs one or more functions. For example, according to an embodiment, the module may be implemented in the form of an application-specific integrated circuit (ASIC).
본 문서의 다양한 실시예들은 기기(machine)(예: 전자 장치(101)) 의해 읽을 수 있는 저장 매체(storage medium)(예: 내장 메모리(136) 또는 외장 메모리(138))에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예: 프로그램(140))로서 구현될 수 있다. 예를 들면, 기기(예: 전자 장치(101))의 프로세서(예: 프로세서(120))는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장 매체는, 비일시적(non-transitory) 저장 매체의 형태로 제공될 수 있다. 여기서, '비일시적'은 저장 매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장 매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.According to various embodiments of the present document, one or more instructions stored in a storage medium (eg, internal memory 136 or external memory 138) readable by a machine (eg, electronic device 101) may be implemented as software (eg, the program 140) including For example, a processor (eg, processor 120 ) of a device (eg, electronic device 101 ) may call at least one command among one or more commands stored from a storage medium and execute it. This makes it possible for the device to be operated to perform at least one function according to the called at least one command. The one or more instructions may include code generated by a compiler or code executable by an interpreter. The device-readable storage medium may be provided in the form of a non-transitory storage medium. Here, 'non-transitory' only means that the storage medium is a tangible device and does not include a signal (eg, electromagnetic wave), and this term is used in cases where data is semi-permanently stored in the storage medium and It does not distinguish between temporary storage cases.
일실시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory(CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두 개의 사용자 장치들(예: 스마트 폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.According to one embodiment, the method according to various embodiments disclosed in this document may be provided as included in a computer program product. Computer program products may be traded between sellers and buyers as commodities. The computer program product is distributed in the form of a machine-readable storage medium (eg compact disc read only memory (CD-ROM)), or through an application store (eg Play Store™) or on two user devices ( It can be distributed (eg downloaded or uploaded) directly between smartphones (eg: smartphones) and online. In the case of online distribution, at least a part of the computer program product may be temporarily stored or temporarily created in a machine-readable storage medium such as a memory of a server of a manufacturer, a server of an application store, or a relay server.
다양한 실시예들에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있으며, 복수의 개체 중 일부는 다른 구성요소에 분리 배치될 수도 있다. 다양한 실시예들에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시예들에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.According to various embodiments, each component (eg, module or program) of the above-described components may include a singular or a plurality of entities, and some of the plurality of entities may be separately disposed in other components. there is. According to various embodiments, one or more components or operations among the above-described corresponding components may be omitted, or one or more other components or operations may be added. Alternatively or additionally, a plurality of components (eg, a module or a program) may be integrated into one component. In this case, the integrated component may perform one or more functions of each component of the plurality of components identically or similarly to those performed by the corresponding component among the plurality of components prior to the integration. . According to various embodiments, operations performed by a module, program, or other component are executed sequentially, in parallel, repeatedly, or heuristically, or one or more of the operations are executed in a different order, or omitted. or one or more other operations may be added.

Claims (15)

  1. 전자 장치에 있어서, In an electronic device,
    통신 모듈; communication module;
    적어도 하나의 프로세서; at least one processor;
    디스플레이 모듈; 및 display module; and
    메모리;를 포함하고, memory; including;
    상기 메모리는, 실행 시에, 상기 프로세서가, The memory, when executed, causes the processor to:
    상기 통신 모듈을 통해 연결된 디지털 펜으로부터 인 에어 제스처(in-air gesture) 및 버튼 선택 정보를 수신하고, receiving an in-air gesture and button selection information from a digital pen connected through the communication module;
    상기 수신된 인 에어 제스처 및 버튼 선택 정보에 기반하여 제스처 종류를 판단하고,determining a gesture type based on the received in-air gesture and button selection information;
    상기 판단한 제스처 종류에 따라 상기 인 에어 제스처를 인식하고, Recognizing the in-air gesture according to the determined gesture type,
    상기 인식된 인 에어 제스처를 출력하도록 상기 디스플레이 모듈을 제어하는 인스트럭션들(instructions)을 저장하는, 전자 장치. and storing instructions for controlling the display module to output the recognized in-air gesture.
  2. 제1항에 있어서, According to claim 1,
    상기 제스처 입력의 종류는, 손글씨, 스케치, 도형, 다이어 그램 또는 공식을 포함하는 전자 장치. The type of the gesture input includes handwriting, sketch, figure, diagram, or formula.
  3. 제1항에 있어서, According to claim 1,
    상기 버튼 선택 정보는, 상기 디지털 펜의 버튼의 선택 및 해제 시점을 포함하며, The button selection information includes selection and release timings of buttons of the digital pen,
    상기 인스트럭션들은 상기 프로세서가, The instructions allow the processor to
    상기 수신된 인 에어 제스처에서 상기 선택 및 해제 시점에 대응하여 입력된 제스처를 인식하도록 하는, 전자 장치. and to recognize a gesture input in response to the selection and release timings from the received in-air gesture.
  4. 제3항에 있어서, 4. The method of claim 3,
    상기 인스트럭션들은 상기 프로세서가, The instructions allow the processor to
    상기 제스처 입력의 종류가 상기 손글씨인 경우, 상기 선택 및 해제 시점에 대응하는 제스처에 기반으로 텍스트 데이터를 출력하도록 하는, 전자 장치. and outputting text data based on a gesture corresponding to the selection and release time points when the type of the gesture input is the handwriting.
  5. 제1항에 있어서, According to claim 1,
    상기 인스트럭션들은 상기 프로세서가, The instructions allow the processor to
    상기 디지털 펜으로부터, 상기 디지털 펜의 가속도 센서 또는 자이로 센서를 통해 감지된 센서 데이터를 수신하고, receiving, from the digital pen, sensor data sensed through an acceleration sensor or a gyro sensor of the digital pen;
    상기 수신된 센서 데이터에 기반하여 상기 인 에어 제스처를 인식하도록 하는, 전자 장치.and to recognize the in-air gesture based on the received sensor data.
  6. 제1항에 있어서, According to claim 1,
    상기 수신된 인 에어 제스처는 적어도 두 개의 제스처 종류들에 따라 입력되는 적어도 두 개의 제스처들을 포함하며, The received in-air gesture includes at least two gestures input according to at least two types of gestures,
    상기 인스트럭션들은 상기 프로세서가, The instructions allow the processor to
    상기 적어도 두 개의 제스처들 각각을 해당하는 제스처 종류에 기반하여 처리하고, processing each of the at least two gestures based on a corresponding gesture type;
    상기 제스처 종류에 따라 처리된 상기 적어도 두 개의 제스처들이 표시되도록 하는 전자 장치.An electronic device configured to display the at least two gestures processed according to the gesture type.
  7. 제1항에 있어서, According to claim 1,
    상기 인스트럭션들은 상기 프로세서가, The instructions allow the processor to
    근거리 통신 연결을 통해 상기 디지털 펜과 연결되도록 상기 통신 모듈을 제어하고, controlling the communication module to be connected to the digital pen through a short-distance communication connection;
    상기 근거리 통신을 통해 상기 디지털 펜으로부터 상기 인 에어 제스처 및 상기 버튼 선택 정보를 수신하도록 제어하는, 전자 장치. and controlling to receive the in-air gesture and the button selection information from the digital pen through the short-distance communication.
  8. 제1항에 있어서, According to claim 1,
    상기 인스트럭션들은 상기 프로세서가, The instructions allow the processor to
    기계 학습(machine learning) 기술을 이용하여 상기 제스처 분류를 판단하도록 하는, 전자 장치. An electronic device that determines the classification of the gesture by using a machine learning technique.
  9. 제1항에 있어서, According to claim 1,
    상기 인스트럭션들은 상기 프로세서가, The instructions allow the processor to
    상기 수신된 인 에어 제스처에서 2차원 특성 정보 및 3차원 특성 정보를 추출하고, extracting two-dimensional characteristic information and three-dimensional characteristic information from the received in-air gesture;
    상기 추출된 2차원 특성 정보 및 3차원 특성 정보에 기반하여, 상기 제스처 종류를 판단하도록 하는 전자 장치. An electronic device configured to determine the type of gesture based on the extracted 2D characteristic information and 3D characteristic information.
  10. 전자 장치에서 인 에어 제스처를 처리하는 방법에 있어서, A method of processing an in-air gesture in an electronic device, the method comprising:
    상기 전자 장치의 통신 모듈을 통해 연결된 디지털 펜으로부터 인 에어 제스처(in-air gesture) 및 버튼 선택 정보를 수신하는 동작; receiving in-air gesture and button selection information from a digital pen connected through a communication module of the electronic device;
    상기 수신된 인 에어 제스처 및 버튼 선택 정보에 기반하여 제스처 종류를 판단하는 동작; determining a gesture type based on the received in-air gesture and button selection information;
    상기 판단한 제스처 종류에 따라 상기 인 에어 제스처를 인식하는 동작; 및 recognizing the in-air gesture according to the determined gesture type; and
    상기 인식된 인 에어 제스처를 출력하는 동작;을 포함하는, 전자 장치에서의 인 에어 제스처 처리 방법. and outputting the recognized in-air gesture.
  11. 제10항에 있어서,11. The method of claim 10,
    상기 제스처 입력의 종류는, 손글씨, 스케치, 도형, 다이어 그램 또는 공식을 포함하는, 전자 장치에서의 인 에어 제스처 처리 방법.The type of the gesture input includes handwriting, sketch, figure, diagram, or formula, in-air gesture processing method in an electronic device.
  12. 제10항에 있어서, 11. The method of claim 10,
    상기 버튼 선택 정보는, 상기 디지털 펜의 버튼의 선택 및 해제 시점을 포함하며, The button selection information includes selection and release timings of buttons of the digital pen,
    상기 수신된 인 에어 제스처에서 상기 선택 및 해제 시점에 대응하여 입력된 제스처를 인식하는 동작;을 더 포함하는, 전자 장치에서의 인 에어 제스처 처리 방법.and recognizing an input gesture in response to the selection and release timings from the received in-air gesture.
  13. 제11항에 있어서, 12. The method of claim 11,
    상기 제스처 입력의 종류가 상기 손글씨인 경우, 상기 선택 및 해제 시점에 대응하는 제스처에 기반으로 텍스트 데이터를 출력하는 동작;을 더 포함하는, 전자 장치에서의 인 에어 제스처 처리 방법.and outputting text data based on a gesture corresponding to the selection and release time points when the type of the gesture input is the handwriting.
  14. 제10항에 있어서, 11. The method of claim 10,
    상기 디지털 펜으로부터, 상기 디지털 펜의 가속도 센서 또는 자이로 센서를 통해 감지된 센서 데이터를 수신하는 동작; 및 receiving, from the digital pen, sensor data sensed through an acceleration sensor or a gyro sensor of the digital pen; and
    상기 수신된 센서 데이터에 기반하여 상기 인 에어 제스처를 인식하는 동작;을 더 포함하는, 전자 장치에서의 인 에어 제스처 처리 방법.Recognizing the in-air gesture based on the received sensor data; further comprising: an in-air gesture processing method in an electronic device.
  15. 제10항에 있어서, 11. The method of claim 10,
    상기 수신된 인 에어 제스처는 적어도 두 개의 제스처 종류들에 따라 입력되는 적어도 두 개의 제스처들을 포함하며, The received in-air gesture includes at least two gestures input according to at least two types of gestures,
    상기 적어도 두 개의 제스처들 각각을 해당하는 제스처 종류에 기반하여 처리하는 동작; 및 processing each of the at least two gestures based on a corresponding gesture type; and
    상기 제스처 종류에 따라 처리된 상기 적어도 두 개의 제스처들이 표시 동작;을 더 포함하는, 전자 장치에서의 인 에어 제스처 처리 방법.and displaying the at least two gestures processed according to the gesture type.
PCT/KR2021/011026 2020-09-07 2021-08-19 Electronic device and method for processing in-air gesture in electronic device WO2022050604A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020200114005A KR20220032343A (en) 2020-09-07 2020-09-07 Electronic device and method for processing input of in-air gesture in electronic device
KR10-2020-0114005 2020-09-07

Publications (1)

Publication Number Publication Date
WO2022050604A1 true WO2022050604A1 (en) 2022-03-10

Family

ID=80491151

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2021/011026 WO2022050604A1 (en) 2020-09-07 2021-08-19 Electronic device and method for processing in-air gesture in electronic device

Country Status (2)

Country Link
KR (1) KR20220032343A (en)
WO (1) WO2022050604A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140026966A (en) * 2012-08-24 2014-03-06 삼성전자주식회사 Operation method and system for function of stylus pen
KR20140030379A (en) * 2012-08-27 2014-03-12 삼성전자주식회사 Method for providing guide in terminal and terminal thereof
KR20160124786A (en) * 2014-02-21 2016-10-28 퀄컴 인코포레이티드 In-air ultrasound pen gestures
KR20170126294A (en) * 2016-05-09 2017-11-17 엘지전자 주식회사 Mobile terminal and method for controlling the same
JP2020038377A (en) * 2017-03-13 2020-03-12 圭司 田谷 Information processing system, electronic apparatus, and application software

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140026966A (en) * 2012-08-24 2014-03-06 삼성전자주식회사 Operation method and system for function of stylus pen
KR20140030379A (en) * 2012-08-27 2014-03-12 삼성전자주식회사 Method for providing guide in terminal and terminal thereof
KR20160124786A (en) * 2014-02-21 2016-10-28 퀄컴 인코포레이티드 In-air ultrasound pen gestures
KR20170126294A (en) * 2016-05-09 2017-11-17 엘지전자 주식회사 Mobile terminal and method for controlling the same
JP2020038377A (en) * 2017-03-13 2020-03-12 圭司 田谷 Information processing system, electronic apparatus, and application software

Also Published As

Publication number Publication date
KR20220032343A (en) 2022-03-15

Similar Documents

Publication Publication Date Title
WO2020045947A1 (en) Electronic device to control screen property based on distance between pen input device and electronic device and method of controlling same
WO2019216499A1 (en) Electronic device and control method therefor
WO2020050636A1 (en) User intention-based gesture recognition method and apparatus
WO2020130691A1 (en) Electronic device and method for providing information thereof
WO2020159308A1 (en) Electronic device and method for mapping function to button input
WO2021020851A1 (en) Electronic device identifying gesture with stylus pen and method for operating the same
WO2020116868A1 (en) Electronic device for generating augmented reality emoji and method thereof
WO2020085643A1 (en) Electronic device and controlling method thereof
WO2022211271A1 (en) Electronic device for processing handwriting input on basis of learning, operation method thereof, and storage medium
WO2020159302A1 (en) Electronic device for performing various functions in augmented reality environment, and operation method for same
WO2020130301A1 (en) Electronic device for tracking user activity and method of operating the same
WO2022019636A1 (en) Method for performing virtual user interaction, and device therefor
WO2021118229A1 (en) Information providing method and electronic device for supporting the same
WO2019088338A1 (en) Electronic device and control method therefor
WO2020027412A1 (en) Method for processing input made with stylus pen and electronic device therefor
WO2022050604A1 (en) Electronic device and method for processing in-air gesture in electronic device
WO2023096162A1 (en) Electronic device and method for masking or unmasking writing information in electronic device
WO2022085940A1 (en) Method and apparatus for controlling display of plurality of objects on wearable display device
WO2019103350A1 (en) Apparatus and method for adaptively configuring user interface
WO2022065924A1 (en) Emoji recommendation method of electronic device and same electronic device
WO2022031048A1 (en) Electronic device, and method for displaying electronic pen pointer thereof
WO2020159320A1 (en) Method for recognizing object by using millimeter wave and electronic device supporting same method
WO2020060121A1 (en) Correction method for handwriting input, and electronic device and storage medium therefor
WO2020171610A1 (en) Electronic device for identifying coordinates of external object touching touch sensor
WO2020022829A1 (en) Electronic device for supporting user input and control method of electronic device

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21864565

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21864565

Country of ref document: EP

Kind code of ref document: A1