WO2020013542A1 - 전자 장치 및 전자 장치의 기능 수행 방법 - Google Patents

전자 장치 및 전자 장치의 기능 수행 방법 Download PDF

Info

Publication number
WO2020013542A1
WO2020013542A1 PCT/KR2019/008340 KR2019008340W WO2020013542A1 WO 2020013542 A1 WO2020013542 A1 WO 2020013542A1 KR 2019008340 W KR2019008340 W KR 2019008340W WO 2020013542 A1 WO2020013542 A1 WO 2020013542A1
Authority
WO
WIPO (PCT)
Prior art keywords
application program
electronic device
function
stylus pen
signal
Prior art date
Application number
PCT/KR2019/008340
Other languages
English (en)
French (fr)
Inventor
신상민
강동훈
강지광
김규홍
윤여정
정유선
임연욱
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Priority to US17/257,601 priority Critical patent/US11340780B2/en
Publication of WO2020013542A1 publication Critical patent/WO2020013542A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/04162Control or interface arrangements specially adapted for digitisers for exchanging data with external devices, e.g. smart pens, via the digitiser sensing hardware
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/80Services using short range communication, e.g. near-field communication [NFC], radio-frequency identification [RFID] or low energy communication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0384Wireless input, i.e. hardware and software details of wireless interface arrangements for pointing devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04108Touchless 2D- digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface without distance measurement in the Z direction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/02Details of telephonic subscriber devices including a Bluetooth interface
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/22Details of telephonic subscriber devices including a touch pad, a touch sensor or a touch detector

Definitions

  • Various embodiments of the present disclosure relate to an electronic device and a method of performing a function thereof.
  • the present invention relates to a method of performing a function of an electronic device using a stylus pen.
  • the mobile communication terminal may provide multimedia content such as music and video in addition to communication with the counterpart.
  • the mobile communication terminal may perform various functions by processing a signal generated according to a user's touch input on the screen. For example, the web page may be scrolled or content may be controlled according to a user's touch input.
  • the electronic device may use a stylus pen as an auxiliary device for performing such a function.
  • the electronic device may perform various functions by processing a signal generated according to a touch input of the stylus pen on the screen.
  • the user can use the stylus pen to control an application program running in the foreground.
  • the application program running in the foreground is a media application program capable of playing content
  • the user may select and execute the content using a stylus pen.
  • the user may want to control the application program running in the background.
  • the user may access an application program running in the background using a separate menu, but this may reduce the continuity and accessibility of the user using the electronic device.
  • a method for controlling an application program that the user naturally runs in the background may be required with minimal user manipulation.
  • the user's convenience may be further improved if the user can control the application program running in the background by using the stylus pen held by the user.
  • an electronic device may include a housing including a first surface facing a first direction and a second surface facing a second direction opposite to the first direction;
  • a touch screen display structure located in the housing, the touch screen display structure including a view through the first surface, a first wireless communication circuit located in the housing and configured to support a Bluetooth protocol, the capacitive detectable by the touch screen display structure
  • a stylus pen including a sex portion and a second wireless communication circuit that supports the Bluetooth protocol and is configured to be paired with the first wireless communication circuit, the stylus pen including a pressable or touchable button
  • a processor located within the housing and operatively connected to the touch screen display structure and the first wireless communication circuit;
  • a memory located within the housing and operatively coupled to the processor, the memory storing a first application program comprising a first user interface, and a second application program comprising a second user interface; And when the memory is executed, the processor executes the first application program and the second application program upon receiving a user input, and displays at least one of the first user
  • a method of performing a function of an electronic device includes: executing a first application program and a second application program when a user input is received; Displaying at least one of a first user interface including the first application program or a second user interface including the second application program on a screen; Receiving from the stylus pen a first signal generated by a press or touch of a button of a stylus pen that is communicatively paired with the electronic device using a Bluetooth protocol; Selecting one of the first application program and the second application program; Changing at least a portion of the screen based on at least a portion of the selection; Receiving, from the stylus pen, a second signal generated by a press or touch of the button during a second time different from the first time; And performing a function of the first application program or a function of the second application program in response to the second signal based on at least part of the selection.
  • a computer program product including a computer-readable recording medium may include: executing a first application program and a second application program; Displaying at least one of a first user interface including the first application program and a second user interface including the second application program on a screen; Receiving from the stylus pen a first signal generated by a press or touch of a button of a stylus pen that is communicatively paired with the electronic device using a Bluetooth protocol; Selecting one of the first application program and the second application program based on the first signal; Changing at least a portion of the screen based on at least a portion of the selection; Receiving, from the stylus pen, a second signal generated by a press or touch of the button during a second time different from the first time; And instructions for causing a computer to execute an operation of performing the function of the first application program or the function of the second application program in response to the second signal, based on at least part of the selection.
  • the user's convenience can be further improved by controlling the application program running in the background using the stylus pen held by the user.
  • FIG. 1 is a perspective view of an electronic device including a detachable stylus pen according to various embodiments of the present disclosure.
  • FIGS. 2 to 11 are diagrams illustrating a situation in which an electronic device performs a function according to various embodiments of the present disclosure.
  • FIG. 12 is a flowchart of an electronic device performing a function according to various embodiments of the present disclosure.
  • FIG. 13 is a block diagram of an electronic device in a network environment according to various embodiments of the present disclosure.
  • FIG. 14 is a block diagram of a display device according to various embodiments of the present disclosure.
  • Electronic devices may be various types of devices.
  • the electronic device may include, for example, a portable communication device (eg, a smartphone), a computer device, a portable multimedia device, a portable medical device, a camera, a wearable device, or a home appliance device.
  • a portable communication device eg, a smartphone
  • a computer device e.g., a tablet, or a smart phone
  • a portable multimedia device e.g., a portable medical device
  • a camera e.g., a camera
  • a wearable device e.g., a smart watch, or a smart watch, or a smart watch, or a smart watch, or a smart watch, or a smart watch, or a smart watch, or a smart watch, or a smart watch, or a smart watch, or a smart watch, or a smart watch, or a smart watch, or a smart watch, or a smart watch, or a smart watch, or a smart watch, or a smart watch
  • first, second, or first or second may be used merely to distinguish a component from other corresponding components, and to separate the components from other aspects (e.g. Order).
  • Some (eg first) component may be referred to as “coupled” or “connected” to another (eg second) component, with or without the term “functionally” or “communically”.
  • any component can be connected directly to the other component (eg, by wire), wirelessly, or via a third component.
  • FIGS. 1A and 1B are perspective views of an electronic device 100 including a detachable stylus pen according to various embodiments of the present disclosure.
  • a touch screen display structure 101 including a screen visible to a user through a front surface of the housing 110 may be provided in the housing 110 of the electronic device 100. Can be.
  • a speaker device 102 for outputting the voice of the other party may be installed on the upper side of the touch screen display structure 101.
  • a microphone device 103 for transmitting a voice of an electronic device user to a counterpart may be installed below the touch screen display structure 101.
  • the touch screen display structure 101 may include a touch circuit that includes a touch sensor.
  • the touch screen display structure 101 may include a pressure sensitive touch screen device that includes a touch sensor and a force sensor that responds to touch pressure.
  • the touch circuit can include a touch-sensitive pad for sensing a human body part and a stylus pen-sensitive pad for sensing a capacitive portion of the stylus pen 120.
  • components for performing various functions of the electronic device 100 may be disposed around the speaker device 102.
  • the components may include at least one sensor module 104.
  • the sensor module 104 may include, for example, at least one of an illumination sensor (for example, an optical sensor), a proximity sensor, an infrared sensor, or an ultrasonic sensor.
  • the component may comprise a first camera device 105.
  • the component may include an LED indicator 109 for notifying a user of state information of the electronic device 100.
  • components may also be disposed on the rear surface of the electronic device 100.
  • the component may also include at least one of a second camera device 106, various sensor modules (not shown) (eg, heart rate sensor, illuminance sensor, ultrasonic sensor, etc.) and lighting device 107. have.
  • a physical key button 108 (for example, a side key button) may protrude from a side surface of the electronic device.
  • the electronic device 100 may include a stylus pen 120 selectively detachably disposed in the pen mounting space (or groove) 111 formed in the housing 110.
  • the stylus pen 120 may include a coil body 123 and a substrate (not shown) electrically connected to the coil body 123 in the hollow pen housing 121 having a predetermined length. Can be.
  • an end portion of the pen housing 121 may be guided to easily perform an input operation by disposing a sharply formed tip 122.
  • the electronic device 100 may include an electromagnetic resonance (EMR) sensor pad (not shown) for detecting an input position of the stylus pen 120 in an electromagnetic induction manner.
  • the EMR sensor pad may include a plurality of conductive patterns.
  • the electronic device 100 applies an electric power to the conductive pattern to form an electromagnetic field, and when the stylus pen 120 contacts or touches the touch screen display structure 101 within a predetermined distance, The position of the stylus pen 120 may be detected by receiving a feedback signal for the resonant frequency of the coil body 123 vibrated by the electromagnetic field.
  • the electronic device 100 may detect a feedback signal for detecting a feedback signal with respect to the resonance frequency of the coil body 123 (not shown). May include).
  • the detection member may be used as a detection means for detecting whether the stylus pen 120 is inserted into the resonance frequency of the coil body 123 provided for the electromagnetic induction method.
  • the electronic device 100 detects a feedback signal of the coil body 123 received by the detection member to determine whether the stylus pen 120 is inserted into the pen mounting space 111 of the electronic device 100. You can check it.
  • the stylus pen 120 may include at least one button 124 that is pressable or touchable.
  • the button 124 is located at the distal end of the stylus pen 120 as shown in FIG. 1 or corresponds to a part of the user's index finger gripping the stylus pen 120 (for example, the user holding the stylus pen 120). It may be located in the (area area).
  • the stylus pen 120 may include wireless communication circuitry (not shown) designed to support a near field communication protocol.
  • Local area communication protocols include, for example, Bluetooth protocol, Bluetooth Low Energy (BLE), Wi-Fi (Wi-Fi) protocol, Zigbee protocol, WFD (Wi-Fi Direct) protocol, and UWB (ultra wide band) protocol.
  • BLE Bluetooth Low Energy
  • Wi-Fi Wi-Fi
  • Zigbee Zigbee
  • WFD Wi-Fi Direct
  • UWB ultra wide band
  • IrDA infrared data association
  • NFC near field communication
  • Ant + protocol At least one of a Bluetooth protocol and a Bluetooth low power protocol may be used.
  • the wireless communication circuit (not shown) of the pen 120 may be paired with the wireless communication circuit (not shown) of the electronic device 100 according to the short range communication protocol described above, the stylus pen 120 and the electronic device 100. Pairing may include a state in which a communication connection is established so that a communication channel is formed to transmit / receive control signals or data.
  • a signal generated when a user presses the button 124 of the stylus pen 120 or a touch is transmitted through the wireless communication circuit of the stylus pen 120 described above. May be sent to the circuit.
  • the signal received from the touch circuit is a touch signal, and the signal received from the wireless communication circuit. May be referred to as a remote signal.
  • a remote signal received from the stylus pen 120 to the electronic device 100 using a Bluetooth low power protocol among wireless communication protocols may be referred to as a BLE (Bluetooth Low Energy) signal.
  • the stylus pen 120 may include a capacitive portion detectable by the touch screen display structure 101.
  • the touch screen display structure 101 may have a stylus pen-sensing pad for sensing the capacitive portion to correspond thereto.
  • a processor (not shown) of the electronic device 100 may correspond to the processor 1320 of the electronic device 1301 of FIG. 13.
  • the touch screen display structure 101 of the electronic device 100 may correspond to the display device 1360 of the electronic device 1301 of FIG. 13.
  • the wireless communication module (not shown) of the electronic device 100 may correspond to the wireless communication module 1332 of the electronic device 1301 of FIG. 13.
  • a memory (not shown) of the electronic device 100 may correspond to the memory 1330 of the electronic device 1301 of FIG. 13.
  • the electronic device 100 may include a housing 110 including a first surface facing a first direction and a second surface facing a second direction opposite to the first direction, wherein the electronic device 100 is located in the housing.
  • the touch screen display structure 101 including the screen viewed through the first surface, and may be included in the housing 110, the first wireless communication module (1392) is set to support the Bluetooth protocol.
  • the electronic device 100 may support a second wireless communication circuit (not shown) that supports the Bluetooth protocol and is paired with the first wireless communication module 1372, and at least one button 124 that can be pressed or touched. It may include a stylus pen 120 including.
  • the electronic device 100 is located inside the housing 110, and is located inside the processor 1320 and the housing 110 that are operatively connected to the touch screen display structure 101 and the first wireless communication module 1372.
  • the memory 1330 may be operatively connected to the processor 1320.
  • the memory 1330 may store a first application program including a first user interface and a second application program including a second user interface.
  • the processor 1320 executes the first application program and the second application program when the processor 1320 receives the user input, and at least one of the first user interface and the second user interface.
  • One is displayed through the touch screen display structure 101, and a first signal generated by a press or touch of a button 124 of the stylus pen 120 during the first time is generated.
  • the user can easily select an application program to be controlled using the stylus pen 120. That is, a specific application program can be selected from among a plurality of application programs only by pressing or touching the button 124 of the stylus pen 120, so that the convenience of a user using the electronic device 100 may be greatly improved. .
  • the application program it is possible to perform the function of the application program by pressing or touching the button 124 of the additional stylus pen 120, thereby enabling continuous and rapid application program control.
  • the short range communication protocol for communication between the electronic device 100 and the stylus pen 120 may include a Bluetooth protocol or a Bluetooth low power protocol (BLE).
  • BLE Bluetooth low power protocol
  • power consumption of the electronic device 100 and the stylus pen 120 may be reduced, and the electronic device 100 or the stylus pen 120 may operate according to the present disclosure even in a sleep mode. Can be performed.
  • the touch screen display structure 101 of the electronic device 100 may include a touch-sensitive pad (not shown) for sensing a human body part and a stylus for sensing a capacitive portion of the stylus pen 120. Pen-sensitive pads (not shown).
  • the instructions may be set such that the processor 1320 displays only one of the first user interface and the second user interface on the screen.
  • the instructions may be set such that the processor 1320 displays the first user interface and the second user interface on the screen.
  • the user may selectively control an application program running in the foreground or in the background, or selectively control one application program among a plurality of application programs running in the multi-window. That is, in various application program providing environments, it is possible for a user to remotely control an application program using a stylus pen according to the present disclosure.
  • the instructions may be set to perform a function of the selected application program in response to the first signal, based on at least part of the selection.
  • the instructions may include a function of a first application program or a function of a second application program when the processor 1320 changes a part of the information displayed on the screen based on at least part of the selection. It can be set to display a GUI representing the on screen.
  • the GUI may include a play icon related to the reproduction of the content included in the media application program, a stop icon related to the stop of playing the content, or an end icon related to the termination of the play of the content.
  • the instructions may highlight the selected application program or highlight the selected application program when the processor 1320 changes some of the information displayed on the screen based on at least a portion of the selection. It may be set to display on the foreground screen.
  • the touch screen display structure 101 may further include a touch circuit for sensing a touch input or a hovering input on the screen.
  • the instructions may be received by the processor 1320 through the touch circuit using a stylus pen 120 to receive a third signal generated according to a touch input or a hovering input on the screen, and respond to the third signal.
  • the function may be set to perform a function of the first application program or a function of the second application program.
  • the first signal and the second signal received through the first wireless communication module 1392 may be a remote signal
  • the third signal received through the touch circuit may be a touch signal.
  • FIG 2 is a diagram illustrating a situation in which the electronic device 100 performs a function according to an embodiment of the present disclosure.
  • the processor 1320 of the electronic device 100 may execute the first application program 201 and the second application program 202.
  • the execution of the first application program 201 and the second application program 202 includes, for example, the first application program 201 and the second application program 202 being executed simultaneously or at a time interval. can do.
  • the execution of the first application program 201 and the second application program 202 means that the first application program 201 and the second application program 202 are executed together or at a time by one user input.
  • the first application program 201 and the second application program 202 may be sequentially executed by respective user inputs having an interval.
  • the processor 1320 may include the first user interface included in the first application program 201 or the second application program 202 included in the first application program 201.
  • the touch screen display structure 101 may be controlled to display one of the two user interfaces on the screen.
  • the processor 1320 is connected to the first application program 201.
  • the touch screen display structure 101 may be controlled to display the included first user interface on the screen.
  • the processor 1320 is a first application program 201 running in the foreground so that the touch screen display structure 101 displays the first user interface 201 of the Internet search application program on the screen. ), And in the background, the media application program 202 may be running as the second application program 202.
  • a user presses a button 124 of the stylus pen 120 that is communicatively paired with the electronic device 100 or a region (eg, a touch pad) of the stylus pen 120. Area).
  • the electronic device 100 wirelessly transmits a first remote signal (eg, a BLE signal) generated by the press or touch of the button 124 of the stylus pen 120 from the stylus pen 120 during the first time period. It may receive through the communication module 1372.
  • a first remote signal eg, a BLE signal
  • the electronic device 100 may select one of the first application program 201 or the second application program 202 based on the first remote signal.
  • the electronic device 100 may select an application program supporting a function corresponding to (or mapped to) a first remote signal among the first application program 201 and the second application program 202.
  • the electronic device 100 may select an application program by giving priority to the application program that has been recently executed or recently displayed on the screen. For example, when the application program running in the foreground supports a function corresponding to a remote signal, the electronic device 100 may preferentially select an application program running in the foreground.
  • the function corresponding to the remote signal does not exist in the application program running in the foreground and the function corresponding to the remote signal is supported in the application program running in the background, the electronic device 100 is running in the background. You can select an application program.
  • the electronic device 100 may display a screen (for example, a touch screen display structure). 101) may change some of the information displayed.
  • the processor 1320 of the electronic device 100 may control the touch screen display structure 101 to display a first GUI 211 indicating a function to be performed by a remote signal.
  • the first GUI 211 may be an image, text, video, or a combination thereof.
  • the first GUI 211 may be included in a floating icon, a bubble icon (eg, an air command), a popup, or a quick panel. Icon, etc.
  • the processor 1320 of the electronic device 100 may overlap the first GUI 211 and display the first GUI 211 while the first user interface 201 is being displayed on the touch screen display structure 101. 101 can be controlled. As another example, the processor 1320 may control the touch screen display structure 101 to display the first GUI 211 in an area that does not overlap with the first user interface 201. As another example, the processor 1320 may render a region of the first user interface 201 to be perforated, and control the touch screen display structure 101 to display the first GUI 211 in the perforated region. .
  • the processor 1320 touches to display a play icon 211 related to the content included in the media application program 202.
  • the screen display structure 101 can be controlled.
  • the electronic device 100 may display the selected application program in the foreground. Specifically, if the second application program 202 running in the background is selected, the electronic device 100 may display the second application program 202 in the foreground and execute the first application program 201 in the background. have.
  • the electronic device 100 receives the second remote signal generated by the press or touch of the button 124 of the stylus pen 120 for a second time different from the first time of FIG. 2B. It may receive from the stylus pen 120 via the wireless communication module 1372.
  • the processor 1320 of the electronic device 100 When the second remote signal is received, the processor 1320 of the electronic device 100 based on at least part of the selection of the application program in FIG. 2 (b), responds to the first application program in response to the second remote signal.
  • the function of 201 or the function of the second application program 202 may be performed. If it is assumed that the second application program 202 is selected, the processor 1320 may perform a function of the second application program 202 in response to the second remote signal. For example, when the second application program 202 is the media application program 202, the processor 1320 may play content included in the media application program 202.
  • the processor 1320 displays the touch screen display structure 101 to display on the screen a second GUI 212 indicating a function of an application program corresponding to the second remote signal. Can be controlled.
  • the processor 1320 may control the touch screen display structure 101 to overlap and display the second GUI 212 while the first user interface 201 is being displayed on the screen.
  • the processor 1320 may control the touch screen display structure 101 to display the second GUI 212 in an area that does not overlap with the first user interface 201.
  • the processor 1320 may render the region of the first user interface 201 to be perforated and control the touch screen display structure 101 to display the second GUI 212 in the perforated region. .
  • the processor 1320 displays an icon indicating that the content is playing, or the second The touch screen display structure 101 may be controlled to display an icon (for example, a stop icon associated with stopping the playback of the content or an end icon associated with ending the playback of the content) corresponding to the remote control signal.
  • an icon for example, a stop icon associated with stopping the playback of the content or an end icon associated with ending the playback of the content
  • FIG 3 is a diagram illustrating a situation in which the electronic device 100 performs a function according to another embodiment of the present disclosure.
  • the processor 1320 of the electronic device 100 may execute the first application program 301 and the second application program 302.
  • the processor 1320 may include a first user interface included in the first application program 301 and a second application program 302 included in the second application program 302.
  • the touch screen display structure 101 can be controlled to display both user interfaces on the screen.
  • the processor 1320 may execute a multi window function to control the touch screen display structure 101 to display a first user interface and a second user interface in each window.
  • the processor 1320 displays the first user interface of the media application program 301 on the left side of the screen as the first application program 301, and searches the Internet as the second application program 302.
  • the second user interface of the application program 302 may be displayed on the right side of the screen.
  • the positions of the first user interface and the second user interface are merely examples, and the left and right positions of the first user interface and the second user interface are changed or are vertically shifted based on the operation of the multi-window or the user's control. Of course, it can be displayed as arranged.
  • the user presses a button 124 of the stylus pen 120 that is communicatively paired with the electronic device 100 or a region (eg, a touch pad) of the stylus pen 120. Area).
  • the electronic device 100 wirelessly transmits a first remote signal (eg, a BLE signal) generated by the press or touch of the button 124 of the stylus pen 120 from the stylus pen 120 during the first time period. It may receive through the communication module 1372.
  • a first remote signal eg, a BLE signal
  • the electronic device 100 may select one of the first application program 301 or the second application program 302 based on the first remote signal.
  • the method of selecting one of the first application program 301 or the second application program 302 by the electronic device 100 may refer to the above-described method in FIG. 2B. In FIG. 3, it is assumed that the electronic device 100 selects the first application program 301 having a high priority based on the first remote signal.
  • the electronic device 100 may change a part of the information displayed on the screen. Can be.
  • the processor 1320 of the electronic device 100 may control the touch screen display structure 101 to display a first control window 311 indicating a function to be performed by the control of the stylus pen 120.
  • the processor 1320 may include content included in the media application program 301.
  • the touch screen display structure 101 may be controlled to display a first control window 311 capable of controlling.
  • the first control window 311 may include a play icon 312 associated with playing (or executing) the content.
  • the user presses the button 124 of the stylus pen 120 that is communicatively paired with the electronic device 100 or the One area (eg, a touch pad area) may be touched.
  • the electronic device 100 receives the second remote signal generated by the press or touch of the button 124 of the stylus pen 120 for a second time different from the first time of FIG. 3B. It may receive from the stylus pen 120 via the wireless communication module 1372.
  • the processor 1320 of the electronic device 100 based on at least part of the selection of the application program in FIG. 3B, in response to the second remote signal, the first application program.
  • the function of 301 may be performed.
  • the electronic device 100 may play content included in the media application program 301.
  • the processor 1320 may display the second control window 313 indicating a function of the application program 301 corresponding to the second remote signal on the screen. ) Can be controlled.
  • the second control window 313 indicating the function of the application program 301 corresponding to the second remote signal may include, for example, a control window for controlling content.
  • the second control window 313 may include, for example, a stop icon 314 associated with stopping the reproduction of the content or an end icon associated with ending the reproduction of the content.
  • FIGS. 4 and 5 are diagrams 400 and 500 illustrating a situation in which the electronic device 100 performs a function according to another exemplary embodiment of the present disclosure.
  • a user of the electronic device 100 presses a button 124 of the stylus pen 120, which is in communication communication with the electronic device 100, or a region (eg, a touch pad) of the stylus pen 120. Area).
  • the processor 1320 of the electronic device 100 receives a remote signal (for example, a BLE signal) generated by pressing or touching the button 124 of the stylus pen 120 through the wireless communication module 1372. can do.
  • the electronic device 100 may execute the first application program in the foreground and the second application program in the background. When the remote signal is received, the electronic device 100 may select one of the first application program and the second application program.
  • the electronic device 100 may select an application program that supports a function corresponding to a remote signal by giving priority to an recently executed application program.
  • the electronic device 100 may determine whether an application program running in the foreground supports a function corresponding to a remote signal.
  • the electronic device 100 may select an application program running in the foreground as an application program to execute a function corresponding to the remote signal.
  • the electronic device 100 preferentially gives an application program supporting a function corresponding to a remote signal among application programs running in the background. You can choose according to the ranking.
  • the electronic device 100 may execute a function corresponding to the remote signal with respect to the selected application program.
  • the processor 1320 of the electronic device 100 displays a user interface of a camera application program 401 supporting a function corresponding to a remote signal in the foreground.
  • 101 can be controlled.
  • the user may press a button 124 of the stylus pen 120 that is in communication communication with the electronic device 100 or touch an area of the stylus pen 120.
  • the electronic device 100 may receive a remote signal generated by the press or touch of the button 124 of the stylus pen from the stylus pen 120 through the wireless communication module 1332.
  • the electronic device 100 may select a camera application program 401 supporting a function corresponding to the remote signal running in the foreground.
  • FIG. 4C as a function corresponding to a remote signal, the electronic device 100 performs a capturing function of the camera application program 401 and indicates that the capturing function has been performed.
  • the touch screen display structure 101 can be controlled to display a in the foreground.
  • the processor 1320 of the electronic device 100 touches to display a user interface of an Internet search application program 501 that does not support a function corresponding to a remote signal in the foreground.
  • the screen display structure 101 can be controlled.
  • the processor 1320 may be executing a media application program 502 supporting a function corresponding to a remote signal in the background.
  • a user may press a button 124 of the stylus pen 120 that is in communication communication with the electronic device 100 or touch an area of the stylus pen 120.
  • the electronic device 100 may receive a first remote signal generated by the press or touch of the button 124 of the stylus pen 120 from the stylus pen 120 through the wireless communication module 1372.
  • the electronic device 100 may select a media application program 502 supporting a function corresponding to the first remote signal without ignoring the processing of the first remote signal.
  • the electronic device 100 may play content included in the media application program 502.
  • the electronic device 100 may play the content according to priority in the content list of the media application program 502. The priority may be determined according to, for example, the recent playback time of the content, the user preference level, the content popularity degree, and the like.
  • the electronic device 100 displays a first control window (for example, a control window in the form of a noti bar) 511 for pausing the content being played on the screen.
  • the touch screen display structure 101 can be controlled to display on the screen.
  • the user further presses the button 124 of the stylus pen 120 that is in communication communication with the electronic device 100 or additionally touches an area of the stylus pen 120. can do.
  • the electronic device 100 may receive a second remote signal generated by the press or touch of the button 124 of the stylus pen 120 from the stylus pen 120 through the wireless communication module 1372.
  • the electronic device 100 may select a media application program 502 that supports a function corresponding to the second remote signal.
  • the electronic device 100 may pause the content being played as a function corresponding to the second remote signal.
  • the processor 1320 of the electronic device 100 displays a second control window (for example, a control window in the form of a nova bar) 512 on the screen that can play paused content.
  • the touch screen display structure 101 can be controlled to display.
  • FIG. 6 is a diagram illustrating a situation in which the electronic device 100 performs a function according to another embodiment of the present disclosure.
  • the processor 1320 of the electronic device 100 may execute the first application program 601 and the second application program 602.
  • the processor 1320 of the electronic device 100 executes a multi-window function so that each of the first user interface 601 included in the first application program and the second application program included in the second application program are executed.
  • the touchscreen display structure 101 can be controlled to display the user interface 602.
  • the processor 1320 of the electronic device 100 may be in a state of selecting an application program to execute a function corresponding to a remote signal received from the stylus pen 120.
  • the selected application program may be, for example, an Internet search application program 602 including a second user interface displayed on the right side of the screen.
  • the processor 1320 of the electronic device 100 may control the touch screen display structure 101 to display a first GUI (eg, an air command) 611 indicating a function corresponding to a remote signal.
  • a first GUI eg, an air command
  • the first GUI 611 may be a GUI indicating a scroll function as a function corresponding to a remote signal.
  • the electronic device 100 may change the stylus pen 120.
  • the first remote signal generated from may be received via the wireless communication module (1392).
  • the electronic device 100 may execute a function corresponding to the first remote signal with respect to the selected application program. For example, as illustrated in FIG. 6C, the electronic device 100 may scroll the second user interface of the Internet search application program 602 in one direction to display the third user interface 603. 101 can be controlled.
  • the user may want to switch the application program to execute a function corresponding to the remote signal.
  • the user may long press the GUI 611 for a predetermined time (eg, a work value between 0.5 seconds and 1.5) using the stylus pen 120.
  • a touch signal corresponding to a long press of the user is received, the electronic device 100 may switch an application program to execute a function corresponding to a remote signal to another application program.
  • the electronic device 100 may select an application program to execute a function corresponding to a remote signal among the remaining application programs except a previously selected application program among a plurality of application programs. have.
  • the electronic device 100 may execute the application to execute the function corresponding to the remote signal.
  • the media application program 601 being displayed on the other side of the multi-window can be selected.
  • the electronic device 100 may display a second GUI (eg, air) indicating a function corresponding to a remote signal for the selected application program. Command, etc.) may be controlled to display the touch screen display structure 101.
  • the second GUI 612 may be a playback icon indicating that a function of playing content as a function corresponding to a remote signal may be performed.
  • the electronic device 100 may highlight the selected application program. That is, the electronic device 100 may highlight an application program selected to notify a user of which application program is an active application program for executing a function corresponding to a remote signal. Highlighting the selected application program, for example, highlights the border of the screen on which the selected application program is displayed, darkens the shadow of the unselected application program, or displays an indicator (not shown) on the screen on which the selected application program is displayed. It may include doing.
  • the electronic device 100 may receive a second remote signal generated from the stylus pen 120 through the wireless communication module 1372.
  • the electronic device 100 may execute a function corresponding to the second remote signal with respect to the selected application program.
  • the electronic device 100 may perform a function of an application program related to the second GUI 612 displayed on the screen. That is, the electronic device 100 may play the content using the media application program 601.
  • the electronic device 100 displays the touch screen display structure 101 to display a third GUI 613 indicating a function corresponding to an additional remote signal for the selected application program.
  • the third GUI 613 may be a pause icon indicating that a function for pausing playback of content may be performed as a function corresponding to an additional remote signal.
  • the user may control the media application program 601 and the internet search application program 602 together using the stylus pen 120.
  • the user may press the button 124 of the stylus pen 120 or touch one region (eg, the touch pad region) of the stylus pen 120.
  • the electronic device 100 receives the remote signal generated by the press or touch of the button 124 of the stylus pen 120, and controls the media application program 601 to perform a function corresponding to the remote signal. can do.
  • the user may drag the user interface included in the Internet search application program 602 using the stylus pen 120.
  • the electronic device 100 senses a touch signal according to the drag of the stylus pen 120, and in response to the drag signal, the web page displayed on the screen in one direction using the Internet search application program 602. You can scroll.
  • FIG. 7 is a diagram illustrating a situation in which the electronic device 100 performs a function according to another embodiment of the present disclosure.
  • the processor 1320 of the electronic device 100 may execute the first application program 701 and the second application program 702.
  • the first application program 701 may be a media application program 701 running in the foreground
  • the second application program 702 may be an Internet search application program 702 running in the background. have.
  • the processor 1320 of the electronic device 100 may control the touch screen display structure 101 to display a first user interface included in the first application program 701 running in the foreground.
  • the processor of the electronic device 100 may be in a state in which the media application program 701 is selected as an application program to execute a function corresponding to a remote signal received from the stylus pen 120.
  • the electronic device 100 may control the touch screen display structure 101 to display a first GUI 711 indicating a function corresponding to a remote signal.
  • the first GUI 711 may be a GUI indicating that a function of playing content as a function corresponding to a remote signal may be performed.
  • the user can also play the content through the control window 712 included in the media application program 701. That is, the media application program 701 may play the content based on the remote signal generated by the stylus pen 120, or based on the touch signal generated according to the touch of the control window 712 of the stylus pen 120.
  • the media application program may play the content.
  • the user can switch the application program being displayed on the screen.
  • the user may execute a background application program selection menu to select an application program to be executed in the foreground.
  • the Internet search application program 702 is selected as the application program to be executed in the foreground according to the user's selection.
  • the media application program 701 may be executed in the background.
  • the electronic device 100 may also switch an application program to execute a function corresponding to the remote signal.
  • the electronic device 100 may convert the application program to execute the function corresponding to the remote signal into the Internet search application program 702.
  • the electronic device 100 may control the touch screen display structure 101 to display the second user interface included in the internet search application program 702 on the screen.
  • the electronic device 100 may control the touch screen display structure 101 to display a second GUI 713 indicating a function corresponding to a remote signal for the Internet search application program 702.
  • the second GUI 713 may be a GUI indicating that a function of scrolling a web page may be performed as a function corresponding to a remote signal. That is, while the Internet search application program 702 is running in the foreground and the media application program 701 is running in the background, the GUI displayed on the screen corresponds to the remote signal targeting the Internet search application program 702. It may be a GUI indicating that the function to be performed.
  • the electronic device 100 may switch an application program to execute a function corresponding to the remote signal to another application program.
  • the electronic device 100 may select an application program to execute a function corresponding to a remote signal from among at least one application program running in the background in consideration of priority.
  • the electronic device 100 may select an application program to execute a function corresponding to a remote signal in consideration of the recent execution time of the application program, the user's preference, and the popularity of the application program. Can be.
  • the electronic device 100 When the media application program 701 is selected as an application program to execute a function corresponding to a remote signal, as shown in FIG. 7C, the electronic device 100 indicates a function corresponding to a remote signal for the selected application program.
  • the touch screen display structure 101 may be controlled to display the third GUI 714.
  • the third GUI 714 may be a playback icon indicating that a function of playing content as a function corresponding to a remote signal may be performed. That is, while the Internet search application program 702 is running in the foreground and the media application program 701 is running in the background, the GUI displayed on the screen corresponds to the remote signal for the media application program 701. It may be a GUI indicating that the function may be performed.
  • the electronic device 100 is generated from the stylus pen. Remote signals may be received from the stylus pen 120.
  • the electronic device 100 may execute a function corresponding to the remote signal with respect to the selected application program. For example, the electronic device 100 may perform a function of an application program associated with the third GUI 714 displayed on the screen. That is, the electronic device 100 may play the content using the media application program 701.
  • the electronic device 100 displays the touch screen display structure 101 to display a fourth GUI 715 representing a function corresponding to an additional remote signal for the selected application program.
  • the fourth GUI 715 may be a pause icon indicating that a function for pausing playback of content may be performed as a function corresponding to an additional remote signal.
  • FIGS. 8 are context diagrams 800 illustrating a situation in which the electronic device 100 performs a function according to another embodiment of the present disclosure.
  • the electronic device 100 executes a multi-window function to include the first user interface and the second application program 802 included in the first application program 801 in each window.
  • the touch screen display structure 101 may be controlled to display a second user interface.
  • the GUI representing the function corresponding to the remote signal may be located by default in the activated window.
  • the processor 1320 of the electronic device 100 may perform a function of playing content as a function corresponding to a remote signal.
  • the touch screen display structure 101 may be controlled to display the first GUI 811 indicating the screen in the activated window.
  • the electronic device 100 may target an application program including a user interface in the activated window.
  • a function corresponding to a remote signal generated from the stylus 120 may be executed.
  • the electronic device 100 may play the content using the media application program 801 including the first user interface in the activated window.
  • the user may want to switch (or change, select) an application program to execute a function corresponding to the remote signal.
  • the user may drag a first GUI 811 indicating a function corresponding to a remote signal to move to a window displaying a user interface of an application program to be remotely controlled.
  • the electronic device 100 selects the activated window as the window in which the first GUI 811 is moved, and the user in the window in which the first GUI 811 is moved as an application program to execute a function corresponding to a remote signal.
  • the application program providing the interface can be selected.
  • an internet search application program 802 may be selected as an application program to execute a function corresponding to a remote signal.
  • the electronic device 100 may display, on the screen, a second GUI 812 indicating a function corresponding to a remote signal for the selected application program.
  • the electronic device 100 may display a second GUI 812 indicating that the web page may be scrolled as a function of the Internet search application program 802 providing the second user interface 802 in the activated window. Can be.
  • the electronic device 100 targets the application program displayed in the activated window. It is possible to execute a function corresponding to the remote signal generated from). For example, the electronic device 100 may scroll a web page included in the selected Internet search application program 802 in one direction.
  • the activated window may be a window on which the media application program 801 is displayed.
  • the electronic device 100 controls the content included in the media application program 801 by the touch of a finger or the touch of the stylus pen 120, while pressing the button 124 of the stylus pen 120 or the stylus.
  • the Internet search application program 802 may be controlled by remote control by touching one area of the pen 120.
  • FIG. 9 is a diagram illustrating a situation in which the electronic device 100 performs a function according to another embodiment of the present disclosure.
  • the processor 1320 of the electronic device 100 may be executing the first application program 901 and the second application program 902.
  • one of the first application program 901 or the second application program 902 may be a media application program.
  • the first application program 901 may be an Internet search application program 901 running in the foreground
  • the second application program 902 may be a media application program 902 running in the background.
  • the electronic device 100 may be connected to an audio output device capable of outputting content included in the media application program 902.
  • the electronic device 100 may be connected to the earphone 921.
  • the electronic device 100 may be connected to at least one speaker 922 through a wireless (or wired) network.
  • the electronic device 100 may automatically select a media application program associated with the audio output device as an application program which is a remote control target of the stylus pen 120.
  • the electronic device 100 displays a GUI 911 indicating a function corresponding to a remote signal of the stylus pen 120 for the automatically selected media application program 902.
  • the touch screen display structure 101 can be controlled. For example, when the user presses a button 124 of the stylus pen 120 or touches an area of the stylus pen 120, the GUI 911 may execute a function of outputting content through, for example, a connected earphone or a speaker. It may include a content playback icon indicating that there is.
  • the processor 1320 of the electronic device 100 may be executing a media application program.
  • the media application program may be running in the foreground or in the background.
  • the processor 1320 of the electronic device 100 may elapse according to a predetermined time elapse or in response to a user input (for example, a user input of pressing a power button (not shown) on one side of the electronic device 100).
  • the touch screen display structure 101 may be controlled to display the lock screen.
  • the processor 1320 of the electronic device 100 may control the touch screen display structure 101 to display a GUI related to the media application program on the lock screen.
  • the electronic device 100 may select (or match) an application program displaying a GUI on the lock screen as an application program to execute the remote control function of the stylus pen 120.
  • the electronic device 100 selects the selected signal.
  • the application program can perform functions related to remote signals. For example, the electronic device 100 may play content that is waiting to be played, pause content while playing, end content that is being played, play content in a previous or subsequent order, or adjust a volume of the content.
  • the electronic device 100 may be communicatively connected (or mirrored) with the display device through a network.
  • the electronic device 100 may select (or match) an application program that controls content playback of the display device as an application program that will execute the remote control function of the stylus pen 120.
  • the selected application program may be, for example, a mirroring application program or a remote control application program capable of controlling the display device.
  • the electronic device 100 selects the selected signal.
  • the application program can perform functions related to remote signals. For example, the electronic device 100 may play a content that is waiting to be played, pause a content that is being played, end a content that is being played, play a content in a previous order or a subsequent order, control a playback speed of a content,
  • the subtitle associated with the content may be controlled, the volume of the content may be controlled, or the display state of the content may be controlled.
  • FIG. 10 is a diagram illustrating a situation in which the electronic device 100 performs a function according to another embodiment of the present disclosure.
  • the processor 1320 of the electronic device 100 may be executing a plurality of application programs.
  • the user interface included in the first application program 1001 is displayed in the foreground, and the second application program 1002 and the third application program 1003 may be running in the background.
  • a first application program 1001 including a user interface is a gallery application program 100
  • a second application program 1002 is a media application program 1002
  • a third application program 1003 is a media app application.
  • Program 1003 (eg, a youtube application program, etc.).
  • the electronic device 100 may have selected a first application program 1001 as an application program to execute a function corresponding to a remote signal of the stylus pen 120. Accordingly, the electronic device 100 controls the touch screen display structure 101 to display the first GUI 1011 representing a function corresponding to the remote signal of the stylus pen 120 for the gallery application program 1001. can do.
  • the first GUI 1011 may include, for example, an icon indicating that a function of displaying an image in the previous order or the next order may be executed.
  • the user may long press the first GUI 1011 using the stylus pen 120.
  • the electronic device 100 may select an application program located in front of (or most recently executed) among the background application programs as an application program to execute a function corresponding to a remote signal. have.
  • the electronic device 100 corresponds to a remote signal targeting the media application program 1002.
  • the touch screen display structure 101 may be controlled to display a second GUI 1012 representing a function.
  • the user may long press the second GUI 1012 using the stylus pen 120.
  • the electronic device 100 may select an application program of a next order as an application program to execute a function corresponding to a remote signal among the background application programs. If the selected application program is the third app program 1003 as the media app application program 1003, the electronic device 100 may display a third GUI (3) indicating a function corresponding to a remote signal for the media app application program 1003.
  • the touch screen display structure 101 may be controlled to display 1013.
  • the third GUI 1013 may, for example, play content included in the media app application program 1003, pause content being played, end content being played, or play content in a previous or subsequent order.
  • the electronic device 100 selects the selected media app application program.
  • a function related to a remote signal may be performed on the object 1003.
  • 11A and 11B are context diagrams 1100 and 1150 illustrating a situation in which the electronic device 100 performs a function according to another exemplary embodiment of the present disclosure.
  • the processor 1320 of the electronic device 100 may be executing the first application program 1101 and the second application program 1102.
  • the electronic device 100 may select an application program corresponding to the controller 1112 displayed on the quick panel 1111 as an application program for executing the remote control function by the stylus pen 120.
  • a controller eg, a control UI or a control GUI
  • a controller 1112 capable of controlling content may be present in the quick panel 1111.
  • a controller 1112 capable of controlling content may exist in the quick panel 1111.
  • the quick panel 1111 may be displayed on the screen as shown in (a) of FIG. 11A as the user drags from one side of the electronic device 100 in one direction.
  • the electronic device 100 When the controller 1112 included in the application program supporting the remote control function exists in the quick panel 1111, the electronic device 100 provides the controller 1112 according to the remote signal received from the stylus pen 120.
  • the application program 1102 can be controlled. For example, as illustrated in (b) of FIG. 11A, a user presses a button 124 of the stylus pen 120 that is communicatively paired with the electronic device 100 or a region (eg, a touch pad area) of the stylus pen 120. Can be touched. In this case, when a remote signal generated by the press or touch of the button 124 of the stylus pen 120 is received, the electronic device 100 executes a function of the media application program 1102 providing the controller 1112. Can be. For example, the electronic device 100 may play or pause the content included in the media application program 1102 running in the background.
  • the quick panel 1111 including the controller 1112 whose execution state of the content is changed may be displayed on the screen.
  • a controller 1112 capable of controlling content included in the media application program 1102 supporting the remote control function may exist in the quick panel 1111.
  • the user may delete the controller 1112 from the quick panel 1111.
  • the controller 1112 may be deleted from the quick panel 1111.
  • the quick panel 1111 from which the controller 1112 is deleted may be displayed on the touch screen display structure 101.
  • the user presses a button 124 of the stylus pen 120 that is communicatively paired with the electronic device 100 or a region (eg, a touch pad) of the stylus pen 120. Area).
  • the electronic device 100 performs a function corresponding to the remote signal with respect to an application program running in the foreground.
  • the application program running in the foreground is the Internet search application program 1101
  • the electronic device 100 may include a first web page included in the Internet search application program 1101.
  • the touch screen display structure 101 may be controlled to scroll 1101 in one direction to display another second web page 1103.
  • the function of the application program according to the remote signal of the stylus pen 120 may be summarized as follows.
  • Tables 1 and 2 show examples of executing a function by giving priority to an application program in the background according to the remote signal of the stylus pen 120.
  • Table 3 and Table 4 show examples of executing a function by giving priority to an application program in the foreground according to the remote signal of the stylus pen 120.
  • Table 1 may be a situation where the media application program is running in the background and the controller 1112 of the media application program exists in the quick panel 1111.
  • the electronic device 100 may perform a media control function.
  • different remote signals may be received depending on whether the user single presses or double presses the button 124 of the stylus pen 120.
  • the electronic device 100 may perform different media control functions according to each signal. For example, when a remote signal according to a single press is received, the electronic device 100 may play or pause the content running in the media application program. In addition, when the remote signal according to the double press is received, the electronic device 100 may play the next sequence of contents that can be provided by the media application program.
  • the electronic device 100 may perform a quick launcher function corresponding to the long press.
  • the quick launcher function may be a function defined separately by a user or a function defined by default in the electronic device 100.
  • the function defined as a default may be, for example, a screen capture function, a recording function, a shooting function, etc., but is not limited to the above-described example.
  • the quick launcher function may be a function related to a running media application program.
  • the quick launcher function may be, for example, a function of executing a content of a list favorited by a user or a content recommended by a media application program or a user's acquaintance.
  • the electronic device 100 when the controller 1112 of the media application program exists in the quick panel 1111, when a remote signal is received from the stylus pen 120, the electronic device 100 is running in the foreground.
  • the function of the media application program running in the background may be preferentially performed.
  • the electronic device 100 may preferentially perform a function of a media application program running in the background, regardless of whether an application program running in the foreground may be controlled by a remote control signal.
  • the fact that the electronic device 100 does not care about an application running in the foreground includes not checking the type, state, or supporting function of the application program running in the foreground, or disregarding the check result even if checked. can do.
  • Table 2 may be a situation where the media application program is running in the background and the controller 1112 of the media application program does not exist in the quick panel 1111.
  • the electronic device 100 may select an application program that can be remotely controlled in the foreground.
  • the electronic device 100 may perform a predefined function with respect to the selected application program.
  • different remote signals may be received depending on whether the user single presses or double presses the button 124 of the stylus pen 120.
  • the electronic device 100 may perform different predefined functions according to each signal.
  • the electronic device 100 may drag a web page in an upward direction (or downward direction). Can be.
  • the electronic device 100 may drag the web page in the downward direction (or the upward direction).
  • a remote signal may be received accordingly. In this case, the electronic device 100 may perform a quick launcher function corresponding to the long press.
  • the electronic device 100 may not perform a separate function.
  • Table 3 may be a situation where the media application program is running in the background and the controller 1112 of the media application program exists in the quick panel 1111.
  • the electronic device 100 may perform a remote control function by giving priority to an application program running in the foreground. For example, when there is an application program supporting a remote signal in the foreground, the electronic device 100 may perform a predefined function according to the remote signal. In this case, different remote signals may be received depending on whether the user single presses or double presses the button 124 of the stylus pen 120. The electronic device 100 may perform different predefined functions according to each signal. In addition, when the user long presses the stylus pen 120, a remote signal may be received accordingly. In this case, the electronic device 100 may perform a quick launcher function corresponding to the long press.
  • the electronic device 100 may perform a remote control function corresponding to a remote signal with respect to a media application program running in the background.
  • Table 4 may be a situation where the media application program is running in the background and the controller 1112 of the media application program does not exist in the quick panel 1111.
  • the electronic device 100 may perform a remote control function by giving priority to an application program running in the foreground. For example, when there is an application program supporting a remote signal in the foreground, the electronic device 100 may perform a predefined function according to the remote signal. In this case, different remote signals may be received depending on whether the user single presses or double presses the button 124 of the stylus pen 120. The electronic device 100 may perform different predefined functions according to each signal. In addition, when the user long presses the stylus pen 120, a remote signal may be received accordingly. In this case, the electronic device 100 may perform a quick launcher function corresponding to the long press.
  • the electronic device 100 may not perform a separate function.
  • FIG. 12 is a flowchart 1200 of an electronic device 100 performing a function according to various embodiments of the present disclosure.
  • the electronic device 100 may execute a first application program and a second application program (1201).
  • the electronic device 100 may display at least one of a first user interface including a first application program and a second user interface including a second application program (1203). For example, the electronic device 100 may display only one of the first user interface or the second user interface. Alternatively, the electronic device 100 may display both the first user interface and the second user interface on the screen.
  • the electronic device 100 may determine whether a first signal generated by pressing or touching a button of the stylus pen 120 is received during the first time (1205).
  • the first signal may be a signal generated by pressing or touching a button 124 of the stylus pen 120 that is communicatively paired with the electronic device 100 using a Bluetooth protocol.
  • the Bluetooth protocol may include a Bluetooth low power protocol (BLE).
  • the electronic device 100 may select one of the first application program or the second application program based on the first signal (1207).
  • the electronic device 100 may change at least a part of the screen based on at least a part of the selection (1209).
  • the electronic device 100 may display a GUI indicating a function of the first application program or a function of the second application program on the screen.
  • the GUI may include, for example, a play icon related to playing of content included in the media application program, a stop icon related to stopping playing of the content, or an end icon related to ending playing of the content.
  • the electronic device 100 may highlight the selected application program or display the selected application program on the foreground screen based on at least a part of the selection.
  • the electronic device 100 may determine whether a second signal generated by a press or a touch of the button 124 of the stylus pen 120 is received during a second time different from the first time (1211).
  • the second signal may be a signal generated by pressing or touching the button 124 of the stylus pen 120 that is communicatively paired with the electronic device 100 using the Bluetooth protocol.
  • the Bluetooth protocol may include a Bluetooth low power protocol (BLE).
  • the electronic device 100 When the second signal is received (1211-Y), the electronic device 100, based on at least part of the selection in operation 1207, the function of the first application program or the function of the second application program in response to the second signal. It may be performed (1213). For example, in operation 1207, the electronic device 100 may perform a function of the selected application program in response to the first signal.
  • the electronic device 100 may receive a third signal generated according to a touch input or a hovering input on the screen using the stylus pen 120.
  • the electronic device 100 may perform a function of the first application program or a function of the second application program in response to the third signal.
  • the first signal and the second signal may be a remote signal
  • the third signal may be a touch signal.
  • the electronic device 1301 is a block diagram of an electronic device 1301 within a network environment 1300, according to various embodiments.
  • the electronic device 1301 may include the electronic device 100 of FIG. 1.
  • the electronic device 1301 communicates with the electronic device 1302 through the first network 1398 (eg, a short-range wireless communication network) or the second network 1399.
  • the electronic device 1304 or the server 1308 may be communicated with through a long range wireless communication network.
  • the electronic device 1301 may communicate with the electronic device 1304 through the server 1308.
  • the electronic device 1301 may include a processor 1320, a memory 1330, an input device 1350, an audio output device 1355, a display device 1360, an audio module 1370, and a sensor module ( 1376, interface 1377, haptic module 1379, camera module 1380, power management module 1388, battery 1389, communication module 1390, subscriber identification module 1396, or antenna module 1397 ) May be included.
  • a sensor module 1376, interface 1377, haptic module 1379, camera module 1380, power management module 1388, battery 1389, communication module 1390, subscriber identification module 1396, or antenna module 1397 .
  • the components for example, the display device 1360 or the camera module 1380
  • the sensor module 1374 eg, fingerprint sensor, iris sensor, or illuminance sensor
  • the display device 1360 eg, display
  • the processor 1320 for example, executes software (eg, a program 1340) to execute at least one other component (eg, hardware or software component) of the electronic device 1301 connected to the processor 1320. It can control and perform various data processing or operations. According to one embodiment, as at least part of the data processing or operation, the processor 1320 may transmit instructions or data received from another component (eg, the sensor module 1336 or the communication module 1390) to the volatile memory 1332. Can be loaded into, processed in the volatile memory 1332, or stored in the non-volatile memory 1334.
  • software eg, a program 1340
  • the processor 1320 may transmit instructions or data received from another component (eg, the sensor module 1336 or the communication module 1390) to the volatile memory 1332. Can be loaded into, processed in the volatile memory 1332, or stored in the non-volatile memory 1334.
  • the processor 1320 is a main processor 1321 (e.g., a central processing unit or an application processor), and a coprocessor 1323 (e.g., a graphics processing unit, an image signal processor) that can operate independently or together. , Sensor hub processor, or communication processor). Additionally or alternatively, the coprocessor 1323 may be configured to use lower power than the main processor 1321, or to be specific to a designated function. The coprocessor 1323 may be implemented separately from or as part of the main processor 1321.
  • a main processor 1321 e.g., a central processing unit or an application processor
  • a coprocessor 1323 e.g., a graphics processing unit, an image signal processor
  • the coprocessor 1323 may be configured to use lower power than the main processor 1321, or to be specific to a designated function.
  • the coprocessor 1323 may be implemented separately from or as part of the main processor 1321.
  • the coprocessor 1323 may, for example, replace the main processor 1321 while the main processor 1321 is in an inactive (eg, sleep) state, or the main processor 1321 may be active (eg, executing an application). ), Along with the main processor 1321, at least one of the components of the electronic device 1301 (eg, display device 1360, sensor module 1376, or communication module 1390). Control at least some of the functions or states associated with the. According to one embodiment, the coprocessor 1323 (eg, an image signal processor or communication processor) may be implemented as part of another functionally related component (eg, camera module 1380 or communication module 1390). have.
  • the memory 1330 may store various data used by at least one component of the electronic device 1301 (for example, the processor 1320 or the sensor module 1374).
  • the data may include, for example, software (eg, a program 1340) and input data or output data for a command related thereto.
  • the memory 1330 may include a volatile memory 1332 or a nonvolatile memory 1334.
  • the program 1340 may be stored as software in the memory 1330, and may include, for example, an operating system 1342, middleware 1344, or an application 1346.
  • the input device 1350 may receive a command or data to be used for a component of the electronic device 1301 (for example, the processor 1320) from the outside (for example, a user) of the electronic device 1301.
  • the input device 1350 may include, for example, a microphone, a mouse, or a keyboard.
  • the sound output device 1355 may output a sound signal to the outside of the electronic device 1301.
  • the sound output device 1355 may include, for example, a speaker or a receiver.
  • the speaker may be used for general purposes such as multimedia playback or recording playback, and the receiver may be used to receive an incoming call.
  • the receiver may be implemented separately from or as part of a speaker.
  • the display device 1360 may visually provide information to the outside (eg, a user) of the electronic device 1301.
  • the display device 1360 may include, for example, a display, a hologram device, or a projector and a control circuit for controlling the device.
  • the display device 1360 may include touch circuitry configured to sense a touch, or sensor circuit (eg, a pressure sensor) set to measure the strength of the force generated by the touch. have.
  • the audio module 1370 may convert sound into an electrical signal or, conversely, convert an electrical signal into a sound. According to an embodiment, the audio module 1370 acquires sound through the input device 1350, or an external electronic device (eg, connected directly or wirelessly to the sound output device 1355 or the electronic device 1301). Sound may be output through the electronic device 1302 (eg, a speaker or a headphone).
  • an external electronic device eg, connected directly or wirelessly to the sound output device 1355 or the electronic device 1301. Sound may be output through the electronic device 1302 (eg, a speaker or a headphone).
  • the sensor module 1374 detects an operating state (eg, power or temperature) of the electronic device 1301, or an external environmental state (eg, a user state), and generates an electrical signal or data value corresponding to the detected state. can do.
  • the sensor module 1374 may include, for example, a gesture sensor, a gyro sensor, an air pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, a color sensor, an infrared sensor, a biometric sensor, It may include a temperature sensor, a humidity sensor, or an illuminance sensor.
  • the interface 1377 may support one or more designated protocols that may be used for the electronic device 1301 to be directly or wirelessly connected to an external electronic device (eg, the electronic device 1302).
  • the interface 1377 may include, for example, a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, an SD card interface, or an audio interface.
  • HDMI high definition multimedia interface
  • USB universal serial bus
  • SD card interface Secure Digital Card
  • connection terminal 1378 may include a connector through which the electronic device 1301 may be physically connected to an external electronic device (eg, the electronic device 1302).
  • the connection terminal 1378 may include, for example, an HDMI connector, a USB connector, an SD card connector, or an audio connector (eg, a headphone connector).
  • the haptic module 1379 may convert an electrical signal into a mechanical stimulus (eg, vibration or movement) or an electrical stimulus that can be perceived by the user through tactile or kinesthetic senses.
  • the haptic module 1379 may include, for example, a motor, a piezoelectric element, or an electrical stimulation device.
  • the camera module 1380 may capture still images and videos. According to one embodiment, the camera module 1380 may include one or more lenses, image sensors, image signal processors, or flashes.
  • the power management module 1388 may manage power supplied to the electronic device 1301. According to one embodiment, the power management module 388 may be implemented, for example, as at least part of a power management integrated circuit (PMIC).
  • PMIC power management integrated circuit
  • the battery 1389 may supply power to at least one component of the electronic device 1301.
  • the battery 1389 may include, for example, a non-rechargeable primary cell, a rechargeable secondary cell or a fuel cell.
  • the communication module 1390 may be configured as a direct (eg wired) communication channel or wireless communication channel between the electronic device 1301 and an external electronic device (eg, the electronic device 1302, the electronic device 1304, or the server 1308). Establish and perform communication over established communication channels.
  • the communication module 1390 may operate independently of the processor 1320 (eg, an application processor) and include one or more communication processors that support direct (eg, wired) or wireless communication.
  • the communication module 1390 may be a wireless communication module 1372 (eg, a cellular communication module, a near field communication module, or a global navigation satellite system (GNSS) communication module) or a wired communication module 1394 (eg It may include a local area network (LAN) communication module, or a power line communication module.
  • LAN local area network
  • Corresponding communication modules of these communication modules may be a first network 1398 (e.g., a short range communication network such as Bluetooth, WiFi direct, or an infrared data association (IrDA)) or a second network 1399 (e.g., a cellular network, the Internet, or Communicate with external electronic devices via a telecommunications network, such as a computer network (eg, LAN or WAN).
  • a first network 1398 e.g., a short range communication network such as Bluetooth, WiFi direct, or an infrared data association (IrDA)
  • a second network 1399 e.g., a cellular network, the Internet, or Communicate with external electronic devices via a telecommunications network, such as a computer network (eg, LAN or WAN).
  • a telecommunications network such as a computer network (eg, LAN or WAN).
  • These various types of communication modules may be integrated into one component (eg, a single chip) or may be implemented by a
  • the wireless communication module 1332 uses subscriber information (e.g., international mobile subscriber identifier (IMSI)) stored in the subscriber identification module 1396 within a communication network such as the first network 1398 or the second network 1399.
  • subscriber information e.g., international mobile subscriber identifier (IMSI)
  • IMSI international mobile subscriber identifier
  • the antenna module 1397 may transmit or receive a signal or power to an external device (eg, an external electronic device).
  • antenna module 1397 may comprise one or more antennas, from which at least one antenna suitable for a communication scheme used in a communication network, such as first network 1198 or second network 1199, For example, it may be selected by the communication module 1390.
  • the signal or power may be transmitted or received between the communication module 1390 and the external electronic device through the selected at least one antenna.
  • peripheral devices eg, a bus, a general purpose input and output (GPIO), a serial peripheral interface (SPI), or a mobile industry processor interface (MIPI)
  • GPIO general purpose input and output
  • SPI serial peripheral interface
  • MIPI mobile industry processor interface
  • the command or data may be transmitted or received between the electronic device 1301 and the external electronic device 1304 through the server 1308 connected to the second network 1399.
  • Each of the electronic devices 1302 and 1104 may be the same or different type of device as the electronic device 1301.
  • all or part of operations executed in the electronic device 1301 may be executed in one or more external devices among the external electronic devices 1302, 1104, or 1108.
  • the electronic device 1301 may instead execute the function or service by itself.
  • one or more external electronic devices may be requested to perform at least a part of the function or the service.
  • the one or more external electronic devices that receive the request may execute at least a part of the requested function or service, or an additional function or service related to the request, and transmit a result of the execution to the electronic device 1301.
  • the electronic device 1301 may process the result as it is or additionally and provide it as at least part of a response to the request.
  • cloud computing distributed computing, or client-server computing technology may be used.
  • the display device 1360 may include a display 1410 and a display driver IC (DDI) 1430 for controlling the display 1410.
  • the DDI 1430 may include an interface module 1431, a memory 1433 (eg, a buffer memory), an image processing module 1435, or a mapping module 1437.
  • the DDI 1430 receives, for example, image information including image data or an image control signal corresponding to a command for controlling the image data from another component of the electronic device 1101 through the interface module 1431. can do.
  • the image information may be provided by the processor 1320 (eg, the main processor 1321 (eg, an application processor) or the coprocessor 1323, which operates independently of the function of the main processor 1321).
  • the DDI 1430 may communicate with the touch circuit 1450 or the sensor module 1374 through the interface module 1431.
  • the DDI 1430 may communicate with the DDI 1430. At least some of the received image information may be stored in, for example, a frame unit in the memory 1433.
  • the image processing module 1435 may store, for example, at least a portion of the image data in terms of characteristics of the image data or Preprocessing or postprocessing (eg, resolution, brightness, or scaling) may be performed based at least on characteristics of the display 1410.
  • the mapping module 1437 may be preprocessed or postprocessed via the image processing module 1335.
  • the generation of the voltage value or the current value may correspond to, for example, an attribute (eg, an arrangement of pixels) of the pixels of the display 1410. RGB stripe or pentile structure), or at least part of the size of each of the sub-pixels)
  • At least some pixels of the display 1410 may, for example, be based at least in part on the voltage value or current value.
  • visual information eg, text, an image, or an icon
  • corresponding to the image data may be displayed on the display 1410.
  • the display device 1360 may further include a touch circuit 1450.
  • the touch circuit 1450 may include a touch sensor 1451 and a touch sensor IC 1453 for controlling the touch sensor 1451.
  • the touch sensor IC 1453 may control the touch sensor 1451, for example, to sense a touch input or a hovering input for a specific position of the display 1410.
  • the touch sensor IC 1453 may detect a touch input or a hovering input by measuring a change in a signal (for example, voltage, amount of light, resistance, or charge) for a specific position of the display 1410.
  • the touch sensor IC 1453 may provide the processor 1320 with information (eg, position, area, pressure, or time) regarding the detected touch input or the hovering input.
  • At least a portion of the touch circuit 1450 is disposed as the display driver IC 1430, or as part of the display 1410, or external to the display device 1360. It may be included as part of another component (for example, the coprocessor 1323).
  • the display device 1360 may further include at least one sensor (eg, a fingerprint sensor, an iris sensor, a pressure sensor, or an illuminance sensor) of the sensor module 1376, or a control circuit thereof.
  • the at least one sensor or a control circuit thereof may be embedded in a portion of the display device 1360 (eg, the display 1410 or the DDI 1430) or a portion of the touch circuit 1450.
  • the sensor module 1376 embedded in the display device 1360 includes a biometric sensor (eg, a fingerprint sensor)
  • the biometric sensor may transmit biometric information associated with a touch input through a portion of the display 1410. (Eg, fingerprint image) can be obtained.
  • the pressure sensor may obtain pressure information associated with the touch input through some or all areas of the display 1410. Can be.
  • the touch sensor 1451 or the sensor module 1374 may be disposed between the pixels of the pixel layer of the display 1410 or above or below the pixel layer.
  • module may include a unit implemented in hardware, software, or firmware, and may be used interchangeably with terms such as logic, logic block, component, or circuit.
  • the module may be an integral part or a minimum unit or part of the component, which performs one or more functions.
  • the module may be implemented in the form of an application-specific integrated circuit (ASIC).
  • ASIC application-specific integrated circuit
  • Various embodiments of the present disclosure may be a storage medium (eg, internal memory 1336 or external memory 1338) readable by a machine (eg, electronic device 100, electronic device 1301). It may be implemented as software (eg, program 1340) including one or more instructions stored in).
  • a processor eg, processor 1320 of the device (eg, electronic device 100, electronic device 1301) invokes at least one of the one or more instructions stored from the storage medium, and calls it. You can run This enables the device to be operated to perform at least one function in accordance with the at least one command invoked.
  • the one or more instructions may include code generated by a compiler or code executable by an interpreter.
  • the device-readable storage medium may be provided in the form of a non-transitory storage medium.
  • 'non-transitory' means only that the storage medium is a tangible device and does not contain a signal (e.g., electromagnetic waves), which is the case when data is stored semi-permanently on the storage medium. It does not distinguish cases where it is temporarily stored.
  • a signal e.g., electromagnetic waves
  • a method may be provided included in a computer program product.
  • the computer program product may be traded between the seller and the buyer as a product.
  • the computer program product may be distributed in the form of a device-readable storage medium (e.g. compact disc read only memory (CD-ROM)), or through an application store (e.g. Play StoreTM) or two user devices ( Example: smartphones) can be distributed (eg downloaded or uploaded) directly or online.
  • a device-readable storage medium such as a server of a manufacturer, a server of an application store, or a relay server, or may be temporarily created.
  • each component eg, module or program of the above-described components may include a singular or plural entity.
  • one or more of the aforementioned components or operations may be omitted, or one or more other components or operations may be added.
  • a plurality of components eg, a module or a program
  • the integrated component may perform one or more functions of the component of each of the plurality of components the same as or similar to that performed by the corresponding component of the plurality of components before the integration. .
  • operations performed by a module, program, or other component may be executed sequentially, in parallel, repeatedly, or heuristically, or one or more of the operations may be executed in a different order, or omitted. Or one or more other actions may be added.

Abstract

전자 장치가 개시된다. 개시되는 전자 장치는, 터치스크린 디스플레이 구조, 제1 무선 통신 회로, 제2 무선 통신 회로, 및 프레스 가능하거나 또는 터치 가능한 적어도 하나의 버튼을 포함하는 스타일러스 펜, 상기 터치스크린 디스플레이 구조 및 상기 제1 무선 통신 회로와 작동적으로 연결되는 프로세서, 및 프로세서와 작동적으로 연결되는 메모리를 포함한다. 메모리는 제1 사용자 인터페이스를 포함하는 제1 어플리케이션 프로그램, 및 제2 사용자 인터페이스를 포함하는 제2 어플리케이션 프로그램을 저장한다. 메모리는, 실행될 때, 상기 프로세서가, 사용자 입력을 수신 시, 제1 어플리케이션 프로그램 및 제2 어플리케이션 프로그램을 실행하고, 제1 사용자 인터페이스 및 제2 사용자 인터페이스 중 적어도 하나를 터치스크린 디스플레이 구조를 통하여 표시하고, 제1 시간 동안에 상기 버튼의 프레스 또는 터치에 의하여 발생되는 제1 신호를, 제1 무선 통신 회로를 통하여 스타일러스 펜으로부터 수신하고, 제1 신호에 기반하여, 제1 어플리케이션 프로그램 또는 제2 어플리케이션 프로그램 중 하나를 선택하고, 선택의 적어도 일부에 기반하여, 화면 상에 표시되는 정보의 적어도 일부를 변경하고, 제1 시간과 다른 제2 시간 동안에, 버튼의 프레스 또는 터치에 의하여 발생되는 제2 신호를, 제1 무선 통신 회로를 통하여 스타일러스 펜으로부터 수신하고, 선택의 적어도 일부에 기반하여, 제2 신호에 대한 응답으로 상기 제1 어플리케이션 프로그램의 기능 또는 상기 제2 어플리케이션 프로그램의 기능을 수행하도록 설정된 명령어들을 저장한다. 그 외 다양한 실시예가 가능하다.

Description

전자 장치 및 전자 장치의 기능 수행 방법
본 개시의 다양한 실시예들은 전자 장치 및 이의 기능 수행 방법에 관한 것이다. 특히, 스타일러스 펜을 이용하여 전자 장치의 기능을 수행하는 방법에 관한 것이다.
전자 장치는 이동 통신 단말기가 많이 사용되고 있다. 이동 통신 단말기는 상대방과의 통신 이외에 음악, 동영상 등의 멀티미디어 컨텐트를 제공할 수 있다. 또한, 이동 통신 단말기는 화면 상에 사용자의 터치 입력에 따라 발생된 신호를 처리하여 다양한 기능을 수행할 수 있다. 예로, 사용자의 터치 입력에 따라 웹 페이지를 스크롤하거나, 컨텐트의 재생을 제어할 수 있다.
전자 장치는 이러한 기능을 수행하기 위한 보조 장치로서 스타일러스 펜을 사용할 수도 있다. 예로, 전자 장치는 화면 상에 스타일러스 펜의 터치 입력에 따라 발생된 신호를 처리하여 다양한 기능들을 수행할 수 있다.
사용자는 스타일러스 펜을 이용하여 포그라운드로 실행 중인 어플리케이션 프로그램을 제어할 수 있다. 예로, 포그라운드로 실행 중인 어플리케이션 프로그램이 컨텐트를 재생할 수 있는 미디어 어플리케이션 프로그램인 경우, 사용자는 스타일러스 펜을 이용하여 컨텐트를 선택하여 실행시킬 수 있다.
사용자가 스타일러스 펜을 이용하여 포그라운드로 실행 중인 어플리케이션 프로그램을 제어하는 동안에, 사용자는 백그라운드로 실행 중인 어플리케이션 프로그램을 제어하기를 원할 수 있다. 이 경우, 사용자는 별도의 메뉴를 이용하여 백그라운드에서 실행 중인 어플리케이션 프로그램으로 접근할 수 있으나, 이는 전자 장치를 이용하는 사용자의 연속성 및 접근성을 떨어뜨릴 수 있다.
이에, 최소의 사용자의 조작으로, 사용자가 자연스럽게 백그라운드로 실행 중인 어플리케이션 프로그램을 제어하기 위한 방안이 요구될 수 있다. 특히, 사용자가 파지하고 있는 스타일러스 펜을 이용하여 백그라운드로 실행 중인 어플리케이션 프로그램을 제어할 수 있다면 사용자의 편의성은 더욱 향상될 수 있다.
그 밖에, 복수 개의 어플리케이션 프로그램들이 멀티 윈도우에 의하여 포그라운드에서 실행 중인 상황에서도, 사용자가 스타일러스 펜을 이용하여 복수 개의 어플리케이션 프로그램들 중 하나의 어플리케이션 프로그램을 선택하여 빠르게 제어하기 위한 방안이 요구될 수 있다.
일 실시예에 따른 전자 장치는, 제1 방향을 향하는 제1 면과 상기 제1 방향과 반대되는 제2 방향을 향하는 제2 면을 포함하는 하우징; 상기 하우징 안에 위치하되, 상기 제1 면을 통하여 보이는 화면을 포함하는 터치스크린 디스플레이 구조, 상기 하우징 안에 위치하며, 블루투스 프로토콜을 지원하도록 구성된 제1 무선 통신 회로, 상기 터치스크린 디스플레이 구조에 의해 감지 가능한 용량성 부분과, 상기 블루투스 프로토콜을 지원하며 상기 제1 무선 통신 회로와 페어링되도록 구성된 제2 무선 통신 회로를 포함하되, 프레스 가능하거나 또는 터치 가능한 적어도 하나의 버튼을 포함하는 스타일러스 펜; 상기 하우징 내부에 위치하고, 상기 터치스크린 디스플레이 구조 및 상기 제1 무선 통신 회로와 작동적으로 연결되는 프로세서; 및 상기 하우징 내부에 위치하고, 상기 프로세서와 작동적으로 연결되는 메모리를 포함하고, 상기 메모리는 제1 사용자 인터페이스를 포함하는 제1 어플리케이션 프로그램, 및 제2 사용자 인터페이스를 포함하는 제2 어플리케이션 프로그램을 저장하고, 상기 메모리는, 실행될 때, 상기 프로세서가, 사용자 입력을 수신 시, 상기 제1 어플리케이션 프로그램 및 상기 제2 어플리케이션 프로그램을 실행하고, 상기 제1 사용자 인터페이스 또는 상기 제2 사용자 인터페이스 중 적어도 하나를 상기 화면 상에 표시하고, 상기 버튼의 프레스 또는 터치에 의하여 발생되는 제1 신호를, 제1 시간 동안에 상기 스타일러스 펜으로부터 수신하고, 상기 제1 어플리케이션 프로그램 또는 상기 제2 어플리케이션 프로그램 중 하나를 선택하고, 상기 선택의 적어도 일부에 기반하여, 상기 화면의 적어도 일부를 변경하고, 상기 제1 시간과 다른 제2 시간 동안에, 상기 버튼의 프레스 또는 터치에 의하여 발생되는 제2 신호를 상기 스타일러스 펜으로부터 수신하고, 상기 선택의 적어도 일부에 기반하여, 상기 제2 신호에 대한 응답으로 상기 제1 어플리케이션 프로그램의 기능 또는 상기 제2 어플리케이션 프로그램의 기능을 수행하도록 설정된 명령어들을 더 저장한다.
일 실시예에 따른 전자 장치의 기능 수행 방법은, 사용자 입력을 수신 시, 제1 어플리케이션 프로그램 및 제2 어플리케이션 프로그램을 실행하는 동작; 상기 제1 어플리케이션 프로그램을 포함하는 제1 사용자 인터페이스 또는 상기 제2 어플리케이션 프로그램을 포함하는 제2 사용자 인터페이스 중 적어도 하나를 화면 상에 표시하는 동작; 상기 전자 장치와 블루투스 프로토콜을 이용하여 통신 페어링된 스타일러스 펜의 버튼의 프레스 또는 터치에 의하여 발생되는 제1 신호를, 제1 시간 동안에 상기 스타일러스 펜으로부터 수신하는 동작; 상기 제1 어플리케이션 프로그램 또는 상기 제2 어플리케이션 프로그램 중 하나를 선택하는 동작; 상기 선택의 적어도 일부에 기반하여, 상기 화면의 적어도 일부를 변경하는 동작; 상기 제1 시간과 다른 제2 시간 동안에, 상기 버튼의 프레스 또는 터치에 의하여 발생되는 제2 신호를 상기 스타일러스 펜으로부터 수신하는 동작; 및 상기 선택의 적어도 일부에 기반하여, 상기 제2 신호에 대한 응답으로 상기 제1 어플리케이션 프로그램의 기능 또는 상기 제2 어플리케이션 프로그램의 기능을 수행하는 동작을 포함한다.
일 실시예에 따른 컴퓨터로 읽을 수 있는 기록 매체를 포함하는 컴퓨터 프로그램 제품은, 제1 어플리케이션 프로그램 및 제2 어플리케이션 프로그램을 실행하는 동작; 상기 제1 어플리케이션 프로그램을 포함하는 제1 사용자 인터페이스 및 상기 제2 어플리케이션 프로그램을 포함하는 제2 사용자 인터페이스 중 적어도 하나를 화면 상에 표시하는 동작; 상기 전자 장치와 블루투스 프로토콜을 이용하여 통신 페어링된 스타일러스 펜의 버튼의 프레스 또는 터치에 의하여 발생되는 제1 신호를, 제1 시간 동안에 상기 스타일러스 펜으로부터 수신하는 동작; 상기 제1 신호에 기반하여, 상기 제1 어플리케이션 프로그램 또는 상기 제2 어플리케이션 프로그램 중 하나를 선택하는 동작; 상기 선택의 적어도 일부에 기반하여, 상기 화면의 적어도 일부를 변경하는 동작; 상기 제1 시간과 다른 제2 시간 동안에, 상기 버튼의 프레스 또는 터치에 의하여 발생되는 제2 신호를 상기 스타일러스 펜으로부터 수신하는 동작; 및 상기 선택의 적어도 일부에 기반하여, 상기 제2 신호에 대한 응답으로 상기 제1 어플리케이션 프로그램의 기능 또는 상기 제2 어플리케이션 프로그램의 기능을 수행하는 동작을 컴퓨터에서 실행시키기 위한 명령어들을 저장한다.
최소의 사용자의 조작으로, 사용자가 자연스럽게 백그라운드로 실행 중인 어플리케이션 프로그램을 제어할 수 있다.
사용자가 파지하고 있는 스타일러스 펜을 이용하여 백그라운드로 실행 중인 어플리케이션 프로그램을 제어할 수 있어 사용자의 편의성이 더욱 향상될 수 있다.
복수 개의 어플리케이션 프로그램들이 멀티 윈도우에 의하여 포그라운드에서 실행 중인 상황에서도, 사용자가 스타일러스 펜을 이용하여 복수 개의 어플리케이션 프로그램들 중 하나의 어플리케이션 프로그램을 선택하여 빠르게 제어할 수 있다.
도 1은, 본 개시의 다양한 실시예에 따른 착탈 가능한 스타일러스 펜을 포함하는 전자 장치의 사시도이다.
도 2는 내지 도 11은, 본 개시의 다양한 실시예에 따른 전자 장치가 기능을 수행하는 상황을 설명하는 도면들이다.
도 12는, 본 개시의 다양한 실시예에 따른 전자 장치가 기능을 수행하는 흐름도이다.
도 13은, 본 개시의 다양한 실시예들에 따른 네트워크 환경 내의 전자 장치의 블록도이다.
도 14는, 본 개시의 다양한 실시예들에 따른 표시 장치의 블록도이다.
개시된 다양한 실시예들에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치 (예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 또는 가전 장치를 포함할 수 있다. 본 문서의 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.
본 개시의 다양한 실시예들 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시예들로 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나", “A 또는 B 중 적어도 하나,”"A, B 또는 C," "A, B 및 C 중 적어도 하나,”및 “A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에, “기능적으로” 또는 “통신적으로”라는 용어와 함께 또는 이런 용어 없이, “커플드” 또는 “커넥티드”라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 제 3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.
이하 첨부된 도면을 참고하여 본 개시를 상세히 설명한다.
도 1의 (a) 및 (b)는 본 개시의 다양한 실시예에 따른 착탈 가능한 스타일러스 펜을 포함하는 전자 장치(100)의 사시도이다.
도 1의 (a) 및 (b)를 참고하면, 전자 장치(100)의 하우징(110) 안에는 하우징(110)의 전면을 통하여 사용자에게 보이는 화면을 포함하는 터치스크린 디스플레이 구조(101)가 마련될 수 있다. 터치스크린 디스플레이 구조(101)의 상측으로는 상대방의 음성을 출력하기 위한 스피커 장치(102)가 설치될 수 있다. 터치스크린 디스플레이 구조(101)의 하측으로는 상대방에게 전자 장치 사용자의 음성을 송신하기 위한 마이크로폰 장치(103)가 설치될 수 있다.
일 실시예에 따르면, 터치스크린 디스플레이 구조(101)는 터치 센서를 포함하는 터치 회로를 포함할 수 있다. 한 실시예에 따르면, 터치스크린 디스플레이 구조(101)는 터치 센서 및 터치 압력에 반응하는 포스 센서(force sensor)를 포함하는 압력 반응형 터치 스크린 장치를 포함할 수도 있다. 터치 회로는, 인간의 신체부의 감지를 위한 터치-감지 패드 및 스타일러스 펜(120)의 용량성 부분의 감지를 위한 스타일러스 펜-감지 패드를 포함할 수 있다.
일 실시예에 따르면, 스피커 장치(102)가 설치되는 주변에는 전자 장치(100)의 다양한 기능을 수행하기 위한 부품(component)들이 배치될 수 있다. 부품들은 적어도 하나의 센서 모듈(104)을 포함할 수 있다. 이러한 센서 모듈(104)은, 예컨대, 조도 센서(예: 광센서), 근접 센서, 적외선 센서, 또는 초음파 센서 중 적어도 하나를 포함할 수 있다. 일 실시예에 따르면, 부품은 제1 카메라 장치(105)를 포함할 수도 있다.
일 실시예에 따르면, 부품은 전자 장치(100)의 상태 정보를 사용자에게 인지시켜주기 위한 LED 인디케이터(109)를 포함할 수도 있다. 일 실시예에 따르면 전자 장치(100)의 후면에 역시 부품들이 배치될 수 있다. 일 실시예에 따르면, 부품은 또 제2 카메라 장치(106), 각종 센서 모듈(미도시)(예: 심박 센서, 조도 센서, 초음파 센서 등) 및 조명 장치(107) 중 적어도 하나를 포함할 수 있다. 일 실시예에 따르면, 전자 장치의 측면에는 물리적 키 버튼(108)(예: 사이드 키 버튼)이 돌출 배치될 수 있다.
일 실시예에 따르면, 전자 장치(100)는 하우징(110)에 형성되는 펜 장착 공간(또는, 홈)(111)에 선택적으로 착탈 가능하게 배치되는 스타일러스 펜(120)을 포함할 수 있다. 일 실시예에 따르면, 스타일러스 펜(120)은 일정 길이를 갖는 중공형 펜 하우징(121)의 내부에 코일체(123) 및 코일체(123)와 전기적으로 연결된 기판(미도시 됨)을 포함할 수 있다. 일 실시예에 따르면, 펜 하우징(121)의 단부는 첨예하게 형성된 팁(tip)(122)이 배치됨으로써, 입력 조작을 용이하게 수행하도록 유도할 수 있다.
일 실시예에 따르면, 전자 장치(100)는 전자기 유도 방식으로 스타일러스 펜(120)의 입력 위치를 검출하기 위한 EMR(electromagnetic resonance) 센서 패드(미도시)를 포함할 수 있다. 일 실시예에 따르면, EMR 센서 패드는 복수의 도전성 패턴을 포함할 수 있다. 일 실시예에 따르면, 전자 장치(100)는 도전성 패턴에 전원을 인가시켜 전자기장을 형성시키고, 스타일러스 펜(120)이 터치스크린 디스플레이 구조(101)에 접촉 또는 일정 거리 이내로 근접(hovering)되었을 때, 전자기장에 의해 진동되는 코일체(123)의 공진 주파수에 대한 피드백 신호를 수신하여 스타일러스 펜(120)의 위치를 검출할 수 있다.
일 실시예에 따르면, 전자 장치(100)는 스타일러스 펜(120)이 펜 장착 공간(111)에 완전히 삽입되었을 경우, 코일체(123)의 공진 주파수에 대한 피드백 신호를 검출하기 위한 검출 부재(미도시)를 포함할 수 있다. 일 실시예에 따르면, 검출 부재는 전자기 유도 방식을 위하여 구비되는 코일체(123)의 공진 주파수를 스타일러스 펜(120)의 삽입 여부를 검출하기 위한 검출 수단으로 사용될 수 있다. 일 실시예에 따르면, 전자 장치(100)는 검출 부재로 수신된 코일체(123)의 피드백 신호를 검출하여 스타일러스 펜(120)이 전자 장치(100)의 펜 장착 공간(111)에 삽입되는지를 확인할 수 있다.
일 실시예에 따르면, 스타일러스 펜(120)은 프레스 가능하거나 또는 터치 가능한 적어도 하나의 버튼(124)을 포함할 수 있다. 버튼(124)은 도 1과 같이 스타일러스 펜(120)에 말단에 위치하거나 또는 사용자의 조작이 용이한 스타일러스 펜(120)의 일부(예로, 스타일러스 펜(120)을 파지하는 사용자의 검지 손가락에 대응하는 영역)에 위치할 수도 있다.
일 실시예에 따르면, 스타일러스 펜(120)는 근거리 통신 프로토콜을 지원하도록 설계된 무선 통신 회로(미도시)를 구비할 수 있다. 근거리 통신 프로토콜은, 예로, 블루투스 프로토콜, 블루투스 저전력 프로토콜(BLE: Bluetooth Low Energy), 무선 랜(Wi-Fi) 프로토콜, 지그비 프로토콜, WFD((Wi-Fi Direct) 프로토콜, UWB(ultra wide band) 프로토콜, 적외선 통신(IrDA, infrared Data Association) 프로토콜, NFC(Near Field Communication) 프로토콜 및 Ant+ 프로토콜 중 적어도 하나를 포함할 수 있으며, 바람직하게는 블루투스 프로토콜 및 블루투스 저전력 프로토콜 중 적어도 하나가 이용될 수 있다. 스타일러스 펜(120)의 무선 통신 회로(미도시)는 전술한 근거리 통신 프로토콜에 따라서 전자 장치(100)의 무선 통신 회로(미도시)와 페어링될 수 있다. 스타일러스 펜(120)과 전자 장치(100)가 페어링된다는 것은, 서로 통신 연결이 수립되어 제어 신호 또는 데이터를 송/수신하도록 통신 채널이 형성된 상태를 포함할 수 있다.
일 실시예에 따르면, 사용자가 스타일러스 펜(120)의 버튼(124)을 프레스하거나 터치에 따라 발생되는 신호가 전술한 스타일러스 펜(120)의 무선 통신 회로를 통하여, 전자 장치(100)의 무선 통신 회로에게 전송될 수 있다. 이 때, 전자 장치(100)가 터치 회로로부터 수신하는 신호와 무선 통신 회로를 통하여 수신하는 신호의 구별을 위하여, 본 개시에서는 터치 회로로부터 수신되는 신호는 터치 신호이고, 무선 통신 회로로부터 수신되는 신호는 원격 신호로 칭할 수 있다. 한편, 무선 통신 프로토콜 중 블루투스 저전력 프로토콜를 이용하여, 스타일러스 펜(120)으로부터 전자 장치(100)에게 수신되는 원격 신호는 BLE(Bluetooth Low Energy) 신호로 칭할 수 있다.
일 실시예에 따르면, 스타일러스 펜(120)은 터치 스크린 디스플레이 구조(101)에 의하여 감지 가능한 용량성 부분을 포함할 수 있다. 터치 스크린 디스플레이 구조(101)는 이에 대응되도록 상기 용량성 부분의 감지를 위한 스타일러스 펜-감지 패드를 구비할 수 있다.
이하, 전자 장치(100)의 프로세서(미도시)는 도 13의 전자 장치(1301)의 프로세서(1320)에 대응될 수 있다. 또한, 전자 장치(100)의 터치스크린 디스플레이 구조(101)는 도 13의 전자 장치(1301)의 표시 장치(1360)에 대응될 수 있다. 또한, 전자 장치(100)의 무선 통신 모듈(미도시)은 도 13의 전자 장치(1301)의 무선 통신 모듈(1392)에 대응될 수 있다. 또한, 전자 장치(100)의 메모리(미도시)는 도 13의 전자 장치(1301)의 메모리(1330)에 대응될 수 있다.
다양한 실시예로, 전자 장치(100)는 제1 방향을 향하는 제1 면과 상기 제1 방향과 반대되는 제2 방향을 향하는 제2 면을 포함하는 하우징(110), 하우징 안에 위치하되, 상기 제1 면을 통하여 보이는 화면을 포함하는 터치스크린 디스플레이 구조(101), 하우징(110) 안에 위치하며, 블루투스 프로토콜을 지원하도록 설정된 제1 무선 통신 모듈(1392)를 포함할 수 있다. 그리고, 전자 장치(100)는 상기 블루투스 프로토콜을 지원하며 제1 무선 통신 모듈(1392)와 페어링되는 제2 무선 통신 회로(미도시), 및 프레스 가능하거나 또는 터치 가능한 적어도 하나의 버튼(124)을 포함하는 스타일러스 펜(120)을 포함할 수 있다. 그리고, 전자 장치(100)는 하우징(110) 내부에 위치하고, 터치스크린 디스플레이 구조(101) 및 제1 무선 통신 모듈(1392)와 작동적으로 연결되는 프로세서(1320) 및 하우징(110) 내부에 위치하고, 프로세서(1320)와 작동적으로 연결되는 메모리(1330)를 포함할 수 있다. 이 때, 메모리(1330)는 제1 사용자 인터페이스를 포함하는 제1 어플리케이션 프로그램 및 제2 사용자 인터페이스를 포함하는 제2 어플리케이션 프로그램을 저장할 수 있다. 그리고, 메모리(1330)는 프로세서(1320)가 실행될 때, 사용자 입력을 수신 시, 프로세서(1320)가 제1 어플리케이션 프로그램 및 제2 어플리케이션 프로그램을 실행하고, 제1 사용자 인터페이스 및 제2 사용자 인터페이스 중 적어도 하나를 터치스크린 디스플레이 구조(101)를 통하여 표시하고, 제1 시간 동안에 스타일러스 펜(120)의 버튼(124)의 프레스 또는 터치에 의하여 발생되는 제1 신호를, 제1 무선 통신 모듈(1392)를 통하여 스타일러스 펜(120)으로부터 수신하고, 제1 신호에 기반하여, 제1 어플리케이션 프로그램 또는 상기 제2 어플리케이션 프로그램 중 하나를 선택하고, 선택의 적어도 일부에 기반하여, 화면 상에 표시되는 정보의 적어도 일부를 변경하고, 제1 시간과 다른 제2 시간 동안에, 스타일러스 펜(120)의 버튼(124)의 프레스 또는 터치에 의하여 발생되는 제2 신호를, 제1 무선 통신 모듈(1392)를 통하여 스타일러스 펜(120)으로부터 수신하고, 선택의 적어도 일부에 기반하여, 제2 신호에 대한 응답으로 제1 어플리케이션 프로그램의 기능 또는 제2 어플리케이션 프로그램의 기능을 수행하도록 설정된 명령어들을 저장할 수 있다.
이에 따라, 사용자는 스타일러스 펜(120)을 이용하여 제어를 원하는 어플리케이션 프로그램을 쉽게 선택할 수 있다. 즉, 스타일러스 펜(120)의 버튼(124)을 프레스하거나 터치하는 동작만으로 복수 개의 어플리케이션 프로그램들 중에서 특정 어플리케이션 프로그램의 선택이 가능하여, 전자 장치(100)를 이용하는 사용자의 편의성이 크게 향상될 수 있다. 또한, 어플리케이션 프로그램이 선택되면, 추가적인 스타일러스 펜(120)의 버튼(124)을 프레스하거나 터치하는 동작으로 어플리케이션 프로그램의 기능을 수행하는 것이 가능하여, 연속적이고 신속한 어플리케이션 프로그램의 제어가 가능하게 된다.
다양한 실시예로, 전자 장치(100) 및 스타일러스 펜(120)의 통신을 위한 근거리 통신 프로토콜은 블루투스 프로토콜 또는 블루투스 저전력 프로토콜(BLE)을 포함할 수 있다.
특히, 블루투스 저전력 프로토콜을 이용하는 경우, 전자 장치(100) 및 스타일러스 펜(120)의 전력 소모가 감소될 수 있으며, 전자 장치(100) 또는 스타일러스 펜(120)이 슬립 모드 상태에서도 본 개시에 따른 동작의 수행이 가능하게 된다.
다양한 실시예로, 전자 장치(100)의 터치스크린 디스플레이 구조(101)는 인간의 신체부의 감지를 위한 터치-감지 패드(미도시) 및, 스타일러스 펜(120)의 용량성 부분의 감지를 위한 스타일러스 펜-감지 패드(미도시)를 포함할 수 있다.
다양한 실시예로, 상기 명령어들은, 프로세서(1320)가 제1 사용자 인터페이스 또는 제2 사용자 인터페이스 중 하나만 화면 상에 표시하도록 설정될 수 있다. 또한, 상기 명령어들은 프로세서(1320)가 제1 사용자 인터페이스 및 제2 사용자 인터페이스를 화면 상에 표시하도록 설정될 수 있다.
이에 따라, 사용자가 포그라운드 또는 백그라운드에서 실행 중인 어플리케이션 프로그램을 선택적으로 제어하거나, 멀티 윈도우에서 실행 중인 복수 개의 어플리케이션 프로그램들 중에서 하나의 어플리케이션 프로그램을 선택적으로 제어할 수 있다. 즉, 다양한 어플리케이션 프로그램 제공 환경에서, 사용자가 본 개시에 따라 스타일러스 펜을 이용하여 어플리케이션 프로그램을 원격 제어하는 것이 가능하게 된다.
다양한 실시예로, 상기 명령어들은, 상기 선택의 적어도 일부에 기반하여, 제1 신호에 대한 응답으로 선택된 어플리케이션 프로그램의 기능을 수행하도록 설정될 수 있다.
다양한 실시예로, 상기 명령어들은, 프로세서(1320)가 상기 선택의 적어도 일부에 기반하여, 상기 화면 상에 표시되는 정보의 일부를 변경하는 경우, 제1 어플리케이션 프로그램의 기능 또는 제2 어플리케이션 프로그램의 기능을 나타내는 GUI를 화면 상에 표시하도록 설정된 설정될 수 있다. 이 때, GUI는, 미디어 어플리케이션 프로그램에 포함되는 컨텐트의 재생과 관련된 재생 아이콘, 컨텐트의 재생 정지와 관련된 정지 아이콘 또는 컨텐트의 재생 종료와 관련된 종료 아이콘을 포함할 수 있다.
다양한 실시예로, 상기 명령어들은, 프로세서(1320)가 상기 선택의 적어도 일부에 기반하여, 상기 화면 상에 표시되는 정보의 일부를 변경하는 경우, 상기 선택된 어플리케이션 프로그램을 하이라이트하거나 또는 상기 선택된 어플리케이션 프로그램을 포그라운드 화면 상에 표시하도록 설정될 수 있다.
다양한 실시예로, 터치스크린 디스플레이 구조(101)는 상기 화면 상에 터치 입력 또는 호버링 입력을 감지하는 터치 회로를 더 포함할 수 있다. 이 경우, 상기 명령어들은 프로세서(1320)가 스타일러스 펜(120)을 이용하여 화면 상에 터치 입력 또는 호버링 입력에 따라 발생되는 제3 신호를 상기 터치 회로를 통하여 수신하고, 상기 제3 신호에 대한 응답으로, 제1 어플리케이션 프로그램의 기능 또는 제2 어플리케이션 프로그램의 기능을 수행하도록 설정될 수 있다. 이 때, 제1 무선 통신 모듈(1392)를 통하여 수신되는 상기 제1 신호 및 상기 제2 신호는 원격 신호이고, 터치 회로를 통하여 수신되는 상기 제3 신호는 터치 신호일 수 있다.
이하, 다양한 실시예에 따른 도면을 이용하여 전자 장치(100)가 기능을 수행하는 과정을 상세히 설명한다. 후술되는 실시예들은, 본 개시의 일 실시예에 불과할 뿐이고, 본 개시의 목적 달성을 위하여 실시예들의 일부가 생략되거나 새로운 과정이 추가될 수 있다. 또한, 실시예들의 조합 또는 실시예들을 구성하는 과정의 조합을 통하여 본 개시의 목적 달성이 가능할 수 있다.
도 2는, 본 개시의 일 실시예에 따른 전자 장치(100)가 기능을 수행하는 상황을 설명하는 상황도들(200)이다.
먼저, 전자 장치(100)의 프로세서(1320)는 제1 어플리케이션 프로그램(201) 및 제2 어플리케이션 프로그램(202)을 실행할 수 있다. 제1 어플리케이션 프로그램(201) 및 제2 어플리케이션 프로그램(202)이 실행된다는 것은, 예로, 제1 어플리케이션 프로그램(201) 및 제2 어플리케이션 프로그램(202)이 동시에 실행되거나 또는 시간 간격을 두고 실행되는 것을 포함할 수 있다. 또한, 제1 어플리케이션 프로그램(201) 및 제2 어플리케이션 프로그램(202)이 실행된다는 것은, 일 회의 사용자 입력에 의하여 제1 어플리케이션 프로그램(201) 및 제2 어플리케이션 프로그램(202)이 함께 실행되거나, 또는 시간 간격을 가지는 각각의 사용자 입력에 의하여 제1 어플리케이션 프로그램(201) 및 제2 어플리케이션 프로그램(202)이 순차적으로 각각 실행되는 것을 포함할 수 있다.
제1 어플리케이션 프로그램(201) 및 제2 어플리케이션 프로그램(202)이 실행되면, 프로세서(1320)는 제1 어플리케이션 프로그램(201)에 포함되는 제1 사용자 인터페이스 또는 제2 어플리케이션 프로그램(202)에 포함되는 제2 사용자 인터페이스 중 하나를 화면 상에 표시하도록 터치스크린 디스플레이 구조(101)를 제어할 수 있다. 이 때, 제1 어플리케이션 프로그램(201)이 포그라운드(foreground)로 실행 중이고, 제2 어플리케이션 프로그램(202)이 백그라운드(background)로 실행 중인 경우, 프로세서(1320)는 제1 어플리케이션 프로그램(201)에 포함되는 제1 사용자 인터페이스를 화면 상에 표시하도록 터치스크린 디스플레이 구조(101)를 제어할 수 있다.
도 2의 (a)에서, 프로세서(1320)는 포그라운드로 실행 중인 제1 어플리케이션 프로그램(201)으로서 인터넷 검색 어플리케이션 프로그램의 제1 사용자 인터페이스(201)를 화면 상에 표시하도록 터치스크린 디스플레이 구조(101)를 제어하고, 백그라운드로는 제2 어플리케이션 프로그램(202)으로서 미디어 어플리케이션 프로그램(202)을 실행 중일 수 있다.
이러한 상황에서, 도 2의 (b)와 같이, 사용자가 전자 장치(100)와 통신 페어링된 스타일러스 펜(120)의 버튼(124)을 프레스하거나 스타일러스 펜(120)의 일 영역(예로, 터치 패드 영역)을 터치할 수 있다. 이 경우, 전자 장치(100)는 스타일러스 펜(120)의 버튼(124)의 프레스 또는 터치에 의하여 발생되는 제1 원격 신호(예로, BLE 신호)를, 제1 시간 동안에 스타일러스 펜(120)으로부터 무선 통신 모듈(1392)를 통하여 수신할 수 있다.
제1 원격 신호가 수신되면, 제1 원격 신호에 기반하여, 전자 장치(100)는 제1 어플리케이션 프로그램(201) 또는 제2 어플리케이션 프로그램(202) 중 하나를 선택할 수 있다.
예로, 전자 장치(100)는 제1 어플리케이션 프로그램(201) 및 제2 어플리케이션 프로그램(202) 중에 제1 원격 신호에 대응되는(또는, 매핑되는) 기능을 지원하는 어플리케이션 프로그램을 선택할 수 있다. 제1 원격 신호에 대응되는 기능을 지원하는 어플리케이션 프로그램이 복수 개인 경우, 전자 장치(100)는 최근에 실행되었거나 최근에 화면 상에 표시된 어플리케이션 프로그램을 우선하여 어플리케이션 프로그램을 선택할 수 있다. 예로, 포그라운드에서 실행 중인 어플리케이션 프로그램에 원격 신호에 대응되는 기능을 지원하는 경우, 전자 장치(100)는 포그라운드에서 실행 중인 어플리케이션 프로그램을 우선하여 선택할 수 있다. 다른 예로, 포그라운드에서 실행 중인 어플리케이션 프로그램에 원격 신호에 대응되는 기능이 존재하지 않고, 백그라운드에서 실행 중인 어플리케이션 프로그램에 원격 신호에 대응되는 기능을 지원하는 경우, 전자 장치(100)는 백그라운드에서 실행 중인 어플리케이션 프로그램을 선택할 수 있다.
제1 어플리케이션 프로그램(201) 또는 제2 어플리케이션 프로그램(202) 중 하나의 선택의 적어도 일부에 기반하여, 도 2의 (c)와 같이, 전자 장치(100)는 화면(예: 터치스크린 디스플레이 구조(101))에 표시된 정보의 일부를 변경할 수 있다. 예로, 전자 장치(100)의 프로세서(1320)는 원격 신호에 의하여 수행될 기능을 나타내는 제1 GUI(211)를 표시하도록 터치스크린 디스플레이 구조(101)를 제어할 수 있다. 제1 GUI(211)는 이미지, 텍스트, 동영상, 또는 이들의 조합이 될 수 있으며, 예로, 플로팅(floating) 아이콘, 버블 아이콘(예로, 에어 커맨드(air command)), 팝업, 퀵 패널에 포함된 아이콘 등이 될 수 있다.
일 예로, 전자 장치(100)의 프로세서(1320)는, 터치스크린 디스플레이 구조(101)에 제1 사용자 인터페이스(201)가 표시 중인 동안에, 제1 GUI(211)를 오버랩하여 표시하도록 터치스크린 디스플레이 구조(101)를 제어할 수 있다. 다른 예로, 프로세서(1320)는 제1 사용자 인터페이스(201)와 오버랩 되지 않는 영역에 제1 GUI(211)를 표시하도록 터치스크린 디스플레이 구조(101)를 제어할 수 있다. 또 다른 예로, 프로세서(1320)는 제1 사용자 인터페이스(201)의 일 영역이 타공되도록 렌더링하고, 타공된 영역에 제1 GUI(211)를 표시하도록 터치스크린 디스플레이 구조(101)를 제어할 수 있다.
구체적인 예로, 프로세서(1320)는 선택한 어플리케이션 프로그램이 백그라운드에서 실행 중인 미디어 어플리케이션 프로그램(202)이라면, 프로세서(1320)는 미디어 어플리케이션 프로그램(202)에 포함되는 컨텐트와 관련된 재생 아이콘(211)을 표시하도록 터치스크린 디스플레이 구조(101)를 제어할 수 있다.
터치스크린 디스플레이 구조(101)에 표시된 정보의 일부를 변경하는 다른 예로서, 전자 장치(100)는 선택된 어플리케이션 프로그램을 포그라운드로 표시할 수 있다. 구체적으로, 백그라운드로 실행 중인 제2 어플리케이션 프로그램(202)이 선택되었다면, 전자 장치(100)는 제2 어플리케이션 프로그램(202)을 포그라운드에 표시하고, 제1 어플리케이션 프로그램(201)을 백그라운드에서 실행할 수 있다.
제1 GUI(211)가 표시된 상황에서, 도 2의 (d)와 같이, 사용자가 스타일러스 펜(120)의 버튼(124)을 프레스하거나 스타일러스 펜(120)의 일 영역(예로, 터치 패드 영역)을 터치할 수 있다. 이 경우, 전자 장치(100)는 스타일러스 펜(120)의 버튼(124)의 프레스 또는 터치에 의하여 발생되는 제2 원격 신호를, 도 2의 (b)의 제1 시간과는 다른 제2 시간 동안에 스타일러스 펜(120)으로부터 무선 통신 모듈(1392)를 통하여 수신할 수 있다.
제2 원격 신호가 수신되면, 전자 장치(100)의 프로세서(1320)는 도 2의 (b)에서의 어플리케이션 프로그램의 선택의 적어도 일부에 기반하여, 제2 원격 신호에 대한 응답으로 제1 어플리케이션 프로그램(201)의 기능 또는 제2 어플리케이션 프로그램(202)의 기능을 수행할 수 있다. 제2 어플리케이션 프로그램(202)이 선택된 것을 가정한다면, 프로세서(1320)는 제2 원격 신호에 대한 응답으로 제2 어플리케이션 프로그램(202)의 기능을 수행할 수 있다. 예로, 제2 어플리케이션 프로그램(202)이 미디어 어플리케이션 프로그램(202)인 경우, 프로세서(1320)는 미디어 어플리케이션 프로그램(202)에 포함되는 컨텐트를 재생할 수 있다.
이 경우, 도 2의 (e)와 같이, 프로세서(1320)는 제2 원격 신호에 대응되는 어플리케이션 프로그램의 기능을 나타내는 제2 GUI(212)를 화면 상에 표시하도록 터치스크린 디스플레이 구조(101)를 제어할 수 있다. 프로세서(1320)는, 화면 상에 제1 사용자 인터페이스(201)가 표시 중인 동안에, 제2 GUI(212)를 오버랩하여 표시하도록 터치스크린 디스플레이 구조(101)를 제어할 수 있다. 다른 예로, 프로세서(1320)는 제1 사용자 인터페이스(201)와 오버랩 되지 않는 영역에 제2 GUI(212)를 표시하도록 터치스크린 디스플레이 구조(101)를 제어할 수 있다. 또 다른 예로, 프로세서(1320)는 제1 사용자 인터페이스(201)의 일 영역이 타공되도록 렌더링하고, 타공된 영역에 제2 GUI(212)를 표시하도록 터치스크린 디스플레이 구조(101)를 제어할 수 있다.
구체적인 예로, 제2 원격 제어 신호에 대응되는 기능이 미디어 어플리케이션 프로그램(202)의 프로그램에 포함되는 컨텐트를 재생하는 기능이라면, 프로세서(1320)는 컨텐트가 재생 중인 것을 나타내는 아이콘을 표시하거나, 또는 제2 원격 제어 신호에 대응되어 재생 중인 컨텐트를 제어할 수 있는 아이콘(예로, 컨텐트의 재생 정지와 관련된 정지 아이콘 또는 컨텐트의 재생 종료와 관련된 종료 아이콘)을 표시하도록 터치스크린 디스플레이 구조(101)를 제어할 수 있다.
도 3은, 본 개시의 다른 실시예에 따른 전자 장치(100)가 기능을 수행하는 상황을 설명하는 상황도들(300)이다.
먼저, 전자 장치(100)의 프로세서(1320)는 제1 어플리케이션 프로그램(301) 및 제2 어플리케이션 프로그램(302)을 실행할 수 있다.
제1 어플리케이션 프로그램(301) 및 제2 어플리케이션 프로그램(302)이 실행되면, 프로세서(1320)는 제1 어플리케이션 프로그램(301)에 포함되는 제1 사용자 인터페이스 및 제2 어플리케이션 프로그램(302)에 포함되는 제2 사용자 인터페이스 모두를 화면 상에 표시하도록 터치스크린 디스플레이 구조(101)를 제어할 수 있다. 예로, 프로세서(1320)는 멀티 윈도우(multi window) 기능을 실행하여, 각각의 윈도우에 제1 사용자 인터페이스 및 제2 사용자 인터페이스를 표시하도록 터치스크린 디스플레이 구조(101)를 제어할 수 있다.
도 3의 (a)에서, 프로세서(1320)는 제1 어플리케이션 프로그램(301)으로서 미디어 어플리케이션 프로그램(301)의 제1 사용자 인터페이스를 화면의 좌측에 표시하고, 제2 어플리케이션 프로그램(302)으로서 인터넷 검색 어플리케이션 프로그램(302)의 제2 사용자 인터페이스를 화면의 우측에 표시할 수 있다. 이 때, 제1 사용자 인터페이스 및 제2 사용자 인터페이스의 위치는 일 예에 불과하고, 멀티 윈도우의 동작 또는 사용자의 제어에 기반하여, 제1 사용자 인터페이스 및 제2 사용자 인터페이스의 좌우 위치가 바뀌거나, 상하로 배열되어 표시될 수 있음은 물론이다.
이러한 상황에서, 도 3의 (b)와 같이, 사용자가 전자 장치(100)와 통신 페어링된 스타일러스 펜(120)의 버튼(124)을 프레스하거나 스타일러스 펜(120)의 일 영역(예로, 터치 패드 영역)을 터치할 수 있다. 이 경우, 전자 장치(100)는 스타일러스 펜(120)의 버튼(124)의 프레스 또는 터치에 의하여 발생되는 제1 원격 신호(예로, BLE 신호)를, 제1 시간 동안에 스타일러스 펜(120)으로부터 무선 통신 모듈(1392)를 통하여 수신할 수 있다.
제1 원격 신호가 수신되면, 제1 원격 신호에 기반하여, 전자 장치(100)는 제1 어플리케이션 프로그램(301) 또는 제2 어플리케이션 프로그램(302) 중 하나를 선택할 수 있다. 여기서, 전자 장치(100)가 제1 어플리케이션 프로그램(301) 또는 제2 어플리케이션 프로그램(302) 중 하나를 선택하는 방식은, 도 2의 (b)에서 전술한 방식을 참조할 수 있다. 도 3에서는, 제1 원격 신호에 기반하여, 전자 장치(100)가 우선 순위가 높은 제1 어플리케이션 프로그램(301)을 선택한 것을 가정한다.
제1 어플리케이션 프로그램(301) 또는 제2 어플리케이션 프로그램(302) 중 하나의 선택의 적어도 일부에 기반하여, 도 3의 (c)와 같이, 전자 장치(100)는 화면 상에 표시된 정보의 일부를 변경할 수 있다. 예로, 전자 장치(100)의 프로세서(1320)는 스타일러스 펜(120)의 제어에 의하여 수행될 기능을 나타내는 제1 제어창(311)을 표시하도록 터치스크린 디스플레이 구조(101)를 제어할 수 있다. 구체적으로, 전자 장치(100)가 선택한 제1 어플리케이션 프로그램(301)이 멀티 윈도우들 중 좌측 윈도우에서 실행 중인 미디어 어플리케이션 프로그램(301)이라면, 프로세서(1320)는 미디어 어플리케이션 프로그램(301)에 포함되는 컨텐트를 제어할 수 있는 제1 제어창(311)를 표시하도록 터치스크린 디스플레이 구조(101)를 제어할 수 있다. 제1 제어창(311)는, 컨텐트의 재생(또는, 실행)과 관련된 재생 아이콘(312)을 포함할 수 있다.
제1 제어창(311)이 표시된 상황에서, 도 3의 (d)와 같이, 사용자가 전자 장치(100)와 통신 페어링된 스타일러스 펜(120)의 버튼(124)을 프레스하거나 스타일러스 펜(120)의 일 영역(예로, 터치 패드 영역)을 터치할 수 있다. 이 경우, 전자 장치(100)는 스타일러스 펜(120)의 버튼(124)의 프레스 또는 터치에 의하여 발생되는 제2 원격 신호를, 도 3의 (b)의 제1 시간과는 다른 제2 시간 동안에 스타일러스 펜(120)으로부터 무선 통신 모듈(1392)를 통하여 수신할 수 있다.
제2 원격 신호가 수신되면, 전자 장치(100)의 프로세서(1320)는 도 3의 (b)에서의 어플리케이션 프로그램의 선택의 적어도 일부에 기반하여, 제2 원격 신호에 대한 응답으로 제1 어플리케이션 프로그램(301)의 기능을 수행할 수 있다. 예로, 제1 어플리케이션 프로그램이 미디어 어플리케이션 프로그램(301)인 경우, 전자 장치(100)는 미디어 어플리케이션 프로그램(301)에 포함되는 컨텐트를 재생할 수 있다.
또한, 도 3의 (e)와 같이, 프로세서(1320)는 제2 원격 신호에 대응되는 어플리케이션 프로그램(301)의 기능을 나타내는 제2 제어창(313)를 화면 상에 표시하도록 터치스크린 디스플레이 구조(101)를 제어할 수 있다. 제2 원격 신호에 대응되는 어플리케이션 프로그램(301)의 기능을 나타내는 제2 제어창(313)는, 예로, 컨텐트를 제어할 수 있는 제어창을 포함할 수 있다. 이 때의, 제2 제어창(313)은, 예로, 컨텐트의 재생 정지와 관련된 정지 아이콘(314) 또는 컨텐트의 재생 종료와 관련된 종료 아이콘을 포함할 수 있다.
도 4 및 도 5는, 본 개시의 다른 실시예에 따른 전자 장치(100)가 기능을 수행하는 상황을 설명하는 상황도들(400,500)이다.
도 4 및 도 5에서, 전자 장치(100)의 사용자는 전자 장치(100)와 통신 페어링된 스타일러스 펜(120)의 버튼(124)을 프레스하거나 스타일러스 펜(120)의 일 영역(예로, 터치 패드 영역)을 터치할 수 있다. 이 경우, 전자 장치(100)의 프로세서(1320)는 스타일러스 펜(120)의 버튼(124)의 프레스 또는 터치에 의하여 발생되는 원격 신호(예로, BLE 신호)를 무선 통신 모듈(1392)를 통하여 수신할 수 있다.
전자 장치(100)는 포그라운드에서 제1 어플리케이션 프로그램을 실행하고, 백그라운드에서 제2 어플리케이션 프로그램을 실행 중일 수 있다. 원격 신호가 수신되면, 전자 장치(100)는 제1 어플리케이션 프로그램 또는 제2 어플리케이션 프로그램 중 하나를 선택할 수 있다.
예로, 전자 장치(100)는 최근 실행된 어플리케이션 프로그램을 우선하여, 원격 신호에 대응되는 기능을 지원하는 어플리케이션 프로그램을 선택할 수 있다. 구체적으로, 전자 장치(100)는 포그라운드에서 실행 중인 어플리케이션 프로그램이 원격 신호에 대응되는 기능을 지원하는지를 판단할 수 있다. 원격 신호에 대응되는 기능을 지원하는 경우, 전자 장치(100)는 포그라운드에 실행 중인 어플리케이션 프로그램을 원격 신호에 대응되는 기능을 실행할 어플리케이션 프로그램으로 선택할 수 있다. 반면에, 포그라운드에서 실행 중인 어플리케이션 프로그램에 원격 신호에 대응되는 기능이 존재하지 않는 경우, 전자 장치(100)는 백그라운드에서 실행 중인 어플리케이션 프로그램들 중에서 원격 신호에 대응되는 기능을 지원하는 어플리케이션 프로그램을 우선 순위에 따라 선택할 수 있다.
원격 신호에 대응되는 기능을 지원하는 어플리케이션 프로그램이 선택되면, 전자 장치(100)는 선택된 어플리케이션 프로그램을 대상으로 원격 신호에 대응하는 기능을 실행할 수 있다.
예로, 도 4의 (a)와 같이, 전자 장치(100)의 프로세서(1320)는 원격 신호에 대응되는 기능을 지원하는 카메라 어플리케이션 프로그램(401)의 사용자 인터페이스를 포그라운드에 표시하도록 터치스크린 디스플레이 구조(101)를 제어할 수 있다. 이러한 상황에서, 도 4의 (b)와 같이, 사용자가 전자 장치(100)와 통신 페어링된 스타일러스 펜(120)의 버튼(124)을 프레스하거나 스타일러스 펜(120)의 일 영역을 터치할 수 있다. 전자 장치(100)는 스타일러스 펜의 버튼(124)의 프레스 또는 터치에 의하여 발생되는 원격 신호를 스타일러스 펜(120)으로부터 무선 통신 모듈(1392)를 통하여 수신할 수 있다. 원격 신호가 수신되면, 전자 장치(100)는 포그라운드에 실행 중인 원격 신호에 대응되는 기능을 지원하는 카메라 어플리케이션 프로그램(401)을 선택할 수 있다. 그리고, 도 4의 (c)과 같이, 원격 신호에 대응되는 기능으로서, 전자 장치(100)는 카메라 어플리케이션 프로그램(401)의 촬영 기능을 수행하고, 촬영 기능이 수행된 것을 나타내는 사용자 인터페이스(402)를 포그라운드에 표시하도록 터치스크린 디스플레이 구조(101)를 제어할 수 있다.
다른 예로, 도 5의 (a)와 같이, 전자 장치(100)의 프로세서(1320)는 원격 신호에 대응되는 기능을 지원하지 않는 인터넷 검색 어플리케이션 프로그램(501)의 사용자 인터페이스를 포그라운드에 표시하도록 터치스크린 디스플레이 구조(101)를 제어할 수 있다. 이 때, 프로세서(1320)는 원격 신호에 대응되는 기능을 지원하는 미디어 어플리케이션 프로그램(502)을 백그라운드에서 실행 중일 수 있다. 이러한 상황에서, 도 5의 (b)와 같이, 사용자가 전자 장치(100)와 통신 페어링된 스타일러스 펜(120)의 버튼(124)을 프레스하거나 스타일러스 펜(120)의 일 영역을 터치할 수 있다. 전자 장치(100)는 스타일러스 펜(120)의 버튼(124)의 프레스 또는 터치에 의하여 발생되는 제1 원격 신호를 스타일러스 펜(120)으로부터 무선 통신 모듈(1392)를 통하여 수신할 수 있다. 제1 원격 신호가 수신되면, 전자 장치(100)는 제1 원격 신호의 처리를 무시하지 않고, 제1 원격 신호에 대응되는 기능을 지원하는 미디어 어플리케이션 프로그램(502)을 선택할 수 있다. 그리고, 제1 원격 신호에 대응되는 기능으로서, 전자 장치(100)는 미디어 어플리케이션 프로그램(502)에 포함되는 컨텐트를 재생할 수 있다. 예로, 전자 장치(100)는 미디어 어플리케이션 프로그램(502)의 컨텐트 리스트 중에서 우선 순위에 따라 컨텐트를 재생할 수 있다. 우선 순위는, 예로, 컨텐트의 최근 재생 시간, 사용자 선호 정도, 컨텐트 인기 정도 등에 따라 결정될 수 있다. 이 때, 도 5의 (c)과 같이, 전자 장치(100)는 재생 중인 컨텐트를 일시 정지할 수 있는 제1 제어창(예로, 노티바(noti. bar) 형태의 제어창)(511)를 화면 상에 표시하도록 터치스크린 디스플레이 구조(101)를 제어할 수 있다.
이 경우, 도 5의 (d)와 같이, 사용자가 전자 장치(100)와 통신 페어링된 스타일러스 펜(120)의 버튼(124)을 추가로 프레스하거나 스타일러스 펜(120)의 일 영역을 추가로 터치할 수 있다. 전자 장치(100)는 스타일러스 펜(120)의 버튼(124)의 프레스 또는 터치에 의하여 발생되는 제2 원격 신호를 스타일러스 펜(120)으로부터 무선 통신 모듈(1392)를 통하여 수신할 수 있다. 제2 원격 신호가 수신되면, 전자 장치(100)는 제2 원격 신호에 대응되는 기능을 지원하는 미디어 어플리케이션 프로그램(502)을 선택할 수 있다. 미디어 어플리케이션 프로그램(502)이 컨텐트를 재생 중인 경우, 전자 장치(100)는 제2 원격 신호에 대응되는 기능으로서, 재생 중인 컨텐트를 일시 정지할 수 있다. 이 때, 도 5의 (e)과 같이, 전자 장치(100)의 프로세서(1320)는 일시 정지 중인 컨텐트를 재생할 수 있는 제2 제어창(예로, 노티바 형태의 제어창)(512)를 화면 상에 표시하도록 터치스크린 디스플레이 구조(101)를 제어할 수 있다.
도 6은, 본 개시의 다른 실시예에 따른 전자 장치(100)가 기능을 수행하는 상황을 설명하는 상황도들(600)이다.
도 6의 (a)에서, 전자 장치(100)의 프로세서(1320)는 제1 어플리케이션 프로그램(601) 및 제2 어플리케이션 프로그램(602)을 실행할 수 있다. 전자 장치(100)의 프로세서(1320)는 멀티 윈도우(multi window) 기능을 실행하여, 각각의 윈도우에 제1 어플리케이션 프로그램에 포함되는 제1 사용자 인터페이스(601) 및 제2 어플리케이션 프로그램에 포함되는 제2 사용자 인터페이스(602)를 표시하도록 터치스크린 디스플레이 구조(101)를 제어할 수 있다. 이 경우, 전자 장치(100)의 프로세서(1320)는 스타일러스 펜(120)으로부터 수신되는 원격 신호에 대응되는 기능을 실행할 어플리케이션 프로그램을 선택한 상태일 수 있다. 도 6의 (a)에서, 선택된 어플리케이션 프로그램은, 예로, 화면의 우측에 표시된 제2 사용자 인터페이스를 포함하는 인터넷 검색 어플리케이션 프로그램(602)일 수 있다. 이 때, 전자 장치(100)의 프로세서(1320)는 원격 신호에 대응되는 기능을 나타내는 제1 GUI(예로, 에어 커맨드 등)(611)를 표시하도록 터치스크린 디스플레이 구조(101)를 제어할 수 있다. 도 6의 (a)에서 제1 GUI(611)는 원격 신호에 대응되는 기능으로서 스크롤 기능을 나타내는 GUI일 수 있다.
이 경우, 도 6의 (b)와 같이, 사용자가 스타일러스 펜(120)의 버튼(124)을 프레스하거나 스타일러스 펜(120)의 일 영역을 터치하면, 전자 장치(100)는 스타일러스 펜(120)으로부터 발생된 제1 원격 신호를 무선 통신 모듈(1392)를 통하여 수신할 수 있다. 제1 원격 신호가 수신되면, 전자 장치(100)는 선택된 어플리케이션 프로그램을 대상으로 제1 원격 신호에 대응되는 기능을 실행할 수 있다. 예로, 도 6의 (c)와 같이, 전자 장치(100)는 인터넷 검색 어플리케이션 프로그램(602)의 제2 사용자 인터페이스를 일 방향으로 스크롤하여 제3 사용자 인터페이스(603)를 표시하도록 터치스크린 디스플레이 구조(101)를 제어할 수 있다.
이러한 상황에서, 사용자는 원격 신호에 대응되는 기능을 실행할 어플리케이션 프로그램을 전환하기를 원할 수 있다. 이에, 도 6의 (c)에서, 사용자는 스타일러스 펜(120)을 이용하여 제 GUI(611)를 일정 시간(예로, 0.5 초 내지 1.5 사이의 일 값)동안 롱 프레스(long press)할 수 있다. 사용자의 롱 프레스에 대응되는 터치 신호가 수신되면, 전자 장치(100)는 원격 신호에 대응되는 기능을 실행할 어플리케이션 프로그램을 다른 어플리케이션 프로그램으로 전환할 수 있다. 예로, 포그라운드에서 실행 중인 어플리케이션 프로그램이 복수 개인 경우, 전자 장치(100)는 복수 개의 어플리케이션 프로그램들 중에서 기 선택된 어플리케이션 프로그램을 제외한 나머지 어플리케이션 프로그램들 중에서 원격 신호에 대응되는 기능을 실행할 어플리케이션 프로그램을 선택할 수 있다. 구체적인 예로, 터치 신호의 수신 전에, 원격 신호에 대응되는 기능을 실행할 어플리케이션 프로그램이 멀티 윈도우의 일 측에 표시 중인 인터넷 검색 어플리케이션 프로그램인 경우, 전자 장치(100)는 원격 신호에 대응되는 기능을 실행할 어플리케이션 프로그램으로서 멀티 윈도우의 타 측에 표시 중인 미디어 어플리케이션 프로그램(601)을 선택할 수 있다.
원격 신호에 대응되는 기능을 실행할 어플리케이션 프로그램이 선택되면, 도 6의 (d)와 같이, 전자 장치(100)는 선택된 어플리케이션 프로그램을 대상으로 원격 신호에 대응되는 기능을 나타내는 제2 GUI(예로, 에어 커맨드 등)(612)를 표시하도록 터치스크린 디스플레이 구조(101)를 제어할 수 있다. 도 6의 (d)에서, 제2 GUI(612)는 원격 신호에 대응되는 기능으로서 컨텐트를 재생하는 기능이 수행될 수 있음을 나타내는 재생 아이콘일 수 있다.
다양한 실시예로, 전자 장치(100)는 선택된 어플리케이션 프로그램을 하이라이트할 수 있다. 즉, 전자 장치(100)는 원격 신호에 대응되는 기능을 실행하기 위하여 활성화된 어플리케이션 프로그램이 어떤 어플리케이션 프로그램인지 사용자에게 알리기 위하여 선택된 어플리케이션 프로그램을 하이라이트할 수 있다. 선택된 어플리케이션 프로그램을 하이라이트 한다는 것은, 예로, 선택된 어플리케이션 프로그램이 표시되는 화면의 테두리를 강조하거나, 선택되지 않은 어플리케이션 프로그램의 음영을 어둡게 하거나, 선택된 어플리케이션 프로그램이 표시되는 화면 상에 인디케이터(미도시)을 표시하는 것을 포함할 수 있다.
원격 신호에 대응되는 기능을 실행할 어플리케이션 프로그램이 선택된 후, 도 6의 (e)와 같이, 사용자가 스타일러스 펜(120)의 버튼(124)을 프레스하거나 스타일러스 펜(120)의 일 영역을 터치하면, 전자 장치(100)는 스타일러스 펜(120)으로부터 발생된 제2 원격 신호를 무선 통신 모듈(1392)를 통하여 수신할 수 있다. 제2 원격 신호가 수신되면, 전자 장치(100)는 선택된 어플리케이션 프로그램을 대상으로 제2 원격 신호에 대응되는 기능을 실행할 수 있다. 예로, 전자 장치(100)는 화면 상에 표시 중인 제2 GUI(612)와 관련된 어플리케이션 프로그램의 기능을 수행할 수 있다. 즉, 전자 장치(100)는 미디어 어플리케이션 프로그램(601)을 이용하여 컨텐트를 재생할 수 있다.
이 경우, 도 6의 (f)와 같이, 전자 장치(100)는 선택된 어플리케이션 프로그램을 대상으로 추가적인 원격 신호에 대응되는 기능을 나타내는 제3 GUI(613)를 표시하도록 터치스크린 디스플레이 구조(101)를 제어할 수 있다. 도 6의 (f)에서, 제3 GUI(613)는 추가적인 원격 신호에 대응되는 기능으로서, 컨텐트의 재생을 일시 정지할 수 있는 기능이 수행될 수 있음을 나타내는 일시 정지 아이콘일 수 있다.
한편, 사용자는 스타일러스 펜(120)을 이용하여 미디어 어플리케이션 프로그램(601) 및 인터넷 검색 어플리케이션 프로그램(602)을 함께 제어할 수 있다. 예로, 사용자가 스타일러스 펜(120)의 버튼(124)을 프레스하거나 또는 스타일러스 펜(120)의 일 영역(예로, 터치 패드 영역)을 터치할 수 있다. 이 경우, 전자 장치(100)는 스타일러스 펜(120)의 버튼(124)의 프레스 또는 터치에 의하여 발생되는 원격 신호를 수신하고, 원격 신호에 대응되는 기능이 수행되도록 미디어 어플리케이션 프로그램(601)을 제어할 수 있다. 반면에, 사용자가 스타일러스 펜(120)을 이용하여 인터넷 검색 어플리케이션 프로그램(602)이 포함하는 사용자 인터페이스를 드래그할 수 있다. 이 경우, 전자 장치(100)는 스타일러스 펜(120)의 드래그에 따른 터치 신호를 감지하고, 드래그 신호에 응답하여 인터넷 검색 어플리케이션 프로그램(602)을 이용하여 화면 상에 표시 중인 웹 페이지를 일 방향으로 스크롤할 수 있다.
도 7은, 본 개시의 다른 실시예에 따른 전자 장치(100)가 기능을 수행하는 상황을 설명하는 상황도들(700)이다.
도 7의 (a)에서, 전자 장치(100)의 프로세서(1320)는 제1 어플리케이션 프로그램(701) 및 제2 어플리케이션 프로그램(702)을 실행할 수 있다. 도 7의 (a)에서, 제1 어플리케이션 프로그램(701)은 포그라운드에서 실행 중인 미디어 어플리케이션 프로그램(701)이고, 제2 어플리케이션 프로그램(702)은 백그라운드에서 실행 중인 인터넷 검색 어플리케이션 프로그램(702)일 수 있다. 전자 장치(100)의 프로세서(1320)는 포그라운드에서 실행 중인 제1 어플리케이션 프로그램(701)에 포함되는 제1 사용자 인터페이스를 표시하도록 터치스크린 디스플레이 구조(101)를 제어할 수 있다. 이 경우, 전자 장치(100)의 프로세서는 스타일러스 펜(120)으로부터 수신되는 원격 신호에 대응되는 기능을 실행할 어플리케이션 프로그램으로서 미디어 어플리케이션 프로그램(701)을 선택한 상태일 수 있다. 전자 장치(100)는 원격 신호에 대응되는 기능을 나타내는 제1 GUI(711)를 표시하도록 터치스크린 디스플레이 구조(101)를 제어할 수 있다. 도 7의 (a)에서, 제1 GUI(711)는 원격 신호에 대응되는 기능으로서 컨텐트를 재생하는 기능이 수행될 수 있음을 나타내는 GUI일 수 있다. 한편, 사용자는 미디어 어플리케이션 프로그램(701)에 포함되는 제어창(712)을 통해서도 컨텐트를 재생할 수 있다. 즉, 스타일러스 펜(120)에서 발생된 원격 신호에 기반하여 미디어 어플리케이션 프로그램(701)이 컨텐트를 재생할 수도 있고, 또는, 스타일러스 펜(120)의 제어창(712)의 터치에 따라 발생된 터치 신호에 기반하여 미디어 어플리케이션 프로그램이 컨텐트를 재생할 수도 있다.
이러한 상황에서, 사용자가 화면 상에 표시 중인 어플리케이션 프로그램을 전환할 수 있다. 예로, 사용자는 백그라운드 어플리케이션 프로그램 선택 메뉴를 실행하여, 포그라운드로 실행할 어플리케이션 프로그램을 선택할 수 있다. 도 7에서는, 사용자의 선택에 따라, 포그라운드로 실행할 어플리케이션 프로그램으로서 인터넷 검색 어플리케이션 프로그램(702)이 선택된 것을 가정한다. 이 때, 백그라운드에서는 미디어 어플리케이션 프로그램(701)이 실행될 수 있다. 이 경우, 전자 장치(100)는 원격 신호에 대응되는 기능을 실행할 어플리케이션 프로그램도 함께 전환할 수 있다. 전자 장치(100)는 원격 신호에 대응되는 기능을 실행할 어플리케이션 프로그램을 인터넷 검색 어플리케이션 프로그램(702)으로 전환할 수 있다.
이에, 도 7의 (b)와 같이, 전자 장치(100)는 인터넷 검색 어플리케이션 프로그램(702)에 포함되는 제2 사용자 인터페이스를 화면 상에 표시하도록 터치스크린 디스플레이 구조(101)를 제어할 수 있다. 또한, 전자 장치(100)는 인터넷 검색 어플리케이션 프로그램(702)을 대상으로 원격 신호에 대응되는 기능을 나타내는 제2 GUI(713)를 표시하도록 터치스크린 디스플레이 구조(101)를 제어할 수 있다. 이 때, 제2 GUI(713)는 원격 신호에 대응되는 기능으로서 웹 페이지를 스크롤하는 기능이 수행될 수 있음을 나타내는 GUI일 수 있다. 즉, 포그라운드에서는 인터넷 검색 어플리케이션 프로그램(702)이 실행 중이고, 백그라운드에는 미디어 어플리케이션 프로그램(701)이 실행 중인 상황에서, 화면 상에 표시된 GUI는 인터넷 검색 어플리케이션 프로그램(702)을 대상으로 원격 신호에 대응되는 기능이 수행될 수 있음을 나타내는 GUI일 수 있다.
도 7의 (b)에서, 사용자는 웹 페이지를 보면서 백그라운드에서 실행 중인 미디어 어플리케이션 프로그램(701)을 제어하기를 원할 수 있다. 이를 위하여, 도 7의 (b)에서, 사용자는 제2 GUI(713)를 롱 프레스(long press)할 수 있다. 이에 따라, 전자 장치(100)는 원격 신호에 대응되는 기능을 실행할 어플리케이션 프로그램을 다른 어플리케이션 프로그램으로 전환할 수 있다. 예로, 전자 장치(100)는 백그라운드에서 실행 중인 적어도 하나의 어플리케이션 프로그램들 중에서 원격 신호에 대응되는 기능을 실행할 어플리케이션 프로그램을 우선 순위를 고려하여 선택할 수 있다. 백그라운드에서 실행 중인 어플리케이션 프로그램이 복수 개인 경우, 전자 장치(100)는 어플리케이션 프로그램의 최근 실행 시간, 사용자의 선호 정도, 어플리케이션 프로그램의 인기 정도를 고려하여, 원격 신호에 대응되는 기능을 실행할 어플리케이션 프로그램을 선택할 수 있다.
원격 신호에 대응되는 기능을 실행할 어플리케이션 프로그램으로서 미디어 어플리케이션 프로그램(701)이 선택되면, 도 7의 (c)와 같이, 전자 장치(100)는 선택된 어플리케이션 프로그램을 대상으로 원격 신호에 대응되는 기능을 나타내는 제3 GUI(714)를 표시하도록 터치스크린 디스플레이 구조(101)를 제어할 수 있다. 도 7의 (c)에서, 제3 GUI(714)는 원격 신호에 대응되는 기능으로서 컨텐트를 재생하는 기능이 수행될 수 있음을 나타내는 재생 아이콘일 수 있다. 즉, 포그라운드에서는 인터넷 검색 어플리케이션 프로그램(702)이 실행 중이고, 백그라운드에는 미디어 어플리케이션 프로그램(701)이 실행 중인 상황에서, 화면 상에 표시된 GUI는 미디어 어플리케이션 프로그램(701)을 대상으로 원격 신호에 대응되는 기능이 수행될 수 있음을 나타내는 GUI일 수 있다.
다음으로, 도 7의 (d)와 같이, 사용자가 스타일러스 펜(120)의 버튼(124)을 프레스하거나 스타일러스 펜(120)의 일 영역을 터치하면, 전자 장치(100)는 스타일러스 펜으로부터 발생된 원격 신호를 스타일러스 펜(120)으로부터 수신할 수 있다.
원격 신호가 수신되면, 전자 장치(100)는 선택된 어플리케이션 프로그램을 대상으로 원격 신호에 대응되는 기능을 실행할 수 있다. 예로, 전자 장치(100)는 화면 상에 표시 중인 제3 GUI(714)와 관련된 어플리케이션 프로그램의 기능을 수행할 수 있다. 즉, 전자 장치(100)는 미디어 어플리케이션 프로그램(701)을 이용하여 컨텐트를 재생할 수 있다.
이 경우, 도 7의 (e)와 같이, 전자 장치(100)는 선택된 어플리케이션 프로그램을 대상으로 추가적인 원격 신호에 대응되는 기능을 나타내는 제4 GUI(715)를 표시하도록 터치스크린 디스플레이 구조(101)를 제어할 수 있다. 도 7의 (e)에서, 제4 GUI(715)는 추가적인 원격 신호에 대응되는 기능으로서, 컨텐트의 재생을 일시 정지할 수 있는 기능이 수행될 수 있음을 나타내는 일시 정지 아이콘일 수 있다.
도 8은 본 개시의 다른 실시예에 따른 전자 장치(100)가 기능을 수행하는 상황을 설명하는 상황도들(800)들이다.
도 8의 (a)에서, 전자 장치(100)는 멀티 윈도우 기능을 실행하여, 각각의 윈도우에 제1 어플리케이션 프로그램(801)에 포함되는 제1 사용자 인터페이스 및 제2 어플리케이션 프로그램(802)에 포함되는 제2 사용자 인터페이스를 표시하도록 터치스크린 디스플레이 구조(101)를 제어할 수 있다. 이 경우, 원격 신호에 대응되는 기능을 나타내는 GUI는 활성화된 창에 디폴트로 위치할 수 있다. 활성화된 창에 미디어 어플리케이션 프로그램(801)에 포함되는 제1 사용자 인터페이스가 표시 중인 경우, 전자 장치(100)의 프로세서(1320)는 원격 신호에 대응되는 기능으로서 컨텐트를 재생하는 기능이 수행될 수 있음을 나타내는 제1 GUI(811)를 활성화된 창에 표시하도록 터치스크린 디스플레이 구조(101)를 제어할 수 있다.
이 경우, 사용자가 스타일러스 펜(120)의 버튼(124)을 프레스하거나 스타일러스 펜(120)의 일 영역을 터치하면, 전자 장치(100)는 활성화된 창에 사용자 인터페이스를 포함하는 어플리케이션 프로그램을 대상으로 스타일러스(120)으로부터 발생된 원격 신호에 대응되는 기능을 실행할 수 있다. 예로, 원격 신호가 수신되면, 전자 장치(100)는 활성화된 창에 제1 사용자 인터페이스를 포함하는 미디어 어플리케이션 프로그램(801)을 이용하여 컨텐트를 재생할 수 있다.
이러한 상황에서, 사용자는 원격 신호에 대응되는 기능을 실행할 어플리케이션 프로그램을 전환(또는, 변경, 선택)하기를 원할 수 있다. 예로, 도 8의 (b)와 같이, 사용자는 원격 신호에 대응되는 기능을 나타내는 제1 GUI(811)를 드래그하여 원격 제어를 원하는 어플리케이션 프로그램의 사용자 인터페이스가 표시 중인 창으로 이동시킬 수 있다. 이에 따라, 전자 장치(100)는 활성화된 창을 제1 GUI(811)가 이동된 창으로 선택하고, 원격 신호에 대응되는 기능을 실행할 어플리케이션 프로그램으로서 제1 GUI(811)가 이동된 창에서 사용자 인터페이스를 제공 중인 어플리케이션 프로그램을 선택할 수 있다. 도 8의 (b)에서는, 원격 신호에 대응되는 기능을 실행할 어플리케이션 프로그램으로서 인터넷 검색 어플리케이션 프로그램(802)이 선택될 수 있다. 이 때, 도 8의 (c)와 같이, 전자 장치(100)는 선택된 어플리케이션 프로그램을 대상으로 원격 신호에 대응되는 기능을 나타내는 제2 GUI(812)를 화면 상에 표시할 수 있다. 예로, 전자 장치(100)는 활성화된 창에 제2 사용자 인터페이스(802)를 제공 중인 인터넷 검색 어플리케이션 프로그램(802)의 기능으로서 웹 페이지를 스크롤할 수 있음을 나타내는 제2 GUI(812)를 표시할 수 있다.
이 경우, 사용자가 스타일러스 펜(120)의 버튼(124)을 프레스하거나 스타일러스 펜(120)의 일 영역을 터치하면, 전자 장치(100)는 활성화된 창에 표시된 어플리케이션 프로그램을 대상으로 스타일러스 펜(120)으로부터 발생된 원격 신호에 대응되는 기능을 실행할 수 있다. 예로, 전자 장치(100)는 선택된 인터넷 검색 어플리케이션 프로그램(802)에 포함되는 웹 페이지를 일 방향으로 스크롤할 수 있다.
다양한 실시예로, 도 8의 (c)에서, 활성화된 창은 미디어 어플리케이션 프로그램(801)이 표시된 창이 될 수도 있다. 이 경우, 전자 장치(100)는 미디어 어플리케이션 프로그램(801)에 포함되는 컨텐트를 손가락의 터치 또는 스타일러스 펜(120)의 터치에 의하여 제어하면서, 스타일러스 펜(120)의 버튼(124)을 프레스하거나 스타일러스 펜(120)의 일 영역을 터치하여 원격 제어로 인터넷 검색 어플리케이션 프로그램(802)을 제어할 수 있다.
도 9는, 본 개시의 다른 실시예에 따른 전자 장치(100)가 기능을 수행하는 상황을 설명하는 상황도들(900)이다.
도 9의 (a)에서, 전자 장치(100)의 프로세서(1320)는 제1 어플리케이션 프로그램(901) 및 제2 어플리케이션 프로그램(902)을 실행 중일 수 있다. 이 때, 제1 어플리케이션 프로그램(901) 또는 제2 어플리케이션 프로그램(902) 중 하나는 미디어 어플리케이션 프로그램일 수 있다. 예로, 제1 어플리케이션 프로그램(901)은 포그라운드에서 실행 중인 인터넷 검색 어플리케이션 프로그램(901)이고, 제2 어플리케이션 프로그램(902)은 백그라운드에서 실행 중인 미디어 어플리케이션 프로그램(902)일 수 있다.
이 경우, 전자 장치(100)가 미디어 어플리케이션 프로그램(902)에 포함되는 컨텐트를 출력할 수 있는 오디오 출력 장치와 연결될 수 있다. 예로, 도 9의 (b-1)과 같이, 전자 장치(100)가 이어폰(921)과 연결될 수 있다. 또는, 도 9의 (b-2)와 같이, 전자 장치(100)가 적어도 하나의 스피커(922)와의 무선(또는, 유선) 네트워크를 통하여 연결될 수 있다.
연결이 감지되면, 전자 장치(100)는 스타일러스 펜(120)의 원격 제어 대상이 되는 어플리케이션 프로그램으로서, 오디오 출력 장치와 연관된 미디어 어플리케이션 프로그램을 자동으로 선택할 수 있다. 그리고, 전자 장치(100)는 도 9의 (c)와 같이, 자동으로 선택된 미디어 어플리케이션 프로그램(902)을 대상으로 스타일러스 펜(120)의 원격 신호에 대응되는 기능을 나타내는 GUI(911)를 표시하도록 터치스크린 디스플레이 구조(101)를 제어할 수 있다. GUI(911)는 예로, 사용자가 스타일러스 펜(120)의 버튼(124)을 프레스하거나 스타일러스 펜(120)의 일 영역을 터치하면, 예로, 연결된 이어폰 또는 스피커를 통하여 컨텐트를 출력하는 기능이 실행될 수 있음을 나타내는 컨텐트 재생 아이콘을 포함할 수 있다.
다양한 실시예로, 전자 장치(100)의 프로세서(1320)는 미디어 어플리케이션 프로그램을 실행 중일 수 있다. 이 경우, 미디어 어플리케이션 프로그램은 포그라운드 또는 백그라운드에서 실행 중일 수 있다.
이 경우, 일정 시간이 경과하거나 또는 사용자의 입력(예로, 전자 장치(100)의 일 측의 전원 버튼(미도시)을 프레스하는 사용자 입력)에 따라, 전자 장치(100)의 프로세서(1320)는 잠금 화면을 표시하도록 터치스크린 디스플레이 구조(101)를 제어할 수 있다. 잠금 화면이 AOD(always on display) 상태인 경우, 전자 장치(100)의 프로세서(1320)는 잠금 화면 상에 미디어 어플리케이션 프로그램과 관련된 GUI를 표시하도록 터치스크린 디스플레이 구조(101)를 제어할 수 있다. 이 경우, 전자 장치(100)는 스타일러스 펜(120)의 원격 제어 기능을 실행할 어플리케이션 프로그램으로서, 잠금 화면 상에 GUI를 표시 중인 어플리케이션 프로그램을 선택(또는, 매칭)할 수 있다.
이러한 상황에서, 사용자가 스타일러스 펜(120)의 버튼(124)을 프레스하거나 스타일러스 펜(120)의 일 영역을 터치함에 따라 스타일러스 펜(120)으로부터 원격 신호가 수신되면, 전자 장치(100)는 선택된 어플리케이션 프로그램을 대상으로 원격 신호와 관련된 기능을 수행할 수 있다. 예로, 전자 장치(100)는 재생 대기 중인 컨텐트를 재생하거나, 재생 중 컨텐트를 일시 정지하거나, 재생 중인 컨텐트를 종료하거나, 이전 순서 또는 이후 순서의 컨텐트를 재생하거나, 컨텐트의 볼륨을 조절할 수 있다.
다양한 실시예로, 전자 장치(100)가 디스플레이 장치와 네트워크를 통하여 통신 연결(또는, 미러링(mirroring) 연결) 될 수 있다. 이 경우, 전자 장치(100)는 스타일러스 펜(120)의 원격 제어 기능을 실행할 어플리케이션 프로그램으로서, 디스플레이 장치의 컨텐트 재생을 제어하는 어플리케이션 프로그램을 선택(또는, 매칭)할 수 있다. 선택된 어플리케이션 프로그램은, 예로, 미러링 어플리케이션 프로그램 또는 디스플레이 장치를 제어할 수 있는 리모컨 어플리케이션 프로그램일 수 있다.
이러한 상황에서, 사용자가 스타일러스 펜(120)의 버튼(124)을 프레스하거나 스타일러스 펜(120)의 일 영역을 터치함에 따라 스타일러스 펜(120)으로부터 원격 신호가 수신되면, 전자 장치(100)는 선택된 어플리케이션 프로그램을 대상으로 원격 신호와 관련된 기능을 수행할 수 있다. 예로, 전자 장치(100)는 재생 대기 중인 컨텐트를 재생하거나, 재생 중인 컨텐트를 일시 정지하거나, 재생 중인 컨텐트를 종료하거나, 이전 순서 또는 이후 순서의 컨텐트를 재생하거나, 컨텐트의 재생 속도를 제어하거나, 컨텐트와 관련된 자막을 제어하거나, 컨텐트의 볼륨을 제어하거나, 컨텐트의 표시 상태를 제어할 수 있다.
도 10은, 본 개시의 다른 실시예에 따른 전자 장치(100)가 기능을 수행하는 상황을 설명하는 상황도들(1000)이다.
도 10의 (a)에서, 전자 장치(100)의 프로세서(1320)는 복수의 어플리케이션 프로그램들을 실행 중일 수 있다. 이 때, 포그라운드에서는 제1 어플리케이션 프로그램(1001)이 포함하는 사용자 인터페이스가 표시 중이고, 백그라운드에서는 제2 어플리케이션 프로그램(1002) 및 제3 어플리케이션 프로그램(1003)이 실행 중일 수 있다. 예로, 사용자 인터페이스를 포함하는 제1 어플리케이션 프로그램(1001)은 갤러리 어플리케이션 프로그램(100)이고, 제2 어플리케이션 프로그램(1002)은 미디어 어플리케이션 프로그램(1002)이고, 제3 어플리케이션 프로그램(1003)은 미디어 앱 어플리케이션 프로그램(1003)(예로, 유튜브(youtube) 어플리케이션 프로그램 등)일 수 있다.
이 경우, 전자 장치(100)는 스타일러스 펜(120)의 원격 신호에 대응되는 기능을 실행할 어플리케이션 프로그램으로 제1 어플리케이션 프로그램(1001)을 선택한 상황일 수 있다. 이에 따라, 전자 장치(100)는 갤러리 어플리케이션 프로그램(1001)을 대상으로 스타일러스 펜(120)의 원격 신호에 대응되는 기능을 나타내는 제1 GUI(1011)를 표시하도록 터치스크린 디스플레이 구조(101)를 제어할 수 있다. 제1 GUI(1011)는, 예로, 이전 순서 또는 다음 순서의 이미지를 표시하는 기능이 실행될 수 있음을 나타내는 아이콘을 포함할 수 있다.
이러한 상황에서, 도 10의 (b)와 같이, 사용자가 스타일러스 펜(120)을 이용하여 제1 GUI(1011)를 롱 프레스할 수 있다. 롱 프레스에 대응되는 터치 신호가 수신되면, 전자 장치(100)는 백그라운드 어플리케이션 프로그램들 중에서 가장 앞에 위치한(또는, 가장 최근에 실행된) 어플리케이션 프로그램을 원격 신호에 대응되는 기능을 실행할 어플리케이션 프로그램으로 선택할 수 있다.
선택된 어플리케이션 프로그램이 제2 어플리케이션 프로그램(1002)으로서 미디어 어플리케이션 프로그램(1002)인 경우, 도 10의 (c)와 같이, 전자 장치(100)는 미디어 어플리케이션 프로그램(1002)을 대상으로 원격 신호에 대응되는 기능을 나타내는 제2 GUI(1012)를 표시하도록 터치스크린 디스플레이 구조(101)를 제어할 수 있다.
도 10의 (c)에서, 사용자는 스타일러스 펜(120)을 이용하여 제2 GUI(1012)를 롱 프레스할 수 있다. 제2 GUI(1012)를 롱 프레스하는 터치 신호가 수신되면, 전자 장치(100)는 백그라운드 어플리케이션 프로그램들 중에서 다음 순서의 어플리케이션 프로그램을 원격 신호에 대응되는 기능을 실행할 어플리케이션 프로그램으로서 선택할 수 있다. 선택된 어플리케이션 프로그램이 제3 어플리케이션 프로그램(1003)으로서 미디어 앱 어플리케이션 프로그램(1003)인 경우, 전자 장치(100)는 미디어 앱 어플리케이션 프로그램(1003)을 대상으로 원격 신호에 대응되는 기능을 나타내는 제3 GUI(1013)를 표시하도록 터치스크린 디스플레이 구조(101)를 제어할 수 있다. 제3 GUI(1013)는, 예로, 미디어 앱 어플리케이션 프로그램(1003)에 포함되는 컨텐트를 재생하거나, 재생 중인 컨텐트를 일시 정지하거나, 재생 중인 컨텐트를 종료하거나, 이전 순서 또는 이후 순서의 컨텐트를 재생할 수 있음을 나타내는 아이콘일 수 있다. 이 경우, 사용자가 스타일러스 펜(120)의 버튼을 프레스하거나 스타일러스 펜(120)의 일 영역을 터치함에 따라 스타일러스 펜(120)으로부터 원격 신호가 수신되면, 전자 장치(100)는 선택된 미디어 앱 어플리케이션 프로그램(1003)을 대상으로 원격 신호와 관련된 기능을 수행할 수 있다.
도 11a 및 도 11b는, 본 개시의 다른 실시예에 따른 전자 장치(100)가 기능을 수행하는 상황을 설명하는 상황도들(1100,1150)이다.
도 11a에서, 전자 장치(100)의 프로세서(1320)는 제1 어플리케이션 프로그램(1101) 및 제2 어플리케이션 프로그램(1102)을 실행 중일 수 있다. 이 경우, 전자 장치(100)는 스타일러스 펜(120)에 의한 원격 제어 기능을 실행할 어플리케이션 프로그램으로서 퀵 패널(Quick panel)(1111)에 표시된 컨트롤러(1112)에 대응되는 어플리케이션 프로그램을 선택할 수 있다.
예로, 원격 제어 기능을 지원하는 미디어 어플리케이션 프로그램(1102)이 제공하는 컨텐트를 제어할 수 있는 컨트롤러(예로, 제어 UI 또는 제어 GUI 등)(1112)가 퀵 패널(1111)에 존재할 수 있다. 예로, 미디어 어플리케이션 프로그램(1102)이 실행 중이거나 또는 실행된 이력이 있는 경우, 컨텐트를 제어할 수 있는 컨트롤러(1112)가 퀵 패널(1111)에 존재할 수 있다. 퀵 패널(1111)은 사용자가 전자 장치(100)의 일 측으로부터 일 방향을 향하여 드래그를 수행함에 따라, 도 11a의 (a)와 같이 화면 상에 표시될 수 있다.
원격 제어 기능을 지원하는 어플리케이션 프로그램에 포함되는 컨트롤러(1112)가 퀵 패널(1111)에 존재하는 경우, 전자 장치(100)는 스타일러스 펜(120)로부터 수신된 원격 신호에 따라 컨트롤러(1112)를 제공하는 어플리케이션 프로그램(1102)을 제어할 수 있다. 예로, 도 11a의 (b)와 같이, 사용자가 전자 장치(100)와 통신 페어링된 스타일러스 펜(120)의 버튼(124)을 프레스하거나 스타일러스 펜(120)의 일 영역(예로, 터치 패드 영역)을 터치할 수 있다. 이 경우, 스타일러스 펜(120)의 버튼(124)의 프레스 또는 터치에 의하여 발생되는 원격 신호가 수신되면, 전자 장치(100)는 컨트롤러(1112)를 제공하는 미디어 어플리케이션 프로그램(1102)의 기능을 실행할 수 있다. 예로, 전자 장치(100)는 백그라운드에서 실행 중인 미디어 어플리케이션 프로그램(1102)에 포함되는 컨텐트를 재생하거나 또는 일시 정지할 수 있다.
또한, 도 11a의 (c)와 같이, 컨텐트의 실행 상태가 변경된 컨트롤러(1112)를 포함하는 퀵 패널(1111)이 화면 상에 표시될 수 있다.
다른 예로, 도 11b의 (a)와 같이, 원격 제어 기능을 지원하는 미디어 어플리케이션 프로그램(1102)에 포함되는, 컨텐트를 제어할 수 있는 컨트롤러(1112)가 퀵 패널(1111)에 존재할 수 있다. 이 경우, 사용자가 컨트롤러(1112)를 퀵 패널(1111)로부터 삭제할 수 있다. 예로, 사용자가 퀵 패널(1111)의 삭제 아이콘(1112-1)을 스타일러스 펜(120) 또는 손가락으로 터치하면, 컨트롤러(1112)가 퀵 패널(1111)로부터 삭제될 수 있다. 그리고, 도 11b의 (b)와 같이, 컨트롤러(1112)가 삭제된 퀵 패널(1111)이 터치스크린 디스플레이 구조(101)에 표시될 수 있다.
이러한 상황에서, 도 11b의 (c)와 같이, 사용자가 전자 장치(100)와 통신 페어링된 스타일러스 펜(120)의 버튼(124)을 프레스하거나 스타일러스 펜(120)의 일 영역(예로, 터치 패드 영역)을 터치할 수 있다. 이에 따라, 스타일러스 펜(120)의 버튼(124)의 프레스 또는 터치에 의하여 발생되는 원격 신호가 수신되면, 전자 장치(100)는 포그라운드에서 실행 중인 어플리케이션 프로그램을 대상으로 원격 신호에 대응되는 기능을 수행할 수 있다. 예로, 포그라운드에서 실행 중인 어플리케이션 프로그램이 인터넷 검색 어플리케이션 프로그램(1101)인 경우, 도 11b의 (d)와 같이, 전자 장치(100)는 인터넷 검색 어플리케이션 프로그램(1101)에 포함된 제1 웹 페이지(1101)를 일 방향으로 스크롤하여 다른 제2 웹 페이지(1103)를 표시하도록 터치스크린 디스플레이 구조(101)를 제어할 수 있다.
다양한 실시예로, 퀵 패널(1111)에 컨트롤러(1112)의 존재 여부를 고려하여, 스타일러스 펜(120)의 원격 신호에 따른 어플리케이션 프로그램의 기능을 표로 정리하면 아래와 같을 수 있다.
[표 1] 및 [표 2]에서는, 스타일러스 펜(120)의 원격 신호에 따라 백그라운드의 어플리케이션 프로그램을 우선하여 기능을 실행하는 예를 나타낸다. 또한, [표 3] 및 [표 4]에서는, 스타일러스 펜(120)의 원격 신호에 따라 포그라운드의 어플리케이션 프로그램을 우선하여 기능을 실행하는 예를 나타낸다.
Figure PCTKR2019008340-appb-I000001
[표 1]은, 백그라운드에서 미디어 어플리케이션 프로그램이 실행 중이고, 퀵 패널(1111)에 미디어 어플리케이션 프로그램의 컨트롤러(1112)가 존재하는 상황일 수 있다. 이 경우, 스타일러스 펜(120)으로부터 원격 신호가 수신되면, 전자 장치(100)는 미디어 제어 기능을 수행할 수 있다. 이 때, 사용자가 스타일러스 펜(120)의 버튼(124)을 싱글 프레스하거나 또는 더블 프레스하는지 여부에 따라, 서로 다른 원격 신호가 수신될 수 있다. 전자 장치(100)는 각각의 신호에 따라, 서로 다른 미디어 제어 기능을 수행할 수 있다. 예로, 싱글 프레스에 따른 원격 신호가 수신되면, 전자 장치(100)는 미디어 어플리케이션 프로그램에서 실행 중인 컨텐트를 재생하거나, 일시 정지할 수 있다. 또한, 더블 프레스에 따른 원격 신호가 수신되면 전자 장치(100)는 미디어 어플리케이션 프로그램에서 제공 가능한 다음 순서의 컨텐트를 재생할 수 있다. 또한, 사용자가 스타일러스 펜(120)을 롱 프레스하는 경우, 이에 따른 원격 신호가 수신될 수 있다. 이 경우, 전자 장치(100)는 롱 프레스에 대응되는 퀵 런처(launcher) 기능을 수행할 수 있다. 퀵 런처 기능은 사용자가 별도로 정의한 기능이거나 전자 장치(100)에서 디폴트로 정의한 기능일 수 있다. 디폴트로 정의한 기능은, 예로, 화면 캡처 기능, 녹음 기능, 촬영 기능 등이 될 수 있으나, 전술한 예에 제한되지 않는다. 또는, 퀵 런처 기능은 실행 중인 미디어 어플리케이션 프로그램과 관련된 기능일 수 있다. 예로, 퀵 런처 기능은, 예로, 사용자가 즐겨찾기한 목록의 컨텐트를 실행하거나, 미디어 어플리케이션 프로그램 또는 사용자의 지인이 추천하는 컨텐트를 실행하는 기능이 될 수 있다.
즉, [표 1]에서는, 퀵 패널(1111)에 미디어 어플리케이션 프로그램의 컨트롤러(1112)가 존재하는 경우, 스타일러스 펜(120)으로부터 원격 신호가 수신되면, 전자 장치(100)는 포그라운드에서 실행 중인 어플리케이션 프로그램과 상관없이, 백그라운드에서 실행 중인 미디어 어플리케이션 프로그램의 기능을 우선하여 수행할 수 있다. 예로, 전자 장치(100)는 포그라운드에서 실행 중인 어플리케이션 프로그램이 원격 제어 신호에 의하여 제어될 수 있는지 여부와 상관없이, 백그라운드에서 실행 중인 미디어 어플리케이션 프로그램의 기능을 우선하여 수행할 수 있다. 이 때, 전자 장치(100)가 포그라운드에서 실행 중인 어플리케이션을 상관하지 않는다는 것은, 포그라운드에서 실행 중인 어플리케이션 프로그램의 유형, 상태 또는 지원하는 기능을 체크하지 않거나, 체크하더라도 체크 결과를 무시하는 것을 포함할 수 있다.
Figure PCTKR2019008340-appb-I000002
[표 2]는, 백그라운드에서 미디어 어플리케이션 프로그램이 실행 중이고, 퀵 패널(1111)에 미디어 어플리케이션 프로그램의 컨트롤러(1112)가 존재하지 않는 상황일 수 있다. 이 경우, 스타일러스 펜(120)으로부터 원격 신호가 수신되면, 전자 장치(100)는 포그라운드에서 원격 제어 가능한 어플리케이션 프로그램을 선택할 수 있다. 그리고, 전자 장치(100)는 선택된 어플리케이션 프로그램을 대상으로 기 정의된 기능을 수행할 수 있다. 이 때, 사용자가 스타일러스 펜(120)의 버튼(124)을 싱글 프레스하거나 또는 더블 프레스하는지 여부에 따라, 서로 다른 원격 신호가 수신될 수 있다. 전자 장치(100)는 각각의 신호에 따라, 서로 다른 기 정의된 기능을 수행할 수 있다. 예로, 포그라운드에서 원격 제어 가능한 어플리케이션 프로그램이 인터넷 검색 어플리케이션 프로그램인 경우, 예로, 싱글 프레스에 따른 원격 신호가 수신되면, 전자 장치(100)는 상 방향(또는, 하 방향)으로 웹 페이지를 드래그할 수 있다. 또한, 더블 프레스에 따른 원격 신호가 수신되면 전자 장치(100)는 하 방향(또는, 상 방향)으로 웹 페이지를 드래그할 수 있다. 또한, 사용자가 스타일러스 펜(120)을 롱 프레스하는 경우, 이에 따른 원격 신호가 수신될 수 있다. 이 경우, 전자 장치(100)는 롱 프레스에 대응되는 퀵 런처 기능을 수행할 수 있다.
한편, 포그라운드에서 원격 제어 가능한 어플리케이션 프로그램이 존재하지 않는 경우, 전자 장치(100)는 별도의 기능을 수행하지 않을 수 있다.
Figure PCTKR2019008340-appb-I000003
[표 3]은, 백그라운드에서 미디어 어플리케이션 프로그램이 실행 중이고, 퀵 패널(1111)에 미디어 어플리케이션 프로그램의 컨트롤러(1112)가 존재하는 상황일 수 있다. 이 경우, 스타일러스 펜(120)으로부터 원격 신호가 수신되면, 전자 장치(100)는 포그라운드에서 실행 중인 어플리케이션 프로그램을 우선하여 원격 제어 기능을 수행할 수 있다. 예로, 포그라운드에서 원격 신호를 지원하는 어플리케이션 프로그램이 존재하는 경우, 전자 장치(100)는 원격 신호에 따라 기 정의된 기능을 수행할 수 있다. 이 때, 사용자가 스타일러스 펜(120)의 버튼(124)을 싱글 프레스하거나 또는 더블 프레스하는지 여부에 따라, 서로 다른 원격 신호가 수신될 수 있다. 전자 장치(100)는 각각의 신호에 따라, 서로 다른 기 정의된 기능을 수행할 수 있다. 또한, 사용자가 스타일러스 펜(120)을 롱 프레스하는 경우, 이에 따른 원격 신호가 수신될 수 있다. 이 경우, 전자 장치(100)는 롱 프레스에 대응되는 퀵 런처 기능을 수행할 수 있다.
한편, 포그라운드에서 원격 제어 가능한 어플리케이션 프로그램이 존재하지 않는 경우, 전자 장치(100)는 백그라운드에서 실행 중인 미디어 어플리케이션 프로그램을 대상으로 원격 신호에 대응되는 원격 제어 기능을 수행할 수 있다.
Figure PCTKR2019008340-appb-I000004
[표 4]는, 백그라운드에서 미디어 어플리케이션 프로그램이 실행 중이고, 퀵 패널(1111)에 미디어 어플리케이션 프로그램의 컨트롤러(1112)가 존재하지 않는 상황일 수 있다. 이 경우, 스타일러스 펜(120)으로부터 원격 신호가 수신되면, 전자 장치(100)는 포그라운드에서 실행 중인 어플리케이션 프로그램을 우선하여 원격 제어 기능을 수행할 수 있다. 예로, 포그라운드에서 원격 신호를 지원하는 어플리케이션 프로그램이 존재하는 경우, 전자 장치(100)는 원격 신호에 따라 기 정의된 기능을 수행할 수 있다. 이 때, 사용자가 스타일러스 펜(120)의 버튼(124)을 싱글 프레스하거나 또는 더블 프레스하는지 여부에 따라, 서로 다른 원격 신호가 수신될 수 있다. 전자 장치(100)는 각각의 신호에 따라, 서로 다른 기 정의된 기능을 수행할 수 있다. 또한, 사용자가 스타일러스 펜(120)을 롱 프레스하는 경우, 이에 따른 원격 신호가 수신될 수 있다. 이 경우, 전자 장치(100)는 롱 프레스에 대응되는 퀵 런처 기능을 수행할 수 있다.
한편, 포그라운드에서 원격 제어 가능한 어플리케이션 프로그램이 존재하지 않는 경우, 전자 장치(100)는 별도의 기능을 수행하지 않을 수 있다.
도 12는, 본 개시의 다양한 실시예에 따른 전자 장치(100)가 기능을 수행하는 흐름도(1200)이다.
도 12에서, 전자 장치(100)는 제1 어플리케이션 프로그램 및 제2 어플리케이션 프로그램을 실행할 수 있다(1201).
전자 장치(100)는 제1 어플리케이션 프로그램을 포함하는 제1 사용자 인터페이스 및 제2 어플리케이션 프로그램을 포함하는 제2 사용자 인터페이스 중 적어도 하나를 표시할 수 있다(1203). 예로, 전자 장치(100)는 제1 사용자 인터페이스 또는 제2 사용자 인터페이스 중 하나만 표시할 수 있다. 또는, 전자 장치(100)는 제1 사용자 인터페이스 및 제2 사용자 인터페이스 모두를 화면 상에 표시할 수 있다.
이러한 상황에서, 전자 장치(100)는 제1 시간 동안에 스타일러스 펜(120)의 버튼의 프레스 또는 터치에 의하여 발생되는 제1 신호가 수신되는지를 판단할 수 있다(1205). 제1 신호는, 예로, 전자 장치(100)와 블루투스 프로토콜을 이용하여 통신 페어링된 스타일러스 펜(120)의 버튼(124)의 프레스 또는 터치에 의하여 발생되는 신호일 수 있다. 이 때, 블루투스 프로토콜은 블루투스 저전력 프로토콜(BLE)을 포함할 수 있다.
제1 신호가 수신되면(1205-Y), 전자 장치(100)는 제1 신호에 기반하여, 제1 어플리케이션 프로그램 또는 제2 어플리케이션 프로그램 중 하나를 선택할 수 있다(1207). 전자 장치(100)는 선택의 적어도 일부에 기반하여, 화면의 적어도 일부를 변경할 수 있다(1209). 예로, 전자 장치(100)는 제1 어플리케이션 프로그램의 기능 또는 제2 어플리케이션 프로그램의 기능을 나타내는 GUI를 화면 상에 표시할 수 있다. GUI는, 예로, 미디어 어플리케이션 프로그램에 포함되는 컨텐트의 재생과 관련된 재생 아이콘, 컨텐트의 재생 정지와 관련된 정지 아이콘 또는 컨텐트의 재생 종료와 관련된 종료 아이콘을 포함할 수 있다. 또는, 전자 장치(100)는 선택의 적어도 일부에 기반하여, 선택된 어플리케이션 프로그램을 하이라이트하거나 또는 선택된 어플리케이션 프로그램을 포그라운드 화면 상에 표시할 수 있다.
또한, 전자 장치(100)는 제1 시간과 다른 제2 시간 동안에, 스타일러스 펜(120)의 버튼(124)의 프레스 또는 터치에 의하여 발생되는 제2 신호가 수신되는지를 판단할 수 있다(1211). 제2 신호는, 예로, 전자 장치(100)와 블루투스 프로토콜을 이용하여 통신 페어링된 스타일러스 펜(120)의 버튼(124)의 프레스 또는 터치에 의하여 발생되는 신호일 수 있다. 이 때, 블루투스 프로토콜은 블루투스 저전력 프로토콜(BLE)을 포함할 수 있다.
제2 신호가 수신되면(1211-Y), 전자 장치(100)는 동작 1207에서의 선택의 적어도 일부에 기반하여, 제2 신호에 대한 응답으로 제1 어플리케이션 프로그램의 기능 또는 제2 어플리케이션 프로그램의 기능을 수행할 수 있다(1213). 예로, 전자 장치(100)는 동작 1207에서, 제1 신호에 대한 응답으로 선택된 어플리케이션 프로그램의 기능을 수행할 수 있다(1213).
다양한 실시예로, 전자 장치(100)는 스타일러스 펜(120)을 이용한 상기 화면 상에 터치 입력 또는 호버링 입력에 따라 발생되는 제3 신호를 수신할 수 있다. 그리고, 전자 장치(100)는 제3 신호에 대한 응답으로, 제1 어플리케이션 프로그램의 기능 또는 제2 어플리케이션 프로그램의 기능을 수행할 수 있다. 이 때, 제1 신호 및 제2 신호는 원격 신호이고, 제3 신호는 터치 신호일 수 있다.
도 13은, 다양한 실시예들에 따른, 네트워크 환경(1300) 내의 전자 장치(1301)의 블록도이다. 전자 장치(1301)는 도 1의 전자 장치(100)를 포함할 수 있다. 도 13을 참조하면, 네트워크 환경(1300)에서 전자 장치(1301)는 제 1 네트워크(1398)(예: 근거리 무선 통신 네트워크)를 통하여 전자 장치(1302)와 통신하거나, 또는 제 2 네트워크(1399)(예: 원거리 무선 통신 네트워크)를 통하여 전자 장치(1304) 또는 서버(1308)와 통신할 수 있다. 일 실시예에 따르면, 전자 장치(1301)는 서버(1308)를 통하여 전자 장치(1304)와 통신할 수 있다. 일 실시예에 따르면, 전자 장치(1301)는 프로세서(1320), 메모리(1330), 입력 장치(1350), 음향 출력 장치(1355), 표시 장치(1360), 오디오 모듈(1370), 센서 모듈(1376), 인터페이스(1377), 햅틱 모듈(1379), 카메라 모듈(1380), 전력 관리 모듈(1388), 배터리(1389), 통신 모듈(1390), 가입자 식별 모듈(1396), 또는 안테나 모듈(1397)을 포함할 수 있다. 어떤 실시예에서는, 전자 장치(1301)에는, 이 구성요소들 중 적어도 하나(예: 표시 장치(1360) 또는 카메라 모듈(1380))가 생략되거나, 하나 이상의 다른 구성 요소가 추가될 수 있다. 어떤 실시예에서는, 이 구성요소들 중 일부들은 하나의 통합된 회로로 구현될 수 있다. 예를 들면, 센서 모듈(1376)(예: 지문 센서, 홍채 센서, 또는 조도 센서)은 표시 장치(1360)(예: 디스플레이)에 임베디드된 채 구현될 수 있다
프로세서(1320)는, 예를 들면, 소프트웨어(예: 프로그램(1340))를 실행하여 프로세서(1320)에 연결된 전자 장치(1301)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)을 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일 실시예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(1320)는 다른 구성요소(예: 센서 모듈(1376) 또는 통신 모듈(1390))로부터 수신된 명령 또는 데이터를 휘발성 메모리(1332)에 로드하고, 휘발성 메모리(1332)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리(1334)에 저장할 수 있다. 일 실시예에 따르면, 프로세서(1320)는 메인 프로세서(1321)(예: 중앙 처리 장치 또는 어플리케이션 프로세서), 및 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(1323)(예: 그래픽 처리 장치, 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 추가적으로 또는 대체적으로, 보조 프로세서(1323)은 메인 프로세서(1321)보다 저전력을 사용하거나, 또는 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서(1323)는 메인 프로세서(1321)와 별개로, 또는 그 일부로서 구현될 수 있다.
보조 프로세서(1323)는, 예를 들면, 메인 프로세서(1321)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(1321)를 대신하여, 또는 메인 프로세서(1321)가 액티브(예: 어플리케이션 실행) 상태에 있는 동안 메인 프로세서(1321)와 함께, 전자 장치(1301)의 구성요소들 중 적어도 하나의 구성요소(예: 표시 장치(1360), 센서 모듈(1376), 또는 통신 모듈(1390))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일 실시예에 따르면, 보조 프로세서(1323)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성 요소(예: 카메라 모듈(1380) 또는 통신 모듈(1390))의 일부로서 구현될 수 있다.
메모리(1330)는, 전자 장치(1301)의 적어도 하나의 구성요소(예: 프로세서(1320) 또는 센서모듈(1376))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램(1340)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(1330)는, 휘발성 메모리(1332) 또는 비휘발성 메모리(1334)를 포함할 수 있다.
프로그램(1340)은 메모리(1330)에 소프트웨어로서 저장될 수 있으며, 예를 들면, 운영 체제(1342), 미들 웨어(1344) 또는 어플리케이션(1346)을 포함할 수 있다.
입력 장치(1350)는, 전자 장치(1301)의 구성요소(예: 프로세서(1320))에 사용될 명령 또는 데이터를 전자 장치(1301)의 외부(예: 사용자)로부터 수신할 수 있다. 입력 장치(1350)은, 예를 들면, 마이크, 마우스, 또는 키보드를 포함할 수 있다.
음향 출력 장치(1355)는 음향 신호를 전자 장치(1301)의 외부로 출력할 수 있다. 음향 출력 장치(1355)는, 예를 들면, 스피커 또는 리시버를 포함할 수 있다. 스피커는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있고, 리시버는 착신 전화를 수신하기 위해 사용될 수 있다. 일 실시예에 따르면, 리시버는 스피커와 별개로, 또는 그 일부로서 구현될 수 있다.
표시 장치(1360)는 전자 장치(1301)의 외부(예: 사용자)로 정보를 시각적으로 제공할 수 있다. 표시 장치(1360)은, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일 실시예에 따르면, 표시 장치(1360)는 터치를 감지하도록 설정된 터치 회로(touch circuitry), 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 센서 회로(예: 압력 센서)를 포함할 수 있다.
오디오 모듈(1370)은 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 일 실시예에 따르면, 오디오 모듈(1370)은, 입력 장치(1350)를 통해 소리를 획득하거나, 음향 출력 장치(1355), 또는 전자 장치(1301)와 직접 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(1302)) (예: 스피커 또는 헤드폰))를 통해 소리를 출력할 수 있다.
센서 모듈(1376)은 전자 장치(1301)의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 사용자 상태)를 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 일 실시예에 따르면, 센서 모듈(1376)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다.
인터페이스(1377)는 전자 장치(1301)이 외부 전자 장치(예: 전자 장치(1302))와 직접 또는 무선으로 연결되기 위해 사용될 수 있는 하나 이상의 지정된 프로토콜들을 지원할 수 있다. 일 실시예에 따르면, 인터페이스(1377)는, 예를 들면, HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.
연결 단자(1378)는, 그를 통해서 전자 장치(1301)가 외부 전자 장치(예: 전자 장치(1302))와 물리적으로 연결될 수 있는 커넥터를 포함할 수 있다. 일 실시예에 따르면, 연결 단자(1378)은, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.
햅틱 모듈(1379)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 일 실시예에 따르면, 햅틱 모듈(1379)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.
카메라 모듈(1380)은 정지 영상 및 동영상을 촬영할 수 있다. 일 실시예에 따르면, 카메라 모듈(1380)은 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다.
전력 관리 모듈(1388)은 전자 장치(1301)에 공급되는 전력을 관리할 수 있다. 일 실시예에 따르면, 전력 관리 모듈(388)은, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구현될 수 있다.
배터리(1389)는 전자 장치(1301)의 적어도 하나의 구성 요소에 전력을 공급할 수 있다. 일 실시예에 따르면, 배터리(1389)는, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.
통신 모듈(1390)은 전자 장치(1301)와 외부 전자 장치(예: 전자 장치(1302), 전자 장치(1304), 또는 서버(1308))간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(1390)은 프로세서(1320)(예: 어플리케이션 프로세서)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일 실시예에 따르면, 통신 모듈(1390)은 무선 통신 모듈(1392)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(1394)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제 1 네트워크(1398)(예: 블루투스, WiFi direct 또는 IrDA(infrared data association) 같은 근거리 통신 네트워크) 또는 제 2 네트워크(1399)(예: 셀룰러 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부 전자 장치와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성 요소(예: 단일 칩)으로 통합되거나, 또는 서로 별도의 복수의 구성 요소들(예: 복수 칩들)로 구현될 수 있다. 무선 통신 모듈(1392)은 가입자 식별 모듈(1396)에 저장된 가입자 정보(예: 국제 모바일 가입자 식별자(IMSI))를 이용하여 제 1 네트워크(1398) 또는 제 2 네트워크(1399)와 같은 통신 네트워크 내에서 전자 장치(1301)를 확인 및 인증할 수 있다.
안테나 모듈(1397)은 신호 또는 전력을 외부(예: 외부 전자 장치)로 송신하거나 외부로부터 수신할 수 있다. 일 실시예에 따르면, 안테나 모듈(1397)은 하나 이상의 안테나들을 포함할 수 있고, 이로부터, 제 1 네트워크 1198 또는 제 2 네트워크 1199와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 적어도 하나의 안테나가, 예를 들면, 통신 모듈(1390)에 의하여 선택될 수 있다. 신호 또는 전력은 상기 선택된 적어도 하나의 안테나를 통하여 통신 모듈(1390)과 외부 전자 장치 간에 송신되거나 수신될 수 있다.
상기 구성요소들 중 적어도 일부는 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input and output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))를 통해 서로 연결되고 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.
일 실시예에 따르면, 명령 또는 데이터는 제 2 네트워크(1399)에 연결된 서버(1308)를 통해서 전자 장치(1301)와 외부의 전자 장치(1304)간에 송신 또는 수신될 수 있다. 전자 장치(1302, 1104) 각각은 전자 장치(1301)와 동일한 또는 다른 종류의 장치일 수 있다. 일 실시예에 따르면, 전자 장치(1301)에서 실행되는 동작들의 전부 또는 일부는 외부 전자 장치들(1302, 1104, or 1108) 중 하나 이상의 외부 장치들에서 실행될 수 있다. 예를 들면, 전자 장치(1301)가 어떤 기능이나 서비스를 자동으로, 또는 사용자 또는 다른 장치로부터의 요청에 반응하여 수행해야 할 경우에, 전자 장치(1301)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 하나 이상의 외부 전자 장치들에게 그 기능 또는 그 서비스의 적어도 일부를 수행하라고 요청할 수 있다. 상기 요청을 수신한 하나 이상의 외부 전자 장치들은 요청된 기능 또는 서비스의 적어도 일부, 또는 상기 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행의 결과를 전자 장치(1301)로 전달할 수 있다. 전자 장치(1301)는 상기 결과를, 그대로 또는 추가적으로 처리하여, 상기 요청에 대한 응답의 적어도 일부로서 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다.
도 14는 다양한 실시예들에 따른, 표시 장치(1360)의 블록도(1400)이다. 도 14를 참조하면, 표시 장치(1360)는 디스플레이(1410), 및 이를 제어하기 위한 디스플레이 드라이버 IC(DDI)(1430)를 포함할 수 있다. DDI(1430)는 인터페이스 모듈(1431), 메모리(1433)(예: 버퍼 메모리), 이미지 처리 모듈(1435), 또는 맵핑 모듈(1437)을 포함할 수 있다. DDI(1430)은, 예를 들면, 영상 데이터, 또는 상기 영상 데이터를 제어하기 위한 명령에 대응하는 영상 제어 신호를 포함하는 영상 정보를 인터페이스 모듈(1431)을 통해 전자 장치 1101의 다른 구성요소로부터 수신할 수 있다. 예를 들면, 일 실시예에 따르면, 영상 정보는 프로세서(1320)(예: 메인 프로세서(1321)(예: 어플리케이션 프로세서) 또는 메인 프로세서(1321)의 기능과 독립적으로 운영되는 보조 프로세서(1323)(예: 그래픽 처리 장치)로부터 수신될 수 있다. DDI(1430)는 터치 회로(1450) 또는 센서 모듈(1376) 등과 상기 인터페이스 모듈(1431)을 통하여 커뮤니케이션 할 수 있다. 또한, DDI(1430)는 상기 수신된 영상 정보 중 적어도 일부를 메모리(1433)에, 예를 들면, 프레임 단위로 저장할 수 있다. 이미지 처리 모듈(1435)은, 예를 들면, 상기 영상 데이터의 적어도 일부를 상기 영상 데이터의 특성 또는 디스플레이(1410)의 특성에 적어도 기반하여 전처리 또는 후처리(예: 해상도, 밝기, 또는 크기 조정)를 수행할 수 있다. 맵핑 모듈(1437)은 이미지 처리 모듈(1335)를 통해 전처리 또는 후처리된 상기 영상 데이터에 대응하는 전압 값 또는 전류 값을 생성할 수 있다. 일 실시예에 따르면, 전압 값 또는 전류 값의 생성은 예를 들면, 디스플레이(1410)의 픽셀들의 속성(예: 픽셀들의 배열(RGB stripe 또는 pentile 구조), 또는 서브 픽셀들 각각의 크기)에 적어도 일부 기반하여 수행될 수 있다. 디스플레이(1410)의 적어도 일부 픽셀들은, 예를 들면, 상기 전압 값 또는 전류 값에 적어도 일부 기반하여 구동됨으로써 상기 영상 데이터에 대응하는 시각적 정보(예: 텍스트, 이미지, 또는 아이콘)가 디스플레이(1410)를 통해 표시될 수 있다.
일 실시예에 따르면, 표시 장치(1360)는 터치 회로(1450)를 더 포함할 수 있다. 터치 회로(1450)는 터치 센서(1451) 및 이를 제어하기 위한 터치 센서 IC(1453)를 포함할 수 있다. 터치 센서 IC(1453)는, 예를 들면, 디스플레이(1410)의 특정 위치에 대한 터치 입력 또는 호버링 입력을 감지하기 위해 터치 센서(1451)를 제어할 수 있다. 예를 들면, 터치 센서 IC(1453)는 디스플레이(1410)의 특정 위치에 대한 신호(예: 전압, 광량, 저항, 또는 전하량)의 변화를 측정함으로써 터치 입력 또는 호버링 입력을 감지할 수 있다. 터치 센서 IC(1453)는 감지된 터치 입력 또는 호버링 입력에 관한 정보(예: 위치, 면적, 압력, 또는 시간)를 프로세서(1320)에 제공할 수 있다. 일 실시예에 따르면, 터치 회로(1450)의 적어도 일부(예: 터치 센서 IC(1453))는 디스플레이 드라이버 IC(1430), 또는 디스플레이(1410)의 일부로, 또는 표시 장치(1360)의 외부에 배치된 다른 구성요소(예: 보조 프로세서(1323))의 일부로 포함될 수 있다.
일 실시예에 따르면, 표시 장치(1360)는 센서 모듈(1376)의 적어도 하나의 센서(예: 지문 센서, 홍채 센서, 압력 센서 또는 조도 센서), 또는 이에 대한 제어 회로를 더 포함할 수 있다. 이 경우, 상기 적어도 하나의 센서 또는 이에 대한 제어 회로는 표시 장치(1360)의 일부(예: 디스플레이(1410) 또는 DDI(1430)) 또는 터치 회로(1450)의 일부에 임베디드 될 수 있다. 예를 들면, 표시 장치(1360)에 임베디드된 센서 모듈(1376)이 생체 센서(예: 지문 센서)를 포함할 경우, 상기 생체 센서는 디스플레이(1410)의 일부 영역을 통해 터치 입력과 연관된 생체 정보(예: 지문 이미지)를 획득할 수 있다. 다른 예를 들면, 표시 장치(1360)에 임베디드된 센서 모듈(1376)이 압력 센서를 포함할 경우, 상기 압력 센서는 디스플레이(1410)의 일부 또는 전체 영역을 통해 터치 입력과 연관된 압력 정보를 획득할 수 있다. 일 실시예에 따르면, 터치 센서(1451) 또는 센서 모듈(1376)은 디스플레이(1410)의 픽셀 레이어의 픽셀들 사이에, 또는 상기 픽셀 레이어의 위에 또는 아래에 배치될 수 있다.
본 개시에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로 등의 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일 실시예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다.
본 개시의 다양한 실시예들은 기기(machine)(예: 전자 장치(100), 전자 장치(1301)) 의해 읽을 수 있는 저장 매체(storage medium)(예: 내장 메모리(1336) 또는 외장 메모리(1338))에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예: 프로그램(1340))로서 구현될 수 있다. 예를 들면, 기기(예: 전자 장치(100), 전자 장치(1301))의 프로세서(예: 프로세서(1320))는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장매체는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, '비일시적'은 저장매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.
일 실시예에 따르면, 본 개시의 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두 개의 사용자 장치들(예: 스마트폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.
다양한 실시예들에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있다. 다양한 실시예들에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시예들에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.

Claims (20)

  1. 전자 장치에 있어서,
    제1 방향을 향하는 제1 면과 상기 제1 방향과 반대되는 제2 방향을 향하는 제2 면을 포함하는 하우징;
    상기 하우징 안에 위치하되, 상기 제1 면을 통하여 보이는 화면을 포함하는 터치스크린 디스플레이 구조;
    상기 하우징 안에 위치하며, 블루투스 프로토콜을 지원하도록 구성된 제1 무선 통신 회로;
    상기 터치스크린 디스플레이 구조에 의해 감지 가능한 용량성 부분과, 상기 블루투스 프로토콜을 지원하며 상기 제1 무선 통신 회로와 페어링되도록 구성된 제2 무선 통신 회로를 포함하되, 프레스 가능하거나 또는 터치 가능한 적어도 하나의 버튼을 포함하는 스타일러스 펜;
    상기 하우징 내부에 위치하고, 상기 터치스크린 디스플레이 구조 및 상기 제1 무선 통신 회로와 작동적으로 연결되는 프로세서; 및
    상기 하우징 내부에 위치하고, 상기 프로세서와 작동적으로 연결되는 메모리를 포함하고,
    상기 메모리는 제1 사용자 인터페이스를 포함하는 제1 어플리케이션 프로그램, 및 제2 사용자 인터페이스를 포함하는 제2 어플리케이션 프로그램을 저장하고,
    상기 메모리는, 실행될 때, 상기 프로세서가,
    사용자 입력을 수신 시, 상기 제1 어플리케이션 프로그램 및 상기 제2 어플리케이션 프로그램을 실행하고,
    상기 제1 사용자 인터페이스 또는 상기 제2 사용자 인터페이스 중 적어도 하나를 상기 화면 상에 표시하고,
    상기 버튼의 프레스 또는 터치에 의하여 발생되는 제1 신호를, 제1 시간 동안에 상기 스타일러스 펜으로부터 수신하고,
    상기 제1 어플리케이션 프로그램 또는 상기 제2 어플리케이션 프로그램 중 하나를 선택하고,
    상기 선택의 적어도 일부에 기반하여, 상기 화면의 적어도 일부를 변경하고,
    상기 제1 시간과 다른 제2 시간 동안에, 상기 버튼의 프레스 또는 터치에 의하여 발생되는 제2 신호를 상기 스타일러스 펜으로부터 수신하고,
    상기 선택의 적어도 일부에 기반하여, 상기 제2 신호에 대한 응답으로 상기 제1 어플리케이션 프로그램의 기능 또는 상기 제2 어플리케이션 프로그램의 기능을 수행하도록 설정된 명령어들을 더 저장하는,
    전자 장치.
  2. 제1항에 있어서,
    상기 블루투스 프로토콜은 블루투스 저전력 프로토콜(BLE)을 포함하는,
    전자 장치.
  3. 제1항에 있어서,
    상기 터치스크린 디스플레이 구조는, 인간의 신체부의 감지를 위한 터치-감지 패드 및, 상기 스타일러스 펜의 상기 용량성 부분의 감지를 위한 스타일러스 펜-감지 패드를 포함하는,
    전자 장치.
  4. 제1항에 있어서,
    상기 명령어들은, 상기 프로세서가,
    상기 제1 사용자 인터페이스 또는 상기 제2 사용자 인터페이스 중 하나만 상기 화면 상에 표시하도록 설정된,
    전자 장치.
  5. 제1항에 있어서,
    상기 명령어들은, 상기 프로세서가,
    상기 제1 사용자 인터페이스 및 상기 제2 사용자 인터페이스 모두를 상기 화면 상에 표시하도록 설정된,
    전자 장치.
  6. 제1항에 있어서,
    상기 명령어들은, 상기 프로세서가,
    상기 선택의 적어도 일부에 기반하여, 상기 제1 신호에 대한 응답으로 선택된 어플리케이션 프로그램의 기능을 수행하도록 설정된,
    전자 장치.
  7. 제1항에 있어서,
    상기 명령어들은, 상기 프로세서가,
    상기 제1 어플리케이션 프로그램의 기능 또는 상기 제2 어플리케이션 프로그램의 기능을 나타내는 GUI를 상기 화면 상에 표시하도록 설정된,
    전자 장치.
  8. 제7항에 있어서,
    상기 GUI는,
    미디어 어플리케이션 프로그램에 포함되는 컨텐트의 재생과 관련된 재생 아이콘, 상기 컨텐트의 재생 정지와 관련된 정지 아이콘 또는 상기 컨텐트의 재생 종료와 관련된 종료 아이콘을 포함하는,
    전자 장치.
  9. 제1항에 있어서,
    상기 명령어들은, 상기 프로세서가,
    상기 선택된 어플리케이션 프로그램을 하이라이트하거나 또는 상기 선택된 어플리케이션 프로그램을 포그라운드 화면 상에 표시하도록 설정된,
    전자 장치.
  10. 제1항에 있어서,
    상기 터치스크린 디스플레이 구조는 상기 화면 상에 터치 입력 또는 호버링 입력을 감지하는 터치 회로를 더 포함하고,
    상기 명령어들은, 상기 프로세서가,
    상기 스타일러스 펜을 이용하여 상기 화면 상에 터치 입력 또는 호버링 입력에 따라 발생되는 제3 신호를 상기 터치 회로를 통하여 수신하고,
    상기 제3 신호에 대한 응답으로, 상기 제1 어플리케이션 프로그램의 기능 또는 상기 제2 어플리케이션 프로그램의 기능을 수행하도록 설정되고,
    상기 제1 무선 통신 회로를 통하여 수신되는 상기 제1 신호 및 상기 제2 신호는 원격 신호이고, 상기 터치 회로를 통하여 수신되는 상기 제3 신호는 터치 신호인,
    전자 장치.
  11. 전자 장치의 기능 수행 방법에 있어서,
    사용자 입력을 수신 시, 제1 어플리케이션 프로그램 및 제2 어플리케이션 프로그램을 실행하는 동작;
    상기 제1 어플리케이션 프로그램을 포함하는 제1 사용자 인터페이스 또는 상기 제2 어플리케이션 프로그램을 포함하는 제2 사용자 인터페이스 중 적어도 하나를 화면 상에 표시하는 동작;
    상기 전자 장치와 블루투스 프로토콜을 이용하여 통신 페어링된 스타일러스 펜의 버튼의 프레스 또는 터치에 의하여 발생되는 제1 신호를, 제1 시간 동안에 상기 스타일러스 펜으로부터 수신하는 동작;
    상기 제1 어플리케이션 프로그램 또는 상기 제2 어플리케이션 프로그램 중 하나를 선택하는 동작;
    상기 선택의 적어도 일부에 기반하여, 상기 화면의 적어도 일부를 변경하는 동작;
    상기 제1 시간과 다른 제2 시간 동안에, 상기 버튼의 프레스 또는 터치에 의하여 발생되는 제2 신호를 상기 스타일러스 펜으로부터 수신하는 동작; 및
    상기 선택의 적어도 일부에 기반하여, 상기 제2 신호에 대한 응답으로 상기 제1 어플리케이션 프로그램의 기능 또는 상기 제2 어플리케이션 프로그램의 기능을 수행하는 동작을 포함하는,
    기능 수행 방법.
  12. 제11항에 있어서,
    상기 블루투스 프로토콜은 블루투스 저전력 프로토콜(BLE)을 포함하는,
    기능 수행 방법.
  13. 제11항에 있어서,
    상기 제1 사용자 인터페이스 및 상기 제2 사용자 인터페이스 중 적어도 하나를 표시하는 동작은,
    상기 제1 사용자 인터페이스 또는 상기 제2 사용자 인터페이스 중 하나만 표시하는 동작을 포함하는,
    기능 수행 방법.
  14. 제11항에 있어서,
    상기 제1 사용자 인터페이스 및 상기 제2 사용자 인터페이스 중 적어도 하나를 표시하는 동작은,
    상기 제1 사용자 인터페이스 및 상기 제2 사용자 인터페이스 모두를 상기 화면 상에 표시하는 동작을 포함하는,
    기능 수행 방법.
  15. 제11항에 있어서,
    상기 선택의 적어도 일부에 기반하여, 상기 제2 신호에 대한 응답으로 상기 제1 어플리케이션 프로그램의 기능 또는 상기 제2 어플리케이션 프로그램의 기능을 수행하는 동작은,
    상기 선택의 적어도 일부에 기반하여, 상기 제1 신호에 대한 응답으로 선택된 어플리케이션 프로그램의 기능을 수행하는 동작을 포함하는,
    기능 수행 방법.
  16. 제11항에 있어서,
    상기 선택의 적어도 일부에 기반하여, 상기 화면의 적어도 일부를 변경하는 동작은,
    상기 제1 어플리케이션 프로그램의 기능 또는 상기 제2 어플리케이션 프로그램의 기능을 나타내는 GUI를 상기 화면 상에 표시하는 동작을 포함하는,
    기능 수행 방법.
  17. 제16항에 있어서,
    상기 GUI는,
    미디어 어플리케이션 프로그램에 포함되는 컨텐트의 재생과 관련된 재생 아이콘, 상기 컨텐트의 재생 정지와 관련된 정지 아이콘 또는 상기 컨텐트의 재생 종료와 관련된 종료 아이콘을 포함하는,
    기능 수행 방법.
  18. 제11항에 있어서,
    상기 선택의 적어도 일부에 기반하여, 상기 화면의 적어도 일부를 변경하는 동작은,
    상기 선택된 어플리케이션 프로그램을 하이라이트하거나 또는 상기 선택된 어플리케이션 프로그램을 포그라운드 화면 상에 표시하는 동작을 포함하는,
    기능 수행 방법.
  19. 제11항에 있어서,
    상기 스타일러스 펜을 이용하여 상기 화면 상에 터치 입력 또는 호버링 입력에 따라 발생되는 제3 신호를 수신하는 동작; 및
    상기 제3 신호에 대한 응답으로, 상기 제1 어플리케이션 프로그램의 기능 또는 상기 제2 어플리케이션 프로그램의 기능을 수행하는 동작을 더 포함하고,
    상기 제1 신호 및 상기 제2 신호는 원격 신호이고, 상기 제3 신호는 터치 신호인,
    기능 수행 방법.
  20. 제1 어플리케이션 프로그램 및 제2 어플리케이션 프로그램을 실행하는 동작;
    상기 제1 어플리케이션 프로그램을 포함하는 제1 사용자 인터페이스 및 상기 제2 어플리케이션 프로그램을 포함하는 제2 사용자 인터페이스 중 적어도 하나를 화면 상에 표시하는 동작;
    상기 전자 장치와 블루투스 프로토콜을 이용하여 통신 페어링된 스타일러스 펜의 버튼의 프레스 또는 터치에 의하여 발생되는 제1 신호를, 제1 시간 동안에 상기 스타일러스 펜으로부터 수신하는 동작;
    상기 제1 신호에 기반하여, 상기 제1 어플리케이션 프로그램 또는 상기 제2 어플리케이션 프로그램 중 하나를 선택하는 동작;
    상기 선택의 적어도 일부에 기반하여, 상기 화면의 적어도 일부를 변경하는 동작;
    상기 제1 시간과 다른 제2 시간 동안에, 상기 버튼의 프레스 또는 터치에 의하여 발생되는 제2 신호를 상기 스타일러스 펜으로부터 수신하는 동작; 및
    상기 선택의 적어도 일부에 기반하여, 상기 제2 신호에 대한 응답으로 상기 제1 어플리케이션 프로그램의 기능 또는 상기 제2 어플리케이션 프로그램의 기능을 수행하는 동작을 컴퓨터에서 실행시키기 위한 명령어들을 저장하는 컴퓨터로 읽을 수 있는 기록 매체를 포함하는 컴퓨터 프로그램 제품.
PCT/KR2019/008340 2018-07-11 2019-07-08 전자 장치 및 전자 장치의 기능 수행 방법 WO2020013542A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US17/257,601 US11340780B2 (en) 2018-07-11 2019-07-08 Electronic device and method for performing function of electronic device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2018-0080612 2018-07-11
KR1020180080612A KR102473081B1 (ko) 2018-07-11 2018-07-11 전자 장치 및 전자 장치의 기능 수행 방법

Publications (1)

Publication Number Publication Date
WO2020013542A1 true WO2020013542A1 (ko) 2020-01-16

Family

ID=69141794

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2019/008340 WO2020013542A1 (ko) 2018-07-11 2019-07-08 전자 장치 및 전자 장치의 기능 수행 방법

Country Status (3)

Country Link
US (1) US11340780B2 (ko)
KR (1) KR102473081B1 (ko)
WO (1) WO2020013542A1 (ko)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110489215A (zh) * 2019-06-29 2019-11-22 华为技术有限公司 一种应用程序中等待场景的处理方法和装置
KR20220058695A (ko) 2020-10-29 2022-05-10 삼성디스플레이 주식회사 전자 장치

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150026360A (ko) * 2013-09-02 2015-03-11 삼성전자주식회사 복수의 어플리케이션 제공 방법 및 장치
KR20160047385A (ko) * 2014-10-22 2016-05-02 삼성전자주식회사 스타일러스 펜을 포함하는 모바일 디바이스 및 그 동작 방법
WO2017026570A1 (ko) * 2015-08-11 2017-02-16 엘지전자 주식회사 이동단말기 및 그 제어방법
KR20170090295A (ko) * 2016-01-28 2017-08-07 엘지전자 주식회사 이동 단말기 및 플렉서블 디스플레이 장치
KR20170130156A (ko) * 2016-05-18 2017-11-28 삼성전자주식회사 사용자 데이터를 저장하는 전자 장치 및 그 방법

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7665031B2 (en) * 2004-12-08 2010-02-16 Microsoft Corporation Method and system of taskbar button interfaces
KR101862123B1 (ko) * 2011-08-31 2018-05-30 삼성전자 주식회사 휴대단말기의 입력 장치 및 방법
KR20140017429A (ko) * 2012-08-01 2014-02-11 삼성전자주식회사 화면 동작 방법 및 그 전자 장치
US9367185B2 (en) * 2012-12-18 2016-06-14 Logitech Europe S.A. Method and system for discriminating stylus and touch interactions
US9766723B2 (en) * 2013-03-11 2017-09-19 Barnes & Noble College Booksellers, Llc Stylus sensitive device with hover over stylus control functionality
KR101520953B1 (ko) 2014-05-26 2015-05-15 크루셜텍 (주) 전자펜을 이용하여 단말장치의 동작을 제어하는 방법 및 그 단말장치
KR20170126294A (ko) 2016-05-09 2017-11-17 엘지전자 주식회사 이동 단말기 및 그 제어방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150026360A (ko) * 2013-09-02 2015-03-11 삼성전자주식회사 복수의 어플리케이션 제공 방법 및 장치
KR20160047385A (ko) * 2014-10-22 2016-05-02 삼성전자주식회사 스타일러스 펜을 포함하는 모바일 디바이스 및 그 동작 방법
WO2017026570A1 (ko) * 2015-08-11 2017-02-16 엘지전자 주식회사 이동단말기 및 그 제어방법
KR20170090295A (ko) * 2016-01-28 2017-08-07 엘지전자 주식회사 이동 단말기 및 플렉서블 디스플레이 장치
KR20170130156A (ko) * 2016-05-18 2017-11-28 삼성전자주식회사 사용자 데이터를 저장하는 전자 장치 및 그 방법

Also Published As

Publication number Publication date
US20210271384A1 (en) 2021-09-02
US11340780B2 (en) 2022-05-24
KR20200006805A (ko) 2020-01-21
KR102473081B1 (ko) 2022-12-02

Similar Documents

Publication Publication Date Title
WO2020045947A1 (en) Electronic device to control screen property based on distance between pen input device and electronic device and method of controlling same
WO2020085789A1 (en) Foldable electronic device for controlling user interface and operating method thereof
WO2019168318A1 (en) Electronic device and fingerprint authentication interface method thereof
WO2014112777A1 (en) Method for providing haptic effect in portable terminal, machine-readable storage medium, and portable terminal
WO2016093506A1 (ko) 이동 단말기 및 그 제어 방법
WO2019117566A1 (ko) 전자 장치 및 그의 입력 제어 방법
WO2017074062A1 (en) Adapting user interface of display apparatus according to remote control device
WO2015178661A1 (en) Method and apparatus for processing input using display
WO2018208093A1 (ko) 햅틱 피드백을 제공하는 방법 및 이를 수행하는 전자 장치
WO2018124823A1 (en) Display apparatus and controlling method thereof
WO2017179903A1 (ko) 플렉서블 디바이스 및 플렉서블 디바이스의 동작 방법
WO2020159308A1 (en) Electronic device and method for mapping function to button input
WO2019059483A1 (ko) 전자 장치 및 이의 제어방법
WO2019160348A1 (ko) 수중 상태에서 압력 센서를 이용하여 사용자 입력을 획득하는 전자 장치 및 상기 전자 장치를 제어하는 방법
WO2015072714A1 (en) Method and apparatus for providing application information
WO2020159302A1 (ko) 증강 현실 환경에서 다양한 기능을 수행하는 전자 장치 및 그 동작 방법
WO2020013542A1 (ko) 전자 장치 및 전자 장치의 기능 수행 방법
WO2020091538A1 (ko) 저전력 상태에서 디스플레이를 통해 화면을 표시하기 위한 전자 장치 및 그의 동작 방법
WO2022131549A1 (ko) 전자 장치 및 전자 장치의 동작 방법
WO2019199086A1 (ko) 전자 장치 및 전자 장치의 제어 방법
WO2021194252A1 (ko) 화면을 공유하는 전자 장치 및 방법
WO2019103350A1 (ko) 사용자 인터페이스를 적응적으로 구성하기 위한 장치 및 방법
WO2022085940A1 (ko) 웨어러블 표시 장치에 복수의 오브젝트들 표시 제어 방법 및 장치
WO2021025456A1 (ko) 터치 입력에 기반한 동작 방법 및 그 전자 장치
WO2020218881A1 (en) Electronic device including display device including touch sensor

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19833045

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19833045

Country of ref document: EP

Kind code of ref document: A1