WO2019160395A1 - 어플리케이션의 기능을 매핑하는 방법 및 그 전자 장치 - Google Patents

어플리케이션의 기능을 매핑하는 방법 및 그 전자 장치 Download PDF

Info

Publication number
WO2019160395A1
WO2019160395A1 PCT/KR2019/002000 KR2019002000W WO2019160395A1 WO 2019160395 A1 WO2019160395 A1 WO 2019160395A1 KR 2019002000 W KR2019002000 W KR 2019002000W WO 2019160395 A1 WO2019160395 A1 WO 2019160395A1
Authority
WO
WIPO (PCT)
Prior art keywords
electronic device
processor
event
information
function
Prior art date
Application number
PCT/KR2019/002000
Other languages
English (en)
French (fr)
Inventor
정경호
김윤수
명재석
반상희
손정주
진영규
홍예슬
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Priority to US16/971,014 priority Critical patent/US11550456B2/en
Publication of WO2019160395A1 publication Critical patent/WO2019160395A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • G06F13/38Information transfer, e.g. on bus
    • G06F13/382Information transfer, e.g. on bus using universal interface adapter
    • G06F13/385Information transfer, e.g. on bus using universal interface adapter for adaptation of a particular data processing system to different peripheral devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • G06F13/38Information transfer, e.g. on bus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces

Definitions

  • Various embodiments of the present disclosure relate to a method for mapping a function of an application and an electronic device thereof.
  • the electronic device may provide various services such as a broadcast service, a wireless internet service, and a music service.
  • the service provider develops and provides various applications to the electronic device in order to provide various services as described above. Accordingly, the user of the electronic device may receive a desired service through the application by downloading and installing an application corresponding to the desired service.
  • an application supporting a shortcut function for a function frequently used by a user among a plurality of functions provided in an application has been developed in consideration of the user's convenience. Accordingly, the user of the electronic device may enter an application without additional input through input to a shortcut icon for a specific function, a hardware key mapped to a specific function, or a smart button mapped to a specific function. Certain features are available.
  • the electronic device may provide a shortcut function only for some of the functions set by the service provider to support the shortcut function among the plurality of functions included in the application. Accordingly, the user of the electronic device may not use the shortcut function in another function that is not set by the service provider to support the shortcut function.
  • Various embodiments of the present disclosure disclose a method for supporting a shortcut function for a plurality of functions included in an application and an electronic device thereof.
  • the electronic device may provide a shortcut function only for some of the functions set by the service provider to support the shortcut function among the plurality of functions included in the application. Accordingly, the user of the electronic device may not use the shortcut function in another function that is not set by the service provider to support the shortcut function.
  • Various embodiments of the present disclosure disclose a method for supporting a shortcut function for a plurality of functions included in an application and an electronic device thereof.
  • an electronic device may identify an object capable of function mapping from among at least one object included in an application and provide the user to a user, thereby developing a service among the functions included in the application.
  • the shortcut function may be applied to a function that is set up so that the provider does not support the shortcut function.
  • FIG. 1 is a block diagram of an electronic device in a network environment according to various embodiments of the present disclosure.
  • FIG. 2 is a flowchart illustrating a method of mapping a function of an application in an electronic device according to various embodiments of the present disclosure.
  • 3A to 3E are diagrams for describing a method of detecting occurrence of a function mapping event in an electronic device according to various embodiments of the present disclosure.
  • 4A and 4B are diagrams for describing a method of identifying at least one object for detecting a specified event in an electronic device according to various embodiments of the present disclosure.
  • FIG. 5 is a diagram illustrating a trigger event to which a function of an application is mapped in an electronic device according to various embodiments of the present disclosure.
  • FIG. 6 is a flowchart illustrating an example of a method of mapping and storing a function of an object with a trigger event in an electronic device according to various embodiments of the present disclosure.
  • FIG. 7 is a diagram illustrating restoration information generated in an electronic device according to various embodiments of the present disclosure.
  • FIG. 8 is a flowchart illustrating another example of a method of mapping and storing a function of an object with a trigger event in an electronic device according to various embodiments of the present disclosure.
  • FIG. 9 is a diagram illustrating a method of selecting a trigger event in an electronic device according to various embodiments of the present disclosure.
  • FIG. 10 is a flowchart illustrating a method of performing a function of an application mapped to a trigger event in an electronic device according to various embodiments of the present disclosure.
  • FIG. 1 is a block diagram of an electronic device 101 in a network environment 100, according to various embodiments.
  • the electronic device 101 communicates with the electronic device 102 through a first network 198 (for example, near field communication), or the second network 199 ( For example, it may communicate with the electronic device 104 or the server 108 through remote wireless communication.
  • the electronic device 101 may communicate with the electronic device 104 through the server 108.
  • the electronic device 101 may include a processor 120, a memory 130, an input device 150, an audio output device 155, a display device 160, an audio module 170, and a sensor module. 176, interface 177, haptic module 179, camera module 180, power management module 188, battery 189, communication module 190, subscriber identification module 196, and antenna module 197.
  • At least one of the components (for example, the display device 160 or the camera module 180) may be omitted or another component may be added to the electronic device 101.
  • some components such as in the case of a sensor module 176 (eg, fingerprint sensor, iris sensor, or illuminance sensor) embedded in display device 160 (eg, display), may be It can be integrated.
  • the processor 120 may drive at least one other component (eg, hardware or software component) of the electronic device 101 connected to the processor 120 by driving software (eg, the program 140). It can control and perform various data processing and operations.
  • the processor 120 loads and processes the command or data received from another component (eg, the sensor module 176 or the communication module 190) into the volatile memory 132, and processes the result data in the nonvolatile memory 134.
  • the processor 120 operates independently of the main processor 121 (eg, a central processing unit or an application processor), and additionally or alternatively, uses lower power than the main processor 121, Or a coprocessor 123 specialized for a designated function (eg, a graphics processing unit, an image signal processor, a sensor hub processor, or a communication processor).
  • the coprocessor 123 may be operated separately from the main processor 121 or embedded.
  • the coprocessor 123 may, for example, replace the main processor 121 while the main processor 121 is in an inactive (eg, sleep) state, or the main processor 121 is active (eg At least one of the elements of the electronic device 101 (eg, the display device 160, the sensor module 176, or the communication module) together with the main processor 121 while in the application execution state. 190) may control at least some of the functions or states associated with).
  • the coprocessor 123 eg, image signal processor or communication processor
  • is implemented as some component of another functionally related component eg, camera module 180 or communication module 190. Can be.
  • the memory 130 may include various data used by at least one component of the electronic device 101 (for example, the processor 120 or the sensor module 176), for example, software (for example, the program 140). ), And input data or output data for a command related thereto.
  • the memory 130 may include a volatile memory 132 or a nonvolatile memory 134.
  • the program 140 is software stored in the memory 130 and may include, for example, an operating system 142, a middleware 144, or an application 146.
  • the input device 150 is a device for receiving a command or data to be used for a component (for example, the processor 120) of the electronic device 101 from the outside (for example, a user) of the electronic device 101.
  • a component for example, the processor 120
  • the input device 150 may include a microphone, a mouse, or a keyboard.
  • the sound output device 155 is a device for outputting sound signals to the outside of the electronic device 101.
  • the sound output device 155 may include a speaker used for general purposes such as multimedia playback or recording playback, and a receiver used only for receiving a call. It may include. According to one embodiment, the receiver may be formed integrally or separately from the speaker.
  • the display device 160 is a device for visually providing information to a user of the electronic device 101.
  • the display device 160 may include a display, a hologram device, a projector, and a control circuit for controlling the device.
  • the display device 160 may include a pressure sensor capable of measuring the intensity of the pressure on the touch circuitry or the touch.
  • the audio module 170 may bidirectionally convert a sound and an electrical signal. According to an embodiment of the present disclosure, the audio module 170 acquires a sound through the input device 150, or an external electronic device (for example, a wired or wireless connection with the sound output device 155 or the electronic device 101). Sound may be output through the electronic device 102 (for example, a speaker or a headphone).
  • an external electronic device for example, a wired or wireless connection with the sound output device 155 or the electronic device 101. Sound may be output through the electronic device 102 (for example, a speaker or a headphone).
  • the sensor module 176 may generate an electrical signal or data value corresponding to an operating state (eg, power or temperature) inside the electronic device 101 or an external environmental state.
  • the sensor module 176 may include, for example, a gesture sensor, a gyro sensor, a barometric pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, a color sensor, an IR (infrared) sensor, a biometric sensor, a temperature sensor, a humidity sensor, Or an illumination sensor.
  • the interface 177 may support a specified protocol that may be connected to an external electronic device (for example, the electronic device 102) by wire or wirelessly.
  • the interface 177 may include a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, an SD card interface, or an audio interface.
  • HDMI high definition multimedia interface
  • USB universal serial bus
  • SD card interface Secure Digital Card
  • the connection terminal 178 is a connector for physically connecting the electronic device 101 and an external electronic device (for example, the electronic device 102), for example, an HDMI connector, a USB connector, an SD card connector, or an audio connector. (Eg, headphone connector).
  • an HDMI connector for example, a USB connector, an SD card connector, or an audio connector. (Eg, headphone connector).
  • the haptic module 179 may convert an electrical signal into a mechanical stimulus (eg, vibration or movement) or an electrical stimulus that can be perceived by the user through tactile or kinesthetic senses.
  • the haptic module 179 may include, for example, a motor, a piezoelectric element, or an electrical stimulation device.
  • the camera module 180 may capture still images and videos. According to an embodiment of the present disclosure, the camera module 180 may include one or more lenses, an image sensor, an image signal processor, or a flash.
  • the power management module 188 is a module for managing power supplied to the electronic device 101, and may be configured, for example, as at least part of a power management integrated circuit (PMIC).
  • PMIC power management integrated circuit
  • the battery 189 is a device for supplying power to at least one component of the electronic device 101 and may include, for example, a non-rechargeable primary cell, a rechargeable secondary cell, or a fuel cell.
  • the communication module 190 establishes a wired or wireless communication channel between the electronic device 101 and an external electronic device (eg, the electronic device 102, the electronic device 104, or the server 108), and establishes the established communication channel. It can support to perform communication through.
  • the communication module 190 may include one or more communication processors that support wired communication or wireless communication that operate independently of the processor 120 (eg, an application processor).
  • the communication module 190 may include a wireless communication module 192 (eg, a cellular communication module, a near field communication module, or a global navigation satellite system (GNSS) communication module) or a wired communication module 194 (eg, A local area network (LAN) communication module, or a power line communication module, comprising a local area network such as a first network 198 (eg, Bluetooth, WiFi direct, or infrared data association) using a corresponding communication module. Communication with an external electronic device via a communication network) or a second network 199 (eg, a telecommunication network such as a cellular network, the Internet, or a computer network (eg, a LAN or a WAN)).
  • the various types of communication modules 190 described above may be implemented as one chip or each separate chip.
  • the wireless communication module 192 may distinguish and authenticate the electronic device 101 in the communication network by using user information stored in the subscriber identification module 196.
  • the antenna module 197 may include one or more antennas for transmitting or receiving signals or power from the outside.
  • the communication module 190 (for example, the wireless communication module 192) may transmit a signal to or receive a signal from an external electronic device through an antenna suitable for a communication scheme.
  • Some of the components are connected to each other through a communication method (eg, a bus, a general purpose input / output (GPIO), a serial peripheral interface (SPI), or a mobile industry processor interface (MIPI)). For example, commands or data).
  • a communication method eg, a bus, a general purpose input / output (GPIO), a serial peripheral interface (SPI), or a mobile industry processor interface (MIPI)
  • GPIO general purpose input / output
  • SPI serial peripheral interface
  • MIPI mobile industry processor interface
  • the command or data may be transmitted or received between the electronic device 101 and the external electronic device 104 through the server 108 connected to the second network 199.
  • Each of the electronic devices 102 and 104 may be a device of the same or different type as the electronic device 101.
  • all or part of operations executed in the electronic device 101 may be executed in another or a plurality of external electronic devices.
  • the electronic device 101 may instead or additionally execute the function or service by itself.
  • At least some associated functions may be requested to the external electronic device.
  • the external electronic device may execute the requested function or additional function and transmit the result to the electronic device 101.
  • the electronic device 101 may process the received result as it is or additionally to provide the requested function or service.
  • cloud computing, distributed computing, or client-server computing technology may be used.
  • the processor 120 may determine whether a function mapping event occurs while the application is running. For example, the processor 120 may determine whether an input for a hardware key associated with a function mapping event among a plurality of hardware keys exposed through a portion of a housing of the electronic device 101 is received. For another example, the processor 120 may determine whether an input for a soft key associated with a function mapping event among a plurality of soft keys provided through the display device 160 is received. As another example, the processor 120 may determine whether a signal associated with a function mapping event is received from an external electronic device (for example, a smart button) connected to the electronic device 101 by wireless communication.
  • an external electronic device for example, a smart button
  • the processor 120 may identify at least one object that detects a specified event (eg, a touch event) among application screens displayed through the display device 160. .
  • a specified event eg, a touch event
  • the processor 120 applies a specified effect (eg, a highlighting effect) to at least one object detecting a specified event so that at least one object detecting the specified event is recognized by the user. can do.
  • the processor 120 may provide an effect (eg, an effect assigned to the remaining area where at least one object detecting the specified event is not displayed on the application screen so that at least one object detecting the specified event is recognized by the user. : Shading effect, blur effect, etc. can be applied.
  • the processor 120 may map a function of a selected object according to a user's input among at least one object that detects a specified event and store the mapping with a trigger event. For example, the processor 120 restores object information (eg, location information (eg, coordinate information), object name information, or object ID information, etc.) of the object selected by the user's input and restores an application screen. (E.g., information about the entry path from the execution of the application to the display of the currently displayed application screen, information passed to display the application screen (e.g., login information, input information, etc.), or a page of the application screen. Information, etc.).
  • the processor 120 may map object information and restoration information with a trigger event and store the mapping.
  • the trigger event may include a hardware key, a soft key, a signal received from an external electronic device (eg, a smart button), and the like.
  • the processor 120 may execute the function of the object mapped to the trigger event when the trigger event is detected. For example, the processor 120 may restore the application screen displayed when the function is mapped based on the restoration information. The processor 120 may check the object selected according to the user's input on the restored application screen based on the object information. The processor 120 may generate a touch event on the selected object according to the user's input, thereby performing a function corresponding to the object.
  • the electronic device may be configured to be operated by a display (eg, the display device 160), a memory (eg, the memory 130), and the display and the memory.
  • a connected processor eg, processor 120
  • the processor detecting the occurrence of a function mapping event while the application screen is displayed, and detecting a specified event among at least one object displayed on the application screen. Identify at least one object, receive an input for selecting any one of the identified at least one object, and store a function of the selected object mapped with a trigger event based on the input.
  • the processor may perform the function mapping event based on an input of at least one hardware key specified among a plurality of hardware keys exposed through at least a portion of a housing of the electronic device. It can be set to detect the occurrence of.
  • the processor may generate the function mapping event based on a touch input of a soft key requesting a function mapping among a plurality of soft keys provided through the display. Can be set to detect.
  • the electronic device may further include a communication circuit (for example, a communication module 190) for wirelessly connecting to an external electronic device, and the processor may be configured to, from the external electronic device through the communication circuit.
  • the occurrence of the function mapping event may be detected based on whether a signal for requesting a function mapping is received.
  • the processor may be configured to identify at least one object detecting a touch event among at least one object displayed on the application screen.
  • the processor may be configured to apply a specified effect to the at least one identified object.
  • the processor may be configured to apply a specified effect to a region other than the identified object on the application screen.
  • the processor verifies object information of the selected object based on the input, confirms restoration information for restoring the application screen, and corresponds to the function mapping event with the object information and the restoration information. It may be configured to map and store the trigger event.
  • the processor may identify a selected object information based on the input, confirm restoration information for restoring the application screen, and include a user interface including at least one trigger event. Control the display to be displayed, receive a user input for selecting one of the at least one trigger event, and map and store the object information and the restoration information with a selected trigger event based on the user input have.
  • the processor detects the trigger event, identifies object information and restoration information mapped to the trigger event, restores the application screen based on the restoration information, and based on the object information.
  • the touch event may be set to generate a touch event on an object corresponding to the trigger event.
  • Electronic devices may be various types of devices.
  • the electronic device may include, for example, at least one of a portable communication device (eg, a smartphone), a computer device, a portable multimedia device, a portable medical device, a camera, a wearable device, or a home appliance.
  • a portable communication device eg, a smartphone
  • a computer device e.g., a laptop, a desktop, a tablet, or a smart bracelet
  • a portable multimedia device e.g., a portable medical device
  • a camera e.g., a portable medical device
  • a camera e.g., a portable medical device
  • a wearable device e.g., a portable medical device
  • a home appliance e.g., a portable medical device, a portable medical device, a camera, a wearable device, or a home appliance.
  • An electronic device according to an embodiment of the present disclosure is not limited to the above-described devices.
  • any (eg first) component is said to be “(functionally or communicatively)” or “connected” to another (eg second) component, the other component is said other
  • the component may be directly connected or connected through another component (eg, a third component).
  • module includes a unit composed of hardware, software, or firmware, and may be used interchangeably with terms such as logic, logic blocks, components, or circuits.
  • the module may be an integrally formed part or a minimum unit or part of performing one or more functions.
  • the module may be configured as an application-specific integrated circuit (ASIC).
  • ASIC application-specific integrated circuit
  • Various embodiments of the present disclosure include instructions stored in a machine-readable storage media (eg, internal memory 136 or external memory 130) that can be read by a machine (eg, a computer). It may be implemented in software (eg, program 140).
  • the device may be a device capable of calling a stored command from a storage medium and operating in accordance with the called command, and may include an electronic device (eg, the electronic device 101) according to the disclosed embodiments.
  • the processor for example, the processor 120
  • the processor may perform a function corresponding to the command directly or by using other components under the control of the processor.
  • the instructions can include code generated or executed by a compiler or interpreter.
  • the device-readable storage medium may be provided in the form of a non-transitory storage medium.
  • 'non-temporary' means that the storage medium does not include a signal and is tangible, but does not distinguish that the data is stored semi-permanently or temporarily on the storage medium.
  • a method according to various embodiments of the present disclosure may be included in a computer program product.
  • the computer program product may be traded between the seller and the buyer as a product.
  • the computer program product may be distributed online in the form of a device-readable storage medium (eg compact disc read only memory (CD-ROM)) or through an application store (eg Play StoreTM).
  • a storage medium such as a server of a manufacturer, a server of an application store, or a relay server, or may be temporarily created.
  • Each component for example, a module or a program
  • some components eg, modules or programs
  • operations performed by a module, program, or other component may be executed sequentially, in parallel, repeatedly, or heuristically, or at least some operations may be executed in a different order, omitted, or another operation may be added. Can be.
  • FIG. 2 is a flowchart illustrating a method of mapping a function of an application in an electronic device according to various embodiments of the present disclosure.
  • a processor eg, the processor 120 of the electronic device (eg, the electronic device 101) may detect the occurrence of a function mapping event while the application screen is displayed.
  • the processor may determine that a function mapping event has occurred when a user input for mapping a function of an application executed while the application is executed is received.
  • the event for mapping the function of the application is a hardware key exposed through a portion of the housing of the electronic device, a soft key displayed through the display of the electronic device (for example, the display device 160). (soft key), motion information obtained through a sensor (for example, the sensor module 176) of the electronic device may be received.
  • the processor may receive a signal for requesting functional mapping of an application from an external electronic device (eg, a smart button) wirelessly connected to the electronic device through a communication circuit (eg, the communication module 190) while the application is running. It can be determined whether or not received. When a signal for requesting a function mapping of an application is received, the processor may determine that a function mapping event has occurred.
  • an external electronic device eg, a smart button
  • a communication circuit eg, the communication module 190
  • the processor may identify at least one object that detects a specified event among at least one object displayed on the application screen. For example, when the processor detects a function mapping event while the music list is being displayed through the music application in the electronic device, icons (eg, a sound source icon) capable of detecting a touch input (with a touch event) in the music list are detected. , Search bar, etc.). For another example, when the electronic device detects a function mapping event while the phone book of the phone application is displayed, the processor may detect a touch input (perform a mapped function based on the touch input) in the phone book. Such as contact icons, favorites icons, recent calls icons, keypad icons, voice mailbox icons, and the like.
  • the processor may apply a specified effect (eg, a highlighting effect) to the at least one identified object or the remaining area except the at least one identified object so that the at least one identified object is recognized by the user.
  • a specified effect eg, a highlighting effect
  • the processor may receive an input for selecting any one of the identified at least one object.
  • the processor may receive a user input of selecting a specific sound source icon from a music list through an input device (eg, the input device 150) or a display.
  • the processor may receive a user's input of selecting a particular contact icon in the phone book via an input device or display.
  • the processor may store a function of the selected object by mapping it with a trigger event.
  • the processor may check object information of the selected object and restoration information for restoring the application screen displayed through the display based on the input.
  • the object information may include location information (eg, coordinate information), object name information, or object ID information of the object selected based on the input.
  • the restoration information may be information about an entry path after the application is executed to display the currently displayed application screen, information transmitted to display the application screen (for example, login information and input information), or a page of the application screen. Information and the like.
  • the processor may store the object information and the restoration information by mapping the trigger event.
  • the processor may determine the designated hardware key as the trigger event.
  • the processor may map and store the object information and the restoration information with the information associated with the hardware key so that when an input for the hardware key determined as the trigger event is performed, a function corresponding to the selected object may be performed.
  • the processor may generate a soft key for generating a trigger event on a home screen (or a designated path) of the electronic device.
  • the processor may map and store the object information and the restoration information with the information on the generated soft key so that a function corresponding to the selected object may be performed.
  • the processor when the processor detects a function mapping event based on a signal received from an external electronic device connected to the electronic device in wireless communication, the processor may extract information associated with a signal for executing a function from information included in the received signal. You can check it.
  • the processor may map and store object information, restoration information, and information associated with a signal for executing a function so that a function corresponding to the selected object may be performed.
  • the processor may check a trigger event (eg, a hardware key, a soft key, or a signal of an external electronic device) set by a user or a manufacturer before a function mapping event occurs.
  • a trigger event eg, a hardware key, a soft key, or a signal of an external electronic device
  • the processor may store the object information and the restoration information by mapping them with the identified trigger event. For example, when a user of the electronic device sets a specific hardware key as a trigger event before a function mapping event occurs, the processor may map and store object information and restoration information with a specific hardware key set as a trigger event by the user. . Here, the trigger event set to be mapped to the object information and the restoration information may be changed to another trigger event by the user.
  • the processor may include at least one icon (eg, hardware key icon, soft key icon, or smart button icon) associated with the trigger event. Etc.), the display may be controlled to display a user interface (UI). When a user input for selecting one of the at least one icon displayed in the user interface is received, the processor may store the object information and the restoration information by mapping the trigger information corresponding to the selected icon.
  • UI user interface
  • the electronic device may identify and provide a user with an object capable of function mapping among at least one object included in the application, so that the service provider who has developed the application may perform shortcut function mapping. Even if you do not develop an application in consideration, you can provide a shortcut function.
  • the electronic device maps and stores the function of the selected object with one trigger event.
  • the electronic device may map and store the function of the selected object with a plurality of trigger events.
  • the processor of the electronic device may map and store a function of the selected object with two or more trigger events among trigger events such as a hardware key, a soft key, or a signal of an external electronic device (eg, a smart button).
  • 3A to 3E are diagrams for describing a method of detecting occurrence of a function mapping event in an electronic device according to various embodiments of the present disclosure.
  • a processor (eg, the processor 120) of the electronic device may be assigned to a designated hardware key among a plurality of hardware keys included in the electronic device 301 as shown in FIG. 3A.
  • the user's input 303 to the hardware key may include one or more button inputs to the hardware key.
  • the designated hardware key may be changed based on a user input.
  • the user's input 303 for the hardware key may include an input for a plurality of designated hardware keys among a plurality of hardware keys included in the electronic device 301.
  • the processor may connect an external electronic device 313 (eg, a smart button) connected to the electronic device 311 through wireless communication 317 through a communication circuit (eg, the communication module 190).
  • a signal for requesting a function mapping is received from the C 1, it may be determined that a function mapping event has occurred.
  • the external electronic device 313 receives a first input (eg, a click, double click, or hold input, etc.) from the user, the external electronic device 313 transmits a signal for requesting function mapping to the electronic device 313, and the first input is performed.
  • a second input different from the input for example, a click, a double click, or a hold input, etc.
  • a signal for generating a trigger event may be transmitted.
  • the processor may designate a designated direction (eg, a downward direction) from an upper portion (or a notification bar) of the application screen 321 through the display (eg, the display device 160).
  • a designated direction eg, a downward direction
  • the display e.g. the display device 160
  • the touch input 323 dragged to the screen is detected, the display is displayed such that a notification window 325 including at least one icon for controlling at least some functions of the electronic device is displayed in at least some areas of the application screen 321.
  • the processor may determine that a function mapping event has occurred when a touch input for an icon 327 associated with function mapping of an application is detected among at least one icon displayed on the notification window 325.
  • the input for displaying the notification window 325 is described as being a touch input 323 dragged in a predetermined direction from an upper portion of the application screen 321, but the present invention is not limited thereto.
  • the input for displaying the notification window 325 may include a touch input that is dragged in a specified direction (eg, an up direction) in the lower portion of the application screen 321.
  • the processor screen 331 when the touch input 333 dragged from the right portion of the application screen 331 in a specified direction (eg, the left direction) is detected through the display, the processor screen 331.
  • the display may be controlled to display the notification window 325 in at least a part of the area.
  • the processor may determine that a function mapping event has occurred when a touch input for an icon 337 associated with a function mapping of an application is detected among at least one icon included in the notification window 335.
  • the processor may designate an effect (eg, a shadow effect,
  • the display may be controlled to apply a blur effect.
  • the input for displaying the notification window 335 is a touch input that is dragged in a specified direction from the right portion of the application screen 331, but is not limited thereto.
  • the input for displaying the notification window 335 may include a touch input that is dragged from a left portion of the application screen 331 in a specified direction (eg, a right direction).
  • the processor may control the display such that a soft key 343 for generating a function mapping event is displayed on the application screen 341.
  • the processor may determine that a function mapping event has occurred.
  • the soft key 343 may not be included in a layer constituting the screen 341 of the electronic device but may be included in a separate layer (for example, floating).
  • the soft key 343 may be continuously displayed at a designated position while the display is on.
  • the processor may change the shape (eg, shape, size, color, etc.) and position of the soft key 343 based on a user input.
  • 4A and 4B are diagrams for describing a method of identifying at least one object for detecting a specified event in an electronic device according to various embodiments of the present disclosure.
  • a processor eg, the processor 120 of an electronic device (eg, the electronic device 101) may perform a function mapping event while an internet of things (IoT) application is running, as in operation 201 of FIG. 2.
  • IoT internet of things
  • the at least one object capable of detecting the touch event may be identified based on the information on the layout of the application screen 401.
  • the processor when at least one object capable of detecting a touch event is identified, the processor excludes at least one object 413, 415, 417, 419, 421, and 423 identified on the application screen.
  • the display eg, the display device 160
  • the display may be controlled to apply a specified effect (eg, a shadow effect, a blur effect, etc.) to the region 411.
  • the designated effect may be set and changed by the user or the manufacturer.
  • an effect assigned to at least one object 433, 435, 437, 439, 441, and 443 identified on the application screen is determined.
  • the display can be controlled to be applied.
  • the processor eg, the processor 120 of the electronic device (eg, the electronic device 101) detects occurrence of a function mapping event while the music application is executed, as in operation 201 of FIG. 2.
  • the processor eg, the processor 120 of the electronic device (eg, the electronic device 101) detects occurrence of a function mapping event while the music application is executed, as in operation 201 of FIG. 2.
  • at least one object capable of detecting a touch event may be identified based on information about a layout of the application screen 451.
  • the processor may identify at least one object 453, 455, 457, 459, 461, 463, 465, 467,
  • the display may be controlled to apply the effects (eg, border highlighting effect, resizing effect, shake effect, etc.) assigned to 469, 471, 473, and 475).
  • the designated effect may be set and changed by the user or the manufacturer.
  • the electronic device may apply a specified effect to at least one object capable of detecting a touch event, and thus, the user of the electronic device may more easily recognize the object identified by the electronic device.
  • FIG. 5 is a diagram illustrating a trigger event to which a function of an application is mapped in an electronic device according to various embodiments of the present disclosure.
  • the processor for example, the processor 120 of the electronic device (for example, the electronic device 101) may perform at least one of at least one object identified on the application screen 501, as in operation 205 of FIG. 2.
  • the function of the object 503 selected by the input for selecting one may be a hardware key 505 of the electronic device, an external electronic device 507 capable of performing wireless communication with the electronic device ( For example, it may be mapped to at least one trigger event among a trigger event such as a signal of a smart button) or a soft key 509 provided through a screen of an electronic device.
  • the processor restores the application screen 501 and restores it.
  • the function of the selected object 503 for example, music playback
  • the processor may apply the application.
  • a function eg, music playback
  • the processor when a function of the selected object 503 is mapped to the soft key 509, when the processor receives an input for the soft key 509, the processor restores the application screen 501 and restores the restored screen.
  • a function eg, music playback
  • FIG. 6 is a flowchart illustrating an example of a method of mapping and storing a function of an object with a trigger event in an electronic device according to various embodiments of the present disclosure.
  • 7 is a diagram illustrating restoration information generated in an electronic device according to various embodiments of the present disclosure.
  • a processor eg, the processor 120 of the electronic device (eg, the electronic device 101) may check object information of the selected object.
  • the processor may include location information (eg, coordinate information), object name information, and the like in which an object selected by a user is located on the application screen among at least one object that detects a specified event (eg, a touch input) on the application screen. You can check the object ID information.
  • the processor may identify restoration information for restoring the screen.
  • the processor may include information about an entry path after an application is executed to display the currently displayed application screen, information transmitted to display the application screen (eg, login information, input information, etc.), or the application. Page information of the screen and the like.
  • the processor may obtain restoration information from information stored in an activity stack. For example, when an input for execution of a social application is received, the processor displays a first screen 701-1 of the social application, as shown in FIG. 7, and an activity associated with the first screen 701-1. 701-2) can be stored in the activity stack 700.
  • a specific object eg, the Forcebook of FIG.
  • the processor may receive a second screen 703-1 (eg, that corresponds to the specific object). And the activity 703-2 associated with the second screen 703-1 can be stored in the activity stack 700. Thereafter, when the third screen 705-1 of the application is displayed according to a plurality of inputs for screen switching, the activity and the third screen (for all the application screens displayed before the third screen 705-1) are displayed. The activity 705-2 of 705-1 may be sequentially stored in the activity stack 700.
  • the processor may store information (eg, login information) input by the user in the application screen together with the activity stack 700.
  • the processor transmits the information about the entry path to the third screen 705-1 of the currently displayed application and the application screen after execution of the social application through the information stored in the activity stack 700.
  • Restoration information such as information (eg, login information, input information, etc.) or page information of an application screen may be checked.
  • the processor may map and store the object information and the restoration information with the trigger event corresponding to the function mapping event. For example, when the processor detects a function mapping event by a hardware key, the processor may map and store object information and restoration information to one of a plurality of hardware keys of the electronic device. In another example, when the processor detects a function mapping event by a signal received from an external electronic device (eg, a smart button), the object information and restoration information may be converted into a signal of the external electronic device (eg, a trigger signal for performing a function). ) And store it.
  • an external electronic device eg, a smart button
  • the processor when the processor detects a function mapping event by a soft key provided through a display (eg, the display device 160) of the electronic device, the processor generates a soft key for function mapping of an application, and generates an object.
  • the information and restoration information can be mapped and stored with the generated software.
  • the electronic device maps the object information and the restoration information to the trigger event corresponding to the function event, and stores them.
  • the electronic device may generate the object information and the restoration information from the function mapping event. It may also be mapped to a specific trigger event set by a user or a manufacturer before being stored. For example, if a signal for executing a function of an external electronic device (for example, a smart button) is set as a trigger event by a user before a function mapping event occurs, the processor may return object information and restoration information to the function of the external electronic device. It can be mapped and saved to a signal for execution. In this case, the trigger event set by the user may be changed to another trigger event by the user.
  • an external electronic device for example, a smart button
  • the electronic device maps the object information and the restoration information to the trigger event corresponding to the function event, and stores them.
  • the electronic device may select the object information and the restoration information by the user. You can also map and store trigger events.
  • the processor of the electronic device may provide a user interface including various trigger events capable of mapping object information and restoration information.
  • the processor may map and store object information and restoration information with the selected trigger event.
  • FIG. 8 is a flowchart illustrating another example of a method of mapping and storing a function of an object with a trigger event in an electronic device according to various embodiments of the present disclosure.
  • 9 is a diagram illustrating a method of selecting a trigger event in an electronic device according to various embodiments of the present disclosure.
  • a processor eg, the processor 120 of the electronic device (eg, the electronic device 101) may check object information of the selected object. For example, as shown in operation 601 of FIG. 6, the processor may perform location information (eg, coordinates) in which an object selected by a user is located on the application screen among at least one object that detects a specified event (for example, a touch input) on the application screen. Information), object name information, and object ID information.
  • location information eg, coordinates
  • object selected by a user is located on the application screen among at least one object that detects a specified event (for example, a touch input) on the application screen.
  • a specified event for example, a touch input
  • the processor may read restoration information for restoring the screen.
  • the processor may include information on an entry path from which an application screen is displayed after the application is executed to information on an entry path, and information transmitted to display the application screen (eg, Login information, input information, etc.) or page information of an application screen.
  • the processor may obtain restoration information from information stored in the activity stack.
  • the processor may display a user interface that includes at least one trigger event.
  • the processor may input an input for selecting any one of the at least one object 903 (eg, a Going out icon) among at least one object that detects a touch event on the application screen 901 as shown in FIG. 9.
  • the display eg, display device
  • the display may be controlled to display a pop-up window 905 including icons 907, 909, and 911 for selecting a trigger event in at least a portion of the application screen 901. Can be.
  • the icon 911 for selecting the smart button as a trigger event may not be displayed in the pop-up window 905. have.
  • the processor may receive a user input for selecting one of at least one trigger event included in the user interface. For example, the processor may receive a touch input for selecting any one of icons 907, 909, and 911 displayed on the popup window 905.
  • the processor may map and store the object information and the restoration information with the selected trigger event based on the touch input. For example, when a touch input for an icon 907 for selecting a soft key as a trigger event is received, the processor may display a soft key (for example, a soft key (eg, a home screen 501) on the home screen of the electronic device. 503)). The processor may store the object information and the restoration information by mapping the information to the information corresponding to the soft key generated on the home screen.
  • the processor corresponds to a specified hardware key among a plurality of hardware keys included in the electronic device. You can map it to information and store it.
  • the processor maps object information and restoration information to information associated with a signal transmitted from the smart key to execute a function. Can be stored.
  • FIG. 10 is a flowchart illustrating a method of performing a function of an application mapped to a trigger event in an electronic device according to various embodiments of the present disclosure.
  • a processor eg, the processor 120 of the electronic device (eg, the electronic device 101) may detect a trigger event. For example, when the processor receives an input for a hardware key mapped to a function of a specific application, the processor may determine that a trigger event for performing a specific function of a specific application is detected. In another example, the processor may input a touch on a soft key (eg, a soft key 503) for performing a specific function of a specific application among objects displayed on a home screen (eg, the home screen 501) of the electronic device. If it is detected, it may be determined that a trigger event for performing a specific function of a specific application is detected.
  • a soft key eg, a soft key 503
  • the processor may be further configured to execute a function from an external electronic device (eg, a smart button) connected to the electronic device through a communication circuit (eg, the communication module 190) in a wireless communication.
  • a function from an external electronic device (eg, a smart button) connected to the electronic device through a communication circuit (eg, the communication module 190) in a wireless communication.
  • the processor may check object information and restoration information mapped to the trigger event. For example, the processor may load object information including at least one of location information of the object mapped to the trigger event, object name information, and object ID information from the memory (eg, the memory 130). In addition, the processor may include information about an entry path after an application is executed to display an application screen that is currently displayed, information transmitted to display the application screen (eg, login information, input information, etc.), or an application screen. Restoration information including at least one of the page information may be loaded from the memory.
  • the processor may restore the screen based on the restoration information.
  • the processor may display an application screen (for example, an application screen 301, 311, 321, 331, or 341) displayed through a display (eg, the display device 160) when a function mapping event occurs based on the restoration information. Can be restored.
  • the application screen displayed on the display when the function mapping event occurs is the third screen 705-1 of FIG. 7, the processor sequentially starts from the first screen 701-1 of the application based on the restoration information. By restoring the screen, the display can be controlled to display the third screen 703-1.
  • the processor may generate a touch event on an object corresponding to the trigger event based on the object information. For example, the processor may identify the object selected by the user when a function mapping event occurs among at least one object included in the restored screen based on the object information. The processor may perform a function corresponding to the identified object by generating a touch event on the identified object. For example, when the identified object is the Going out icon 903 of FIG. 9, the processor turns off or sleeps the external electronic devices that can be controlled through the application.
  • the communication circuit eg, the communication module 190
  • the communication circuit may be controlled to transmit a signal for operating in the) mode.
  • the electronic device may directly provide a function of an application mapped to the trigger event in response to the detection of the trigger event. Accordingly, the user of the electronic device may be provided with the function of the application more conveniently and quickly by mapping the trigger event to the function of the frequently used application.
  • a method of mapping a function of an application in an electronic device may include detecting an occurrence of a function mapping event while an application screen is displayed, and the application screen. Identifying at least one object for detecting a specified event among the at least one object indicated in, receiving an input for selecting any one of the identified at least one object, and an object selected based on the input It may include the operation of mapping the function of the trigger event to the mapping.
  • the operation of detecting the occurrence of the function mapping event may include at least one hardware of a plurality of hardware keys exposed through at least a portion of a housing of the electronic device. Detecting the occurrence of the function mapping event based on an input to a key.
  • the operation of detecting the occurrence of the function mapping event may include: a soft key requesting a function mapping among a plurality of soft keys provided through the display of the electronic device; And detecting the occurrence of the function mapping event based on a touch input to the.
  • the operation of detecting the occurrence of the function mapping event may be performed based on whether a signal for requesting a function mapping request is received from an external electronic device performing wireless communication with the electronic device. And detecting the occurrence of.
  • identifying at least one object detecting the designated event may include identifying at least one object detecting a touch event among at least one object displayed on the application screen.
  • the method of mapping a function of an application in the electronic device may further include applying a specified effect to the at least one identified object.
  • the method of mapping a function of an application in the electronic device may further include applying a specified effect to a region other than the identified object on the application screen.
  • the operation of mapping a function of the selected object based on the input to a trigger event may include checking object information of the selected object based on the input and restoring the application screen. And checking the information, and mapping the object information and the restoration information with a trigger event corresponding to a function mapping event.
  • the operation of mapping a function of a selected object based on the input to a trigger event and storing the selected object information may include checking the selected object information based on the input and restoring information for restoring the application screen. Confirming, displaying by a user interface including at least one trigger event, receiving a user input of selecting one of the at least one trigger event, and restoring the object information and the restoration. And mapping the information with the selected trigger event based on the user input.
  • a method of mapping a function of an application in the electronic device may include detecting the trigger event, identifying object information and restoration information mapped to the trigger event, and based on the restoration information. Restoring the application screen; and generating a touch event on an object corresponding to the trigger event based on the object information.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명의 다양한 실시 예들에 따른 전자 장치는, 디스플레이와, 메모리, 및 상기 디스플레이 및 상기 메모리와 작동적으로 연결된 프로세서를 포함하고, 상기 프로세서는, 어플리케이션 화면이 표시되는 동안 기능 매핑(mapping) 이벤트의 발생을 검출하고, 상기 어플리케이션 화면에 표시된 적어도 하나의 객체 중 지정된 이벤트를 검출하는 적어도 하나의 객체를 식별하고, 상기 식별된 적어도 하나의 객체 중 어느 하나를 선택하기 위한 입력을 수신하고, 상기 입력에 기반하여 선택된 객체의 기능을 트리거 이벤트와 매핑하여 저장하도록 설정될 수 있다. 다른 실시 예들도 가능하다.

Description

어플리케이션의 기능을 매핑하는 방법 및 그 전자 장치
본 발명의 다양한 실시 예들은 어플리케이션의 기능을 매핑하는 방법 및 그 전자 장치에 관한 것이다.
정보통신 기술 및 반도체 기술이 발전함에 따라 전자 장치는 다양한 서비스를 제공하는 멀티미디어 장치로 발전하고 있다. 예를 들어, 전자 장치는 방송 서비스, 무선 인터넷 서비스, 음악 서비스 등의 다양한 서비스를 제공할 수 있다.
서비스 제공자는 위와 같은 다양한 서비스를 제공하기 위해 다양한 어플리케이션들을 개발하여 전자 장치에 제공하고 있다. 이에 따라, 전자 장치의 사용자는 원하는 서비스에 대응하는 어플리케이션을 다운 및 설치함으로써, 어플리케이션을 통해 원하는 서비스를 제공받을 수 있다.
최근에는 사용자의 편의를 고려하여 어플리케이션에서 제공되는 복수의 기능들 중 사용자가 빈번하게 사용하는 기능에 대한 바로가기(shortcut) 기능을 지원하는 어플리케이션이 개발되고 있다. 이에 따라, 전자 장치의 사용자는 특정 기능에 대한 바로가기 아이콘, 특정 기능에 매핑된 하드웨어 키(hardware key), 또는 특정 기능에 매핑된 스마트 버튼(smart button)에 대한 입력을 통해 추가적인 입력 없이 어플리케이션의 특정 기능을 이용할 수 있다.
전자 장치는 어플리케이션에 포함된 복수의 기능들 중 서비스 제공자가 바로가기 기능을 지원하도록 설정한 일부 기능에 대해서만 바로가기 기능을 제공할 수 있다. 이에 따라, 전자 장치의 사용자는 서비스 제공자에 의해 바로가기 기능을 지원하도록 설정되지 않은 다른 기능에서 바로가기 기능을 이용할 수 없는 불편함이 있다.
본 발명의 다양한 실시 예들은, 어플리케이션에 포함된 복수의 기능들에 대한 바로가기 기능을 지원하는 방법 및 그 전자 장치에 관하여 개시한다.
전자 장치는 어플리케이션에 포함된 복수의 기능들 중 서비스 제공자가 바로가기 기능을 지원하도록 설정한 일부 기능에 대해서만 바로가기 기능을 제공할 수 있다. 이에 따라, 전자 장치의 사용자는 서비스 제공자에 의해 바로가기 기능을 지원하도록 설정되지 않은 다른 기능에서 바로가기 기능을 이용할 수 없는 불편함이 있다.
본 발명의 다양한 실시 예들은, 어플리케이션에 포함된 복수의 기능들에 대한 바로가기 기능을 지원하는 방법 및 그 전자 장치에 관하여 개시한다.
본 발명에 다양한 실시 예들에 따른 전자 장치는 어플리케이션에 포함된 적어도 하나의 객체들 중 기능 매핑(mapping)이 가능한 객체를 스스로 식별하여 사용자에게 제공함으로써, 어플리케이션에 포함된 기능들 중 어플리케이션을 개발한 서비스 제공자가 바로가기 기능을 지원하지 않도록 설정된 기능에도 바로가기 기능을 적용할 수 있다.
도 1은 다양한 실시 예들에 따른 네트워크 환경 내의 전자 장치의 블록도이다.
도 2는 다양한 실시 예들에 따른 전자 장치에서 어플리케이션의 기능을 매핑하는 방법을 설명하기 위한 흐름도이다.
도 3a 내지 도 3e는 다양한 실시 예들에 따른 전자 장치에서 기능 매핑 이벤트의 발생을 검출하는 방법을 설명하기 위한 도면이다.
도 4a 및 도 4b는 본 발명의 다양한 실시 예들에 따른 전자 장치에서 지정된 이벤트를 검출하는 적어도 하나의 객체를 식별하는 방법을 설명하기 위한 도면이다.
도 5는 본 발명의 다양한 실시 예들에 따른 전자 장치에서 어플리케이션의 기능이 매핑되는 트리거 이벤트를 설명하기 위한 도면이다.
도 6은 본 발명의 다양한 실시 예들에 따른 전자 장치에서 객체의 기능을 트리거 이벤트와 매핑하여 저장하는 방법의 일 예를 설명하기 위한 흐름도이다.
도 7은 본 발명의 다양한 실시 예들에 따른 전자 장치에서 생성되는 복원 정보를 설명하기 위한 도면이다.
도 8은 본 발명의 다양한 실시 예들에 따른 전자 장치에서 객체의 기능을 트리거 이벤트와 매핑하여 저장하는 방법의 다른 예를 설명하기 위한 흐름도이다.
도 9는 본 발명의 다양한 실시 예들에 따른 전자 장치에서 트리거 이벤트를 선택하는 방법을 설명하기 위한 도면이다.
도 10은 본 발명의 다양한 실시 예들에 따른 전자 장치에서 트리거 이벤트와 매핑된 어플리케이션의 기능을 수행하는 방법을 설명하기 위한 흐름도이다.
도 1은, 다양한 실시 예들에 따른, 네트워크 환경(100) 내의 전자 장치(101)의 블록도이다.
도 1을 참조하면, 네트워크 환경(100)에서 전자 장치(101)는 제 1 네트워크(198)(예: 근거리 무선 통신)를 통하여 전자 장치(102)와 통신하거나, 또는 제 2 네트워크(199)(예: 원거리 무선 통신)를 통하여 전자 장치(104) 또는 서버(108)와 통신할 수 있다. 일 실시 예에 따르면, 전자 장치(101)는 서버(108)를 통하여 전자 장치(104)와 통신할 수 있다. 일 실시 예에 따르면, 전자 장치(101)는 프로세서(120), 메모리(130), 입력 장치(150), 음향 출력 장치(155), 표시 장치(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 햅틱 모듈(179), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 가입자 식별 모듈(196), 및 안테나 모듈(197)을 포함할 수 있다. 어떤 실시 예에서는, 전자 장치(101)에는, 이 구성요소들 중 적어도 하나(예: 표시 장치(160) 또는 카메라 모듈(180))가 생략되거나 다른 구성 요소가 추가될 수 있다. 어떤 실시 예에서는, 예를 들면, 표시 장치(160)(예: 디스플레이)에 임베디드된 센서 모듈(176)(예: 지문 센서, 홍채 센서, 또는 조도 센서)의 경우와 같이, 일부의 구성요소들이 통합되어 구현될 수 있다.
프로세서(120)는, 예를 들면, 소프트웨어(예: 프로그램(140))를 구동하여 프로세서(120)에 연결된 전자 장치(101)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)을 제어할 수 있고, 다양한 데이터 처리 및 연산을 수행할 수 있다. 프로세서(120)는 다른 구성요소(예: 센서 모듈(176) 또는 통신 모듈(190))로부터 수신된 명령 또는 데이터를 휘발성 메모리(132)에 로드하여 처리하고, 결과 데이터를 비휘발성 메모리(134)에 저장할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 메인 프로세서(121)(예: 중앙 처리 장치 또는 어플리케이션 프로세서), 및 이와는 독립적으로 운영되고, 추가적으로 또는 대체적으로, 메인 프로세서(121)보다 저전력을 사용하거나, 또는 지정된 기능에 특화된 보조 프로세서(123)(예: 그래픽 처리 장치, 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 여기서, 보조 프로세서(123)는 메인 프로세서(121)와 별개로 또는 임베디드되어 운영될 수 있다.
이런 경우, 보조 프로세서(123)는, 예를 들면, 메인 프로세서(121)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(121)를 대신하여, 또는 메인 프로세서(121)가 액티브(예: 어플리케이션 수행) 상태에 있는 동안 메인 프로세서(121)와 함께, 전자 장치(101)의 구성요소들 중 적어도 하나의 구성요소(예: 표시 장치(160), 센서 모듈(176), 또는 통신 모듈(190))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일 실시 예에 따르면, 보조 프로세서(123)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성 요소(예: 카메라 모듈(180) 또는 통신 모듈(190))의 일부 구성 요소로서 구현될 수 있다. 메모리(130)는, 전자 장치(101)의 적어도 하나의 구성요소(예: 프로세서(120) 또는 센서모듈(176))에 의해 사용되는 다양한 데이터, 예를 들어, 소프트웨어(예: 프로그램(140)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 저장할 수 있다. 메모리(130)는, 휘발성 메모리(132) 또는 비휘발성 메모리(134)를 포함할 수 있다.
프로그램(140)은 메모리(130)에 저장되는 소프트웨어로서, 예를 들면, 운영 체제(142), 미들 웨어(144) 또는 어플리케이션(146)을 포함할 수 있다.
입력 장치(150)는, 전자 장치(101)의 구성요소(예: 프로세서(120))에 사용될 명령 또는 데이터를 전자 장치(101)의 외부(예: 사용자)로부터 수신하기 위한 장치로서, 예를 들면, 마이크, 마우스, 또는 키보드를 포함할 수 있다.
음향 출력 장치(155)는 음향 신호를 전자 장치(101)의 외부로 출력하기 위한 장치로서, 예를 들면, 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용되는 스피커와 전화 수신 전용으로 사용되는 리시버를 포함할 수 있다. 일 실시 예에 따르면, 리시버는 스피커와 일체 또는 별도로 형성될 수 있다.
표시 장치(160)는 전자 장치(101)의 사용자에게 정보를 시각적으로 제공하기 위한 장치로서, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일 실시 예에 따르면, 표시 장치(160)는 터치 회로(touch circuitry) 또는 터치에 대한 압력의 세기를 측정할 수 있는 압력 센서를 포함할 수 있다.
오디오 모듈(170)은 소리와 전기 신호를 쌍방향으로 변환시킬 수 있다. 일 실시 예에 따르면, 오디오 모듈(170)은, 입력 장치(150)를 통해 소리를 획득하거나, 음향 출력 장치(155), 또는 전자 장치(101)와 유선 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(102)(예: 스피커 또는 헤드폰))를 통해 소리를 출력할 수 있다.
센서 모듈(176)은 전자 장치(101)의 내부의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 센서 모듈(176)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다.
인터페이스(177)는 외부 전자 장치(예: 전자 장치(102))와 유선 또는 무선으로 연결할 수 있는 지정된 프로토콜을 지원할 수 있다. 일 실시 예에 따르면, 인터페이스(177)는 HDMI(high definition multimediainterface), USB(universal serial bus)인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.
연결 단자(178)는 전자 장치(101)와 외부 전자 장치(예: 전자 장치(102))를 물리적으로 연결시킬 수 있는 커넥터, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.
햅틱 모듈(179)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 햅틱 모듈(179)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.
카메라 모듈(180)은 정지 영상 및 동영상을 촬영할 수 있다. 일 실시 예에 따르면, 카메라 모듈(180)은 하나 이상의 렌즈, 이미지 센서, 이미지 시그널 프로세서, 또는 플래시를 포함할 수 있다.
전력 관리 모듈(188)은 전자 장치(101)에 공급되는 전력을 관리하기 위한 모듈로서, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구성될 수 있다.
배터리(189)는 전자 장치(101)의 적어도 하나의 구성 요소에 전력을 공급하기 위한 장치로서, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.
통신 모듈(190)은 전자 장치(101)와 외부 전자 장치(예: 전자 장치(102), 전자 장치(104), 또는 서버(108))간의 유선 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(190)은 프로세서(120)(예: 어플리케이션 프로세서)와 독립적으로 운영되는, 유선 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일 실시 예에 따르면, 통신 모듈(190)은 무선 통신 모듈(192)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(194)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함하고, 그 중 해당하는 통신 모듈을 이용하여 제 1 네트워크(198)(예: 블루투스, WiFi direct 또는 IrDA(infrared data association) 같은 근거리 통신 네트워크) 또는 제 2 네트워크(199)(예: 셀룰러 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부 전자 장치와 통신할 수 있다. 상술한 여러 종류의 통신 모듈(190)은 하나의 칩으로 구현되거나 또는 각각 별도의 칩으로 구현될 수 있다.
일 실시 예에 따르면, 무선 통신 모듈(192)은 가입자 식별 모듈(196)에 저장된 사용자 정보를 이용하여 통신 네트워크 내에서 전자 장치(101)를 구별 및 인증할 수 있다.
안테나 모듈(197)은 신호 또는 전력을 외부로 송신하거나 외부로부터 수신하기 위한 하나 이상의 안테나들을 포함할 수 있다. 일 실시 예에 따르면, 통신 모듈(190)(예: 무선 통신 모듈(192))은 통신 방식에 적합한 안테나를 통하여 신호를 외부 전자 장치로 송신하거나, 외부 전자 장치로부터 수신할 수 있다.
상기 구성요소들 중 일부 구성요소들은 주변 기기들간 통신 방식(예: 버스, GPIO(general purposeinput/output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))를 통해 서로 연결되어 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.
일 실시 예에 따르면, 명령 또는 데이터는 제 2 네트워크(199)에 연결된 서버(108)를 통해서 전자 장치(101)와 외부의 전자 장치(104)간에 송신 또는 수신될 수 있다. 전자 장치(102, 104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 일 실시 예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 다른 하나 또는 복수의 외부 전자 장치에서 실행될 수 있다. 일 실시 예에 따르면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로 또는 요청에 의하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 그와 연관된 적어도 일부 기능을 외부 전자 장치에게 요청할 수 있다. 상기 요청을 수신한 외부 전자 장치는 요청된 기능 또는 추가 기능을 실행하고, 그 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 수신된 결과를 그대로 또는 추가적으로 처리하여 요청된 기능이나 서비스를 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다.
일 실시 예에 따르면, 프로세서(120)는 어플리케이션이 실행되는 동안 기능 매핑 이벤트가 발생되는지 여부를 판단할 수 있다. 예를 들어, 프로세서(120)는 전자 장치(101)의 하우징(housing)의 일부분을 통해 노출된 복수의 하드웨어 키 중 기능 매핑 이벤트와 연관된 하드웨어 키에 대한 입력이 수신되는지 여부를 판단할 수 있다. 다른 예를 들어, 프로세서(120)는 표시 장치(160)를 통해 제공되는 복수의 소프트 키 중 기능 매핑 이벤트와 연관된 소프트 키에 대한 입력이 수신되는지 여부를 판단할 수 있다. 또 다른 예를 들어, 프로세서(120)는 전자 장치(101)와 무선 통신으로 연결된 외부 전자 장치(예: 스마트 버튼)으로부터 기능 매핑 이벤트와 연관된 신호가 수신되는지 여부를 판단할 수 있다.
일 실시 예에 따르면, 프로세서(120)는 기능 매핑 이벤트가 발생한 경우, 표시 장치(160)를 통해 표시되는 어플리케이션 화면 중 지정된 이벤트(예: 터치 이벤트)를 검출하는 적어도 하나의 객체를 식별할 수 있다.
일 실시 예에 따르면, 프로세서(120)는 지정된 이벤트를 검출하는 적어도 하나의 객체가 사용자에게 인지될 수 있도록 지정된 이벤트를 검출하는 적어도 하나의 객체에 지정된 효과(예: 하이라이팅(highlighting) 효과)를 적용할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 지정된 이벤트를 검출하는 적어도 하나의 객체가 사용자에게 인지될 수 있도록 어플리케이션 화면에서 지정된 이벤트를 검출하는 적어도 하나의 객체가 표시되지 않은 나머지 영역에 지정된 효과(예: 음영 효과, 블러(blur) 효과 등)를 적용할 수 있다.
일 실시 예에 따르면, 프로세서(120)는 지정된 이벤트를 검출하는 적어도 하나의 객체 중 사용자의 입력에 따라 선택된 객체의 기능을 트리거 이벤트와 매핑하여 저장할 수 있다. 예를 들어, 프로세서(120)는 사용자의 입력에 의해 선택된 객체의 객체 정보(예: 위치 정보(예: 좌표 정보), 객체 이름 정보, 또는 객체 ID 정보 등) 및 어플리케이션 화면을 복원하기 위한 복원 정보(예: 어플리케이션이 실행된 이후, 현재 표시되는 어플리케이션 화면이 표시되기 까지의 진입 경로에 대한 정보, 어플리케이션 화면을 표시하기 위하여 전달된 정보(예: 로그인 정보, 입력 정보 등), 또는 어플리케이션 화면의 페이지 정보 등)를 확인할 수 있다. 프로세서(120)는 객체 정보 및 복원 정보를 트리거 이벤트와 매핑하여 저장할 수 있다. 여기서, 트리거 이벤트는, 하드웨어 키, 소프트 키, 외부 전자 장치(예: 스마트 버튼)으로부터 수신되는 신호 등을 포함할 수 있다.
일 실시 예에 따르면, 프로세서(120)는 사용자의 입력에 따라 선택된 객체의 기능이 트리거 이벤트와 매핑하여 저장된 이후, 트리거 이벤트가 검출된 경우, 트리거 이벤트에 매핑된 객체의 기능을 실행할 수 있다. 예를 들어, 프로세서(120)는 복원 정보에 기반하여 기능 매핑 시 표시되는 어플리케이션 화면을 복원할 수 있다. 프로세서(120)는 객체 정보에 기반하여 복원된 어플리케이션 화면에서 사용자의 입력에 따라 선택된 객체를 확인할 수 있다. 프로세서(120)는 사용자의 입력에 따라 선택된 객체에 터치 이벤트를 발생시킴으로써, 해당 객체에 대응하는 기능을 수행할 수 있다.
다양한 실시 예들에 따르면, 전자 장치(예: 전자 장치(101))는, 디스플레이(예: 표시 장치(160)), 메모리(예: 메모리(130)), 및 상기 디스플레이 및 상기 메모리와 작동적으로 연결된 프로세서(예: 프로세서(120))를 포함하고, 상기 프로세서는, 어플리케이션 화면이 표시되는 동안 기능 매핑(mapping) 이벤트의 발생을 검출하고, 상기 어플리케이션 화면에 표시된 적어도 하나의 객체 중 지정된 이벤트를 검출하는 적어도 하나의 객체를 식별하고, 상기 식별된 적어도 하나의 객체 중 어느 하나를 선택하기 위한 입력을 수신하고, 상기 입력에 기반하여 선택된 객체의 기능을 트리거 이벤트와 매핑하여 저장하도록 설정될 수 있다.
다양한 실시 예들에 따르면, 상기 프로세서는, 상기 전자 장치의 하우징(housing)의 적어도 일부분을 통해 노출된 복수의 하드웨어 키(hardware key) 중 지정된 적어도 하나의 하드웨어 키에 대한 입력에 기반하여 상기 기능 매핑 이벤트의 발생을 검출하도록 설정될 수 있다.
다양한 실시 예들에 따르면, 상기 프로세서는, 상기 디스플레이를 통해 제공되는 복수의 소프트 키(soft key) 중 기능 매핑을 요청하는 소프트 키(soft key)에 대한 터치 입력에 기반하여 상기 기능 매핑 이벤트의 발생을 검출하도록 설정될 수 있다.
다양한 실시 예들에 따르면, 상기 전자 장치는 외부 전자 장치와 무선 통신으로 연결하기 위한 통신 회로(예: 통신 모듈(190))를 더 포함하고, 상기 프로세서는, 상기 통신 회로를 통해 상기 외부 전자 장치로부터 기능 매핑을 요청하는 신호의 수신 여부에 기반하여 상기 기능 매핑 이벤트의 발생을 검출하도록 설정될 수 있다.
다양한 실시 예들에 따르면, 상기 프로세서는, 상기 어플리케이션 화면에 표시된 적어도 하나의 객체 중 터치 이벤트를 검출하는 적어도 하나의 객체를 식별하도록 설정될 수 있다.
다양한 실시 예들에 따르면, 상기 프로세서는, 상기 식별된 적어도 하나의 객체에 지정된 효과를 적용하도록 설정될 수 있다.
다양한 실시 예들에 따르면, 상기 프로세서는, 상기 어플리케이션 화면에서 상기 식별된 객체를 제외한 나머지 영역에 지정된 효과를 적용하도록 설정될 수 있다.
다양한 실시 예들에 따르면, 상기 프로세서는, 상기 입력에 기반하여 선택된 객체의 객체 정보를 확인하고, 상기 어플리케이션 화면을 복원하기 위한 복원 정보를 확인하고, 상기 객체 정보 및 상기 복원 정보를 기능 매핑 이벤트에 대응하는 트리거 이벤트와 매핑하여 저장하도록 설정될 수 있다.
다양한 실시 예들에 따르면, 상기 프로세서는, 상기 입력에 기반하여 선택된 객체 정보를 확인하고, 상기 어플리케이션 화면을 복원하기 위한 복원 정보를 확인하고, 적어도 하나의 트리거 이벤트를 포함하는 사용자 인터페이스(user interface)가 표시되도록 상기 디스플레이를 제어하고, 상기 적어도 하나의 트리거 이벤트 중 하나를 선택하는 사용자 입력을 수신하고, 상기 객체 정보 및 상기 복원 정보를 상기 사용자 입력에 기반하여 선택된 트리거 이벤트와 매핑하여 저장하도록 설정될 수 있다.
다양한 실시 예들에 따르면, 상기 프로세서는, 상기 트리거 이벤트를 검출하고, 상기 트리거 이벤트와 매핑된 객체 정보 및 복원 정보를 확인하고, 상기 복원 정보에 기반하여 상기 어플리케이션 화면을 복원하고, 상기 객체 정보에 기반하여 상기 트리거 이벤트에 대응하는 객체에 터치 이벤트를 발생시키도록 설정될 수 있다.
본 문서에 개시된 다양한 실시 예들에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치 (예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 또는 가전 장치 중 적어도 하나를 포함할 수 있다. 본 문서의 실시 예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.
본 문서의 다양한 실시 예들 및 이에 사용된 용어들은 본 문서에 기재된 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 해당 실시 예의 다양한 변경, 균등물, 및/또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및/또는 B 중 적어도 하나", "A, B 또는 C" 또는 "A, B 및/또는 C 중 적어도 하나" 등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", "첫째" 또는 "둘째" 등의 표현들은 해당 구성요소들을, 순서 또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에 "(기능적으로 또는 통신적으로) 연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제 3 구성요소)를 통하여 연결될 수 있다.
본 문서에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구성된 유닛을 포함하며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로 등의 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 모듈은 ASIC(application-specific integrated circuit)으로 구성될 수 있다.
본 문서의 다양한 실시 예들은 기기(machine)(예: 컴퓨터)로 읽을 수 있는 저장 매체(machine-readable storage media)(예: 내장 메모리(136) 또는 외장 메모리(130))에 저장된 명령어를 포함하는 소프트웨어(예: 프로그램(140))로 구현될 수 있다. 기기는, 저장 매체로부터 저장된 명령어를 호출하고, 호출된 명령어에 따라 동작이 가능한 장치로서, 개시된 실시 예들에 따른 전자 장치(예: 전자 장치(101))를 포함할 수 있다. 상기 명령이 프로세서(예: 프로세서(120))에 의해 실행될 경우, 프로세서가 직접, 또는 상기 프로세서의 제어하에 다른 구성요소들을 이용하여 상기 명령에 해당하는 기능을 수행할 수 있다. 명령은 컴파일러 또는 인터프리터에 의해 생성 또는 실행되는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장매체는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, '비일시적'은 저장매체가 신호(signal)를 포함하지 않으며 실재(tangible)한다는 것을 의미할 뿐 데이터가 저장매체에 반영구적 또는 임시적으로 저장됨을 구분하지 않는다.
일 실시 예에 따르면, 본 문서에 개시된 다양한 실시 예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 온라인으로 배포될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.
다양한 실시 예들에 따른 구성 요소(예: 모듈 또는 프로그램) 각각은 단수 또는 복수의 개체로 구성될 수 있으며, 전술한 해당 서브 구성 요소들 중 일부 서브 구성 요소가 생략되거나, 또는 다른 서브 구성 요소가 다양한 실시 예에 더 포함될 수 있다. 대체적으로 또는 추가적으로, 일부 구성 요소들(예: 모듈 또는 프로그램)은 하나의 개체로 통합되어, 통합되기 이전의 각각의 해당 구성 요소에 의해 수행되는 기능을 동일 또는 유사하게 수행할 수 있다. 다양한 실시 예들에 따른, 모듈, 프로그램 또는 다른 구성 요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱하게 실행되거나, 적어도 일부 동작이 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다.
도 2는, 다양한 실시 예들에 따른, 전자 장치에서 어플리케이션의 기능을 매핑하는 방법을 설명하기 위한 흐름도이다.
도 2를 참조하면, 동작 201에서, 전자 장치(예: 전자 장치(101))의 프로세서(예: 프로세서(120))는 어플리케이션 화면이 표시되는 동안 기능 매핑(mapping) 이벤트의 발생을 검출할 수 있다. 예를 들어, 프로세서는 어플리케이션이 실행되는 동안 실행되는 어플리케이션의 기능을 매핑하기 위한 사용자 입력이 수신되는 경우, 기능 매핑 이벤트가 발생한 것으로 판단할 수 있다. 여기서, 어플리케이션의 기능을 매핑하기 위한 이벤트는 전자 장치의 하우징(housing)의 일부분을 통해 노출된 하드웨어 키(hardware key), 전자 장치의 디스플레이(예: 표시 장치(160))를 통해 표시되는 소프트 키(soft key), 전자 장치의 센서(예: 센서 모듈(176))를 통해 획득되는 모션 정보 등을 통해 수신할 수 있다. 다른 예를 들어, 프로세서는 어플리케이션이 실행되는 동안 통신 회로(예: 통신 모듈(190))을 통해 전자 장치와 무선으로 연결된 외부 전자 장치(예: 스마트 버튼)로부터 어플리케이션의 기능 매핑을 요청하는 신호가 수신되는지 여부를 판단할 수 있다. 프로세서는 어플리케이션의 기능 매핑을 요청하는 신호가 수신된 경우, 기능 매핑 이벤트가 발생한 것으로 판단할 수 있다.
동작 203에서, 프로세서는 어플리케이션 화면에 표시된 적어도 하나의 객체 중 지정된 이벤트를 검출하는 적어도 하나의 객체를 식별할 수 있다. 예를 들어, 프로세서는 전자 장치에서 음악 어플리케이션을 통해 음악 리스트가 표시중인 동안 기능 매핑 이벤트를 검출한 경우, 음악 리스트에서 터치 입력을 검출할 수 있는(터치 이벤트를 갖는) 아이콘들(예: 음원 아이콘, 검색 창 등)을 식별할 수 있다. 다른 예를 들어, 프로세서는 전자 장치에서 전화 어플리케이션의 전화 번호부가 표시되는 동안 기능 매핑 이벤트를 검출한 경우, 전화 번호부에서 터치 입력을 검출(터치 입력에 기반하여 매핑된 기능을 수행)할 수 있는 아이콘들(예: 연락처 아이콘, 즐겨찾기 아이콘, 최근 통화 아이콘, 키패드 아이콘, 음성 사서함 아이콘 등)을 식별할 수 있다. 일 실시 예에 따르면, 프로세서는 식별된 적어도 하나의 객체가 사용자에게 인지될 수 있도록, 식별된 적어도 하나의 객체에 지정된 효과(예: 하이라이팅 효과)를 적용하거나 식별된 적어도 하나의 객체를 제외한 나머지 영역에 지정된 효과(예: 음영 효과)를 적용할 수 있다.
동작 205에서, 프로세서는 식별된 적어도 하나의 객체 중 어느 하나를 선택하기 위한 입력을 수신할 수 있다. 예를 들어, 프로세서는 입력 장치(예: 입력 장치(150)) 또는 디스플레이를 통해 음악 리스트에서 특정 음원 아이콘을 선택하는 사용자의 입력을 수신할 수 있다. 다른 예를 들어, 프로세서는 입력 장치 또는 디스플레이를 통해 전화 번호부에서 특정 연락처 아이콘을 선택하는 사용자의 입력을 수신할 수 있다.
동작 207에서, 프로세서는 선택된 객체의 기능을 트리거 이벤트와 매핑하여 저장할 수 있다. 프로세서는 입력에 기반하여 선택된 객체의 객체 정보 및 디스플레이를 통해 표시되는 어플리케이션 화면을 복원하기 위한 복원 정보를 확인할 수 있다. 여기서, 객체 정보는 입력에 기반하여 선택된 객체의 위치 정보(예: 좌표 정보), 객체 이름 정보, 또는 객체 ID 정보 등을 포함할 수 있다. 복원 정보는 어플리케이션이 실행된 이후, 현재 표시되는 어플리케이션 화면이 표시되기까지의 진입 경로에 대한 정보, 어플리케이션 화면을 표시하기 위하여 전달된 정보(예: 로그인 정보, 입력 정보 등), 또는 어플리케이션 화면의 페이지 정보 등을 포함할 수 있다. 프로세서는 객체 정보 및 복원 정보를 확인한 경우, 객체 정보 및 복원 정보를 트리거 이벤트와 매핑하여 저장할 수 있다. 예를 들어, 프로세서는 하드웨어 키를 통해 기능 매핑 이벤트를 검출한 경우, 지정된 하드웨어 키를 트리거 이벤트로 결정할 수 있다. 프로세서는 트리거 이벤트로 결정된 하드웨어 키에 대한 입력이 수행될 시, 선택된 객체에 대응하는 기능이 수행될 수 있도록, 객체 정보 및 복원 정보를 하드웨어 키와 연관된 정보와 매핑하여 저장할 수 있다. 다른 예를 들어, 프로세서는 소프트 키를 통해 기능 매핑 이벤트를 검출한 경우, 전자 장치의 홈 화면(또는 지정된 경로)에 트리거 이벤트를 발생시키기 위한 소프트 키를 생성시킬 수 있다. 프로세서는 생성된 소프트 키에 대한 터치 입력이 수신될 시, 선택된 객체에 대응하는 기능이 수행될 수 있도록, 객체 정보 및 복원 정보를 생성된 소프트 키에 대한 정보와 매핑하여 저장할 수 있다. 또 다른 예를 들어, 프로세서는 전자 장치와 무선 통신으로 연결된 외부 전자 장치로부터 수신된 신호에 기반하여 기능 매핑 이벤트를 검출한 경우, 수신된 신호에 포함된 정보로부터 기능 실행을 위한 신호와 연관된 정보를 확인할 수 있다. 프로세서는 외부 전자 장치로부터 기능 실행을 위한 신호가 수신될 경우, 선택된 객체에 대응하는 기능이 수행될 수 있도록, 객체 정보, 복원 정보 및 기능 실행을 위한 신호와 연관된 정보를 매핑하여 저장할 수 있다. 또 다른 예를 들어, 프로세서는 기능 매핑 이벤트가 발생되기 이전에 사용자 또는 제조사에 의해 설정된 트리거 이벤트(예: 하드웨어 키, 소프트 키, 또는 외부 전자 장치의 신호 등)를 확인할 수 있다. 프로세서는 객체 정보 및 복원 정보를 확인된 트리거 이벤트와 매핑하여 저장할 수 있다. 예컨대, 전자 장치의 사용자가 기능 매핑 이벤트가 발생하기 이전에 특정 하드웨어 키를 트리거 이벤트로 설정해 둔 경우, 프로세서는 객체 정보 및 복원 정보를 사용자에 의해 트리거 이벤트로 설정된 특정 하드웨어 키와 매핑하여 저장할 수 있다. 여기서, 객체 정보 및 복원 정보와 매핑되도록 설정된 트리거 이벤트는 사용자에 의해 다른 트리거 이벤트로 변경될 수 있다. 또 다른 예를 들어, 프로세서는 식별된 적어도 하나의 객체 중 어느 하나를 선택하기 위한 입력을 수신한 경우, 트리거 이벤트와 연관된 적어도 하나의 아이콘(예: 하드웨어 키 아이콘, 소프트 키 아이콘, 또는 스마트 버튼 아이콘 등)을 선택할 수 있는 사용자 인터페이스(UI(user interface))가 표시되도록 디스플레이를 제어할 수 있다. 프로세서는 사용자 인터페이스 내에 표시된 적어도 하나의 아이콘 중 하나를 선택하는 사용자 입력이 수신된 경우, 객체 정보 및 복원 정보를 선택된 아이콘에 대응하는 트리거 이벤트와 매핑하여 저장할 수 있다.
이와 같이, 본 발명에 다양한 실시 예들에 따른 전자 장치는 어플리케이션에 포함된 적어도 하나의 객체들 중 기능 매핑이 가능한 객체를 스스로 식별하여 사용자에게 제공함으로써, 어플리케이션을 개발한 서비스 제공자가 바로가기 기능 매핑을 고려하여 어플리케이션을 개발하지 않더라도, 바로가기 기능을 제공할 수 있다.
이상에서는 전자 장치가 선택된 객체의 기능을 하나의 트리거 이벤트와 매핑하여 저장하는 것으로 설명하였으나, 본 발명의 다양한 실시 예에 따르면, 전자 장치는 선택된 객체의 기능을 복수의 트리거 이벤트들과 매핑하여 저장할 수도 있다. 예를 들어, 전자 장치의 프로세서는 선택된 객체의 기능을 하드웨어 키, 소프트 키, 또는 외부 전자 장치(예: 스마트 버튼)의 신호 등의 트리거 이벤트들 중 둘 이상의 트리거 이벤트와 매핑하여 저장할 수도 있다.
도 3a 내지 도 3e는 다양한 실시 예들에 따른 전자 장치에서 기능 매핑 이벤트의 발생을 검출하는 방법을 설명하기 위한 도면이다.
일 실시 예에 따르면, 전자 장치(예: 전자 장치(101))의 프로세서(예: 프로세서(120))는 도 3a와 같이, 전자 장치(301)에 포함된 복수의 하드웨어 키 중 지정된 하드웨어 키에 대한 사용자의 입력(303)이 검출되는 경우, 기능 매핑 이벤트가 발생한 것으로 판단할 수 있다. 하드웨어 키에 대한 사용자의 입력(303)은 하드웨어 키에 대한 한번 또는 그 이상의 버튼 입력을 포함할 수 있다. 일 실시 예에 따르면, 지정된 하드웨어 키는, 사용자의 입력에 기반하여 변경될 수 있다. 일 실시 예에 따르면, 하드웨어 키에 대한 사용자의 입력(303)은 전자 장치(301)에 포함된 복수의 하드웨어 키들 중 지정된 복수의 하드웨어 키들에 대한 입력을 포함할 수도 있다.
일 실시 예에 따르면, 프로세서는 도 3b와 같이, 통신 회로(예: 통신 모듈(190))을 통해 전자 장치(311)와 무선 통신(317)으로 연결된 외부 전자 장치(313)(예: 스마트 버튼)로부터 기능 매핑을 요청하는 신호가 수신되는 경우, 기능 매핑 이벤트가 발생한 것으로 판단할 수 있다. 여기서, 외부 전자 장치(313)는 사용자로부터 제1 입력(예: 클릭, 더블 클릭, 또는 홀드 입력 등)이 수신되는 경우, 전자 장치(313)로 기능 매핑을 요청하는 신호를 전송하고, 제1 입력과는 다른 제2 입력(예: 클릭, 더블 클릭, 또는 홀드 입력 등)이 수신되는 경우, 트리거 이벤트를 발생시키는 신호를 전송할 수 있다.
일 실시 예에 따르면, 프로세서는 도 3c와 같이, 디스플레이(예: 표시 장치(160))를 통해 어플리케이션 화면(321)의 상단 부분(또는 알림바(notification bar))으로부터 지정된 방향(예: 아래 방향)으로 드래그되는 터치 입력(323)이 검출되는 경우, 어플리케이션 화면(321)의 적어도 일부 영역에 전자 장치의 적어도 일부 기능을 제어하기 위한 적어도 하나의 아이콘을 포함하는 알림창(325)이 표시되도록 디스플레이를 제어할 수 있다. 프로세서는 알림창(325)에 표시된 적어도 하나의 아이콘 중 어플리케이션의 기능 매핑과 연관된 아이콘(327)에 대한 터치 입력이 검출되는 경우, 기능 매핑 이벤트가 발생한 것으로 판단할 수 있다. 이상에서는 알림창(325)을 표시하기 위한 입력이 어플리케이션 화면(321)의 상단 부분에서 지정된 방향으로 드래그되는 터치 입력(323)인 것으로 설명하였으나, 이에 제한되지 않는다. 예를 들어, 알림창(325)을 표시하기 위한 입력은 어플리케이션 화면(321)의 하단 부분에서 지정된 방향(예: 위 방향)으로 드래그되는 터치 입력을 포함할 수도 있다.
일 실시 예에 따르면, 프로세서는 도 3d와 같이, 디스플레이를 통해 어플리케이션 화면(331)의 우측 부분으로부터 지정된 방향(예: 좌측 방향)으로 드래그되는 터치 입력(333)이 검출되는 경우, 어플리케이션 화면(331)의 적어도 일부 영역에 알림창(325)이 표시되도록 디스플레이를 제어할 수 있다. 프로세서는 알림창(335)에 포함된 적어도 하나의 아이콘 중 어플리케이션의 기능 매핑과 연관된 아이콘(337)에 대한 터치 입력이 검출되는 경우, 기능 매핑 이벤트가 발생한 것으로 판단할 수 있다. 일 실시 예에 따르면, 프로세서는 어플리케이션 화면(331)의 적어도 일부 영역에 알림창(325)이 표시되는 동안, 어플리케이션 화면(331)에서 알림창(325)을 제외한 나머지 영역에 지정된 효과(예: 음영 효과, 블러(blur) 효과 등)가 적용되도록 디스플레이를 제어할 수도 있다. 이상에서는 알림창(335)을 표시하기 위한 입력이 어플리케이션 화면(331)의 우측 부분으로부터 지정된 방향으로 드래그되는 터치 입력인 것으로 설명하였으나, 이에 제한되지 않는다. 예를 들어, 알림창(335)을 표시하기 위한 입력은 어플리케이션 화면(331)의 좌측 부분으로부터 지정된 방향(예: 우측 방향)으로 드래그되는 터치 입력을 포함할 수도 있다.
일 실시 예에 따르면, 프로세서는 도 3e와 같이, 어플리케이션 화면(341) 상에 기능 매핑 이벤트를 발생시키는 소프트 키(343)가 표시되도록 디스플레이를 제어할 수 있다. 프로세서는 소프트 키(343)에 대한 터치 입력이 검출되는 경우, 기능 매핑 이벤트가 발생한 것으로 판단할 수 있다. 일 실시 예에 따르면, 소프트 키(343)는 전자 장치의 화면(341)을 구성하는 레이어에 포함되지 않고, 별도의 레이어 에 포함(예: 플로팅(floating))될 수 있다. 일 실시 예에 따르면, 소프트 키(343)는 디스플레이가 온(on) 상태인 동안 지정된 위치에서 지속적으로 표시될 수 있다. 일 실시 예에 따르면, 프로세서는 사용자의 입력에 기반하여 소프트 키(343)의 형태(예: 모양, 크기, 색 등) 및 위치를 변경시킬 수 있다.
도 4a 및 도 4b는 본 발명의 다양한 실시 예들에 따른 전자 장치에서 지정된 이벤트를 검출하는 적어도 하나의 객체를 식별하는 방법을 설명하기 위한 도면이다.
도 4a를 참조하면, 전자 장치(예: 전자 장치(101))의 프로세서(예: 프로세서(120))는 도 2의 동작 201과 같이, IoT(internet of things) 어플리케이션이 실행되는 동안 기능 매핑 이벤트의 발생을 검출한 경우, 어플리케이션 화면(401)의 레이아웃(layout)에 대한 정보에 기반하여 터치 이벤트를 검출할 수 있는 적어도 하나의 객체를 식별할 수 있다.
일 실시 예에 따르면, 프로세서는 터치 이벤트를 검출할 수 있는 적어도 하나의 객체가 식별된 경우, 어플리케이션 화면에서 식별된 적어도 하나의 객체(413, 415, 417, 419, 421, 및 423)를 제외한 나머지 영역(411)에 지정된 효과(예: 음영 효과, 블러 효과 등)가 적용되도록 디스플레이(예: 표시 장치(160))를 제어할 수 있다. 여기서, 지정된 효과는 사용자 또는 제조사에 의해 설정 및 변경될 수 있다.
일 실시 예에 따르면, 프로세서는 터치 이벤트를 검출할 수 있는 적어도 하나의 객체가 식별된 경우, 어플리케이션 화면에서 식별된 적어도 하나의 객체(433, 435, 437, 439, 441, 및 443)에 지정된 효과(예: 하이라이팅(highlighting) 효과, 크기 변경 효과, 흔들림 효과 등))가 적용되도록 디스플레이를 제어할 수 있다.
도 4b를 참조하면, 전자 장치(예: 전자 장치(101))의 프로세서(예: 프로세서(120))는 도 2의 동작 201과 같이, 음악 어플리케이션이 실행되는 동안 기능 매핑 이벤트의 발생을 검출한 경우, 어플리케이션 화면(451)의 레이아웃(layout)에 대한 정보에 기반하여 터치 이벤트를 검출할 수 있는 적어도 하나의 객체를 식별할 수 있다.
일 실시 예에 따르면, 프로세서는 터치 이벤트를 검출할 수 있는 적어도 하나의 객체가 식별된 경우, 어플리케이션 화면에서 식별된 적어도 하나의 객체(453, 455, 457, 459, 461, 463, 465, 467, 469, 471, 473, 및 475)에 지정된 효과(예: 테두리 하이라이팅 효과, 크기 변경 효과, 흔들림 효과 등)가 적용되도록 디스플레이를 제어할 수 있다. 여기서, 지정된 효과는 사용자 또는 제조사에 의해 설정 및 변경될 수 있다.
이상과 같이, 전자 장치는 터치 이벤트를 검출할 수 있는 적어도 하나의 객체에 지정된 효과가 적용시킬 수 있으며, 이에 따라, 전자 장치의 사용자는 전자 장치가 식별한 객체를 보다 쉽게 인식할 수 있다.
도 5는 본 발명의 다양한 실시 예들에 따른 전자 장치에서 어플리케이션의 기능이 매핑되는 트리거 이벤트를 설명하기 위한 도면이다.
일 실시 예에 따르면, 전자 장치(예: 전자 장치(101))의 프로세서(예: 프로세서(120))는 도 2의 동작 205와 같이, 어플리케이션 화면(501)에서 식별된 적어도 하나의 객체 중 어느 하나를 선택하기 위한 입력에 의해 선택된 객체(503)의 기능(예: 정지/재생 기능)을 전자 장치의 하드웨어 키(505), 전자 장치와 무선 통신을 수행할 수 있는 외부 전자 장치(507)(예: 스마트 버튼)의 신호, 또는 전자 장치의 화면을 통해 제공되는 소프트 키(509) 등의 트리거 이벤트들 중 적어도 하나의 트리거 이벤트와 매핑시킬 수 있다.
일 실시 예에 따르면, 프로세서는 선택된 객체(503)의 기능이 전자 장치의 하드웨어 키(505)에 매핑된 후 하드웨어 키(505)에 대한 입력이 수신되면, 어플리케이션 화면(501)을 복원하고, 복원된 화면에서 선택된 객체(503)에 대한 터치 이벤트를 발생시킴으로써, 선택된 객체(503)의 기능(예: 음악 재생)을 실행할 수 있다.
일 실시 예에 따르면, 프로세서는 선택된 객체(503)의 기능이 외부 전자 장치(507)의 신호에 매핑된 후 외부 전자 장치(507)로부터 신호(예: 기능 실행을 위한 신호)가 수신되면, 어플리케이션 화면(501)을 복원하고, 복원된 화면에서 선택된 객체(503)에 대한 터치 이벤트를 발생시킴으로써, 선택된 객체(503)의 기능(예: 음악 재생)을 실행할 수 있다.
일 실시 예에 따르면, 프로세서는 소프트 키(509)에 선택된 객체(503)의 기능이 매핑된 이후 소프트 키(509)에 대한 입력을 수신하는 경우, 어플리케이션 화면(501)을 복원하고, 복원된 화면에서 선택된 객체(503)에 대한 터치 이벤트를 발생시킴으로써, 선택된 객체(503)의 기능(예: 음악 재생)을 실행할 수 있다.
도 6은 본 발명의 다양한 실시 예들에 따른 전자 장치에서 객체의 기능을 트리거 이벤트와 매핑하여 저장하는 방법의 일 예를 설명하기 위한 흐름도이다. 도 7은 본 발명의 다양한 실시 예들에 따른 전자 장치에서 생성되는 복원 정보를 설명하기 위한 도면이다.
도 6을 참조하면, 동작 601에서, 전자 장치(예: 전자 장치(101))의 프로세서(예: 프로세서(120))는 선택된 객체의 객체 정보를 확인할 수 있다. 예를 들어, 프로세서는 어플리케이션 화면에서 지정된 이벤트(예: 터치 입력)을 검출하는 적어도 하나의 객체 중 사용자에 의해 선택된 객체가 어플리케이션 화면에서 위치하는 위치 정보(예: 좌표 정보), 객체 이름 정보, 및 객체 ID 정보를 확인할 수 있다.
동작 603에서, 프로세서는 화면을 복원하기 위한 복원 정보를 확인할 수 있다. 예를 들어, 프로세서는 어플리케이션이 실행된 이후, 현재 표시되는 어플리케이션 화면이 표시되기까지의 진입 경로에 대한 정보, 어플리케이션 화면을 표시하기 위하여 전달된 정보(예: 로그인 정보, 입력 정보 등), 또는 어플리케이션 화면의 페이지 정보 등을 포함할 수 있다. 일 실시 예에 따르면, 프로세서는 액티비티 스택(activity stack)에 저장된 정보로부터 복원 정보를 획득할 수 있다. 예를 들어, 프로세서는 소셜 어플리케이션의 실행을 위한 입력이 수신되는 경우, 도 7 과 같이, 소셜 어플리케이션의 제1 화면(701-1)을 표시하고, 제1 화면(701-1)과 연관된 액티비티(701-2)를 액티비티 스택(activity stack)(700)에 저장할 수 있다. 프로세서는 소셜 어플리케이션의 제1 화면(701-1)에서 특정 객체(예: 도 7의 Forcebook)를 선택하는 사용자의 입력이 수신되면, 특정 객체에 대응하는 제2 화면(703-1)(예: 로그인 화면)을 표시함과 동시에 제2 화면(703-1)과 연관된 액티비티(703-2)를 액티비티 스택(700)에 저장될 수 있다. 이후, 화면 전환을 위한 복수 번의 입력에 따라 어플리케이션의 제3 화면(705-1)이 표시되면, 제3 화면(705-1)이 표시되기 이전에 표시된 모든 어플리케이션 화면에 대한 액티비티와 제3 화면(705-1)의 액티비티(705-2)를 액티비티 스택(700)에 순차적으로 저장할 수 있다. 또한, 프로세서는 어플리케이션 화면에서 사용자가 입력한 정보들(예: 로그인 정보)도 액티비티 스택(700)에 함께 저장할 수 있다. 이에 따라, 프로세서는 액티비티 스택(700)에 저장된 정보를 통해 소셜 어플리케이션의 실행 이후, 현재 표시되는 어플리케이션의 제3 화면(705-1)까지의 진입 경로에 대한 정보 및 어플리케이션 화면을 표시하기 위하여 전달된 정보(예: 로그인 정보, 입력 정보 등), 또는 어플리케이션 화면의 페이지 정보 등의 복원 정보를 확인할 수 있다.
동작 605에서, 프로세서는 객체 정보 및 복원 정보를 기능 매핑 이벤트에 대응하는 트리거 이벤트와 매핑하여 저장할 수 있다. 예를 들어, 프로세서는, 하드웨어 키에 의한 기능 매핑 이벤트를 검출한 경우, 객체 정보 및 복원 정보를 전자 장치의 복수의 하드웨어 키 중 하나에 매핑하여 저장할 수 있다. 다른 예를 들어, 프로세서는 외부 전자 장치(예: 스마트 버튼)로부터 수신되는 신호에 의한 기능 매핑 이벤트를 검출한 경우, 객체 정보 및 복원 정보를 외부 전자 장치의 신호(예: 기능 수행을 위한 트리거 신호)와 매핑하여 저장할 수 있다. 또 다른 예를 들어, 프로세서는 전자 장치의 디스플레이(예: 표시 장치(160))를 통해 제공되는 소프트 키에 의한 기능 매핑 이벤트를 검출한 경우, 어플리케이션의 기능 매핑을 위한 소프트 키를 생성하고, 객체 정보 및 복원 정보를 생성된 소프트와 매핑하여 저장할 수 있다.
이상에서는 전자 장치가 객체 정보 및 복원 정보를 기능 이벤트에 대응하는 트리거 이벤트와 매핑하여 저장하는 것으로 설명하였으나, 본 발명의 다양한 실시 예에 따르면, 전자 장치는 객체 정보 및 복원 정보를 기능 매핑 이벤트가 발생하기 이전에 사용자 또는 제조사에 의해 설정된 특정 트리거 이벤트에 매핑하여 저장할 수도 있다. 예를 들어, 기능 매핑 이벤트가 발생하기 이전에 외부 전자 장치(예: 스마트 버튼)의 기능 실행을 위한 신호가 사용자에 의해 트리거 이벤트로 설정된 경우, 프로세서는 객체 정보 및 복원 정보를 외부 전자 장치의 기능 실행을 위한 신호에 매핑하여 저장할 수 있다. 이 경우, 사용자에 의해 설정되는 트리거 이벤트는 사용자에 의해 다른 트리거 이벤트로 변경될 수 있다.
이상에서는 전자 장치가 객체 정보 및 복원 정보를 기능 이벤트에 대응하는 트리거 이벤트와 매핑하여 저장하는 것으로 설명하였으나, 본 발명의 다양한 실시 예에 따르면, 전자 장치는 객체 정보 및 복원 정보를 사용자에 의해 선택되는 트리거 이벤트와 매핑하여 저장할 수도 있다. 예를 들어, 전자 장치의 프로세서는 객체가 선택되면, 객체 정보 및 복원 정보를 매핑할 수 있는 다양한 트리거 이벤트들을 포함하는 사용자 인터페이스를 제공할 수 있다. 프로세서는 제공된 사용자 인터페이스 내에서 특정 트리거 이벤트가 선택되면, 객체 정보 및 복원 정보를 선택된 트리거 이벤트와 매핑하여 저장할 수 있다.
도 8은 본 발명의 다양한 실시 예들에 따른 전자 장치에서 객체의 기능을 트리거 이벤트와 매핑하여 저장하는 방법의 다른 예를 설명하기 위한 흐름도이다. 도 9는 본 발명의 다양한 실시 예들에 따른 전자 장치에서 트리거 이벤트를 선택하는 방법을 설명하기 위한 도면이다.
도 8 및 도 9를 참조하면, 동작 801에서, 전자 장치(예: 전자 장치(101))의 프로세서(예: 프로세서(120))는 선택된 객체의 객체 정보를 확인할 수 있다. 예를 들어, 프로세서는 도 6의 동작 601과 같이, 어플리케이션 화면에서 지정된 이벤트(예: 터치 입력)을 검출하는 적어도 하나의 객체 중 사용자에 의해 선택된 객체가 어플리케이션 화면에서 위치하는 위치 정보(예: 좌표 정보), 객체 이름 정보, 및 객체 ID 정보를 확인할 수 있다.
동작 803에서, 프로세서는 화면을 복원하기 위한 복원 정보를 인할 수 있다. 예를 들어, 프로세서는 도 6의 동작 603과 같이, 프로세서는 어플리케이션이 실행된 이후, 현재 표시되는 어플리케이션 화면이 표시되기까지의 진입 경로에 대한 정보, 어플리케이션 화면을 표시하기 위하여 전달된 정보(예: 로그인 정보, 입력 정보 등), 또는 어플리케이션 화면의 페이지 정보 등을 포함할 수 있다. 일 실시 예에 따르면, 프로세서는 액티비티 스택에 저장된 정보로부터 복원 정보를 획득할 수 있다.
동작 805에서, 프로세서는 적어도 하나의 트리거 이벤트를 포함하는 사용자 인터페이스를 표시할 수 있다. 예를 들어, 프로세서는 도 9와 같이, 어플리케이션 화면(901)에서 터치 이벤트를 검출하는 적어도 하나의 객체들 중 어느 하나의 객체(903)(예: 외출(Going out)아이콘)을 선택하는 입력을 수신한 경우, 어플리케이션 화면(901)의 적어도 일부 영역에 트리거 이벤트를 선택할 수 있는 아이콘들(907, 909, 및 911)을 포함하는 팝업창(905)이 표시되도록 디스플레이(예: 표시 장치)를 제어할 수 있다. 일 실시 예에 따르면, 전자 장치가 외부 전자 장치(예: 스마트 버튼)와 무선 통신으로 연결되어 있지 않은 경우, 스마트 버튼을 트리거 이벤트로 선택하는 아이콘(911)은 팝업창(905)에 표시되지 않을 수도 있다.
동작 807에서, 프로세서는 사용자 인터페이스에 포함된 적어도 하나의 트리거 이벤트 중 하나를 선택하는 사용자 입력을 수신할 수 있다. 예를 들어, 프로세서는 팝업창(905)에 표시된 아이콘들(907, 909, 및 911) 중 어느 하나를 선택하는 터치 입력을 수신할 수 있다.
동작 809에서, 프로세서는 객체 정보 및 복원 정보를 터치 입력에 기반하여 선택된 트리거 이벤트와 매핑하여 저장할 수 있다. 예를 들어, 프로세서는 소프트 키를 트리거 이벤트로 선택하는 아이콘(907)에 대한 터치 입력이 수신된 경우, 전자 장치의 홈 화면(예: 홈 화면(501))에 소프트 키(예: 소프트 키(503))를 생성할 수 있다. 프로세서는 객체 정보 및 복원 정보를 홈 화면에 생성된 소프트 키에 대응하는 정보에 매핑하여 저장할 수 있다. 다른 예를 들어, 프로세서는 하드웨어 키를 트리거 이벤트로 선택하는 아이콘(909)에 대한 터치 입력이 수신된 경우, 객체 정보 및 복원 정보를 전자 장치에 포함된 복수 개의 하드웨어 키 중 지정된 하드웨어 키에 대응하는 정보와 매핑하여 저장할 수 있다. 또 다른 예를 들어, 프로세서는 스마트 버튼을 트리거 이벤트로 선택하는 아이콘(911)에 대한 터치 입력이 수신된 경우, 객체 정보 및 복원 정보를 스마트 키에서 기능 실행을 위해 전송하는 신호와 연관된 정보와 매핑하여 저장할 수 있다.
도 10은 본 발명의 다양한 실시 예들에 따른 전자 장치에서 트리거 이벤트와 매핑된 어플리케이션의 기능을 수행하는 방법을 설명하기 위한 흐름도이다.
도 10을 참조하면, 동작 1001에서, 전자 장치(예: 전자 장치(101))의 프로세서(예: 프로세서(120))는 트리거 이벤트를 검출할 수 있다. 예를 들어, 프로세서는 특정 어플리케이션의 기능과 매핑된 하드웨어 키에 대한 입력을 수신한 경우, 특정 어플리케이션의 특정 기능을 수행하기 위한 트리거 이벤트가 검출된 것으로 판단할 수 있다. 다른 예를 들어, 프로세서는 전자 장치의 홈 화면(예: 홈 화면(501))에 표시된 객체들 중 특정 어플리케이션의 특정 기능을 수행하기 위한 소프트 키(예: 소프트 키(503))에 대한 터치 입력을 검출한 경우, 특정 어플리케이션의 특정 기능을 수행하기 위한 트리거 이벤트가 검출된 것으로 판단할 수 있다. 또 다른 예를 들어, 프로세서는 또 다른 예를 들어, 프로세서는 통신 회로(예: 통신 모듈(190))을 통해 전자 장치와 무선 통신으로 연결된 외부 전자 장치(예: 스마트 버튼)로부터 기능 실행을 위한 신호가 수신된 경우, 수신된 신호와 매핑된 특정 어플리케이션의 특정 기능을 수행하기 위한 트리거 이벤트가 검출된 것으로 판단할 수 있다.
동작 1003에서, 프로세서는 트리거 이벤트와 매핑된 객체 정보 및 복원 정보를 확인할 수 있다. 예를 들어, 프로세서는 트리거 이벤트와 매핑된 객체의 위치 정보, 객체 이름 정보, 객체 ID 정보 중 적어도 하나를 포함하는 객체 정보를 메모리(예: 메모리(130))로부터 로드(load)할 수 있다. 또한, 프로세서는 어플리케이션이 실행된 이후, 현재 표시되는 어플리케이션 화면이 표시되기 까지의 진입 경로에 대한 정보, 어플리케이션 화면을 표시하기 위하여 전달된 정보(예: 로그인 정보, 입력 정보 등), 또는 어플리케이션 화면의 페이지 정보 중 적어도 하나를 포함하는 복원 정보를 메모리로부터 로드(load)할 수 있다.
동작 1005에서, 프로세서는 복원 정보에 기반하여 화면을 복원할 수 있다. 예를 들어, 프로세서는 복원 정보에 기반하여 기능 매핑 이벤트 발생 시 디스플레이(예: 표시 장치(160))를 통해 표시되는 어플리케이션 화면(예: 어플리케이션 화면(301, 311, 321, 331, 또는 341))을 복원할 수 있다. 예를 들어, 기능 매핑 이벤트 발생 시 디스플레이를 통해 표시되는 어플리케이션 화면이 도 7의 제3 화면(705-1)인 경우, 프로세서는 복원 정보에 기반하여 어플리케이션의 제1 화면(701-1)부터 순차적으로 화면을 복원함으로써, 제3 화면(703-1)이 표시되도록 디스플레이를 제어할 수 있다.
동작 1007에서, 프로세서는 객체 정보에 기반하여 트리거 이벤트에 대응하는 객체에 터치 이벤트를 발생시킬 수 있다. 예를 들어, 프로세서는 객체 정보에 기반하여 복원된 화면에 포함된 적어도 하나의 객체 중 기능 매핑 이벤트 발생 시 사용자가 선택한 객체를 식별할 수 있다. 프로세서는 식별된 객체에 터치 이벤트를 발생시킴으로써, 식별된 객체에 대응하는 기능을 수행할 수 있다. 예를 들어, 프로세서는 식별된 객체가 도 9의 외출(Going out)아이콘(903)인 경우, 어플리케이션을 통해 제어될 수 있는 외부 전자 장치들로 전원을 오프(off)시키거나 또는 슬립 모드(sleep)모드로 동작하도록 하는 신호가 전송되도록 통신 회로(예: 통신 모듈(190))을 제어할 수 있다.
이상과 같이, 전자 장치는 트리거 이벤트의 검출에 대한 응답으로 트리거 이벤트에 매핑된 어플리케이션의 기능을 곧바로 제공할 수 있다. 이에 따라, 전자 장치의 사용자는 자주 사용되는 어플리케이션의 기능에 트리거 이벤트를 매핑시킴으로써, 더욱 편리하고 빠르게 어플리케이션의 기능을 제공받을 수 있다.
다양한 실시 예들에 따르면, 전자 장치(예: 전자 장치(101))에서 어플리케이션의 기능을 매핑하는 방법은, 어플리케이션 화면이 표시되는 동안 기능 매핑(mapping) 이벤트의 발생을 검출하는 동작과, 상기 어플리케이션 화면에 표시된 적어도 하나의 객체 중 지정된 이벤트를 검출하는 적어도 하나의 객체를 식별하는 동작과, 상기 식별된 적어도 하나의 객체 중 어느 하나를 선택하기 위한 입력을 수신하는 동작, 및 상기 입력에 기반하여 선택된 객체의 기능을 트리거 이벤트와 매핑하여 저장하는 동작을 포함할 수 있다.
다양한 실시 예들에 따르면, 상기 기능 매핑(mapping) 이벤트의 발생을 검출하는 동작은, 상기 전자 장치의 하우징(housing)의 적어도 일부분을 통해 노출된 복수의 하드웨어 키(hardware key) 중 지정된 적어도 하나의 하드웨어 키에 대한 입력에 기반하여 상기 기능 매핑 이벤트의 발생을 검출하는 동작을 포함할 수 있다.
다양한 실시 예들에 따르면, 상기 기능 매핑(mapping) 이벤트의 발생을 검출하는 동작은, 상기 전자 장치의 디스플레이를 통해 제공되는 복수의 소프트 키(soft key) 중 기능 매핑을 요청하는 소프트 키(soft key)에 대한 터치 입력에 기반하여 상기 기능 매핑 이벤트의 발생을 검출하는 동작을 포함할 수 있다.
다양한 실시 예들에 따르면, 상기 기능 매핑(mapping) 이벤트의 발생을 검출하는 동작은, 상기 전자 장치와 무선 통신을 수행하는 외부 전자 장치로부터 기능 매핑을 요청하는 신호의 수신 여부에 기반하여 상기 기능 매핑 이벤트의 발생을 검출하는 동작을 포함할 수 있다.
다양한 실시 예들에 따르면, 상기 지정된 이벤트를 검출하는 적어도 하나의 객체를 식별하는 동작은, 상기 어플리케이션 화면에 표시된 적어도 하나의 객체 중 터치 이벤트를 검출하는 적어도 하나의 객체를 식별하는 동작을 포함할 수 있다.
다양한 실시 예들에 따르면, 상기 전자 장치에서 어플리케이션의 기능을 매핑하는 방법은 상기 식별된 적어도 하나의 객체에 지정된 효과를 적용하는 동작을 더 포함할 수 있다.
다양한 실시 예들에 따르면, 상기 전자 장치에서 어플리케이션의 기능을 매핑하는 방법은 상기 어플리케이션 화면에서 상기 식별된 객체를 제외한 나머지 영역에 지정된 효과를 적용하는 동작을 더 포함할 수 있다.
다양한 실시 예들에 따르면, 상기 입력에 기반하여 선택된 객체의 기능을 트리거 이벤트와 매핑하여 저장하는 동작은, 상기 입력에 기반하여 선택된 객체의 객체 정보를 확인하는 동작과, 상기 어플리케이션 화면을 복원하기 위한 복원 정보를 확인하는 동작, 및 상기 객체 정보 및 상기 복원 정보를 기능 매핑 이벤트에 대응하는 트리거 이벤트와 매핑하여 저장하는 동작을 포함할 수 있다.
다양한 실시 예들에 따르면, 상기 입력에 기반하여 선택된 객체의 기능을 트리거 이벤트와 매핑하여 저장하는 동작은, 상기 입력에 기반하여 선택된 객체 정보를 확인하는 동작과, 상기 어플리케이션 화면을 복원하기 위한 복원 정보를 확인하는 동작과, 적어도 하나의 트리거 이벤트를 포함하는 사용자 인터페이스(user interface)가 표시하는 동작과, 상기 적어도 하나의 트리거 이벤트 중 하나를 선택하는 사용자 입력을 수신하는 동작, 및 상기 객체 정보 및 상기 복원 정보를 상기 사용자 입력에 기반하여 선택된 트리거 이벤트와 매핑하여 저장하는 동작을 포함할 수 있다.
다양한 실시 예들에 따르면, 상기 전자 장치에서 어플리케이션의 기능을 매핑하는 방법은 상기 트리거 이벤트를 검출하는 동작과, 상기 트리거 이벤트와 매핑된 객체 정보 및 복원 정보를 확인하는 동작과, 상기 복원 정보에 기반하여 상기 어플리케이션 화면을 복원하는 동작, 및 상기 객체 정보에 기반하여 상기 트리거 이벤트에 대응하는 객체에 터치 이벤트를 발생시키는 동작을 더 포함할 수 있다.
한편, 본 발명의 다양한 실시 예에 관해 설명하였으나, 본 발명의 다양한 실시 예의 범위에서 벗어나지 않는 한도 내에서 여러 가지 변형이 가능하다. 그러므로 본 발명의 다양한 실시 예의 범위는 설명된 실시 예에 국한되어 정해져서는 아니되며 후술하는 특허청구의 범위뿐만 아니라 이 특허청구의 범위와 균등한 것들에 의해 정해져야 한다.

Claims (15)

  1. 전자 장치에 있어서,
    디스플레이;
    메모리; 및
    상기 디스플레이 및 상기 메모리와 작동적으로 연결된 프로세서를 포함하고,
    상기 프로세서는,
    어플리케이션 화면이 표시되는 동안 기능 매핑(mapping) 이벤트의 발생을 검출하고,
    상기 어플리케이션 화면에 표시된 적어도 하나의 객체 중 지정된 이벤트를 검출하는 적어도 하나의 객체를 식별하고,
    상기 식별된 적어도 하나의 객체 중 어느 하나를 선택하기 위한 입력을 수신하고, 및
    상기 입력에 기반하여 선택된 객체의 기능을 트리거 이벤트와 매핑하여 저장하도록 설정되는 전자 장치.
  2. 제 1항에 있어서,
    상기 프로세서는, 상기 전자 장치의 하우징(housing)의 적어도 일부분을 통해 노출된 복수의 하드웨어 키(hardware key) 중 지정된 적어도 하나의 하드웨어 키에 대한 입력에 기반하여 상기 기능 매핑 이벤트의 발생을 검출하도록 설정된 전자 장치.
  3. 제 1항에 있어서,
    상기 프로세서는, 상기 디스플레이를 통해 제공되는 복수의 소프트 키(soft key) 중 기능 매핑을 요청하는 소프트 키(soft key)에 대한 터치 입력에 기반하여 상기 기능 매핑 이벤트의 발생을 검출하도록 설정된 전자 장치.
  4. 제 1항에 있어서,
    외부 전자 장치와 무선 통신으로 연결하기 위한 통신 회로를 더 포함하고,
    상기 프로세서는, 상기 통신 회로를 통해 상기 외부 전자 장치로부터 기능 매핑을 요청하는 신호의 수신 여부에 기반하여 상기 기능 매핑 이벤트의 발생을 검출하도록 설정된 전자 장치.
  5. 제 1항에 있어서,
    상기 프로세서는, 상기 어플리케이션 화면에 표시된 적어도 하나의 객체 중 터치 이벤트를 검출하는 적어도 하나의 객체를 식별하도록 설정된 전자 장치.
  6. 제 1항에 있어서,
    상기 프로세서는, 상기 식별된 적어도 하나의 객체에 지정된 효과를 적용하도록 설정된 전자 장치.
  7. 제 1항에 있어서,
    상기 프로세서는, 상기 어플리케이션 화면에서 상기 식별된 객체를 제외한 나머지 영역에 지정된 효과를 적용하도록 설정된 전자 장치.
  8. 제 1항에 있어서,
    상기 프로세서는,
    상기 입력에 기반하여 선택된 객체의 객체 정보를 확인하고,
    상기 어플리케이션 화면을 복원하기 위한 복원 정보를 확인하고, 및
    상기 객체 정보 및 상기 복원 정보를 기능 매핑 이벤트에 대응하는 트리거 이벤트와 매핑하여 저장하도록 설정된 전자 장치.
  9. 제 1항에 있어서,
    상기 프로세서는,
    상기 입력에 기반하여 선택된 객체 정보를 확인하고,
    상기 어플리케이션 화면을 복원하기 위한 복원 정보를 확인하고,
    적어도 하나의 트리거 이벤트를 포함하는 사용자 인터페이스(user interface)가 표시되도록 상기 디스플레이를 제어하고,
    상기 적어도 하나의 트리거 이벤트 중 하나를 선택하는 사용자 입력을 수신하고, 및
    상기 객체 정보 및 상기 복원 정보를 상기 사용자 입력에 기반하여 선택된 트리거 이벤트와 매핑하여 저장하도록 설정된 전자 장치.
  10. 제 1항에 있어서,
    상기 프로세서는,
    상기 트리거 이벤트를 검출하고,
    상기 트리거 이벤트와 매핑된 객체 정보 및 복원 정보를 확인하고,
    상기 복원 정보에 기반하여 상기 어플리케이션 화면을 복원하고, 및
    상기 객체 정보에 기반하여 상기 트리거 이벤트에 대응하는 객체에 터치 이벤트를 발생시키도록 설정된 전자 장치.
  11. 전자 장치에서 어플리케이션의 기능을 매핑하는 방법에 있어서,
    어플리케이션 화면이 표시되는 동안 기능 매핑(mapping) 이벤트의 발생을 검출하는 동작;
    상기 어플리케이션 화면에 표시된 적어도 하나의 객체 중 지정된 이벤트를 검출하는 적어도 하나의 객체를 식별하는 동작;
    상기 식별된 적어도 하나의 객체 중 어느 하나를 선택하기 위한 입력을 수신하는 동작; 및
    상기 입력에 기반하여 선택된 객체의 기능을 트리거 이벤트와 매핑하여 저장하는 동작을 포함하는 방법.
  12. 제 11항에 있어서,
    상기 기능 매핑(mapping) 이벤트의 발생을 검출하는 동작은, 상기 전자 장치의 하우징(housing)의 적어도 일부분을 통해 노출된 복수의 하드웨어 키(hardware key) 중 지정된 적어도 하나의 하드웨어 키에 대한 입력에 기반하여 상기 기능 매핑 이벤트의 발생을 검출하는 동작을 포함하는 방법.
  13. 제 11항에 있어서,
    상기 기능 매핑(mapping) 이벤트의 발생을 검출하는 동작은, 상기 전자 장치의 디스플레이를 통해 제공되는 복수의 소프트 키(soft key) 중 기능 매핑을 요청하는 소프트 키(soft key)에 대한 터치 입력에 기반하여 상기 기능 매핑 이벤트의 발생을 검출하는 동작을 포함하는 방법.
  14. 제 11항에 있어서,
    상기 기능 매핑(mapping) 이벤트의 발생을 검출하는 동작은, 상기 전자 장치와 무선 통신을 수행하는 외부 전자 장치로부터 기능 매핑을 요청하는 신호의 수신 여부에 기반하여 상기 기능 매핑 이벤트의 발생을 검출하는 동작을 포함하는 방법.
  15. 제 11항에 있어서,
    상기 지정된 이벤트를 검출하는 적어도 하나의 객체를 식별하는 동작은, 상기 어플리케이션 화면에 표시된 적어도 하나의 객체 중 터치 이벤트를 검출하는 적어도 하나의 객체를 식별하는 동작을 포함하는 방법.
PCT/KR2019/002000 2018-02-19 2019-02-19 어플리케이션의 기능을 매핑하는 방법 및 그 전자 장치 WO2019160395A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US16/971,014 US11550456B2 (en) 2018-02-19 2019-02-19 Method for mapping function of application and electronic device therefor

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020180019426A KR102539578B1 (ko) 2018-02-19 2018-02-19 어플리케이션의 기능을 매핑하는 방법 및 그 전자 장치
KR10-2018-0019426 2018-02-19

Publications (1)

Publication Number Publication Date
WO2019160395A1 true WO2019160395A1 (ko) 2019-08-22

Family

ID=67618978

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2019/002000 WO2019160395A1 (ko) 2018-02-19 2019-02-19 어플리케이션의 기능을 매핑하는 방법 및 그 전자 장치

Country Status (3)

Country Link
US (1) US11550456B2 (ko)
KR (1) KR102539578B1 (ko)
WO (1) WO2019160395A1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220187963A9 (en) * 2019-04-16 2022-06-16 Apple Inc. Reminders techniques on a user device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060033664A (ko) * 2004-10-15 2006-04-19 주식회사 팬택 이동통신 단말기에서 사용자 지정 단축키의 예약 실행방법 및 장치
US20070051792A1 (en) * 2005-09-06 2007-03-08 Lorraine Wheeler Method of remapping the input elements of a hand-held device
KR20120016729A (ko) * 2010-08-17 2012-02-27 주식회사 팬택 터치스크린의 제어영역을 설정하는 인터페이스 장치 및 방법
KR101398182B1 (ko) * 2013-05-07 2014-05-23 공정인 하드웨어 입력기를 이용한 스마트폰의 애플리케이션 소프트웨어의 다이렉트 실행 방법 및 그런 기능을 갖는 스마트폰
KR20150033755A (ko) * 2013-09-23 2015-04-02 주식회사 팬택 터치 좌표를 이용한 단말기 및 사용자 인터페이스 방법

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7735021B2 (en) * 2001-02-16 2010-06-08 Microsoft Corporation Shortcut system for use in a mobile electronic device and method thereof
US20050149971A1 (en) * 2004-01-06 2005-07-07 Hallberg Bryan S. Interactive television hot key manager
KR20060033840A (ko) 2004-10-16 2006-04-20 엘지전자 주식회사 휴대단말기의 음원 단축버튼 확인장치 및 방법
US7134094B2 (en) 2005-01-14 2006-11-07 Microsoft Corporation Automatic assigning of shortcut keys
KR101183115B1 (ko) * 2005-07-18 2012-09-20 삼성전자주식회사 터치 스크린 방식의 사용자 인터페이스 제공 방법 및 장치,그 장치를 포함하는 전자 기기
KR100776992B1 (ko) 2006-05-16 2007-11-21 삼성전자주식회사 기능 할당형 다-버튼 사이드 키를 구비한 이동통신 단말기및 그 기능 수행 방법
JP4743132B2 (ja) * 2007-02-15 2011-08-10 ティアック株式会社 複数のファンクションキーを有する電子機器
US20090138910A1 (en) * 2007-11-27 2009-05-28 Samsung Electronics Co., Ltd. Method and apparatus for setting and enabling shortcut key of remote controller
KR20090065775A (ko) 2007-12-18 2009-06-23 삼성전자주식회사 응용프로그램의 기능을 구성하고 실행하는 방법 및 이를위한 휴대 단말기
US20090313581A1 (en) * 2008-06-11 2009-12-17 Yahoo! Inc. Non-Mouse Computer Input Method and Apparatus
KR101523979B1 (ko) * 2008-10-02 2015-05-29 삼성전자주식회사 휴대 단말기 및 그 휴대 단말기에서 기능 수행 방법
US10684768B2 (en) * 2011-10-14 2020-06-16 Autodesk, Inc. Enhanced target selection for a touch-based input enabled user interface
EP2776909A4 (en) * 2011-11-11 2015-09-02 Qualcomm Inc PROVIDING SHORTCUTS ASSOCIATED WITH A KEYBOARD
US10365779B2 (en) * 2012-05-17 2019-07-30 Sony Interactive Entertainment LLC Dynamically assigning shortcuts to menu items and actions
US9128613B2 (en) * 2012-09-10 2015-09-08 International Business Machines Corporation Positioning clickable hotspots on a touchscreen display
KR20140045060A (ko) * 2012-10-08 2014-04-16 엘지전자 주식회사 이동 단말기 및 이동 단말기의 제어 방법
KR101978169B1 (ko) 2012-10-18 2019-05-14 엘지전자 주식회사 이동 단말기 및 이의제어방법
KR101592634B1 (ko) 2013-11-08 2016-02-05 링크젠 주식회사 휴대 단말기에서 어플리케이션의 특정 기능의 실행을 하드웨어 키에 등록하는 방법 및 그를 실행하는 방법
US9240077B1 (en) * 2014-03-19 2016-01-19 A9.Com, Inc. Real-time visual effects for a live camera view
KR20160113788A (ko) 2015-03-23 2016-10-04 한국전자통신연구원 형태 변형이 가능한 인터페이스 장치 및 인터페이스 장치를 이용한 보안 처리 방법
US20180129396A1 (en) * 2016-11-04 2018-05-10 Google Inc. Providing shortcut assistance for launching applications

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060033664A (ko) * 2004-10-15 2006-04-19 주식회사 팬택 이동통신 단말기에서 사용자 지정 단축키의 예약 실행방법 및 장치
US20070051792A1 (en) * 2005-09-06 2007-03-08 Lorraine Wheeler Method of remapping the input elements of a hand-held device
KR20120016729A (ko) * 2010-08-17 2012-02-27 주식회사 팬택 터치스크린의 제어영역을 설정하는 인터페이스 장치 및 방법
KR101398182B1 (ko) * 2013-05-07 2014-05-23 공정인 하드웨어 입력기를 이용한 스마트폰의 애플리케이션 소프트웨어의 다이렉트 실행 방법 및 그런 기능을 갖는 스마트폰
KR20150033755A (ko) * 2013-09-23 2015-04-02 주식회사 팬택 터치 좌표를 이용한 단말기 및 사용자 인터페이스 방법

Also Published As

Publication number Publication date
KR102539578B1 (ko) 2023-06-05
KR20190099684A (ko) 2019-08-28
US11550456B2 (en) 2023-01-10
US20210081097A1 (en) 2021-03-18

Similar Documents

Publication Publication Date Title
WO2019088793A1 (ko) 전자 장치 및 이를 이용한 화면 공유 방법
WO2019160345A1 (ko) 어플리케이션과 관련된 기능 또는 콘텐트를 제공하는 방법 및 이를 수행하는 전자 장치
WO2019143071A1 (en) Electronic device for controlling a plurality of applications
WO2019147031A1 (ko) 디스플레이를 제어하는 전자 장치 및 방법
WO2019103396A1 (en) Method for configuring input interface and electronic device using same
WO2019117566A1 (ko) 전자 장치 및 그의 입력 제어 방법
WO2019059596A1 (ko) 전자 장치의 소프트웨어의 업데이트를 관리하기 위한 장치 및 방법
WO2021060836A1 (ko) 어플리케이션 실행 방법 및 장치
WO2021150037A1 (en) Method for providing user interface and electronic device therefor
WO2020141763A1 (ko) 전자 장치 및 그 폴더 구성 방법
WO2019203494A1 (ko) 문자를 입력하기 위한 전자 장치 및 그의 동작 방법
WO2019045255A1 (ko) 어플리케이션 시작 방법 및 이를 구현하는 전자 장치
WO2021071222A1 (ko) 복수의 외부 전자 장치들로 오디오 데이터를 전송하는 전자 장치 및 그 제어 방법
WO2019083137A1 (ko) 알림을 제어하기 위한 방법 및 그 전자 장치
WO2020145653A1 (ko) 이미지의 촬영 장소를 추천하는 전자 장치 및 방법
WO2021020711A1 (ko) 불량을 예측하는 전자 장치 및 그 전자 장치의 제어 방법
WO2020138909A1 (ko) 콘텐트 공유 방법 및 그 전자 장치
WO2019160395A1 (ko) 어플리케이션의 기능을 매핑하는 방법 및 그 전자 장치
WO2020040454A1 (ko) 분할된 화면을 제어하기 위한 전자 장치
WO2019164204A1 (ko) 전자 장치 및 그의 동작 방법
WO2020040413A1 (ko) 압력 센서를 포함하는 키 어셈블리를 구비하는 전자 장치 및 이의 동작 방법
WO2019160323A1 (ko) 어플리케이션과 관련된 데이터를 관리하기 위한 방법 및 그 전자 장치
WO2019151667A1 (ko) 자동 응답 시스템으로 개인 정보를 전송하기 위한 장치 및 방법
WO2020159213A1 (ko) 상황에 기반한 사용자 맞춤형 설정 방법 및 장치
WO2019078501A1 (ko) 마이크를 통해 획득한 오디오 신호의 크기에 기반하여 마이크의 오류 발생 여부를 결정하기 위한 방법 및 그 전자 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19753955

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19753955

Country of ref document: EP

Kind code of ref document: A1