WO2017131401A1 - 전자 장치 및 전자 장치의 사용자 인터페이스 제어 방법 - Google Patents

전자 장치 및 전자 장치의 사용자 인터페이스 제어 방법 Download PDF

Info

Publication number
WO2017131401A1
WO2017131401A1 PCT/KR2017/000781 KR2017000781W WO2017131401A1 WO 2017131401 A1 WO2017131401 A1 WO 2017131401A1 KR 2017000781 W KR2017000781 W KR 2017000781W WO 2017131401 A1 WO2017131401 A1 WO 2017131401A1
Authority
WO
WIPO (PCT)
Prior art keywords
user interface
information
displaying
electronic device
area
Prior art date
Application number
PCT/KR2017/000781
Other languages
English (en)
French (fr)
Inventor
강동구
김윤경
윤여준
이용연
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Priority to US16/073,224 priority Critical patent/US10884578B2/en
Priority to EP17744523.6A priority patent/EP3410282B1/en
Priority to CN201780008297.8A priority patent/CN108604153A/zh
Publication of WO2017131401A1 publication Critical patent/WO2017131401A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text

Definitions

  • Various embodiments relate to an electronic device and a method of controlling a user interface of the electronic device.
  • the plurality of applications stored in the portable terminal are displayed with a plurality of icons corresponding to the plurality of applications through the application viewing function.
  • the user in order to reduce the inconvenience of having to find a desired application among a plurality of applications, the user separately displays an icon corresponding to an application frequently used by the user among the plurality of applications on at least one home screen, The user can easily find the desired application.
  • At least one home screen displays an icon corresponding to an application selected by the user, and when the icon is selected, provides only a function of executing an application corresponding to the selected icon, and applications that the user has executed in the past. It does not provide the ability to conveniently check or manage the applications used in the future.
  • Various embodiments of the present disclosure may provide an electronic device and a user interface control method of the electronic device that can conveniently identify or manage at least one object that has been executed or is scheduled to be executed.
  • the electronic device displays a user interface in which at least one object is disposed in the order of display and time, and the selected one of the at least one object disposed in the user interface while displaying the user interface. It may include a control unit for controlling the display to display information about the object.
  • a method of controlling a user interface of an electronic device may include: displaying a user interface in which at least one object is disposed in the order of time; And displaying information on a selected object of the at least one object disposed on the user interface while displaying the user interface.
  • An electronic device and a method of controlling a user interface of the electronic device may conveniently identify an object used in the past or an object to be used in the future to provide a user's usage pattern.
  • an object used in the past or the object to be used in the future may conveniently identify an object used in the past or an object to be used in the future to provide a user's usage pattern.
  • by providing information about the object used in the past or the object to be used in the future as a preview screen it is convenient to check the last operation of the object.
  • FIG. 1 illustrates a network environment according to various embodiments.
  • FIG. 2 is a block diagram of an electronic device according to various embodiments of the present disclosure.
  • FIG. 3 is a block diagram of a program module according to various embodiments.
  • FIG. 4 is a block diagram of an electronic device according to various embodiments of the present disclosure.
  • 5A through 5C are diagrams for describing a user interface provided on a home screen of an electronic device according to various embodiments of the present disclosure.
  • 6A through 6E are diagrams for describing functions provided to a user interface of an electronic device according to various embodiments of the present disclosure.
  • FIGS. 7A through 7C are diagrams for describing a function provided in a preview screen of an electronic device according to various embodiments of the present disclosure.
  • FIGS. 8A through 8E are diagrams for describing a user interface control operation in an electronic device according to various embodiments of the present disclosure.
  • 9A and 9D are diagrams for describing an operation of providing unconfirmed information through a user interface in an electronic device according to various embodiments of the present disclosure.
  • FIGS. 10A and 10C illustrate a user interface provided by a lock screen of an electronic device according to various embodiments of the present disclosure.
  • FIG. 11 is a flowchart illustrating a method of controlling an object using a user interface on a home screen of an electronic device according to various embodiments of the present disclosure.
  • FIG. 12 is a flowchart illustrating a state switching method of a first area of a user interface on a home screen of an electronic device according to various embodiments of the present disclosure.
  • FIG. 13 is a flowchart illustrating a method of controlling unidentified information using a user interface on a home screen of an electronic device according to various embodiments of the present disclosure.
  • FIG. 14 is a flowchart illustrating a method of controlling an object using a user interface in a lock screen of an electronic device according to various embodiments of the present disclosure.
  • 15 is a flowchart illustrating a method of configuring a preview screen in an electronic device according to various embodiments of the present disclosure.
  • expressions such as “A or B,” “at least one of A or / and B,” or “one or more of A or / and B” may include all possible combinations of items listed together.
  • “A or B,” “at least one of A and B,” or “at least one of A or B,” includes (1) at least one A, (2) at least one B, Or (3) both of cases including at least one A and at least one B.
  • first,” “second,” “first,” or “second,” as used herein may modify various components, regardless of order and / or importance, and may form a component. It is used to distinguish it from other components and does not limit the components.
  • the first user device and the second user device may represent different user devices regardless of the order or importance.
  • the first component may be called a second component, and similarly, the second component may be renamed to the first component.
  • One component (such as a first component) is "(functionally or communicatively) coupled with / to" to another component (such as a second component) or " When referred to as “connected to”, it should be understood that any component may be directly connected to the other component or may be connected through another component (eg, a third component).
  • a component e.g., a first component
  • another component e.g., a second component
  • no other component e.g., a third component
  • the expression “configured to” as used in this document is, for example, “having the capacity to” depending on the context, for example, “suitable for,” “. It may be used interchangeably with “designed to,” “adapted to,” “made to,” or “capable of.”
  • the term “configured to” may not necessarily mean only “specifically designed to” in hardware. Instead, in some situations, the expression “device configured to” may mean that the device “can” along with other devices or components.
  • the phrase “processor configured (or configured to) perform A, B, and C” may be implemented by executing a dedicated processor (eg, an embedded processor) to perform its operation, or one or more software programs stored in a memory device. It may mean a general-purpose processor (eg, a CPU or an application processor) capable of performing corresponding operations.
  • An electronic device may include, for example, a smartphone, a tablet personal computer, a mobile phone, a video phone, and an e-book reader.
  • wearable devices may be accessory (eg, watches, rings, bracelets, anklets, necklaces, glasses, contact lenses, or head-mounted-devices (HMDs)), textiles, or clothing integral pieces (eg, it may include at least one of an electronic garment, a body attachment type (eg, a skin pad or a tattoo), or a living implantable type (eg, an implantable circuit).
  • HMDs head-mounted-devices
  • the electronic device may be a home appliance.
  • Home appliances are, for example, televisions, digital video disk (DVD) players, audio, refrigerators, air conditioners, vacuum cleaners, ovens, microwaves, washing machines, air purifiers, set-top boxes, home automation controls Panel (home automation control panel), security control panel, TV box (e.g. Samsung HomeSync TM , Apple TV TM , or Google TV TM ), game console (e.g. Xbox TM , PlayStation TM ), electronic dictionary It may include at least one of an electronic key, a camcorder, or an electronic picture frame.
  • DVD digital video disk
  • the electronic device may include a variety of medical devices (e.g., various portable medical measuring devices such as blood glucose meters, heart rate monitors, blood pressure meters, or body temperature meters), magnetic resonance angiography (MRA), magnetic resonance imaging (MRI), Such as computed tomography (CT), imaging or ultrasound, navigation devices, satellite navigation systems (global navigation satellite systems), event data recorders (EDRs), flight data recorders (FDRs), and automotive infotainment ) Devices, ship's electronic equipment (e.g.
  • Point of sales, point of sales, or Internet of things may include at least one.
  • an electronic device may be a piece of furniture or a building / structure, an electronic board, an electronic signature receiving device, a projector, or various measuring devices (eg, Water, electricity, gas, or radio wave measuring instrument).
  • the electronic device may be a combination of one or more of the aforementioned various devices.
  • An electronic device according to an embodiment may be a flexible electronic device.
  • the electronic device according to an embodiment of the present disclosure is not limited to the above-described devices, and may include a new electronic device according to technology development.
  • the term user may refer to a person who uses an electronic device or a device (eg, an artificial intelligence electronic device) that uses an electronic device.
  • a device eg, an artificial intelligence electronic device
  • the electronic device 101 may include a bus 110, a processor 120, a memory 130, an input / output interface 150, a display 160, and a communication interface 170.
  • the electronic device 101 may omit at least one of the components or additionally include other components.
  • the bus 110 may, for example, include circuitry that connects the components 110-170 to each other and communicates communications (eg, control messages and / or data) between the components.
  • communications eg, control messages and / or data
  • the processor 120 may include one or more of a central processing unit (CPU), an application processor (AP), or a communication processor (CP).
  • the processor 120 may execute, for example, an operation or data processing related to control and / or communication of at least one other component of the electronic device 101.
  • the memory 130 may include volatile and / or nonvolatile memory.
  • the memory 130 may store, for example, commands or data related to at least one other element of the electronic device 101.
  • the memory 130 may store software and / or a program 140.
  • the program 140 may be, for example, a kernel 141, middleware 143, an application programming interface (API) 145, an application program (or an “application”) 147, or the like. It may include. At least a portion of kernel 141, middleware 143, or API 145 may be referred to as an operating system (OS).
  • OS operating system
  • the kernel 141 may be a system resource (eg, used to execute an action or function implemented in, for example, other programs (eg, middleware 143, API 145, or application program 147).
  • the bus 110, the processor 120, or the memory 130 may be controlled or managed.
  • the kernel 141 may provide an interface for controlling or managing system resources by accessing individual components of the electronic device 101 from the middleware 143, the API 145, or the application program 147. Can be.
  • the middleware 143 may serve as an intermediary for allowing the API 145 or the application program 147 to communicate with the kernel 141 to exchange data.
  • the middleware 143 may process one or more work requests received from the application program 147 according to priority.
  • the middleware 143 may use system resources (eg, the bus 110, the processor 120, or the memory 130, etc.) of the electronic device 101 for at least one of the application programs 147. Priority can be given.
  • the middleware 143 may perform the scheduling or load balancing of the one or more work requests by processing the one or more work requests according to the priority given to the at least one.
  • the API 145 is, for example, an interface for the application 147 to control a function provided by the kernel 141 or the middleware 143, for example, file control, window control, image processing, or text. It may include at least one interface or function (eg, a command) for control.
  • the input / output interface 150 may serve as, for example, an interface capable of transferring a command or data input from a user or another external device to other component (s) of the electronic device 101.
  • the input / output interface 150 may output commands or data received from other component (s) of the electronic device 101 to a user or another external device.
  • the display 160 is, for example, a liquid crystal display (LCD), a light-emitting diode (LED) display, an organic light-emitting diode (OLED) display, Or microelectromechanical systems (MEMS) displays, or electronic paper displays.
  • the display 160 may display, for example, various contents (eg, text, images, videos, icons, symbols, etc.) to the user.
  • the display 160 may include a touch screen and may receive, for example, a touch, gesture, proximity, or hovering input using an electronic pen or a part of a user's body.
  • the communication interface 170 may establish communication between the electronic device 101 and an external device (eg, the first external electronic device 102, the second external electronic device 104, or the server 106). Can be.
  • the communication interface 170 may be connected to the network 162 through wireless or wired communication to communicate with an external device (eg, the second external electronic device 104 or the server 106).
  • Wireless communication is, for example, a cellular communication protocol, for example, long-term evolution (LTE), LTE Advance (LTE-A), code division multiple access (CDMA), wideband CDMA (WCDMA), UMTS (universal).
  • LTE long-term evolution
  • LTE-A LTE Advance
  • CDMA code division multiple access
  • WCDMA wideband CDMA
  • UMTS universal
  • WBro mobile telecommunications system
  • WiBro wireless broadband
  • GSM global system for mobile communications
  • wireless communication may include, for example, near field communication 164.
  • the short range communication 164 may include, for example, at least one of wireless fidelity (WiFi), Bluetooth, near field communication (NFC), global navigation satellite system (GNSS), and the like.
  • WiFi wireless fidelity
  • NFC near field communication
  • GNSS global navigation satellite system
  • GNSS may be, for example, among the Global Positioning System (GPS), the Global Navigation Satellite System (Glonass), the Beidou Navigation Satellite System (“Beidou”), or Galileo, the European global satellite-based navigation system. It may include at least one.
  • GPS Global Positioning System
  • Beidou Beidou Navigation Satellite System
  • Galileo the European global satellite-based navigation system. It may include at least one.
  • GPS Global Positioning System
  • the wired communication may include, for example, at least one of a universal serial bus (USB), a high definition multimedia interface (HDMI), a reduced standard232 (RS-232), a plain old telephone service (POTS), and the like.
  • the network 162 may include a telecommunications network, for example, at least one of a computer network (for example, a LAN or WAN), the Internet, and a telephone network.
  • Each of the first and second external electronic devices 102 and 104 may be a device of the same or different type as the electronic device 101.
  • server 106 may comprise a group of one or more servers.
  • all or part of operations executed in the electronic device 101 may be executed in another or a plurality of electronic devices (for example, the electronic devices 102 and 104 or the server 106).
  • the electronic device 101 may instead execute or execute the function or service by itself, or at least some function associated therewith.
  • the other electronic device may request the requested function or The additional function may be executed and the result may be transmitted to the electronic device 101.
  • the electronic device 101 may provide the requested function or service by processing the received result as it is or additionally.
  • Cloud computing distributed computing, or client-server computing techniques can be used.
  • the electronic device 201 may include, for example, all or part of the electronic device 101 illustrated in FIG. 1.
  • the electronic device 201 may include one or more processors (eg, an application processor (AP) 210), a communication module 220, a subscriber identification module 224, a memory 230, a sensor module 240, and an input device 250. ), Display 260, interface 270, audio module 280, camera module 291, power management module 295, battery 296, indicator 297, and motor 298. have.
  • AP application processor
  • the processor 210 may control, for example, a plurality of hardware or software components connected to the processor 210 by running an operating system or an application program, and may perform various data processing and operations.
  • the processor 210 may be implemented with, for example, a system on chip (SoC).
  • SoC system on chip
  • the processor 210 may further include a graphic processing unit (GPU) and / or an image signal processor.
  • the processor 210 may include at least some of the components illustrated in FIG. 2 (eg, the cellular module 221).
  • the processor 210 may load and process instructions or data received from at least one of other components (eg, nonvolatile memory) into volatile memory, and store various data in the nonvolatile memory. have.
  • the communication module 220 may have a configuration that is the same as or similar to that of the communication interface 170 of FIG. 1.
  • the communication module 220 may be, for example, a cellular module 221, a WiFi module 223, a Bluetooth module 225, a GNSS module 227 (eg, a GPS module, a Glonass module, a Beidou module, or a Galileo module). It may include an NFC module 228 and a radio frequency (RF) module 229.
  • RF radio frequency
  • the cellular module 221 may provide, for example, a voice call, a video call, a text service, or an internet service through a communication network. According to an embodiment, the cellular module 221 may perform identification and authentication of the electronic device 201 in a communication network by using a subscriber identification module (eg, a SIM card) 224. According to an embodiment, the cellular module 221 may perform at least some of the functions that the processor 210 may provide. According to an embodiment, the cellular module 221 may include a communication processor (CP).
  • CP communication processor
  • Each of the WiFi module 223, the Bluetooth module 225, the GNSS module 227, or the NFC module 228 may include, for example, a processor for processing data transmitted and received through the corresponding module.
  • at least some (eg, two or more) of the cellular module 221, the WiFi module 223, the Bluetooth module 225, the GNSS module 227, or the NFC module 228 may be one integrated chip. (IC) or in an IC package.
  • the RF module 229 may transmit / receive a communication signal (for example, an RF signal), for example.
  • the RF module 229 may include, for example, a transceiver, a power amp module (PAM), a frequency filter, a low noise amplifier (LNA), an antenna, or the like.
  • PAM power amp module
  • LNA low noise amplifier
  • at least one of the cellular module 221, the WiFi module 223, the Bluetooth module 225, the GNSS module 227, or the NFC module 228 may transmit and receive an RF signal through a separate RF module. Can be.
  • Subscriber identification module 224 may include, for example, a card that includes a subscriber identification module and / or an embedded SIM, and may include unique identification information (eg, an integrated circuit card identifier (ICCID)) or It may include subscriber information (eg, international mobile subscriber identity (IMSI)).
  • ICCID integrated circuit card identifier
  • IMSI international mobile subscriber identity
  • the memory 230 may include, for example, an internal memory 232 or an external memory 234.
  • the internal memory 232 may be, for example, volatile memory (eg, dynamic RAM (DRAM), static RAM (SRAM), or synchronous dynamic RAM (SDRAM), etc.), non-volatile memory (eg, non-volatile memory).
  • volatile memory eg, dynamic RAM (DRAM), static RAM (SRAM), or synchronous dynamic RAM (SDRAM), etc.
  • non-volatile memory eg, non-volatile memory.
  • SSD solid state drive
  • the external memory 234 may be a flash drive, for example, compact flash (CF), secure digital (SD), micro secure digital (Micro-SD), mini secure digital (Mini-SD), or extreme (xD). It may further include a digital, a multi-media card (MMC) or a memory stick (memory stick).
  • the external memory 234 may be functionally and / or physically connected to the electronic device 201 through various interfaces.
  • the sensor module 240 may measure, for example, a physical quantity or detect an operation state of the electronic device 201 and convert the measured or detected information into an electrical signal.
  • the sensor module 240 includes, for example, a gesture sensor 240A, a gyro sensor 240B, an air pressure sensor 240C, a magnetic sensor 240D, an acceleration sensor 240E, a grip sensor 240F, and a proximity sensor ( 240G), color sensor 240H (e.g., red (green, blue) sensor), biometric sensor 240I, temperature / humidity sensor 240J, illuminance sensor 240K, or UV (ultra violet) ) May include at least one of the sensors 240M.
  • the sensor module 240 may include, for example, an olfactory sensor, an electromyography sensor, an electroencephalogram sensor, an electrocardiogram sensor. And infrared (IR) sensors, iris sensors, and / or fingerprint sensors.
  • the sensor module 240 may further include a control circuit for controlling at least one or more sensors belonging therein.
  • the electronic device 201 further includes a processor configured to control the sensor module 240 as part of or separately from the processor 210, while the processor 210 is in a sleep state. The sensor module 240 may be controlled.
  • the input device 250 may be, for example, a touch panel 252, a (digital) pen sensor 254, a key 256, or an ultrasonic input device ( 258).
  • the touch panel 252 may use at least one of capacitive, resistive, infrared, or ultrasonic methods, for example.
  • the touch panel 252 may further include a control circuit.
  • the touch panel 252 may further include a tactile layer to provide a tactile response to the user.
  • the (digital) pen sensor 254 may be, for example, part of a touch panel or may include a separate sheet for recognition.
  • the key 256 may include, for example, a physical button, an optical key, or a keypad.
  • the ultrasonic input device 258 may detect ultrasonic waves generated by an input tool through a microphone (for example, the microphone 288) and check data corresponding to the detected ultrasonic waves.
  • Display 260 may include panel 262, hologram device 264, or projector 266.
  • the panel 262 may include a configuration that is the same as or similar to that of the display 160 of FIG. 1.
  • the panel 262 may be implemented to be, for example, flexible, transparent, or wearable.
  • the panel 262 may be configured as a single module with the touch panel 252.
  • the hologram 264 may show a stereoscopic image in the air by using interference of light.
  • the projector 266 may display an image by projecting light onto a screen.
  • the screen may be located inside or outside the electronic device 201.
  • the display 260 may further include a control circuit for controlling the panel 262, the hologram device 264, or the projector 266.
  • the interface 270 may be, for example, a high-definition multimedia interface (HDMI) 272, a universal serial bus (USB) 274, an optical interface 276, or a D-subminiature ) 278.
  • the interface 270 may be included in, for example, the communication interface 170 illustrated in FIG. 1.
  • interface 270 may be, for example, a mobile high-definition link (MHL) interface, a secure digital (SD) card / multi-media card (MMC) interface, or an IrDA (infrared). data association) may include a standard interface.
  • MHL mobile high-definition link
  • SD secure digital
  • MMC multi-media card
  • IrDA infrared
  • the audio module 280 may bilaterally convert, for example, a sound and an electrical signal. At least some components of the audio module 280 may be included in, for example, the input / output interface 145 illustrated in FIG. 1.
  • the audio module 280 may process sound information input or output through, for example, a speaker 282, a receiver 284, an earphone 286, a microphone 288, or the like.
  • the camera module 291 is, for example, a device capable of capturing still images and moving images.
  • the camera module 291 may include one or more image sensors (eg, a front sensor or a rear sensor), a lens, and an image signal processor (ISP). Or flash (eg, LED or xenon lamp, etc.).
  • image sensors eg, a front sensor or a rear sensor
  • ISP image signal processor
  • flash eg, LED or xenon lamp, etc.
  • the power management module 295 may manage power of the electronic device 201, for example.
  • the power management module 295 may include a power management integrated circuit (PMIC), a charger integrated circuit (ICC), or a battery or fuel gauge.
  • the PMIC may have a wired and / or wireless charging scheme.
  • the wireless charging method may include, for example, a magnetic resonance method, a magnetic induction method, an electromagnetic wave method, or the like, and may further include additional circuits for wireless charging, such as a coil loop, a resonance circuit, a rectifier, and the like. have.
  • the battery gauge may measure, for example, the remaining amount of the battery 296, the voltage, the current, or the temperature during charging.
  • the battery 296 may include, for example, a rechargeable battery and / or a solar battery.
  • the indicator 297 may display a specific state of the electronic device 201 or a part thereof (for example, the processor 210), for example, a booting state, a message state, or a charging state.
  • the motor 298 may convert an electrical signal into mechanical vibrations, and may generate a vibration or haptic effect.
  • the electronic device 201 may include a processing device (eg, a GPU) for supporting mobile TV.
  • the processing apparatus for supporting mobile TV may process media data according to a standard such as digital multimedia broadcasting (DMB), digital video broadcasting (DVB), or mediaFlo TM .
  • DMB digital multimedia broadcasting
  • DVD digital video broadcasting
  • mediaFlo TM mediaFlo TM
  • Each of the components described in this document may be composed of one or more components, and the names of the corresponding components may vary depending on the type of electronic device.
  • the electronic device may be configured to include at least one of the components described in this document, and some components may be omitted or further include additional components.
  • some of the components of the electronic device according to various embodiments of the present disclosure may be combined to form a single entity, and thus may perform the same functions of the corresponding components before being combined.
  • the program module 310 (eg, the program 140) is an operating system (or operating system) and / or operating a resource related to the electronic device (eg, the electronic device 101). It may include various applications (for example, an application program 147) running on the system.
  • the operating system may be, for example, android, ios, windows, symbian, tizen, bada, or the like.
  • the program module 310 may include a kernel 320, middleware 330, an application programming interface (API) 360, and / or an application 370. At least a part of the program module 310 may be preloaded on the electronic device or may be downloaded from an external electronic device (eg, the electronic devices 102 and 104, the server 106, etc.).
  • API application programming interface
  • the kernel 320 may include, for example, a system resource manager 321 and / or a device driver 323.
  • the system resource manager 321 may perform control, allocation, or retrieval of system resources.
  • the system resource manager 321 may include a process manager, a memory manager, or a file system manager.
  • the device driver 323 may include, for example, a display driver, a camera driver, a Bluetooth driver, a shared memory driver, a USB driver, a keypad driver, a WiFi driver, an audio driver, or an inter-process communication (IPC) driver. .
  • IPC inter-process communication
  • the middleware 330 may provide various functions through the API 360, for example, to provide functions commonly required by the application 370, or to allow the application 370 to efficiently use limited system resources inside the electronic device. Functions may be provided to the application 370.
  • the middleware 330 eg, the middleware 143 may include a runtime library 335, an application manager 341, a window manager 342, and a multimedia manager. 343, resource manager 344, power manager 345, database manager 346, package manager 347, connectivity manager (348), a notification manager (349), a location manager (350), a graphic manager (351), or a security manager (352) can do.
  • the runtime library 335 may include, for example, a library module that the compiler uses to add new functionality through the programming language while the application 370 is running.
  • the runtime library 335 may perform input / output management, memory management, or a function for an arithmetic function.
  • the application manager 341 may manage, for example, a life cycle of at least one of the applications 370.
  • the window manager 342 may manage GUI resources used on the screen.
  • the multimedia manager 343 may grasp formats required for playing various media files and perform encoding or decoding of media files using a codec suitable for the format.
  • the resource manager 344 may manage resources such as source code, memory, or storage space of at least one of the applications 370.
  • the power manager 345 may operate together with a basic input / output system (BIOS) to manage a battery or power, and provide power information necessary for the operation of the electronic device.
  • the database manager 346 may generate, search for, or change a database to be used by at least one of the applications 370.
  • the package manager 347 may manage installation or update of an application distributed in the form of a package file.
  • the connection manager 348 may manage, for example, a wireless connection such as WiFi or Bluetooth. Notification manager 349 may display or notify events such as arrival messages, appointments, proximity notifications, and the like in a manner that does not disturb the user.
  • the location manager 350 may manage location information of the electronic device.
  • the graphic manager 351 may manage graphic effects to be provided to the user or a user interface related thereto.
  • the security manager 352 may provide various security functions required for system security or user authentication. According to an embodiment of the present disclosure, when the electronic device (for example, the electronic device 101) includes a telephone function, the middleware 330 further includes a telephone manager for managing a voice or video call function of the electronic device. can do.
  • the middleware 330 may include a middleware module that forms a combination of various functions of the above-described components.
  • the middleware 330 may provide a module specialized for each type of OS in order to provide a differentiated function.
  • the middleware 330 may dynamically delete some of the existing components or add new components.
  • API 360 (eg, API 145) is, for example, a set of API programming functions, which may be provided in different configurations depending on the operating system. For example, in the case of Android or iOS, one API set may be provided for each platform, and in Tizen, two or more API sets may be provided for each platform.
  • the application 370 may be, for example, a home 371, a dialer 372, an SMS / MMS 373, an instant message (374), a browser 375, Camera 376, Alarm 377, Contact 378, Voice Dial 379, Email 380, Calendar 381, Media Player 382, Album 383, or Clock 384, Healthcare or one or more applications capable of performing functions such as health care (eg, measuring exercise amount or blood sugar) or providing environmental information (eg, providing barometric pressure, humidity, or temperature information).
  • health care eg, measuring exercise amount or blood sugar
  • environmental information eg, providing barometric pressure, humidity, or temperature information
  • the application 370 may be an application that supports information exchange between an electronic device (eg, the electronic device 101) and an external electronic device (eg, the electronic devices 102 and 104).
  • the "information exchange application” may be included.
  • the information exchange application may include, for example, a notification relay application for delivering specific information to an external electronic device, or a device management application for managing the external electronic device.
  • the notification delivery application may include notification information generated by another application of the electronic device (eg, an SMS / MMS application, an email application, a health care application, or an environmental information application). , 104)). Also, the notification delivery application may receive notification information from an external electronic device and provide the notification information to a user, for example.
  • another application of the electronic device eg, an SMS / MMS application, an email application, a health care application, or an environmental information application. , 104)
  • the notification delivery application may receive notification information from an external electronic device and provide the notification information to a user, for example.
  • the device management application may, for example, turn at least one function of an external electronic device (eg, the electronic devices 102 and 104) in communication with the electronic device (eg, turn on the external electronic device itself (or some component part). On / turn-off or adjust the brightness (or resolution) of the display, manage applications (e.g., install, delete), applications running on an external electronic device or services provided by the external electronic device (e.g., call service or message service) , Or update).
  • an external electronic device e.g, the electronic devices 102 and 104
  • manage applications e.g., install, delete
  • applications running on an external electronic device or services provided by the external electronic device e.g., call service or message service
  • the application 370 may include an application (eg, a health care application of a mobile medical device, etc.) designated according to an attribute of the external electronic device (eg, the electronic devices 102 and 104).
  • the application 370 may include an application received from an external electronic device (for example, the server 106 or the electronic devices 102 and 104). May include a preloaded application or a third party application downloadable from a server, etc.
  • the names of the components of the program module 310 according to the embodiment illustrated in FIG. Therefore, it may vary.
  • At least part of the program module 310 may be implemented in software, firmware, hardware, or a combination of two or more thereof. At least a part of the program module 310 may be implemented (for example, executed) by, for example, a processor (for example, the processor 210). At least a part of the program module 310 may include, for example, a module, a program, a routine, sets of instructions, or a process for performing one or more functions.
  • module may refer to a unit that includes one or a combination of two or more of hardware, software, or firmware.
  • a “module” may be interchangeably used with terms such as, for example, unit, logic, logical block, component, or circuit.
  • the module may be a minimum unit or part of an integrally constructed part.
  • the module may be a minimum unit or part of performing one or more functions.
  • the “module” can be implemented mechanically or electronically.
  • a “module” is one of application-specific integrated circuit (ASIC) chips, field-programmable gate arrays (FPGAs), or programmable-logic devices that perform certain operations, known or developed in the future. It may include at least one.
  • ASIC application-specific integrated circuit
  • FPGAs field-programmable gate arrays
  • At least a portion of an apparatus (e.g., modules or functions thereof) or method (e.g., operations) may be, for example, computer-readable storage media in the form of a program module. It can be implemented as a command stored in.
  • a processor e.g, the processor 120
  • the one or more processors may perform a function corresponding to the instruction.
  • the computer-readable storage medium may be the memory 130, for example.
  • Computer-readable recording media include hard disks, floppy disks, magnetic media (e.g. magnetic tape), optical media (e.g. compact disc read only memory), DVD ( digital versatile discs, magneto-optical media (e.g. floptical disks), hardware devices (e.g. read only memory, random access memory (RAM), or flash memory)
  • the program instructions may include not only machine code generated by a compiler, but also high-level language code executable by a computer using an interpreter, etc.
  • the hardware device described above may be various. It can be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.
  • Modules or program modules according to various embodiments may include at least one or more of the above components, some may be omitted, or further include other components. Operations performed by modules, program modules, or other components in accordance with various embodiments may be executed in a sequential, parallel, repetitive, or heuristic manner. In addition, some operations may be executed in a different order, may be omitted, or other operations may be added. And the embodiments disclosed herein are presented for the purpose of explanation and understanding of the disclosed, technical content, and do not limit the scope of the technology described in this document. Accordingly, the scope of this document should be construed as including all changes or various other embodiments based on the technical spirit of this document.
  • FIG. 4 is a block diagram of an electronic device according to various embodiments of the present disclosure.
  • the electronic device 401 may include a controller 410, a display 420, and a memory 430.
  • the controller 410 displays a user interface of at least one object arranged in the order of time on a home screen, and among the at least one object arranged in the user interface while displaying the user interface.
  • Information about the object selected by the user may be displayed on the display 420 as a preview screen.
  • the object may include at least one of an application, a task, an active bit, or an operation executed in the electronic device.
  • the controller 410 may classify the user interface into a first area and a second area.
  • the controller 410 displays the objects that were executed in the past and the objects that are to be executed in the future in block units in the order of time, and the movement between the at least one objects is performed. It can display possible pointers.
  • the controller 401 displays the executed objects in a past block unit in the order of time in a first direction from a first location representing a current time in the first area, and displays the first direction in the first location.
  • Objects to be executed may be displayed in units of a future block in the order of time in a second direction opposite to.
  • the controller 410 displays the pointer moved in the first area by default at a first position indicating a current time, and corresponds to a past block or a future block according to a direction in which the pointer is moved at the first position.
  • Information about the object to be displayed can be displayed on the preview screen.
  • the controller 410 may display, on the preview screen, information on an object corresponding to a past block in which the pointer is located while the pointer is moved in the first direction from the first position of the first area. have.
  • the controller 410 may update and display a past block corresponding to the executed object in the first area in the order of time while the pointer repeatedly moves the first area in the first direction. have.
  • the controller 410 may display, on the preview screen, information about an object corresponding to a future block in which the pointer is located while the pointer is moved in the second direction from the first position of the first area. have.
  • the controller 410 may update and display a future block corresponding to the executed object in the first area in the order of time while the pointer repeatedly moves the first area in the second direction. have.
  • the controller 410 displays an indication (eg, an icon) indicating a type of an object corresponding to a block in which the pointer is located in a partial region of the pointer while the pointer is moved in the first area. can do.
  • an indication eg, an icon
  • the controller 410 may display (eg, color) the blocks displayed in the first area according to types of objects or categories of objects.
  • the controller 410 may display an indication (eg, an icon) for providing a basic menu in the first area in the second area.
  • the controller 410 may, when the indication of the second area is selected in the first state in which the at least one object is arranged in the order of time, a basic menu (eg, For example, a call application, a contact application, a text application, an internet application, and a list of applications may be displayed.
  • the controller 410 may switch to the first state when an indication of the second area is selected in the second state.
  • the controller 410 detects the last screen information or the specific screen information stored in association with the object corresponding to the block where the pointer is located in the first area, and detects the last screen information or the specific screen information.
  • the screen information may be reconfigured based on the location of the user interface displayed on the home screen and displayed as information on the object.
  • the controller 410 may display the last screen information or The specific screen information may be reconstructed.
  • the specific screen information may be selected and stored by the user at the end of the object.
  • the controller 410 may execute the selected object when a first gesture is detected while displaying information on the selected object in the user interface.
  • the control unit 410 displays the information about the object corresponding to the block in which the pointer is located in the first area of the user interface on the preview screen, and the lower bezel in the first area, for example, in the second area.
  • a drag operation is detected in an area, an object corresponding to the block in which the pointer is located may be executed.
  • the controller 410 when the drag operation is detected from the lower bezel area to the upper end while the object is executed through the first gesture, the controller 410 ends the execution of the object and includes the user interface. You can switch to the home screen.
  • the controller 410 may provide a function related to the selected object on the preview screen while displaying the information on the object selected in the user interface on the preview screen. For example, when the pointer is moved in the first area and the call application is positioned, the controller 410 displays information on the call application on a preview screen, and a function example related to the call application on the preview screen.
  • a soft key may display a call menu capable of attempting a call to a user who has performed a call and a message menu capable of sending a message to a user who has received a message.
  • 5A through 5C are diagrams for describing a user interface provided on a home screen of an electronic device according to various embodiments of the present disclosure.
  • the user interface 500 displayed on the home screen is illustrated.
  • the user interface 500 is formed in a circle shape, and includes a second area 520 of a circle shape having a predetermined radius at the center of the circle, and a ring shape surrounding the periphery of the second area.
  • the first region 510 may be included.
  • the first area 510 includes a pointer 511 that is movable in the first area 510 and is positioned at a first position indicating a current time by default.
  • An icon 520 capable of providing a basic menu in the first area may be displayed in the second area 520.
  • the past block corresponding to the object executed in the past by the user in the first direction may be arranged in the order of time based on the first position (present).
  • the controller 410 of FIG. The past block corresponding to the object executed in the past by the user may be updated and displayed.
  • a future block corresponding to an object executed in the second direction for example, in a clockwise direction by the user in the future may be arranged in the order of time based on the first position (present).
  • the controller is executed in the future by the user in the order of time.
  • the future block corresponding to the old object can be updated and displayed.
  • 5C illustrates a side structure of the first area 510 of the user interface as shown in FIG. 5B.
  • 6A through 6E are diagrams for describing functions provided to a user interface of an electronic device according to various embodiments of the present disclosure.
  • 6A through 6E illustrate at least one application disposed on a user interface as an example.
  • the second area is displayed in a first state in which a block corresponding to an application is displayed in order of time.
  • the control unit 410 of FIG. 4 is arranged at least in the order of time in the first area 610 as shown in FIG. 6B.
  • a preset basic menu eg, a message application, a call application, a contact application, and an application list view
  • the controller may execute a function corresponding to the selected menu.
  • the control unit may enter the first area 610 as shown in FIG. 6C.
  • the user may switch to a first state displaying blocks corresponding to at least one application arranged in a time sequence.
  • the controller is configured to display the call application in a predetermined area of the pointer 610.
  • a phone icon 621a indicating the type may be displayed.
  • the type of the call application is defined in a predetermined area of the pointer 610.
  • a phone-shaped icon 621a informing about is displayed and the information on the call application is displayed on the home screen as a preview screen, and the first gesture, for example, dragging from the second area to the lower bezel area ( If it is detected 630, the controller can execute the call application.
  • 7A through 7C are diagrams for describing a function provided in a preview screen of an electronic device according to various embodiments of the present disclosure.
  • 7A through 7C illustrate at least one application disposed on a user interface as an example.
  • the control menu 760 may include, for example, a call menu 760a capable of attempting a call to the last caller (eg, "Scarlett”) corresponding to the information on the call application and information on the call application.
  • the softkey may display a message menu 760b for sending a message to the last message receiver (eg, “Scarlett”) corresponding to the message.
  • a function related to an application is shown for each category of the application.
  • a function related to an application for each category of an application is an example, and various functions may be selectively set or added.
  • the communication 781, the location 782, the entertainment 783, the health 784, and the schedule 785 may be classified according to the category 780 of the application.
  • the communication category 781 includes a type of an application such as a call, a contact, a chat, and an SNS
  • the preview screen for the application related to the communication category is displayed, the preview is displayed.
  • the call menu for making a call on the screen and the message menu for sending a message can be displayed and flicked with soft keys.
  • the location category 782 includes an application type such as a map, navigation, weather, and the like
  • the preview screen for the application related to the location category is displayed, the preview screen is displayed on the preview screen.
  • a panning and zooming function capable of performing touch interaction may be provided. For example, if the last used map is displayed as a preview screen for the map application, the panning or zooming function is used to zoom in on another part of the map or a specific part of the map that is not displayed on the display. can do.
  • the entertainment category 783 includes types of applications such as music, video, news, magazines, cameras, and photos
  • the entertainment category When a preview screen for an application related to is displayed, soft keys such as Next, Previous, Play, and Pause may be displayed on the preview screen.
  • the health category 784 includes an application type such as health and medicine
  • a preview screen for an application related to the health category is displayed, a record or list is displayed on the preview screen. It can provide a panning function that can search for content such as up / down / left / right scroll and graph for searching for.
  • the schedule category 785 includes a type of an application such as a calendar, a todo list, and a reservation
  • the schedule category 785 is displayed. It is possible to provide a vertical scrolling function to check the detailed information on the schedule on the preview screen.
  • 8A through 8E are diagrams for describing a user interface control operation in an electronic device according to various embodiments of the present disclosure.
  • 8A to 8E illustrate at least one application disposed on a user interface as an example.
  • the controller 410 of FIG. 4 displays the information about the music application on the preview screen 840 as shown in FIG. 8B and informs the pointer 811 of the type of music application.
  • the icon 811a may be displayed, and a function 850 related to the music application may be displayed on a predetermined area of the preview screen.
  • the controller may execute the music application as shown in FIG. 8C. have.
  • the control unit controls the music application as shown in FIG.
  • the terminal may switch to the home screen including the user interface 800.
  • the controller 410 while the user interface is displayed on the home screen, the controller 410 includes a first object including information that is not confirmed by the user in at least one object disposed in the user interface. In this case, an indication indicating that unconfirmed information exists in the first object may be displayed.
  • the controller 410 while displaying the user interface, the controller 410 displays an indication (eg, an icon) indicating that unidentified information exists around a block corresponding to the first object. can do.
  • an indication eg, an icon
  • the controller 410 may display detailed information on the unconfirmed information on a preview screen.
  • the controller 410 when an indication displayed around a block corresponding to the first object is selected, stores detailed information about the unidentified information as last screen information of the first object.
  • the block corresponding to the first object may be located at a first position indicating a current time.
  • the controller 410 may detect a first gesture, for example, a drag operation from a second area of the user interface to a lower bezel area. 1 You can run an object.
  • the controller 410 ends the execution of the first object.
  • the home screen providing the user interface may be displayed.
  • 9A and 9D illustrate an operation of providing unconfirmed information through a user interface in an electronic device according to various embodiments of the present disclosure.
  • 9A to 9D illustrate at least one application disposed on a user interface as an example.
  • the controller 410 of FIG. 4 may include a neighboring block corresponding to an SNS application in which unconfirmed information exists among applications disposed in the first area 910 of the user interface 900 provided on the home screen.
  • the icon 930 indicating the existence of the unconfirmed information may be displayed on the screen.
  • the controller displays detailed information of the unconfirmed information on a preview screen as shown in FIG. 9B, and displays a block corresponding to the SNS application at a first position indicating a current time.
  • an icon indicating a type of an SNS application may be displayed on the pointer located at the first position.
  • the controller may provide a function related to the SNS application, for example, a flick function while displaying detailed information of the unconfirmed information on the preview screen.
  • the controller may display other detailed information on the preview screen 960 as shown in FIG. 9C.
  • the controller may execute the SNS application as illustrated in FIG. 9D.
  • the controller 410 displays at least one object arranged in the order of time on the lock screen on a user interface, and a user among at least one object arranged on the user interface while displaying the user interface.
  • Information about the object selected by s may be displayed on the display 420 as a preview screen.
  • the controller 410 displays a pointer moved in the first area of the user interface provided by the lock screen by default at a first position indicating a current time, and the pointer moves at the first position.
  • Information on the object corresponding to the past block or the future block may be displayed on the second area of the user interface on the preview screen according to the direction.
  • the control unit 410 while the pointer is moved in the first direction from the first position of the first area, displays information about an object corresponding to a past block in which the pointer is located on the preview screen on the second screen. Can be displayed in the area.
  • the controller 410 may update and display a past block corresponding to the executed object in the first area in the order of time while the pointer repeatedly moves the first area in the first direction. have.
  • the control unit 410 while the pointer is moved in the second direction from the first position of the first area, displays information about an object corresponding to a future block in which the pointer is located on the preview screen. Can be displayed in the area.
  • the controller 410 may update and display a future block corresponding to the executed object in the first area in the order of time while the pointer repeatedly moves the first area in the second direction. have.
  • the controller 410 displays an indication (eg, an icon) indicating a type of an object corresponding to a block in which the pointer is located in a partial region of the pointer while the pointer is moved in the first area. can do.
  • an indication eg, an icon
  • the controller 410 may display (eg, color) the blocks displayed in the first area according to types of objects or categories of objects.
  • the controller 410 may execute the selected object when a first gesture is detected while displaying information on the object selected in the user interface on the second area on a preview screen.
  • the controller 410 displays a first gesture, for example, a second gesture while displaying information on an object corresponding to a block in which the pointer is located in the first area of the user interface on the second area.
  • a first gesture for example, a second gesture
  • the lock may be released and an object corresponding to the block where the pointer is located may be executed.
  • the controller 410 while executing the object according to the first gesture, performs execution of the object when a second gesture, for example, a drag operation from the lower bezel area to the upper end is detected.
  • the screen may be terminated and the screen may be switched to the home screen including the user interface.
  • the controller 410 may release the lock and switch to the home screen when the first gesture occurs while the information about the object is not displayed in the second area of the user interface. have.
  • the controller 410 may provide the user interface on the switched home screen.
  • a control operation of objects arranged in a time sequence may be described using a user interface provided in a lock screen.
  • 10A and 10C illustrate a user interface provided by a lock screen of an electronic device according to various embodiments of the present disclosure.
  • 10A through 10C illustrate at least one application disposed on a user interface as an example.
  • the controller (Fig. 4, 410 indicates that the information on the exercise application is displayed on the second area 1020 as a preview screen, and the pointer 1011 located in the block corresponding to the exercise application displays the information of the exercise application.
  • An icon 1011a indicating the type may be displayed.
  • the controller may execute the exercise application as shown in FIG. 10C.
  • the display 420 may be, for example, the display 160 illustrated in FIG. 1.
  • the display 420 may display a user interface including at least one object arranged in the order of time on the home screen or the lock screen.
  • the memory 430 may be, for example, the memory 130 illustrated in FIG. 1.
  • the memory 430 may store information about each of at least one object disposed on a user interface provided on a home screen or a lock screen.
  • the display 420 and the controller 410 display a user interface in which at least one object is arranged in the order of time, and the at least one disposed in the user interface while displaying the user interface.
  • the display may be controlled to display information about a selected object among objects of.
  • the controller 410 may display the user interface on a home screen or a lock screen.
  • the controller 410 may display a pointer for moving between the at least one object on the user interface and display information on an object selected by the movement of the pointer.
  • the controller 410 divides the user interface into a first area and a second area, displays the at least one object in block units on the first area, and provides the at least one object. Display the pointer that can move between them, and displays an indication to provide a basic menu in the first area in the second area, if the pointer is moved in the first area, the direction of movement of the pointer Based on the information on the object corresponding to the block in which the pointer is located can be displayed.
  • the controller 410 may display information on the selected object by reconstructing last screen information or specific screen information related to the selected object based on the position of the user interface displayed on the display. can do.
  • the controller 410 executes the selected object when a first gesture is detected while displaying information on the selected object, and when the second gesture is detected while executing the object.
  • the execution of the object may be terminated and the user interface may be displayed.
  • the controller 410 may provide a function related to the selected object while displaying information on the selected application.
  • the controller 410 displays the first object in the user interface.
  • An indication indicating the presence of unidentified information by the user may be displayed in the vicinity of a block corresponding to.
  • the controller 410 displays detailed information on the unidentified information and displays the detailed information. If the first gesture is detected while the first object is executed.
  • the controller 410 may display information about a selected object among at least one object disposed in the first area of the user interface. It can be displayed in two areas.
  • FIG. 11 is a flowchart illustrating a method of controlling an object using a user interface on a home screen of an electronic device according to various embodiments of the present disclosure.
  • a method of controlling an object using a user interface on a home screen of an electronic device according to various embodiments of the present disclosure may be performed by the controller 410 of the first electronic device 401 of FIG. 4. .
  • the controller may display a user interface in which objects previously executed and objects scheduled to be executed in the future are arranged in the order of time.
  • the controller may detect a movement direction of the pointer.
  • the controller determines that one of the past blocks corresponding to an object executed in the past in the first area is detected in operation 1107.
  • Information on the object corresponding to the block where the pointer is located may be displayed on the preview screen (420 of FIG. 4).
  • the controller may display information about the object in the background on the display and display the user interface in the foreground.
  • the controller controls the pointer among future blocks corresponding to an object executed in the first area in the first region in operation 1111.
  • Information on the object corresponding to the block in which the is located may be displayed on the display 420 of FIG. 4 as a preview screen.
  • the controller may display information about the object in the background on the display and display the user interface in the foreground.
  • a first gesture for executing the object for example, the second area of the user interface. If the drag operation is detected in the lower bezel area in operation 1115, the controller may execute an object corresponding to the block in which the pointer is located in operation 1115.
  • operation 1115 the object corresponding to the block on which the pointer is located is executed, if a second gesture for switching the user interface, for example, a drag operation from the lower bezel area to the upper end is detected in operation 1117, the controller may perform the operation. The execution of the object may be terminated and the operation 1101 of providing a user interface on the home screen may be performed.
  • the controller may provide a function related to the object while displaying the preview screen for information on the object corresponding to the block in which the pointer is located in operation 1107 or 1111.
  • a function related to the object For example, in the case of a call application, soft keys such as a call menu and a message menu may be displayed. In the case of a music application, soft keys such as fast forward, rewind, and play may be provided.
  • the controller may control an object corresponding to the block in which the pointer is located corresponding to the selected function in operation 1121. Functions related to the object are described in detail with reference to FIG. 7.
  • FIG. 12 is a flowchart illustrating a state switching method of a first area of a user interface on a home screen of an electronic device according to various embodiments of the present disclosure.
  • a method of switching a state of a first area of a user interface on a home screen of an electronic device according to various embodiments of the present disclosure may be performed by the controller 410 of the first electronic device 401 of FIG. 4. have.
  • the controller may display a user interface in which objects that were executed in the past and objects that are to be executed in the future are arranged in the order of time.
  • the first area of the user interface may be in a first state in which blocks corresponding to at least one object are arranged and displayed in the order of time.
  • the controller may display an indication displayed in the second area of the user interface in a first state in which blocks corresponding to at least one object are arranged and displayed in the order of time in the first area of the user interface.
  • the controller 110 may switch to a second state in which a basic menu is displayed in the first area in operation 1205.
  • the controller may divide the first area into small areas corresponding to a preset number of basic menus, and display an icon indicating the basic menu in each of the small areas.
  • the controller may be configured to display the first menu in the order of time.
  • the operation 1203 may be performed by switching to a first state in which blocks corresponding to at least one object are disposed and displayed.
  • the controller may perform a function corresponding to the selected menu in operation 1211.
  • FIG. 13 is a flowchart illustrating a method of controlling unidentified information using a user interface on a home screen of an electronic device according to various embodiments of the present disclosure.
  • a method of controlling unidentified information using a user interface on a home screen of an electronic device according to various embodiments of the present disclosure may be performed by the controller 410 of the first electronic device 401 of FIG. 4. have.
  • the controller may display a user interface in which objects that were executed in the past and objects that are to be executed in the future are arranged in a time sequence.
  • the controller may detect a first object in which unconfirmed information exists among at least one object arranged in the order of cigars in the first area of the user interface.
  • the controller may display an indication indicating the presence of unconfirmed information around the block corresponding to the first object.
  • the controller may display detailed information on the unconfirmed information on the preview screen in operation 1309.
  • the control unit detects a current operation to select the indication, and displays the first object at a first position indicating a current position in the first area while displaying detailed information on the unconfirmed information on the preview screen.
  • the block corresponding to the position may be positioned, and an icon indicating the type of the first object may be displayed on the pointer located at the first position.
  • control unit when the control unit detects a first gesture for executing an object, for example, a drag operation from the second area to the lower bezel area while displaying detailed information on the unconfirmed information, in operation 1313.
  • the first object may be executed.
  • a second gesture for example, a drag operation from a lower bezel area to an upper end is detected while executing the first object
  • the controller terminates execution of the first object and displays a user interface on a home screen.
  • the displaying operation 1301 may be performed.
  • FIG. 14 is a flowchart illustrating a method of controlling an object using a user interface in a lock screen of an electronic device according to various embodiments of the present disclosure.
  • a method of controlling an object using a user interface in a lock screen of an electronic device according to various embodiments of the present disclosure may be described by an example of being performed by the controller 410 of the first electronic device 401 of FIG. 4. .
  • the controller may display a user interface in which objects that were executed in the past and objects that are to be executed in the future are arranged in the order of time.
  • the controller may detect a movement direction of the current pointer in the first area of the user interface.
  • the controller determines that one of the past blocks corresponding to an object executed in the past in the first area is detected in operation 1407.
  • Information about an object corresponding to the block where the pointer is located may be displayed on the second area of the user interface on a preview screen.
  • the controller determines the pointer among future blocks corresponding to an object executed in the first area in the future in operation 1411.
  • Information on the object corresponding to the block in which the is located may be displayed on the second area of the user interface as a preview screen. While displaying information on an object corresponding to the block in which the pointer is located in the preview screen in operation 1407 or 1411, a first gesture for executing an object in operation 1413, for example, a second area of the user interface.
  • the controller releases the lock of the electronic device and executes an object corresponding to the block in which the pointer is located.
  • FIG. 15 is a flowchart illustrating a method of configuring a preview screen in an electronic device according to various embodiments of the present disclosure.
  • a method of configuring a preview screen in an electronic device according to various embodiments of the present disclosure may be described as being performed by the controller 410 of the first electronic device 401 of FIG. 4.
  • the controller may execute the object selected by the user. If the control unit detects the end of the execution of the object in operation 1503, the controller may store the last screen information or the specific screen information of the object in operation 1505.
  • the specific screen information may include screen information that may be selected by a user at the end of the object.
  • the controller may reconfigure the last screen information or the specific screen information based on the location and shape of the user interface and store the information on the object.
  • control unit reconfigures the last screen information or the specific screen information so that the last information or the main information of the specific information is not hidden on the user interface displayed on the home screen, and the object is to be displayed as the preview screen.
  • the controller may reconfigure and store the last screen information or the specific screen information as information on the object so that the last information or the main information of the specific information is displayed on the second area of the user interface displayed on the lock screen.
  • the controller performs the operation 1507 when displaying the information on the object corresponding to the block selected through the movement of the pointer in the first area of the user interface on the home screen or the lock screen as the preview screen, and moves the pointer. Through the information on the object corresponding to the selected block can be displayed on the preview screen.
  • a method of controlling a user interface of an electronic device may include:
  • Displaying a user interface in which at least one object is arranged in chronological order, and displaying information on a selected object of the at least one object disposed in the user interface while displaying the user interface. can do.
  • the user interface may be displayed on a home screen or a lock screen.
  • the method may further include displaying a pointer capable of moving between the at least one object on the user interface, and displaying information on the selected one of the at least one object by moving the pointer. can do.
  • the displaying of the information about the object may include: splitting the user interface into a first area and a second area, displaying the at least one object in block units in the first area, Displaying the pointer capable of moving between the at least one object, displaying an indication for providing a basic menu in the first area in the second area, and moving the pointer in the first area If so, the method may include displaying information on an object corresponding to the block in which the pointer is located based on the moving direction of the pointer.
  • the displaying of the preview screen may be performed by reconfiguring last screen information or specific screen information of the selected application on the selected object based on the position of the user interface displayed on the display of the electronic device. It may include an operation of displaying information about.
  • the method when displaying information about the selected object, executing the selected object when a first gesture is detected, and executing the object when a second gesture is detected while executing the object.
  • the method may further include terminating and displaying the user interface.
  • the method may further include providing a function related to the selected object while displaying information on the selected object.
  • the user interface may be surrounded by a block corresponding to the first object.
  • the method may further include displaying an indication indicating the presence of unidentified information by the user.
  • the first gesture when an indication indicating the presence of unidentified information is selected by the user, displaying the detailed information on the unidentified information, and while displaying the detailed information, the first gesture is displayed. If is detected may further include the step of executing the first object.
  • displaying information on a selected object among at least one object disposed in the first area of the user interface on the second area of the user interface may further include.
  • a storage medium storing instructions, the instructions being configured to cause the at least one processor to perform at least one operation when executed by the at least one processor, the at least one operation being Displaying a user interface in which at least one object is arranged according to a time sequence, and displaying information on a selected object among the at least one object disposed in the user interface while displaying the user interface. You can record the program to run.

Abstract

다양한 실시예에 따르면, 전자장치는, 디스플레이 및 시간의 순서에 따라 적어도 하나의 객체가 배치된 사용자 인터페이스를 표시하고, 상기 사용자 인터페이스를 표시하는 동안 상기 사용자 인터페이스에 배치된 상기 적어도 하나의 객체 중 선택된 객체에 대한 정보를 표시하도록 상기 디스플레이를 제어하는 제어부를 포함할 수 있다.

Description

전자 장치 및 전자 장치의 사용자 인터페이스 제어 방법
다양한 실시예는 전자 장치 및 전자 장치의 사용자 인터페이스 제어 방법 에 관한 것이다.
휴대단말기에 저장된 복수의 어플리케이션들은, 어플리케이션의 보기기능을 통해 복수의 어플리케이션들에 대응되는 복수의 아이콘들로 표시되어 있다.
또한 복수의 어플리케이션들 중 사용자가 원하는 어플리케이션을 일일이 찾아야 하는 불편함을 감소하기 위해, 사용자는 복수의 어플리케이션들 중 사용자에 의해 자주 사용되는 어플리케이션에 대응되는 아이콘을 적어도 하나의 홈 화면에 별도로 표시함으로써, 사용자는 원하는 어플리케이션을 쉽게 찾을 수 있다.
그러나, 적어도 하나의 홈 화면에는 사용자에 의해 선택된 어플리케이션에 대응되는 아이콘을 표시하고, 상기 아이콘이 선택되면 상기 선택된 아이콘에 대응되는 어플리케이션을 실행시키는 기능을 제공할 뿐, 사용자가 과거에 실행했던 어플리케이션들과 미래에 사용될 어플리케이션들을 편리하게 확인하거나 관리할 수 있는 기능을 제공하고 있지 않다.
본 발명의 다양한 실시예는 실행되었던 또는 실행 예정인 적어도 하나의 객체를 편리하게 확인하거나 관리할 수 있는 전자 장치 및 전자 장치의 사용자 인터페이스 제어 방법을 제공할 수 있다.
다양한 실시예에 따르면, 전자 장치가, 디스플레이 및 시간의 순서에 따라 적어도 하나의 객체가 배치된 사용자 인터페이스를 표시하고, 상기 사용자 인터페이스를 표시하는 동안 상기 사용자 인터페이스에 배치된 상기 적어도 하나의 객체 중 선택된 객체에 대한 정보를 표시하도록 상기 디스플레이를 제어하는 제어부 를 포함할 수 있다.
다양한 실시예에 따르면, 전자 장치의 사용자 인터페이스 제어방법은, 시간의 순서에 따라 적어도 하나의 객체가 배치된 사용자 인터페이스를 표시하는 동작; 및 상기 사용자 인터페이스를 표시하는 동안 상기 사용자 인터페이스에 배치된 상기 적어도 하나의 객체 중 선택된 객체에 대한 정보를 표시하는 동작을 포함할 수 있다.
다양한 실시예에 따른 전자 장치 및 전자 장치의 사용자 인터페이스 제어 방법은, 사용자가 과거에 사용했던 객체 또는 미래에 사용 예정인 객체를 편리하게 확인하여 사용자의 사용패턴을 제공할 수 있다. 또한 과거에 사용했던 객체 또는 미래에 사용 예정인 객체에 대한 정보를 프리뷰 화면으로 제공함으로써 객체에 대한 마지막 동작을 편리하게 확인할 수 있다. 또한 과거와 미래가 연계된 히스토리와 스케줄을 동시에 확인가능하고 관리할 수 있는 타임라인을 제공할 수 있다.
도 1은 다양한 실시예에 따른 네트워크 환경을 도시한다.
도 2는 다양한 실시예에 따른 전자 장치의 블록도를 도시한다.
도 3은 다양한 실시예에 따른 프로그램 모듈의 블록도를 도시한다.
도 4는 다양한 실시예에 따른 전자 장치의 블록도 이다.
도 5a - 도 5c는 다양한 실시예에 따른 전자 장치의 홈 화면에서 제공하는 사용자 인터페이스를 설명하기 위한 도면이다.
도 6a - 도 6e는 다양한 실시예에 따른 전자 장치의 사용자 인터페이스에 제공하는 기능을 설명하기 위한 도면이다.
도 7a - 도 7c는 다양한 실시예에 따른 전자 장치의 프리뷰 화면에서 제공되는 기능을 설명하기 위한 도면이다.
도 8a - 도 8e는 다양한 실시예에 따른 전자 장치에서 사용자 인터페이스 제어 동작을 설명하기 위한 도면이다.
도 9a - 도 9d는 다양한 실시예에 따른 전자 장치에서 사용자 인터페이스를 통해 미확인 정보를 제공하는 동작을 설명하기 위한 도면이다
도 10a - 도 10c는 다양한 실시예에 따른 전자 장치의 잠금 화면에서 제공하는 사용자 인터페이스를 설명하기 위한 도면이다.
도 11은 다양한 실시예에 따른 전자 장치의 홈 화면에서 사용자 인터페이스를 이용하여 객체를 제어하는 방법을 보여주는 흐름도이다.
도 12는 다양한 실시예에 따른 전자 장치의 홈 화면에서 사용자 인터페이스의 제1 영역에 대한 상태전환 방법을 보여주는 흐름도이다.
도 13은 다양한 실시예에 따른 전자 장치의 홈 화면에서 사용자 인터페이스를 이용하여 미확인 정보를 제어하는 방법을 보여주는 흐름도이다.
도 14는 다양한 실시예에 따른 전자 장치의 잠금 화면에서 사용자 인터페이스를 이용하여 객체를 제어하는 방법을 보여주는 흐름도이다.
도 15는 다양한 실시예에 따른 전자 장치에서 프리뷰 화면의 구성 방법을 보여주는 흐름도이다.
이하, 본 문서의 다양한 실시예가 첨부된 도면을 참조하여 기재된다. 그러나, 이는 본 문서에 기재된 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 문서의 실시예의 다양한 변경(modifications), 균등물(equivalents), 및/또는 대체물(alternatives)을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다.
본 문서에서, "가진다," "가질 수 있다," "포함한다," 또는 "포함할 수 있다" 등의 표현은 해당 특징(예: 수치, 기능, 동작, 또는 부품 등의 구성요소)의 존재를 가리키며, 추가적인 특징의 존재를 배제하지 않는다.
본 문서에서, "A 또는 B," "A 또는/및 B 중 적어도 하나," 또는 "A 또는/및 B 중 하나 또는 그 이상"등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. 예를 들면, "A 또는 B," "A 및 B 중 적어도 하나," 또는 "A 또는 B 중 적어도 하나"는, (1) 적어도 하나의 A를 포함, (2) 적어도 하나의 B를 포함, 또는 (3) 적어도 하나의 A 및 적어도 하나의 B 모두를 포함하는 경우를 모두 지칭할 수 있다.
본 문서에서 사용된 "제 1," "제 2," "첫째," 또는 "둘째,"등의 표현들은 다양한 구성요소들을, 순서 및/또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. 예를 들면, 제 1 사용자 기기와 제 2 사용자 기기는, 순서 또는 중요도와 무관하게, 서로 다른 사용자 기기를 나타낼 수 있다. 예를 들면, 본 문서에 기재된 권리 범위를 벗어나지 않으면서 제 1 구성요소는 제 2 구성요소로 명명될 수 있고, 유사하게 제 2 구성요소도 제 1 구성요소로 바꾸어 명명될 수 있다.
어떤 구성요소(예: 제 1 구성요소)가 다른 구성요소(예: 제 2 구성요소)에 "(기능적으로 또는 통신적으로) 연결되어((operatively or communicatively) coupled with/to)" 있다거나 "접속되어(connected to)" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제 3 구성요소)를 통하여 연결될 수 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소(예: 제 1 구성요소)가 다른 구성요소(예: 제 2 구성요소)에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소와 상기 다른 구성요소 사이에 다른 구성요소(예: 제 3 구성요소)가 존재하지 않는 것으로 이해될 수 있다.
본 문서에서 사용된 표현 "~하도록 구성된(또는 설정된)(configured to)"은 상황에 따라, 예를 들면, "~에 적합한(suitable for)," "~하는 능력을 가지는(having the capacity to)," "~하도록 설계된(designed to)," "~하도록 변경된(adapted to)," "~하도록 만들어진(made to)," 또는 "~를 할 수 있는(capable of)"과 바꾸어 사용될 수 있다. 용어 "~하도록 구성된(또는 설정된)"은 하드웨어적으로 "특별히 설계된(specifically designed to)" 것만을 반드시 의미하지 않을 수 있다. 대신, 어떤 상황에서는, "~하도록 구성된 장치"라는 표현은, 그 장치가 다른 장치 또는 부품들과 함께 "~할 수 있는" 것을 의미할 수 있다. 예를 들면, 문구 "A, B, 및 C를 수행하도록 구성된(또는 설정된) 프로세서"는 해당 동작을 수행하기 위한 전용 프로세서(예: 임베디드 프로세서), 또는 메모리 장치에 저장된 하나 이상의 소프트웨어 프로그램들을 실행함으로써, 해당 동작들을 수행할 수 있는 범용 프로세서(generic-purpose processor)(예: CPU 또는 application processor)를 의미할 수 있다.
본 문서에서 사용된 용어들은 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 다른 실시예의 범위를 한정하려는 의도가 아닐 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 용어들은 본 문서에 기재된 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가질 수 있다. 본 문서에 사용된 용어들 중 일반적인 사전에 정의된 용어들은, 관련 기술의 문맥상 가지는 의미와 동일 또는 유사한 의미로 해석될 수 있으며, 본 문서에서 명백하게 정의되지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다. 경우에 따라서, 본 문서에서 정의된 용어일지라도 본 문서의 실시예들을 배제하도록 해석될 수 없다.
본 문서의 다양한 실시예들에 따른 전자 장치는, 예를 들면, 스마트폰(smartphone), 태블릿 PC(tablet personal computer), 이동 전화기(mobile phone), 영상 전화기, 전자책 리더기(e-book reader), 데스크탑 PC(desktop personal computer), 랩탑 PC(laptop personal computer), 넷북 컴퓨터(netbook computer), 워크스테이션(workstation), 서버, PDA(personal digital assistant), PMP(portable multimedia player), MP3 플레이어, 모바일 의료기기, 카메라(camera), 또는 웨어러블 장치(wearable device) 중 적어도 하나를 포함할 수 있다. 다양한 실시예에 따르면, 웨어러블 장치는 액세서리형(예: 시계, 반지, 팔찌, 발찌, 목걸이, 안경, 콘택트 렌즈, 또는 머리 장착용 장치(head-mounted-device(HMD)), 직물 또는 의류 일체형(예: 전자 의복), 신체 부착형(예: 스킨 패드(skin pad) 또는 문신), 또는 생체 이식형(예: implantable circuit) 중 적어도 하나를 포함할 수 있다.
어떤 실시예들에서, 전자 장치는 가전 제품(home appliance)일 수 있다. 가전 제품은, 예를 들면, 텔레비전, DVD(digital video disk) 플레이어, 오디오, 냉장고, 에어컨, 청소기, 오븐, 전자레인지, 세탁기, 공기 청정기, 셋톱 박스(set-top box), 홈 오토매이션 컨트롤 패널(home automation control panel), 보안 컨트롤 패널(security control panel), TV 박스(예: 삼성 HomeSyncTM, 애플TVTM, 또는 구글 TVTM), 게임 콘솔(예: XboxTM, PlayStationTM), 전자 사전, 전자 키, 캠코더(camcorder), 또는 전자 액자 중 적어도 하나를 포함할 수 있다.
다른 실시예에서, 전자 장치는, 각종 의료기기(예: 각종 휴대용 의료측정기기(혈당 측정기, 심박 측정기, 혈압 측정기, 또는 체온 측정기 등), MRA(magnetic resonance angiography), MRI(magnetic resonance imaging), CT(computed tomography), 촬영기, 또는 초음파기 등), 네비게이션(navigation) 장치, 위성 항법 시스템(GNSS(global navigation satellite system)), EDR(event data recorder), FDR(flight data recorder), 자동차 인포테인먼트(infotainment) 장치, 선박용 전자 장비(예: 선박용 항법 장치, 자이로 콤파스 등), 항공 전자기기(avionics), 보안 기기, 차량용 헤드 유닛(head unit), 산업용 또는 가정용 로봇, 금융 기관의 ATM(automatic teller's machine), 상점의 POS(point of sales), 또는 사물 인터넷 장치(internet of things)(예: 전구, 각종 센서, 전기 또는 가스 미터기, 스프링클러 장치, 화재경보기, 온도조절기(thermostat), 가로등, 토스터(toaster), 운동기구, 온수탱크, 히터, 보일러 등) 중 적어도 하나를 포함할 수 있다.
어떤 실시예에 따르면, 전자 장치는 가구(furniture) 또는 건물/구조물의 일부, 전자 보드(electronic board), 전자 사인 수신 장치(electronic signature receiving device), 프로젝터(projector), 또는 각종 계측 기기(예: 수도, 전기, 가스, 또는 전파 계측 기기 등) 중 적어도 하나를 포함할 수 있다. 다양한 실시예에서, 전자 장치는 전술한 다양한 장치들 중 하나 또는 그 이상의 조합일 수 있다. 어떤 실시예에 따른 전자 장치는 플렉서블 전자 장치일 수 있다. 또한, 본 문서의 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않으며, 기술 발전에 따른 새로운 전자 장치를 포함할 수 있다.
이하, 첨부 도면을 참조하여, 다양한 실시예에 따른 전자 장치가 설명된다. 본 문서에서, 사용자라는 용어는 전자 장치를 사용하는 사람 또는 전자 장치를 사용하는 장치(예: 인공지능 전자 장치)를 지칭할 수 있다.
도 1을 참조하여, 다양한 실시예에서의, 네트워크 환경(100) 내의 전자 장치(101)가 기재된다. 전자 장치(101)는 버스(110), 프로세서(120), 메모리(130), 입출력 인터페이스(150), 디스플레이(160), 및 통신 인터페이스(170)를 포함할 수 있다. 어떤 실시예에서는, 전자 장치(101)는, 구성요소들 중 적어도 하나를 생략하거나 다른 구성요소를 추가적으로 구비할 수 있다.
버스(110)는, 예를 들면, 구성요소들(110-170)을 서로 연결하고, 구성요소들 간의 통신(예: 제어 메시지 및/또는 데이터)을 전달하는 회로를 포함할 수 있다.
프로세서(120)는, 중앙처리장치(central processing unit(CPU)), 어플리케이션 프로세서(application processor(AP)), 또는 커뮤니케이션 프로세서(communication processor(CP)) 중 하나 또는 그 이상을 포함할 수 있다. 프로세서(120)는, 예를 들면, 전자 장치(101)의 적어도 하나의 다른 구성요소들의 제어 및/또는 통신에 관한 연산이나 데이터 처리를 실행할 수 있다. 메모리(130)는, 휘발성 및/또는 비휘발성 메모리를 포함할 수 있다. 메모리(130)는, 예를 들면, 전자 장치(101)의 적어도 하나의 다른 구성요소에 관계된 명령 또는 데이터를 저장할 수 있다. 한 실시예에 따르면, 메모리(130)는 소프트웨어 및/또는 프로그램(140)을 저장할 수 있다. 프로그램(140)은, 예를 들면, 커널(141), 미들웨어(143), 어플리케이션 프로그래밍 인터페이스(application programming interface(API))(145), 및/또는 어플리케이션 프로그램(또는 "어플리케이션")(147) 등을 포함할 수 있다. 커널(141), 미들웨어(143), 또는 API(145)의 적어도 일부는, 운영 시스템(operating system(OS))으로 지칭될 수 있다.
커널(141)은, 예를 들면, 다른 프로그램들(예: 미들웨어(143), API(145), 또는 어플리케이션 프로그램(147))에 구현된 동작 또는 기능을 실행하는 데 사용되는 시스템 리소스들(예: 버스(110), 프로세서(120), 또는 메모리(130) 등)을 제어 또는 관리할 수 있다. 또한, 커널(141)은 미들웨어(143), API(145), 또는 어플리케이션 프로그램(147)에서 전자 장치(101)의 개별 구성요소에 접근함으로써, 시스템 리소스들을 제어 또는 관리할 수 있는 인터페이스를 제공할 수 있다.
미들웨어(143)는, 예를 들면, API(145) 또는 어플리케이션 프로그램(147)이 커널(141)과 통신하여 데이터를 주고받을 수 있도록 중개 역할을 수행할 수 있다.
또한, 미들웨어(143)는 어플리케이션 프로그램(147)으로부터 수신된 하나 이상의 작업 요청들을 우선 순위에 따라 처리할 수 있다. 예를 들면, 미들웨어(143)는 어플리케이션 프로그램(147) 중 적어도 하나에 전자 장치(101)의 시스템 리소스(예: 버스(110), 프로세서(120), 또는 메모리(130) 등)를 사용할 수 있는 우선 순위를 부여할 수 있다. 예컨대, 미들웨어(143)는 상기 적어도 하나에 부여된 우선 순위에 따라 상기 하나 이상의 작업 요청들을 처리함으로써, 상기 하나 이상의 작업 요청들에 대한 스케쥴링 또는 로드 밸런싱 등을 수행할 수 있다.
API(145)는, 예를 들면, 어플리케이션(147)이 커널(141) 또는 미들웨어(143)에서 제공되는 기능을 제어하기 위한 인터페이스로, 예를 들면, 파일 제어, 창 제어, 영상 처리, 또는 문자 제어 등을 위한 적어도 하나의 인터페이스 또는 함수(예: 명령어)를 포함할 수 있다.
입출력 인터페이스(150)는, 예를 들면, 사용자 또는 다른 외부 기기로부터 입력된 명령 또는 데이터를 전자 장치(101)의 다른 구성요소(들)에 전달할 수 있는 인터페이스의 역할을 할 수 있다. 또한, 입출력 인터페이스(150)는 전자 장치(101)의 다른 구성요소(들)로부터 수신된 명령 또는 데이터를 사용자 또는 다른 외부 기기로 출력할 수 있다.
*디스플레이(160)는, 예를 들면, 액정 디스플레이(liquid crystal display(LCD)), 발광 다이오드(light-emitting diode(LED)) 디스플레이, 유기 발광 다이오드(organic light-emitting diode(OLED)) 디스플레이, 또는 마이크로 전자기계 시스템(microelectromechanical systems(MEMS)) 디스플레이, 또는 전자종이(electronic paper) 디스플레이를 포함할 수 있다. 디스플레이(160)는, 예를 들면, 사용자에게 각종 콘텐츠(예: 텍스트, 이미지, 비디오, 아이콘, 또는 심볼 등)을 표시할 수 있다. 디스플레이(160)는, 터치 스크린을 포함할 수 있으며, 예를 들면, 전자 펜 또는 사용자의 신체의 일부를 이용한 터치, 제스쳐, 근접, 또는 호버링 입력을 수신할 수 있다.
통신 인터페이스(170)는, 예를 들면, 전자 장치(101)와 외부 장치(예: 제 1 외부 전자 장치(102), 제 2 외부 전자 장치(104), 또는 서버(106)) 간의 통신을 설정할 수 있다. 예를 들면, 통신 인터페이스(170)는 무선 통신 또는 유선 통신을 통해서 네트워크(162)에 연결되어 외부 장치(예: 제 2 외부 전자 장치(104) 또는 서버(106))와 통신할 수 있다.
무선 통신은, 예를 들면, 셀룰러 통신 프로토콜로서, 예를 들면, LTE(long-term evolution), LTE-A(LTE Advance), CDMA(code division multiple access), WCDMA(wideband CDMA), UMTS(universal mobile telecommunications system), WiBro(Wireless Broadband), 또는 GSM(Global System for Mobile Communications) 등 중 적어도 하나를 사용할 수 있다. 또한, 무선 통신은, 예를 들면, 근거리 통신(164)을 포함할 수 있다. 근거리 통신(164)은, 예를 들면, WiFi(wireless fidelity), 블루투스(Bluetooth), NFC(near field communication), 또는 GNSS(global navigation satellite system) 등 중 적어도 하나를 포함할 수 있다. GNSS는 사용 지역 또는 대역폭 등에 따라, 예를 들면, GPS(Global Positioning System), Glonass(Global Navigation Satellite System), Beidou Navigation Satellite System(이하 "Beidou") 또는 Galileo, the European global satellite-based navigation system 중 적어도 하나를 포함할 수 있다. 이하, 본 문서에서는, "GPS"는 "GNSS"와 혼용되어 사용(interchangeably used)될 수 있다. 유선 통신은, 예를 들면, USB(universal serial bus), HDMI(high definition multimedia interface), RS-232(recommended standard232), 또는 POTS(plain old telephone service) 등 중 적어도 하나를 포함할 수 있다. 네트워크(162)는 통신 네트워크(telecommunications network), 예를 들면, 컴퓨터 네트워크(computer network)(예: LAN 또는 WAN), 인터넷, 또는 전화 망(telephone network) 중 적어도 하나를 포함할 수 있다.
제 1 및 제 2 외부 전자 장치(102, 104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 한 실시예에 따르면, 서버(106)는 하나 또는 그 이상의 서버들의 그룹을 포함할 수 있다. 다양한 실시예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 다른 하나 또는 복수의 전자 장치(예: 전자 장치(102,104), 또는 서버(106)에서 실행될 수 있다. 한 실시예에 따르면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로 또는 요청에 의하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 그와 연관된 적어도 일부 기능을 다른 장치(예: 전자 장치(102, 104), 또는 서버(106))에게 요청할 수 있다. 다른 전자 장치(예: 전자 장치(102, 104), 또는 서버(106))는 요청된 기능 또는 추가 기능을 실행하고, 그 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 수신된 결과를 그대로 또는 추가적으로 처리하여 요청된 기능이나 서비스를 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다.
도 2는 다양한 실시예에 따른 전자 장치(201)의 블록도이다. 전자 장치(201)는, 예를 들면, 도 1에 도시된 전자 장치(101)의 전체 또는 일부를 포함할 수 있다. 전자 장치(201)는 하나 이상의 프로세서(예: AP(application processor))(210), 통신 모듈(220), 가입자 식별 모듈(224), 메모리(230), 센서 모듈(240), 입력 장치(250), 디스플레이(260), 인터페이스(270), 오디오 모듈(280), 카메라 모듈(291), 전력 관리 모듈(295), 배터리(296), 인디케이터(297), 및 모터(298) 를 포함할 수 있다.
프로세서(210)는, 예를 들면, 운영 체제 또는 응용 프로그램을 구동하여 프로세서(210)에 연결된 다수의 하드웨어 또는 소프트웨어 구성요소들을 제어할 수 있고, 각종 데이터 처리 및 연산을 수행할 수 있다. 프로세서(210)는, 예를 들면, SoC(system on chip) 로 구현될 수 있다. 한 실시예에 따르면, 프로세서(210)는 GPU(graphic processing unit) 및/또는 이미지 신호 프로세서(image signal processor)를 더 포함할 수 있다. 프로세서(210)는 도 2에 도시된 구성요소들 중 적어도 일부(예: 셀룰러 모듈(221))를 포함할 수도 있다. 프로세서(210) 는 다른 구성요소들(예: 비휘발성 메모리) 중 적어도 하나로부터 수신된 명령 또는 데이터를 휘발성 메모리에 로드(load)하여 처리하고, 다양한 데이터를 비휘발성 메모리에 저장(store)할 수 있다.
통신 모듈(220)은, 도 1의 통신 인터페이스(170)와 동일 또는 유사한 구성을 가질 수 있다. 통신 모듈(220)은, 예를 들면, 셀룰러 모듈(221), WiFi 모듈(223), 블루투스 모듈(225), GNSS 모듈(227)(예: GPS 모듈, Glonass 모듈, Beidou 모듈, 또는 Galileo 모듈), NFC 모듈(228) 및 RF(radio frequency) 모듈(229)를 포함할 수 있다.
셀룰러 모듈(221)은, 예를 들면, 통신망을 통해서 음성 통화, 영상 통화, 문자 서비스, 또는 인터넷 서비스 등을 제공할 수 있다. 한 실시예에 따르면, 셀룰러 모듈(221)은 가입자 식별 모듈(예: SIM 카드)(224)을 이용하여 통신 네트워크 내에서 전자 장치(201)의 구별 및 인증을 수행할 수 있다. 한 실시예에 따르면, 셀룰러 모듈(221)은 프로세서(210)가 제공할 수 있는 기능 중 적어도 일부 기능을 수행할 수 있다. 한 실시예에 따르면, 셀룰러 모듈(221)은 커뮤니케이션 프로세서(CP: communication processor)를 포함할 수 있다.
WiFi 모듈(223), 블루투스 모듈(225), GNSS 모듈(227) 또는 NFC 모듈(228) 각각은, 예를 들면, 해당하는 모듈을 통해서 송수신되는 데이터를 처리하기 위한 프로세서를 포함할 수 있다. 어떤 실시예에 따르면, 셀룰러 모듈(221), WiFi 모듈(223), 블루투스 모듈(225), GNSS 모듈(227) 또는 NFC 모듈(228) 중 적어도 일부(예: 두 개 이상)는 하나의 integrated chip(IC) 또는 IC 패키지 내에 포함될 수 있다.
RF 모듈(229)은, 예를 들면, 통신 신호(예: RF 신호)를 송수신할 수 있다. RF 모듈(229)은, 예를 들면, 트랜시버(transceiver), PAM(power amp module), 주파수 필터(frequency filter), LNA(low noise amplifier), 또는 안테나 등을 포함할 수 있다. 다른 실시예에 따르면, 셀룰러 모듈(221), WiFi 모듈(223), 블루투스 모듈(225), GNSS 모듈(227) 또는 NFC 모듈(228) 중 적어도 하나는 별개의 RF 모듈을 통하여 RF 신호를 송수신할 수 있다.
가입자 식별 모듈(224)은, 예를 들면, 가입자 식별 모듈을 포함하는 카드 및/또는 내장 SIM(embedded SIM)을 포함할 수 있으며, 고유한 식별 정보(예: ICCID(integrated circuit card identifier)) 또는 가입자 정보(예: IMSI(international mobile subscriber identity))를 포함할 수 있다.
메모리(230)(예: 메모리(130))는, 예를 들면, 내장 메모리(232) 또는 외장 메모리(234)를 포함할 수 있다. 내장 메모리(232)는, 예를 들면, 휘발성 메모리(예: DRAM(dynamic RAM), SRAM(static RAM), 또는 SDRAM(synchronous dynamic RAM) 등), 비휘발성 메모리(non-volatile Memory)(예: OTPROM(one time programmable ROM), PROM(programmable ROM), EPROM(erasable and programmable ROM), EEPROM(electrically erasable and programmable ROM), mask ROM, flash ROM, 플래시 메모리(예: NAND flash 또는 NOR flash 등), 하드 드라이브, 또는 솔리드 스테이트 드라이브(solid state drive(SSD)) 중 적어도 하나를 포함할 수 있다.
외장 메모리(234)는 플래시 드라이브(flash drive), 예를 들면, CF(compact flash), SD(secure digital), Micro-SD(micro secure digital), Mini-SD(mini secure digital), xD(extreme digital), MMC(multi-media card) 또는 메모리 스틱(memory stick) 등을 더 포함할 수 있다. 외장 메모리(234)는 다양한 인터페이스를 통하여 전자 장치(201)와 기능적으로 및/또는 물리적으로 연결될 수 있다.
센서 모듈(240)은, 예를 들면, 물리량을 계측하거나 전자 장치(201)의 작동 상태를 감지하여, 계측 또는 감지된 정보를 전기 신호로 변환할 수 있다. 센서 모듈(240)은, 예를 들면, 제스처 센서(240A), 자이로 센서(240B), 기압 센서(240C), 마그네틱 센서(240D), 가속도 센서(240E), 그립 센서(240F), 근접 센서(240G), 컬러(color) 센서(240H)(예: RGB(red, green, blue) 센서), 생체 센서(240I), 온/습도 센서(240J), 조도 센서(240K), 또는 UV(ultra violet) 센서(240M) 중의 적어도 하나를 포함할 수 있다. 추가적으로 또는 대체적으로(additionally or alternatively), 센서 모듈(240)은, 예를 들면, 후각 센서(E-nose sensor), EMG 센서(electromyography sensor), EEG 센서(electroencephalogram sensor), ECG 센서(electrocardiogram sensor), IR(infrared) 센서, 홍채 센서 및/또는 지문 센서를 포함할 수 있다. 센서 모듈(240)은 그 안에 속한 적어도 하나 이상의 센서들을 제어하기 위한 제어 회로를 더 포함할 수 있다. 어떤 실시예에서는, 전자 장치(201)는 프로세서(210)의 일부로서 또는 별도로, 센서 모듈(240)을 제어하도록 구성된 프로세서를 더 포함하여, 프로세서(210)가 슬립(sleep) 상태에 있는 동안, 센서 모듈(240)을 제어할 수 있다.
입력 장치(250)는, 예를 들면, 터치 패널(touch panel)(252), (디지털) 펜 센서(pen sensor)(254), 키(key)(256), 또는 초음파(ultrasonic) 입력 장치(258)를 포함할 수 있다. 터치 패널(252)은, 예를 들면, 정전식, 감압식, 적외선 방식, 또는 초음파 방식 중 적어도 하나의 방식을 사용할 수 있다. 또한, 터치 패널(252)은 제어 회로를 더 포함할 수도 있다. 터치 패널(252)은 택타일 레이어(tactile layer)를 더 포함하여, 사용자에게 촉각 반응을 제공할 수 있다.
(디지털) 펜 센서(254)는, 예를 들면, 터치 패널의 일부이거나, 별도의 인식용 쉬트(sheet)를 포함할 수 있다. 키(256)는, 예를 들면, 물리적인 버튼, 광학식 키, 또는 키패드를 포함할 수 있다. 초음파 입력 장치(258)는 마이크(예: 마이크(288))를 통해, 입력 도구에서 발생된 초음파를 감지하여, 상기 감지된 초음파에 대응하는 데이터를 확인할 수 있다.
디스플레이(260)(예: 디스플레이(160))는 패널(262), 홀로그램 장치(264), 또는 프로젝터(266)를 포함할 수 있다. 패널(262)은, 도 1의 디스플레이(160)와 동일 또는 유사한 구성을 포함할 수 있다. 패널(262)은, 예를 들면, 유연하게(flexible), 투명하게(transparent), 또는 착용할 수 있게(wearable) 구현될 수 있다. 패널(262)은 터치 패널(252)과 하나의 모듈로 구성될 수도 있다. 홀로그램 장치(264)는 빛의 간섭을 이용하여 입체 영상을 허공에 보여줄 수 있다. 프로젝터(266)는 스크린에 빛을 투사하여 영상을 표시할 수 있다. 스크린은, 예를 들면, 전자 장치(201)의 내부 또는 외부에 위치할 수 있다. 한 실시예에 따르면, 디스플레이(260)는 패널(262), 홀로그램 장치(264), 또는 프로젝터(266)를 제어하기 위한 제어 회로를 더 포함할 수 있다.
인터페이스(270)는, 예를 들면, HDMI(high-definition multimedia interface)(272), USB(universal serial bus)(274), 광 인터페이스(optical interface)(276), 또는 D-sub(D-subminiature)(278)를 포함할 수 있다. 인터페이스(270)는, 예를 들면, 도 1에 도시된 통신 인터페이스(170)에 포함될 수 있다. 추가적으로 또는 대체적으로(additionally and alternatively), 인터페이스(270)는, 예를 들면, MHL(mobile high-definition link) 인터페이스, SD(secure digital) 카드/MMC(multi-media card) 인터페이스, 또는 IrDA(infrared data association) 규격 인터페이스를 포함할 수 있다.
오디오 모듈(280)은, 예를 들면, 소리(sound)와 전기 신호를 쌍방향으로 변환시킬 수 있다. 오디오 모듈(280)의 적어도 일부 구성요소는, 예를 들면, 도 1 에 도시된 입출력 인터페이스(145)에 포함될 수 있다. 오디오 모듈(280)은, 예를 들면, 스피커(282), 리시버(284), 이어폰(286), 또는 마이크(288) 등을 통해 입력 또는 출력되는 소리 정보를 처리할 수 있다.
카메라 모듈(291)은, 예를 들면, 정지 영상 및 동영상을 촬영할 수 있는 장치로서, 한 실시예에 따르면, 하나 이상의 이미지 센서(예: 전면 센서 또는 후면 센서), 렌즈, ISP(image signal processor), 또는 플래시(flash)(예: LED 또는 xenon lamp 등)를 포함할 수 있다.
전력 관리 모듈(295)은, 예를 들면, 전자 장치(201)의 전력을 관리할 수 있다. 한 실시예에 따르면, 전력 관리 모듈(295)은 PMIC(power management integrated circuit), 충전 IC(charger integrated circuit), 또는 배터리 또는 연료 게이지(battery or fuel gauge)를 포함할 수 있다. PMIC는, 유선 및/또는 무선 충전 방식을 가질 수 있다. 무선 충전 방식은, 예를 들면, 자기공명 방식, 자기유도 방식 또는 전자기파 방식 등을 포함하며, 무선 충전을 위한 부가적인 회로, 예를 들면, 코일 루프, 공진 회로, 또는 정류기 등을 더 포함할 수 있다. 배터리 게이지는, 예를 들면, 배터리(296)의 잔량, 충전 중 전압, 전류, 또는 온도를 측정할 수 있다. 배터리(296)는, 예를 들면, 충전식 전지(rechargeable battery) 및/또는 태양 전지(solar battery)를 포함할 수 있다.
인디케이터(297)는 전자 장치(201) 또는 그 일부(예: 프로세서(210))의 특정 상태, 예를 들면, 부팅 상태, 메시지 상태 또는 충전 상태 등을 표시할 수 있다. 모터(298)는 전기적 신호를 기계적 진동으로 변환할 수 있고, 진동(vibration), 또는 햅틱(haptic) 효과 등을 발생시킬 수 있다. 도시되지는 않았으나, 전자 장치(201)는 모바일 TV 지원을 위한 처리 장치(예: GPU)를 포함할 수 있다. 모바일 TV 지원을 위한 처리 장치는, 예를 들면, DMB(digital multimedia broadcasting), DVB(digital video broadcasting), 또는 미디어플로(mediaFloTM) 등의 규격에 따른 미디어 데이터를 처리할 수 있다.
본 문서에서 기술된 구성요소들 각각은 하나 또는 그 이상의 부품(component)으로 구성될 수 있으며, 해당 구성요소의 명칭은 전자 장치의 종류에 따라서 달라질 수 있다. 다양한 실시예에서, 전자 장치는 본 문서에서 기술된 구성요소 중 적어도 하나를 포함하여 구성될 수 있으며, 일부 구성요소가 생략되거나 또는 추가적인 다른 구성요소를 더 포함할 수 있다. 또한, 다양한 실시예에 따른 전자 장치의 구성요소들 중 일부가 결합되어 하나의 개체(entity)로 구성됨으로써, 결합되기 이전의 해당 구성요소들의 기능을 동일하게 수행할 수 있다.
도 3은 다양한 실시예에 따른 프로그램 모듈의 블록도이다. 한 실시예에 따르면, 프로그램 모듈(310)(예: 프로그램(140))은 전자 장치(예: 전자 장치(101))에 관련된 자원을 제어하는 운영 체제(operating system(OS)) 및/또는 운영 체제 상에서 구동되는 다양한 어플리케이션(예: 어플리케이션 프로그램(147))을 포함할 수 있다. 운영 체제는, 예를 들면, 안드로이드(android), iOS, 윈도우즈(windows), 심비안(symbian), 타이젠(tizen), 또는 바다(bada) 등이 될 수 있다.
프로그램 모듈(310)은 커널(320), 미들웨어(330), 어플리케이션 프로그래밍 인터페이스(application programming interface (API))(360), 및/또는 어플리케이션(370)을 포함할 수 있다. 프로그램 모듈(310)의 적어도 일부는 전자 장치 상에 프리로드(preload) 되거나, 외부 전자 장치(예: 전자 장치(102, 104), 서버(106) 등)로부터 다운로드(download) 가능하다.
커널(320)(예: 커널(141))은, 예를 들면, 시스템 리소스 매니저(321) 및/또는 디바이스 드라이버(323)를 포함할 수 있다. 시스템 리소스 매니저(321)는 시스템 리소스의 제어, 할당, 또는 회수 등을 수행할 수 있다. 한 실시예에 따르면, 시스템 리소스 매니저(321)는 프로세스 관리부, 메모리 관리부, 또는 파일 시스템 관리부 등을 포함할 수 있다. 디바이스 드라이버(323)는, 예를 들면, 디스플레이 드라이버, 카메라 드라이버, 블루투스 드라이버, 공유 메모리 드라이버, USB 드라이버, 키패드 드라이버, WiFi 드라이버, 오디오 드라이버, 또는 IPC(inter-process communication) 드라이버를 포함할 수 있다.
미들웨어(330)는, 예를 들면, 어플리케이션(370)이 공통적으로 필요로 하는 기능을 제공하거나, 어플리케이션(370)이 전자 장치 내부의 제한된 시스템 자원을 효율적으로 사용할 수 있도록 API(360)를 통해 다양한 기능들을 어플리케이션(370)으로 제공할 수 있다. 한 실시예에 따르면, 미들웨어(330)(예: 미들웨어(143))는 런타임 라이브러리(335), 어플리케이션 매니저(application manager)(341), 윈도우 매니저(window manager)(342), 멀티미디어 매니저(multimedia manager)(343), 리소스 매니저(resource manager)(344), 파워 매니저(power manager)(345), 데이터베이스 매니저(database manager)(346), 패키지 매니저(package manager)(347), 연결 매니저(connectivity manager)(348), 통지 매니저(notification manager)(349), 위치 매니저(location manager)(350), 그래픽 매니저(graphic manager)(351), 또는 보안 매니저(security manager)(352) 중 적어도 하나를 포함할 수 있다.
런타임 라이브러리(335)는, 예를 들면, 어플리케이션(370)이 실행되는 동안에 프로그래밍 언어를 통해 새로운 기능을 추가하기 위해 컴파일러가 사용하는 라이브러리 모듈을 포함할 수 있다. 런타임 라이브러리(335)는 입출력 관리, 메모리 관리, 또는 산술 함수에 대한 기능 등을 수행할 수 있다.
어플리케이션 매니저(341)는, 예를 들면, 어플리케이션(370) 중 적어도 하나의 어플리케이션의 생명 주기(life cycle)를 관리할 수 있다. 윈도우 매니저(342)는 화면에서 사용하는 GUI 자원을 관리할 수 있다. 멀티미디어 매니저(343)는 다양한 미디어 파일들의 재생에 필요한 포맷을 파악하고, 해당 포맷에 맞는 코덱(codec)을 이용하여 미디어 파일의 인코딩(encoding) 또는 디코딩(decoding)을 수행할 수 있다. 리소스 매니저(344)는 어플리케이션(370) 중 적어도 어느 하나의 어플리케이션의 소스 코드, 메모리 또는 저장 공간 등의 자원을 관리할 수 있다.
파워 매니저(345)는, 예를 들면, 바이오스(BIOS: basic input/output system) 등과 함께 동작하여 배터리(battery) 또는 전원을 관리하고, 전자 장치의 동작에 필요한 전력 정보 등을 제공할 수 있다. 데이터베이스 매니저(346)는 어플리케이션(370) 중 적어도 하나의 어플리케이션에서 사용할 데이터베이스를 생성, 검색, 또는 변경할 수 있다. 패키지 매니저(347)는 패키지 파일의 형태로 배포되는 어플리케이션의 설치 또는 업데이트를 관리할 수 있다.
연결 매니저(348)는, 예를 들면, WiFi 또는 블루투스 등의 무선 연결을 관리할 수 있다. 통지 매니저(349)는 도착 메시지, 약속, 근접성 알림 등의 사건(event)을 사용자에게 방해되지 않는 방식으로 표시 또는 통지할 수 있다. 위치 매니저(350)는 전자 장치의 위치 정보를 관리할 수 있다. 그래픽 매니저(351)는 사용자에게 제공될 그래픽 효과 또는 이와 관련된 사용자 인터페이스를 관리할 수 있다. 보안 매니저(352)는 시스템 보안 또는 사용자 인증 등에 필요한 제반 보안 기능을 제공할 수 있다. 한 실시예에 따르면, 전자 장치(예: 전자 장치(101))가 전화 기능을 포함한 경우, 미들웨어(330)는 전자 장치의 음성 또는 영상 통화 기능을 관리하기 위한 통화 매니저(telephony manager)를 더 포함할 수 있다.
미들웨어(330)는 전술한 구성요소들의 다양한 기능의 조합을 형성하는 미들웨어 모듈을 포함할 수 있다. 미들웨어(330)는 차별화된 기능을 제공하기 위해 운영 체제의 종류 별로 특화된 모듈을 제공할 수 있다. 또한, 미들웨어(330)는 동적으로 기존의 구성요소를 일부 삭제하거나 새로운 구성요소들을 추가할 수 있다.
API(360)(예: API(145))는, 예를 들면, API 프로그래밍 함수들의 집합으로, 운영 체제에 따라 다른 구성으로 제공될 수 있다. 예를 들면, 안드로이드 또는 iOS의 경우, 플랫폼 별로 하나의 API 셋을 제공할 수 있으며, 타이젠(tizen)의 경우, 플랫폼 별로 두 개 이상의 API 셋을 제공할 수 있다.
어플리케이션(370)(예: 어플리케이션 프로그램(147))은, 예를 들면, 홈(371), 다이얼러(372), SMS/MMS(373), IM(instant message)(374), 브라우저(375), 카메라(376), 알람(377), 컨택트(378), 음성 다이얼(379), 이메일(380), 달력(381), 미디어 플레이어(382), 앨범(383), 또는 시계(384), 건강 관리(health care)(예: 운동량 또는 혈당 등을 측정), 또는 환경 정보 제공(예: 기압, 습도, 또는 온도 정보 등을 제공) 등의 기능을 수행할 수 있는 하나 이상의 어플리케이션을 포함할 수 있다.
한 실시예에 따르면, 어플리케이션(370)은 전자 장치(예: 전자 장치(101))와 외부 전자 장치(예: 전자 장치(102, 104)) 사이의 정보 교환을 지원하는 어플리케이션(이하, 설명의 편의 상, "정보 교환 어플리케이션")을 포함할 수 있다. 정보 교환 어플리케이션은, 예를 들면, 외부 전자 장치에 특정 정보를 전달하기 위한 알림 전달(notification relay) 어플리케이션, 또는 외부 전자 장치를 관리하기 위한 장치 관리(device management) 어플리케이션을 포함할 수 있다.
예를 들면, 알림 전달 어플리케이션은 전자 장치의 다른 어플리케이션(예: SMS/MMS 어플리케이션, 이메일 어플리케이션, 건강 관리 어플리케이션, 또는 환경 정보 어플리케이션 등)에서 발생된 알림 정보를 외부 전자 장치(예: 전자 장치(102, 104))로 전달하는 기능을 포함할 수 있다. 또한, 알림 전달 어플리케이션은, 예를 들면, 외부 전자 장치로부터 알림 정보를 수신하여 사용자에게 제공할 수 있다.
장치 관리 어플리케이션은, 예를 들면, 전자 장치와 통신하는 외부 전자 장치(예: 전자 장치(102, 104))의 적어도 하나의 기능(예: 외부 전자 장치 자체(또는, 일부 구성 부품)의 턴-온/턴-오프 또는 디스플레이의 밝기(또는, 해상도) 조절), 외부 전자 장치에서 동작하는 어플리케이션 또는 외부 전자 장치에서 제공되는 서비스(예: 통화 서비스 또는 메시지 서비스 등)를 관리(예: 설치, 삭제, 또는 업데이트)할 수 있다.
한 실시예에 따르면, 어플리케이션(370)은 외부 전자 장치(예: 전자 장치(102, 104))의 속성(에 따라 지정된 어플리케이션(예: 모바일 의료 기기의 건강 관리 어플리케이션 등)을 포함할 수 있다. 한 실시예에 따르면, 어플리케이션(370)은 외부 전자 장치(예: 서버(106) 또는 전자 장치(102, 104))로부터 수신된 어플리케이션을 포함할 수 있다. 한 실시예에 따르면, 어플리케이션(370)은 프리로드 어플리케이션(preloaded application) 또는 서버로부터 다운로드 가능한 제3자 어플리케이션(third party application)을 포함할 수 있다. 도시된 실시예에 따른 프로그램 모듈(310)의 구성요소들의 명칭은 운영 체제의 종류에 따라서 달라질 수 있다.
다양한 실시예에 따르면, 프로그램 모듈(310)의 적어도 일부는 소프트웨어, 펌웨어, 하드웨어, 또는 이들 중 적어도 둘 이상의 조합으로 구현될 수 있다. 프로그램 모듈(310)의 적어도 일부는, 예를 들면, 프로세서(예: 프로세서(210))에 의해 구현(implement)(예: 실행)될 수 있다. 프로그램 모듈(310)의 적어도 일부는 하나 이상의 기능을 수행하기 위한, 예를 들면, 모듈, 프로그램, 루틴, 명령어 세트(sets of instructions) 또는 프로세스 등을 포함할 수 있다.
본 문서에서 사용된 용어 "모듈"은, 예를 들면, 하드웨어, 소프트웨어 또는 펌웨어(firmware) 중 하나 또는 둘 이상의 조합을 포함하는 단위(unit)를 의미할 수 있다. "모듈"은, 예를 들면, 유닛(unit), 로직(logic), 논리 블록(logical block), 부품(component), 또는 회로(circuit) 등의 용어와 바꾸어 사용(interchangeably use)될 수 있다. "모듈"은, 일체로 구성된 부품의 최소 단위 또는 그 일부가 될 수 있다. "모듈"은 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수도 있다. "모듈"은 기계적으로 또는 전자적으로 구현될 수 있다. 예를 들면,"모듈"은, 알려졌거나 앞으로 개발될, 어떤 동작들을 수행하는 ASIC(application-specific integrated circuit) 칩, FPGAs(field-programmable gate arrays) 또는 프로그램 가능 논리 장치(programmable-logic device) 중 적어도 하나를 포함할 수 있다.
다양한 실시예에 따른 장치(예: 모듈들 또는 그 기능들) 또는 방법(예: 동작들)의 적어도 일부는, 예컨대, 프로그램 모듈의 형태로 컴퓨터로 읽을 수 있는 저장매체(computer-readable storage media)에 저장된 명령어로 구현될 수 있다. 상기 명령어가 프로세서(예: 프로세서(120))에 의해 실행될 경우, 상기 하나 이상의 프로세서가 상기 명령어에 해당하는 기능을 수행할 수 있다. 컴퓨터로 읽을 수 있는 저장매체는, 예를 들면, 메모리(130)가 될 수 있다.
컴퓨터로 판독 가능한 기록 매체는, 하드디스크, 플로피디스크, 마그네틱 매체(magnetic media)(예: 자기테이프), 광기록 매체(optical media)(예: CD-ROM(compact disc read only memory), DVD(digital versatile disc), 자기-광 매체(magneto-optical media)(예: 플롭티컬 디스크(floptical disk)), 하드웨어 장치(예: ROM(read only memory), RAM(random access memory), 또는 플래시 메모리 등) 등을 포함할 수 있다. 또한, 프로그램 명령에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함할 수 있다. 상술한 하드웨어 장치는 다양한 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지다.
다양한 실시예에 따른 모듈 또는 프로그램 모듈은 전술한 구성요소들 중 적어도 하나 이상을 포함하거나, 일부가 생략되거나, 또는 추가적인 다른 구성요소를 더 포함할 수 있다. 다양한 실시예에 따른 모듈, 프로그램 모듈 또는 다른 구성요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱(heuristic)한 방법으로 실행될 수 있다. 또한, 일부 동작은 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다. 그리고 본 문서에 개시된 실시예는 개시된, 기술 내용의 설명 및 이해를 위해 제시된 것이며, 본 문서에서 기재된 기술의 범위를 한정하는 것은 아니다. 따라서, 본 문서의 범위는, 본 문서의 기술적 사상에 근거한 모든 변경 또는 다양한 다른 실시예를 포함하는 것으로 해석되어야 한다.
도 4는 다양한 실시예에 따른 전자 장치의 블록도 이다.
도 4를 참조하면, 전자 장치(401, 도 1의 전자 장치(101))는 제어부(410), 디스플레이(420) 및 메모리(430)을 포함할 수 있다.
다양한 실시예 따르면, 제어부(410)는 홈 화면에서 시간의 순서에 따라 배치된 적어도 하나의 객체를 사용자 인터페이스를 표시하고, 상기 사용자 인터페이스를 표시하는 동안 상기 사용자 인터페이스에 배치된 상기 적어도 하나의 객체 중 사용자에 의해 선택된 객체에 대한 정보를 프리뷰 화면으로디스플레이(420)에 표시할 수 있다.
다양한 실시예에 따르면, 상기 객체는 어플리케이션, 태스크, 액티비트 또는 전자 장치에서 실행되는 동작 중 적어도 하나를 포함할 수 있다.
한 실시예에 따르면, 제어부(410)는 상기 사용자 인터페이스를 제1 영역과 제2 영역으로 분류할 수 있다.
한 실시예에 따르면, 제어부(410)는, 상기 제1 영역에 과거에 실행되었던 객체들과 미래에 실행 예정인 객체를 시간의 순서에 따라 블록 단위로 표시하고, 상기 적어도 하나의 객체들 간의 이동이 가능한 포인터를 표시 할 수 있다.
상기 제어부(401)는, 상기 제1 영역에서 현재 시간을 나타내는 제1 위치에서 제1 방향으로 시간의 순서에 따라 상기 실행되었던 객체들을 과거 블록 단위로 표시하고, 상기 제1 위치에서 상기 제1 방향과 반대되는 제2 방향으로 시간의 순서에 따라 상기 실행될 객체들을 미래블록 단위로 표시할 수 있다.
상기 제어부(410)는, 상기 제1 영역에서 이동되는 상기 포인터를 현재 시간을 나타내는 제1 위치에 디폴트로 표시하고, 상기 포인터가 상기 제1 위치에서 이동되는 방향에 따라 과거블록 또는 미래 블록에 대응되는 객체에 대한 정보를 프리뷰 화면으로 표시할 수 있다.
상기 제어부(410)는, 상기 포인터가 상기 제1 영역의 상기 제1 위치에서 상기 제1 방향으로 이동되는 동안, 상기 포인터가 위치되는 과거 블록에 대응되는 객체에 대한 정보를 프리뷰 화면으로 표시할 수 있다. 상기 제어부(410)는, 상기 포인터가 상기 제1 방향으로 상기 제1 영역의 이동을 반복 동안, 상기 제1 영역에 상기 실행되었던 객체에 대응되는 과거블록을 시간의 순서에 따라 업데이트하여 표시할 수 있다.
상기 제어부(410)는, 상기 포인터가 상기 제1 영역의 상기 제1 위치에서 상기 제2 방향으로 이동되는 동안, 상기 포인터가 위치되는 미래 블록에 대응되는 객체에 대한 정보를 프리뷰 화면으로 표시할 수 있다. 상기 제어부(410)는, 상기 포인터가 상기 제2 방향으로 상기 제1 영역의 이동을 반복 동안, 상기 제1 영역에 상기 실행되었던 객체에 대응되는 미래 블록을 시간의 순서에 따라 업데이트하여 표시할 수 있다.
상기 제어부(410)는, 상기 포인터가 상기 제1 영역에서 이동되는 동안, 상기 포인터의 일부 영역에 상기 포인터가 위치된 블록에 대응되는 객체의 종류를 알리는 인디케이션(예를 들어, 아이콘)을 표시할 수 있다.
상기 제어부(410)는, 상기 제1 영역에 표시되는 블록들을 객체의 종류별로 또는 객체의 카테고리에 따라 구분되게 표시(예를 들어, 색상)할 수 있다.
한 실시예에 따르면 제어부(410)는, 상기 제2 영역에, 상기 제1 영역에 기본 메뉴를 제공하기 위한 인디케이션(예를 들어, 아이콘)을 표시할 수 있다. 상기 제어부(410)는, 상기 제1 영역에 상기 적어도 하나의 객체가 시간의 순서에 따라 배치된 제1 상태에서, 상기 제2 영역의 인디케이션이 선택되면, 상기 제1 영역에 기본 메뉴 (예를 들어, 통화 어플리케이션, 연락처 어플리케이션, 문자 어플리케이션, 인터넷 어플리케이션 및 어플리케이션 리스트 보기)을 표시하는 제2 상태로 전환할 수 있다. 상기 제어부(410)는, 상기 제2 상태에서, 상기 제2 영역의 인디케이션이 선택되면, 상기 제1 상태로 전환할 수 있다.
한 실시예에 따르면, 상기 제어부(410)는, 상기 제1 영역에서 상기 포인터가 위치된 블록에 대응되는 객체와 관련되어 저장된 마지막 화면 정보 또는 특정 화면 정보를 검출하고, 상기 마지막 화면 정보 또는 상기 특정 화면 정보를 상기 홈 화면에 표시되는 상기 사용자 인터페이스의 위치를 기반으로 재구성하여 상기 객체에 대한 정보로 표시할 수 있다. 상기 제어부(410)는, 상기 마지막 화면 정보 또는 상기 특정 화면 정보 중 주요 정보(예를 들어, 텍스트, 컨텐트)가 상기 사용자 인터페이스에 의해 보여지지 않는 경우, 상기 주요 정보가 보이도록 상기 마지막 화면 정보 또는 상기 특정 화면 정보를 재구성할 수 있다. 상기 특정 화면 정보는 객체 종료 시점에서 사용자에 의해 선택되어 저장될 수 있다,
한 실시예에 따르면, 상기 제어부(410)는, 상기 사용자 인터페이스에 서 선택된 객체에 대한 정보를 표시하는 동안 제1 제스처가 검출되면 상기 선택된 객체를 실행시킬 수 있다. 상기 제어부(410)는, 상기 사용자 인터페이스의 제1 영역에서 상기 포인터가 위치된 블록에 대응되는 객체에 대한 정보를 프리뷰 화면으로 표시하는 동안, 상기 제1 제스처 예를 들어, 제2 영역에서 하단 베젤 영역으로 드래그 동작이 검출되면 상기 포인터가 위치된 블록에 대응되는 객체를 실행할 수 있다.
한 실시예에 따르면, 상기 제어부(410)는, 상기 제1 제스처를 통해 상기 객체를 실행하는 동안 하단 베젤 영역에서 상단으로 드래그 동작이 검출되면, 상기 객체의 실행을 종료하고, 상기 사용자 인터페이스를 포함하는 홈 화면으로 전환할 수 있다.
한 실시예에 따르면, 상기 제어부(410)는, 상기 사용자 인터페이스에서 선택된 객체에 대한 정보를 프리뷰 화면으로 표시하는 동안, 상기 프리뷰 화면 상에 상기 선택 객체와 관련된 기능을 제공할 수 있다. 상기 제어부(410)는 예를 들어, 상기 제1 영역에서 상기 포인터가 이동되어 통화 어플리케이션이 위치되면 상기 통화 어플리케이션에 대한 정보를 프리뷰 화면으로 표시하고, 상기 프리뷰 화면 상에 상기 통화 어플리케이션과 관련된 기능 예를 들어, 마지막으로 통화를 수행한 사용자에게 통화를 시도할 수 있는 통화 메뉴 및 마지막으로 메시지가 수발신 된 사용자에게 메시지를 전송할 수 있는 메시지메뉴를 소프트 키로 표시할 수 있다.
하기 도 5 내지 도 9를 통해, 홈 화면에서 제공되는 사용자 인터페이스를 이용하여 시간의 순서에 따라 배치된 객체의 제어 동작을 설명할 수 있다.
도 5a - 도 5c는 다양한 실시예에 따른 전자 장치의 홈 화면에서 제공하는 사용자 인터페이스를 설명하기 위한 도면이다.
상기 도 5a에서는 홈 화면에 표시되는 사용자 인터페이스(500)는 도시하고 있다. 상기 도 5a와 같이, 상기 사용자 인터페이스(500)는 원 형태로 구성되어, 상기 원의 중심에서 일정 반지름을 가지는 원 형태의 제2 영역(520)과, 상기 제2 영역의 주변을 둘러싸는 링 형태의 제1 영역(510)을 포함할 수 있다. 상기 제1 영역(510)에는 상기 제1 영역(510)에서 이동 가능하며, 현재 시간을 나타내는 제1 위치에 디폴트로 위치되는 포인터(511)가 포함되어 있다. 상기 제2 영역(520)에는 상기 제1 영역에 기본 메뉴를 제공할 수 있는 아이콘(520)이 표시될 수 있다.
상기 도 5b에서는 링 형태의 상기 제1 영역(510)의 구조를 도시하고 있으며, 상기 포인터(511)가 디폴트로 위치된 제1 위치를 현재 시간으로 나타내고 있다. 상기 제1 위치(현재)를 기준으로 제1 방향 예를 들어, 반 시계방향으로 사용자에 의해 과거에 실행되었던 객체에 대응되는 과거 블록을 시간의 순서에 따라 배치할 수 있다. 상기 포인터(511)가 상기 제1 위치(현재)를 기준으로 반 시계방향으로 이동되어 링 형태의 상기 제 1 영역(510)이 회전되는 경우, 제어부(도 4의 410)는 시간의 순서에 따라 사용자에 의해 과거에 실행되었던 객체에 대응되는 과거 블록을 업데이트 하여 표시할 수 있다. 상기 제1 위치(현재)를 기준으로 제2 방향 예를 들어, 시계방향으로 사용자에 의해 미래에 실행되었던 객체에 대응되는 미래 블록을 시간의 순서에 따라 배치할 수 있다. 상기 포인터(511)가 상기 제1 위치(현재)를 기준으로 시계방향으로 이동되어 링 형태의 상기 제 1 영역(510)이 회전되는 경우, 상기 제어부는 시간의 순서에 따라 사용자에 의해 미래에 실행되었던 객체에 대응되는 미래 블록을 업데이트 하여 표시할 수 있다.
상기 도 5 c에서는 상기 도 5b와 같은 사용자 인터페이스의 제1 영역(510)의 측면구조를 도시하고 있다.
도 6a - 도 6e는 다양한 실시예에 따른 전자 장치의 사용자 인터페이스에 제공하는 기능을 설명하기 위한 도면이다. 도 6a - 도 6e에서는 사용자 인터페이스에 배치된 적어도 하나의 어플리케이션을 예로 설명하고 있다.
상기 도 6a와 같이, 사용자 인터페이스(600, 도 5의 500)의 제1 영역(610, 도 5의 510)에서 시간의 순서에 따라 어플리케이션에 대응되는 블록을 표시하는 제1 상태에서, 제2 영역(620, 도 5의 520)의 아이콘(621, 도 5의 521)이 선택되면, 제어부(도 4의 410)는 도 6b와 같이 상기 제1 영역(610)에 시간의 순서에 따라 배치된 적어도 하나의 어플리케이션에 대응되는 블록 대신, 미리 설정된 기본 메뉴(예를 들어, 메시지 어플리케이션, 통화 어플리케이션, 연락처 어플리케이션 및 어플리케이션 리스트 보기)을 표시할 수 있다. 상기 제1 영역에서 표시되는 적어도 하나의 기본 메뉴 중 소정의 메뉴가 선택되면, 상기 제어부는 선택된 메뉴에 대응되는 기능을 실행할 수 있다.
상기 도 6b와 같은, 상기 제1 영역(610)의 제2 상태에서 상기 제2 영역(620)의 아이콘(621)이 선택되면, 상기 제어부는 상기 도 6c와 같이 상기 제1 영역(610)에 기본 메뉴 대신, 시간의 순서에 따라 배치된 적어도 하나의 어플리케이션에 대응되는 블록을 표시하는 제1 상태로 전환할 수 있다.
상기 도 6d와 같이, 상기 제1 영역(610)에서 포인터(610)가 제 1 방향으로 이동되어 과거에 실행되었던 통화 어플리케이션에 위치되면, 상기 제어부는 포인터(610)의 소정 영역에 상기 통화 어플리케이션의 종류를 알리는 전화기 모양의 아이콘(621a)를 표시할 수 있다.
상기 도 6e와 같이, 상기 제1 영역(610)에서 포인터(610)가 제1 방향으로 이동되어 과거에 실행되었던 통화 어플리케이션에 위치됨에 따라, 상기 포인터(610)의 소정 영역에 상기 통화 어플리케이션의 종류를 알리는 전화기 모양의 아이콘(621a)이 표시되고, 상기 홈 화면에 상기 통화 어플리케이션에 대한 정보를 프리뷰 화면으로 표시하는 상태에서, 제1 제스처 예를 들어, 제2 영역에서 하단 베젤 영역으로 드래그 동작(630)이 검출되면, 상기 제어부는 상기 통화 어플리케이션을 실행할 수 있다.
도 7a - 도 7c는 다양한 실시예에 따른 전자 장치의 프리뷰 화면에서 제공되는 기능을 설명하기 위한 도면이다. 도 7a - 도 7c에서는 사용자 인터페이스에 배치된 적어도 하나의 어플리케이션을 예로 설명하고 있다.
상기 도 7a와 같이, 사용자 인터페이스(700)의 제1 영역(710)에서 포인터(711)가 일정 어플리케이션이 위치되면, 상기 일정 어플리케이션에 대한 정보를 프리뷰 화면(730)으로 표시하고, 상기 프리뷰 화면(730) 상에 상기 일정 어플리케이션과 관련된 기능 예를 들어, 일정내용(740)을 표시할 수 있다.
상기 도 7b와 같이, 사용자 인터페이스(700)의 제1 영역(710)에서 포인터(711)가 통화 어플리케이션이 위치되면, 상기 통화 어플리케이션에 대한 정보를 프리뷰 화면(750)으로 표시하고, 상기 프리뷰 화면(750) 상에 상기 통화 어플리케이션과 관련된 기능 예를 들어,제어 메뉴(760)을 표시할 수 있다. 상기 제어메뉴(760)는 예를 들어, 상기 통화 어플리케이션에 대한 정보에 대응되는 마지막 통화자(예를, "Scarlett")에게 통화를 시도할 수 있는 통화 메뉴(760a) 및 상기 통화 어플리케이션에 대한 정보에 대응되는 마지막 메시지 수발신자 (예를, "Scarlett")에게 메시지를 전송할 수 있는 메시지메뉴(760b)를 소프트 키로 표시할 수 있다.
상기 도 7c에서는 어플리케이션의 카테고리 별로 어플리케이션과 관련된 기능을 나타내고 있다. 상기 도 7c에서 어플리케이션의 카테고리 별로 어플리케이션과 관련된 기능은 일 예이며, 다양한 기능이 선택적으로 설정되거나 추가될 수 있다.
상기 도 7c와 같이, 어플리케이션의 카테고리(780)에 따라 통신(781), 위치(782), 엔터테인먼트(783), 헬스(784) 및 일정(785)으로 분류될 수 있다.
상기 통신 카테고리(781)에 통화(call), 연락처(contact), 채팅(Chat) 및 SNS 등과 같은 어플리케이션의 종류가 포함되는 경우, 상기 통신 카테고리에 관련된 어플리케이션에 대한 프리뷰 화면이 표시될 때, 상기 프리뷰 화면 상에 통화를 수행할 수 있는 통화 메뉴 및 메시지를 전송할 수 있는 메시지 메뉴를 소프트 키로 표시 및 플릭(flick)기능을 제공할 수 있다.
상기 위치 카테고리(782)에 지도(Map), 네비게이션(Navigation) 및 날씨(Weather)등과 같은 어플리케이션의 종류가 포함되는 경우, 상기 위치 카테고리에 관련된 어플리케이션에 대한 프리뷰 화면이 표시될 때, 상기 프리뷰 화면 상에 터치 인터렉션을 수행될 수 있는 패닝(Panning) 및 줌(Zooming) 기능을 제공할 수 있다. 예를 들어, 지도 어플리케이션에 대한 프리뷰 화면으로 마지막으로 사용된 지도가 표시되는 경우, 패닝(Panning) 또는 줌(Zooming)기능을 이용하여 디스플레이에 표시되지 않은 지도의 다른 부분이나 특정 부분을 확대하여 표시할 수 있다.
상기 엔터테인먼트 카테고리(783)에 음악(Music), 동영상(Video), 뉴스(News), 잡지(Magazine), 카메라(Camera) 및 사진보기(Gallery) 등과 같은 어플리케이션의 종류가 포함되는 경우, 상기 엔터테인먼트 카테고리에 관련된 어플리케이션에 대한 프리뷰 화면이 표시될 때, 상기 프리뷰 화면 상에 다음보기(Next), 이전 보기(Previous), 재행(Play) 및 정지(Pause)등과 같은 소프트 키를 표시할 수 있다.
상기 헬스 카테고리(784)에 운동 관리(Health) 및 의료(Medicine)등과 같은 어플리케이션의 종류가 포함되는 경우, 상기 헬스 카테고리에 관련된 어플리케이션에 대한 프리뷰 화면이 표시될 때, 상기 프리뷰 화면 상에 기록 또는 리스트를 검색할 수 있는 상하/좌우 스크롤 및 그래프와 같은 컨텐트를 검색할 수 있는 패닝 기능을 제공할 수 있다.
상기 일정 카테고리(785)에 달력(Calendar), 할 일(Todo List), 및 예약(Reservation) 등과 같은 어플리케이션의 종류가 포함되는 경우, 상기 일정 카테고리에 관련된 어플리케이션에 대한 프리뷰 화면이 표시될 때, 상기 프리뷰 화면 상에 일정에 대하 상세정보를 확인할 수 있는 상하/좌우 스크롤 기능을 제공할 수 있다.
도 8a - 도 8e는 다양한 실시예에 따른 전자 장치에서 사용자 인터페이스 제어 동작을 설명하기 위한 도면이다. 도 8a - 도 8e에서는 사용자 인터페이스에 배치된 적어도 하나의 어플리케이션을 예로 설명하고 있다.
상기 도 8a와 같이 홈 화면에서 사용자 인터페이스(800, 도 5의 500)를 표시하는 동안, 포인터(811, 도 5의 51)가 제1 방향, 예를 들어 반 시계방향으로 회전하면서 이동되어 과거에 실행되었던 음악 어플리케이션에 위치되면, 제어부(도 4의 410)는 상기 도 8b와 같이 상기 음악 어플리케이션에 대한 정보를 프리뷰 화면(840)으로 상기 표시하고, 상기 포인터(811)에 음악 어플리케이션의 종류를 알리는 아이콘(811a)을 표시하며, 상기 프리뷰 화면의 소정 영역에 상기 음악 어플리케이션과 관련된기능(850)를 표시할 수 있다.
상기 도 8b에서, 사용자에 의해 제1 제스처, 예를 들어 상기 제2 영역(820)에서 하단 베젤 영역으로 드래그 동작(830)이 검출되면, 상기 제어부는 상기 도 8c와 같이 상기 음악 어플리케이션을 실행할 수 있다.
상기 도 8d와 같이, 상기 음악 어플리케이션을 실행하는 동안 사용자에 의해 제2 제스처, 예를 들어 상기 하단 베젤 영역에서 상단으로 드래그 동작(850)이 검출되면, 상기 제어부는 상기 도 8e와 같이 상기 음악 어플리케이션을 종료하고, 사용자 인터페이스(800)을 포함하는 홈 화면으로 전환할 수 있다.
다양한 실시예에 따르면, 제어부(410)는, 홈 화면에 사용자 인터페이스를 표시하는 동안, 상기 사용자 인터페이스에서 배치된 적어도 하나의 객체에 사용자에 의해 확인되지 않은 정보가 존재하는 제1 객체가 포함되어 있는 경우, 상기 제1 객체에 미확인 정보가 존재함으로 알리는 인디케이션을 표시할 수 있다.
한 실시예에 따르면, 상기 제어부(410)는, 상기 사용자 인터페이스를 표시하는 동안, 상기 제1 객체에 대응되는 블록의 주변에 미확인 정보가 존재함을 알리는 인디케이션(예를 들어, 아이콘)을 표시할 수 있다.
한 실시예에 따르면, 상기 제어부(410)는, 상기 제1 객체에 대응되는 블록의 주변에 표시되는 인디케이션이 선택되면, 상기 미확인 정보에 대한 상세정보를 프리뷰 화면으로 표시할 수 있다.
한 실시예에 따르면, 상기 제어부(410)는, 상기 제1 객체에 대응되는 블록의 주변에 표시되는 인디케이션이 선택되면, 상기 미확인 정보에 대한 상세정보를 상기 제1 객체의 마지막 화면정보로 저장하고, 상기 제1 객체에 대응되는 블록이 현재 시간을 나타내는 제1 위치에 위치할 수 있다.
한 실시예에 따르면, 상기 제어부(410)는, 상기 상세한 정보를 프리뷰 화면으로 표시하는 동안 제1 제스처,예를 들어, 사용자 인터페이스의 제2 영역에서 하단 베젤 영역으로 드래그 동작이 검출되면, 상기 제1 객체를 실행할 수 있다.
한 실시예에 따르면, 상기 제어부(410)는, 상기 제1 객체를 실행하는 동안 제2 제스처,예를 들어, 하단 베젤 영역에서 상단으로 드래그 동작이 검출되면, 상기 제1 객체의 실행을 종료하고, 상기 사용자 인터페이스를 제공하는 홈 화면을 표시할 수 있다.
하기 도 9을 통해, 홈 화면에서 제공되는 사용자 인터페이스에서 미확인 정보를 알리는 동작을 설명할 수 있다.
도 9a - 도 9d는 다양한 실시예에 따른 전자 장치에서 사용자 인터페이스를 통해 미확인 정보를 제공하는 동작을 설명하기 위한 도면이다. 도 9a - 도 9d에서는 사용자 인터페이스에 배치된 적어도 하나의 어플리케이션을 예로 설명하고 있다.
상기 도 9a와 같이, 제어부(도 4의 410)는 홈 화면에서 제공되는 사용자 인터페이스(900)의 제1 영역(910)에서 배치된 어플리케이션들 중 미확인 정보가 존재하는 SNS 어플리케이션에 대응되는 블록의 주변에 미확인 정보의 존재를 알리는 아이콘(930)을 표시할 수 있다.
상기 도 9a에서, 상기 아이콘(930)이 선택되면, 상기 제어부는 상기 도 9b와 같이 상기 미확인 정보의 상세 정보를 프리뷰 화면으로 표시하고, 상기 SNS어플리케이션에 대응되는 블록을 현재 시간을 나타내는 제1 위치시키며, 상기 제1 위치에 위치된 상기 포인터에는 SNS어플리케이션의 종류를 나타내는 아이콘을 표시할 수 있다. 또한 상기 제어부는, 상기 미확인 정보의 상세 정보를 프리뷰 화면으로 표시하는 동안 상기 SNS어플리케이션관 관련된 기능 예를 들어, 플릭(flick)기능을 제공할 수 있다.
상기 도 9b에서 사용자에 의해 플릭 기능(950)이 수행되면, 상기 제어부는 상기 도 9c와 같이 다른 상세정보를 프리뷰 화면(960)으로 표시할 수 있다.
상기 도 9c에서, 제1 제스처 예를 들어, 제2 영역에서 하단 베젤 영역으로 드래그 동작(970)이 검출되면, 상기 제어부는 상기 도 9d와 같이 상기 SNS어플리케이션을 실행할 수 있다.
다양한 실시예 따르면, 제어부(410)는 잠금 화면에서 시간의 순서에 따라 배치된 적어도 하나의 객체를 사용자 인터페이스에 표시하고, 상기 사용자 인터페이스를 표시하는 동안 상기 사용자 인터페이스에 배치된 적어도 하나의 객체 중 사용자에 의해 선택된 객체에 대한 정보를 프리뷰 화면으로 디스플레이(420)에 표시할 수 있다.
한 실시예에 따르면, 제어부(410)는, 잠금 화면에서 제공하는 사용자 인터페이스의 제1 영역에서 이동되는 포인터를 현재 시간을 나타내는 제1 위치에 디폴트로 표시하고, 상기 포인터가 상기 제1 위치에서 이동되는 방향에 따라 과거블록 또는 미래 블록에 대응되는 객체에 대한 정보를 프리뷰 화면으로 상기 사용자 인터페이스의 제2 영역에 표시할 수 있다.
상기 제어부(410)는, 상기 포인터가 상기 제1 영역의 상기 제1 위치에서 상기 제1 방향으로 이동되는 동안, 상기 포인터가 위치되는 과거 블록에 대응되는 객체에 대한 정보를 프리뷰 화면으로 상기 제2 영역에 표시할 수 있다. 상기 제어부(410)는, 상기 포인터가 상기 제1 방향으로 상기 제1 영역의 이동을 반복 동안, 상기 제1 영역에 상기 실행되었던 객체에 대응되는 과거블록을 시간의 순서에 따라 업데이트하여 표시할 수 있다.
상기 제어부(410)는, 상기 포인터가 상기 제1 영역의 상기 제1 위치에서 상기 제2 방향으로 이동되는 동안, 상기 포인터가 위치되는 미래 블록에 대응되는 객체에 대한 정보를 프리뷰 화면으로 상기 제2 영역에 표시할 수 있다. 상기 제어부(410)는, 상기 포인터가 상기 제2 방향으로 상기 제1 영역의 이동을 반복 동안, 상기 제1 영역에 상기 실행되었던 객체에 대응되는 미래 블록을 시간의 순서에 따라 업데이트하여 표시할 수 있다.
상기 제어부(410)는, 상기 포인터가 상기 제1 영역에서 이동되는 동안, 상기 포인터의 일부 영역에 상기 포인터가 위치된 블록에 대응되는 객체의 종류를 알리는 인디케이션(예를 들어, 아이콘)을 표시할 수 있다.
상기 제어부(410)는, 상기 제1 영역에 표시되는 블록들을 객체의 종류별로 또는 객체의 카테고리에 따라 구분되게 표시(예를 들어, 색상)할 수 있다.
한 실시예에 따르면, 상기 제어부(410)는, 상기 사용자 인터페이스에서 선택된 객체에 대한 정보를 프리뷰 화면으로 상기 제2 영역에 표시하는 동안 제1 제스처가 검출되면 상기 선택된 객체를 실행시킬 수 있다. 상기 제어부(410)는, 상기 사용자 인터페이스의 제1 영역에서 상기 포인터가 위치된 블록에 대응되는 객체에 대한 정보를 프리뷰 화면으로 상기 제2 영역에 표시하는 동안, 제1 제스처 예를 들어, 제2 영역에서 하단 베젤 영역으로 드래그 동작이 검출되면, 잠금을 해제하고 상기 포인터가 위치된 블록에 대응되는 객체를 실행할 수 있다.
한 실시예에 따르면, 상기 제어부(410)는, 상기 제1 제스처에 따라 상기 객체를 실행하는 동안, 제2 제스처 예를 들어, 하단 베젤 영역에서 상단으로 드래그 동작이 검출되면, 상기 객체의 실행을션을 종료하고, 상기 사용자 인터페이스를 포함하는 홈 화면으로 전환할 수 있다.
한 실시예에 따르면, 상기 제어부(410)는, 상기 사용자 인터페이스의 제 2 영역에 객체에 대한 정보가 표시되지 않는 상태에서, 상기 제1 제스처가 발생되면, 잠금을 해제하고 홈 화면으로 전환할 수 있다. 상기 제어부(410)는 상기 전환된 홈 화면에서 상기 사용자 인터페이스를 제공할 수 있다.
하기 도 10을 통해, 잠금 화면에서 제공되는 사용자 인터페이스를 이용하여 시간의 순서에 따라 배치된 객체의 제어 동작을 설명할 수 있다.
도 10a - 도 10c는 다양한 실시예에 따른 전자 장치의 잠금 화면에서 제공하는 사용자 인터페이스를 설명하기 위한 도면이다. 도 10a - 도 10c에서는 사용자 인터페이스에 배치된 적어도 하나의 어플리케이션을 예로 설명하고 있다.
상기 도 10a와 같이, 잠금 화면에서 사용자 인터페이스(1000)을 제공하는 동안, 제1 영역(1010)의 포인터(1011)가 반 시계방향으로 이동되어 운동 어플리케이션에 대응되는 블록에 위치되면, 제어부(도 4의 410)는 상기 도 10b와 같이 상기 운동 어플리케이션에 대한 정보를 프리뷰 화면으로 제2 영역(1020)에 표시하고, 상기 운동 어플리케이션에 대응되는 블록에 위치된 상기 포인터(1011)에 상기 운동 어플리케이션의 종류를 알리는 아이콘(1011a)을 표시할 수 있다.
상기 도 10b와 같은 상태에서, 제1 제스처, 예를 들어 상기 제2 영역에서 하단 베젤 영역으로 드래그 동작일 검출되면, 상기 제어부는 상기 도 10c와 같이 상기 운동 어플리케이션을 실행시킬 수 있다.
다양한 실시예에 따르면, 디스플레이(420)는, 예를 들면, 도 1에 도시된 디스플레이(160)일 수 있다. 디스플레이(420)는 홈 화면 또는 잠금 화면에서 시간의 순서에 따라 배치된 적어도 하나의 객체를 포함하는 사용자 인터페이스를 표시할 수 있다.
다양한 실시예에 따르면 메모리(430)는 예를 들면, 도 1에 도시된 메모리(130)일 수 있다. 메모리(430)는 홈 화면 또는 잠금 화면에서 제공되는 사용자 인터페이스에 배치되는 적어도 하나의 객체 각각에 대한 정보를 저장할 수 있다.
다양한 실시예에 따르면, 디스플레이(420) 및 제어부(410)은 시간의 순서에 따라 적어도 하나의 객체가 배치된 사용자 인터페이스를 표시하고, 상기 사용자 인터페이스를 표시하는 동안 상기 사용자 인터페이스에 배치된 상기 적어도 하나의 객체 중 선택된 객체에 대한 정보를 표시하도록 상기 디스플레이를 제어할 수 있다.
다양한 실시예에 따르면, 상기 제어부(410)는, 상기 사용자 인터페이스를 홈 화면 또는 잠금 화면에 표시할 수 있다.
다양한 실시예에 따르면, 상기 제어부(410)는, 상기 사용자 인터페이스에 상기 적어도 하나의 객체들 간의 이동이 가능한 포인터를 표시하고, 상기 포인터의 이동에 의해 선택된 객체에 대한 정보를 표시할 수 있다.
다양한 실시예에 따르면, 상기 제어부(410)는, 상기 사용자 인터페이스를 제1 영역과 제2 영역으로 분할하고, 상기 제1 영역에 상기 적어도 하나의 객체를 블록단위로 표시하고, 상기 적어도 하나의 객체들 간의 이동이 가능한 상기 포인터를 표시하며, 상기 제2 영역에 상기 제1 영역에 기본 메뉴를 제공할 수 있는 인디케이션을 표시하며, 상기 제1 영역에서 상기 포인터가 이동되면, 상기 포인터의 이동방향을 기반으로 상기 포인터가 위치된 블록에 대응되는 객체에 대한 정보를 표시할 수 있다.
다양한 실시예에 따르면, 상기 제어부(410)는, 상기 디스플레이에 표시되는 상기 사용자 인터페이스의 위치를 기반으로, 상기 선택된 객체와 관련된 마지막 화면정보 또는 특정 화면정보를 재구성하여 상기 선택된 객체에 대한 정보를 표시할 수 있다.
다양한 실시예에 따르면, 상기 제어부(410)는, 상기 선택된 객체에 대한 정보를 표시하는 동안, 제1 제스처가 검출되면 상기 선택된 객체를 실행하고, 상기 객체를 실행하는 동안 제2 제스처가 검출되면 상기 객체의 실행을 종료하고 상기 사용자 인터페이스를 표시할 수 있다.
다양한 실시예에 따르면, 상기 제어부(410)는, 상기 선택된 어플리케이션에 대한 정보를 표시하는 동안, 상기 선택된 객체와 관련된 기능을 제공할 수 있다.
다양한 실시예에 따르면, 상기 제어부(410)는, 상기 사용자 인터페이스에 배치된 상기 적어도 하나의 객체 중 사용자에 의해 확인되지 않은 정보를 포함하는 제1 객체가 존재하면, 상기 사용자 인터페이스에서 상기 제1 객체에 대응되는 블록의 주변에 상기 사용자에 의해 미 확인된 정보의 존재를 알리는 인디케이션을 표시할 수 있다.
다양한 실시예에 따르면, 상기 제어부(410)는, 상기 사용자에 의해 미 확인된 정보의 존재를 알리는 인디케이션이 선택되면, 상기 미 확인된 정보에 대한 상세 정보를 표시하고, 상기 상세한 정보를 표시하는 동안 제1 제스처가 검출되면 상기 제1 객체를 실행할 수 있다.
다양한 실시예에 따르면, 상기 제어부(410)는, 상기 사용자 인터페이스를 잠금 화면에서 표시 할 때, 상기 사용자 인터페이스의 제1 영역에 배치된 적어도 하나의 객체 중 선택된 객체에 대한 정보를 상기 사용자 인터페이스의 제2 영역에 표시할 수 있다.
도 11은 다양한 실시예에 따른 전자 장치의 홈 화면에서 사용자 인터페이스를 이용하여 객체를 제어하는 방법을 보여주는 흐름도이다. 도 11에서 다양한 실시예에 따른 전자 장치의 홈 화면에서 사용자 인터페이스를 이용하여 객체를 제어하는 방법은 도 4의 제1전자 장치(401)의 제어부(410)에 의해 수행되는 것을 예로 설명할 수 있다.
상기 도 11을 참조하며, 1101동작에서, 제어부는 홈 화면에 과거에 실행되었던 객체와 미래에 실행 될 예정인 객체가 시간의 순서에 따라 배치된 사용자 인터페이스를 표시할 수 있다.
1103 동작에서, 상기 제어부는, 상기 사용자 인터페이스의 제1 영역에서 현재 시간을 나타내는 제1 위치에 위치된 포인터의 이동이 검출되는 경우, 상기 포인터의 이동방향을 검출할 수 있다.
1105동작에서, 상기 제어부는 상기 포인터가 제1 방향(예를 들어, 반 시계방향)으로 이동되는 것이 검출되면, 1107동작에서 상기 제1 영역에서 과거에 실행된 객체에 대응되는 과거 블록들 중 상기 포인터가 위치된 블록에 대응되는 객체에 대한 정보를 프리뷰 화면으로 디스플레이(도 4의 420) 표시할 수 있다. 상기 1107동작에서, 상기 제어부는 상기 디스플레이에서 상기 객체에 대한 정보를 백 그라운드로 표시하고, 상기 사용자 인터페이스를 포 그라운드로 표시할 수 있다.
1109동작에서, 상기 제어부는 상기 포인터가 제2 방향(예를 들어, 시계방향)으로 이동되는 것이 검출되면, 1111동작에서 상기 제1 영역에서 미래에 실행된 객체에 대응되는 미래 블록들 중 상기 포인터가 위치된 블록에 대응되는 객체에 대한 정보를 프리뷰 화면으로 디스플레이(도 4의 420)에 표시할 수 있다. 상기 1111동작에서, 상기 제어부는 상기 디스플레이에서 상기 객체에 대한 정보를 백그라운드로 표시하고, 상기 사용자 인터페이스를 포 그라운드로 표시할 수 있다.
상기 1107 동작 또는 상기 1111동작에서 상기 포인터가 위치된 블록에 대응되는 객체에 대한 정보를 프리뷰 화면으로 표시하는 동안, 1113동작에서 객체 실행을 위한 제1 제스처, 예를 들어 상기 사용자 인터페이스의 제2 영역에서 하단 베젤 영역으로 드래그 동작이 검출되면, 1115동작에서 상기 제어부는 상기 포인터가 위치된 블록에 대응되는 객체를 실행시킬 수 있다.
상기 1115동작에서 상기 포인터가 위치된 블록에 대응되는 객체를 실행시키는 동안, 1117동작에서 사용자 인터페이스 전환을 위한 제2 제스처, 예를 들어 하단 베젤 영역에서 상단으로 드래그 동작이 검출되면, 상기 제어부는 상기 객체의 실행을 종료하고 상기 홈 화면에서 사용자 인터페이스를 제공하는 상기 1101동작을 수행할 수 있다.
상기 1107 동작 또는 상기 1111동작에서 상기 포인터가 위치된 블록에 대응되는 객체에 대한 정보를 프리뷰 화면을 표시하는 동안, 상기 제어부는 상기 객체와 관련된 기능을 제공할 수 있다. 예를 들어, 통화 어플리케이션이 경우, 통화메뉴 및 메시지메뉴등과 같은 소프트 키를 표시하고, 음악 어플리케이션인 경우 빨리 감기, 되감기 및 재생등과 같은 소프트 키를 제공할 수 있다. 1119동작에서, 상기 제어부는, 상기 객체와 관련된 기능 중 어느 하나의 기능의 선택이 검출되면, 1121동작에서 상기 선택된 기능에 대응되게 상기 포인터가 위치된 블록에 대응되는 객체를 제어할 수 있다. 상기 객체와 관련된 기능은 상기 도 7에서 상세히 설명하고 있다.
도 12는 다양한 실시예에 따른 전자 장치의 홈 화면에서 사용자 인터페이스의 제1 영역에 대한 상태전환 방법을 보여주는 흐름도이다. 도 12에서 다양한 실시예에 따른 전자 장치의 홈 화면에서 사용자 인터페이스의 제1 영역에 대한 상태전환 방법은 도 4의 제1전자 장치(401)의 제어부(410)에 의해 수행되는 것을 예로 설명할 수 있다.
상기 도 12를 참조하며, 1201동작에서, 제어부는 홈 화면에 과거에 실행되었던 객체와 미래에 실행 될 예정인 객체가 시간의 순서에 따라 배치된 사용자 인터페이스를 표시할 수 있다. 상기 1201동작에서 상기 사용자 인터페이스의 제1 영역은 시간의 순서에 따라 적어도 하나의 객체에 대응되는 블록들이 배치되어 표시되는 제1 상태가 될 수 있다.
1203동작에서, 상기 제어부는 상기 사용자 인터페이스의 제1 영역에 시간의 순서에 따라 적어도 하나의 객체에 대응되는 블록들이 배치되어 표시되는 제1 상태에서, 상기 사용자 인터페이스의 제2 영역에 표시되는 인디케이션의 선택이 검출되면, 1205동작에서 상기 제1 영역에 기본 메뉴를 표시하는 제2 상태로 전환할 수 있다. 상기 1205동작에서 상기 제어부는 상기 제1 영역을 미리 설정된 기본 메뉴의 개수에 대응되는 소 영역들로 분할하고, 상기 소 영역들 각각에 상기 기본 메뉴를 알리는 아이콘을 표시할 수 있다.
1207동작에서, 상기 제어부는 상기 제1 영역에 기본 메뉴를 표시하는 제2 상태에서, 상기 사용자 인터페이스의 제2 영역에 표시되는 인디케이션의 선택이 검출되면, 상기 제1 영역에 시간의 순서에 따라 적어도 하나의 객체에 대응되는 블록들이 배치되어 표시되는 제1 상태로 전환하여 상기 1203동작을 수행할 수 있다.
1209동작에서, 상기 제어부는, 상기 제1 영역에 기본 메뉴를 표시하는 제2 상태에서, 소정의 메뉴의 선택이 검출되면, 1211 동작에서 상기 선택된 메뉴에 대응되는 기능을 수행할 수 있다.
도 13은 다양한 실시예에 따른 전자 장치의 홈 화면에서 사용자 인터페이스를 이용하여 미확인 정보를 제어하는 방법을 보여주는 흐름도이다. 도 13에서 다양한 실시예에 따른 전자 장치의 홈 화면에서 사용자 인터페이스를 이용하여 미확인 정보를 제어하는 방법은 도 4의 제1전자 장치(401)의 제어부(410)에 의해 수행되는 것을 예로 설명할 수 있다.
1301동작에서, 상기 제어부는 홈 화면에 과거에 실행되었던 객체와 미래에 실행 될 예정인 객체가 시간의 순서에 따라 배치된 사용자 인터페이스를 표시할 수 있다.
1303동작에서, 상기 제어부는 상기 사용자 인터페이스의 제1 영역에서 시가의 순서에 따라 배치된 적어도 하나의 객체 중 미확인 정보가 존재하는 제1 객체를 검출할 수 있다.
1308동작에서, 상기 제어부는 상기 제1 객체에 대응되는 블록 주변에 미확인 정보의 존재를 알리는 인디케이션을 표시할 수 있다.
1307동작에서, 상기 제어부는 상기 인디케이션의 선택이 검출되면 1309동작에서 상기 미확인 정보에 대한 상세정보를 프리뷰 화면으로 표시할 수 있다. 상기 1309동작에서 상기 제어부는 상기 인디케이션의 선택을 현재 동작을 검출하고, 상기 미확인 정보에 대한 상세정보를 프리뷰 화면으로 표시하는 동안 상기 제1 영역에서 현재 위치를 나타내는 제1 위치에 상기 제1 객체에 대응되는 블록을 위치시키고, 상기 제1 위치에 위치되어 있는 포인터에 상기 제1 객체의 종류를 나타내는 아이콘을 표시할 수 있다.
1311동작에서, 상기 제어부는 상기 미확인 정보에 대한 상세정보를 프리뷰 화면으로 표시하는 동안, 객체 실행을 위한 제1 제스처, 예를 들어 제2 영역에서 하단 베젤 영역으로 드래그 동작이 검출되면, 1313동작에서 상기 제1 객체를 실행할 수 있다.
상기 1315동작에서, 상기 제어부는 상기 제1 객체를 실행하는 동안 제2 제스처, 예를 들어 하단 베젤영역에서 상단으로 드래그 동작이 검출되면, 상기 제1 객체의 실행을 종료하고 홈 화면에서 사용자 인터페이스를 표시하는 상기 1301동작을 수행할 수 있다.
도 14는 다양한 실시예에 따른 전자 장치의 잠금 화면에서 사용자 인터페이스를 이용하여 객체를 제어하는 방법을 보여주는 흐름도이다. 도 14에서 다양한 실시예에 따른 전자 장치의 잠금 화면에서 사용자 인터페이스를 이용하여 객체를 제어하는 방법은 도 4의 제1전자 장치(401)의 제어부(410)에 의해 수행되는 것을 예로 설명할 수 있다.
상기 도 14를 참조하며, 1401동작에서, 제어부는 잠금 화면에 과거에 실행되었던 객체와 미래에 실행 될 예정인 객체가 시간의 순서에 따라 배치된 사용자 인터페이스를 표시할 수 있다.
1403 동작에서, 상기 제어부는, 상기 사용자 인터페이스의 제1 영역에서 현재 포인터의 이동방향을 검출할 수 있다.
1405동작에서, 상기 제어부는 상기 포인터가 제1 방향(예를 들어, 반 시계방향)으로 이동되는 것이 검출되면, 1407동작에서 상기 제1 영역에서 과거에 실행된 객체에 대응되는 과거 블록들 중 상기 포인터가 위치된 블록에 대응되는 객체에 대한 정보를 프리뷰 화면으로 상기 사용자 인터페이스의 제2 영역에 표시할 수 있다.
1409동작에서, 상기 제어부는 상기 포인터가 제2 방향(예를 들어, 시계방향)으로 이동되는 것이 검출되면, 1411동작에서 상기 제1 영역에서 미래에 실행된 객체에 대응되는 미래 블록들 중 상기 포인터가 위치된 블록에 대응되는 객체에 대한 정보를 프리뷰 화면으로 상기 사용자 인터페이스의 제2 영역에 표시할 수 있다. 상기 1407 동작 또는 상기 1411동작에서 상기 포인터가 위치된 블록에 대응되는 객체에 대한 정보를 프리뷰 화면으로 표시하는 동안, 1413동작에서 객체 실행을 위한 제1 제스처, 예를 들어 상기 사용자 인터페이스의 제2 영역에서 하단 베젤 영역으로 드래그 동작이 검출되면, 1115동작에서 상기 제어부는 전자 장치의 잠금을 해제하고, 상기 포인터가 위치된 블록에 대응되는 객체를 실행시킬 수 있다.
도 15는 다양한 실시예에 따른 전자 장치에서 프리뷰 화면의 구성 방법을 보여주는 흐름도이다. 도 15에서 다양한 다양한 실시예에 따른 전자 장치에서 프리뷰 화면의 구성 방법은 도 4의 제1전자 장치(401)의 제어부(410)에 의해 수행되는 것을 예로 설명할 수 있다.
1501동작에서, 상기 제어부는 사용자에 의해 선택된 객체를 실행 시킬 수 있다. 1503동작에서 상기 제어부는 상기 객체 실행의 종료가 검출되면, 1505동작에서 상기 제어부는 상기 객체의 마지막 화면 정보 또는 특정 화면 정보를 저장할 수 있다. 상기 특정 화면 정보를 상기 객체의 종료시점에서 사용자에 의해 선택될 수 있는 화면 정보를 포함할 수 있다.
1507동작에서 상기 제어부는 상기 마지막 화면 정보 또는 상기 특정 화면 정보를 사용자 인터페이스의 위치 및 형태를 기반으로 재구성하여 상기 객체의 대한 정보로 저장할 수 있다.
상기 1507동작에서 상기 제어부는 홈 화면에 표시되는 사용자 인터페이스에 상기 마지막 정보 또는 상기 특정 정보의 주요 정보가 가리워 지지 않도록 상기 마지막 화면 정보 또는 상기 특정 화면 정보를 재구성하여 상기 프리뷰 화면으로 표시될 상기 객체에 대한 정보로 저장할 수 있다. 또는 상기 제어부는 잠금 화면에서 표시되는 사용자 인터페이스의 제2 영역에 상기 마지막 정보 또는 상기 특정 정보의 주요 정보가 표시되도록 상기 마지막 화면 정보 또는 상기 특정 화면 정보를 재구성하여 상기 객체에 대한 정보로 저장할 수 있다.
또는 상기 제어부는 홈 화면 또는 잠금 화면에서 상기 사용자 인터페이스의 제1 영역에서 포인터의 이동을 통해 선택된 블록에 대응되는 객체에 대한 정보를 프리뷰 화면으로 표시할 때 상기 1507동작을 수행하여, 상기 포인터의 이동을 통해 선택된 블록에 대응되는 객체에 대한 정보를 프리뷰 화면으로 표시할 수 있다.
다양한 실시예에 따르면, 전자 장치의 사용자 인터페이스 제어방법은,
시간의 순서에 따라 적어도 하나의 객체가 배치된 사용자 인터페이스를 표시하는 동작, 및 상기 사용자 인터페이스를 표시하는 동안 상기 사용자 인터페이스에 배치된 상기 적어도 하나의 객체 중 선택된 객체에 대한 정보를 표시하는 동작을 포함할 수 있다.
다양한 실시예에 따르면, 상기 사용자 인터페이스는 홈 화면 또는 잠금 화면에 표시할 수 있다.
다양한 실시예에 따르면, 상기 사용자 인터페이스에 상기 적어도 하나의 객체들 간의 이동이 가능한 포인터를 표시하고, 상기 포인터의 이동에 의해 상기 적어도 하나의 객체 중 상기 선택된 객체에 대한 정보를 표시하는 동작을 더 포함할 수 있다.
다양한 실시예에 따르면, 상기 객체에 대한 정보를 표시하는 동작은,상기 사용자 인터페이스를 제1 영역과 제2 영역으로 분할하는 동작, 상기 제1 영역에 상기 적어도 하나의 객체를 블록단위로 표시하고, 상기 적어도 하나의 객체들 간의 이동이 가능한 상기 포인터를 표시하며, 상기 제2 영역에 상기 제1 영역에 기본 메뉴를 제공할 수 있는 인디케이션을 표시하는 동작, 및 상기 제1 영역에서 상기 포인터가 이동되면, 상기 포인터의 이동방향을 기반으로 상기 포인터가 위치된 블록에 대응되는 객체에 대한 정보를 표시하는 동작을 포함할 수 있다.
다양한 실시예에 따르면, 상기 프리뷰 화면을 표시하는 동작은, 상기 전자 장치의 디스플레이에 표시되는 상기 사용자 인터페이스의 위치를 기반으로, 상기 선택된 어플리케이션의 마지막 화면정보 또는 특정 화면정보를 재구성하여 상기 선택된 객체에 대한 정보를 표시하는 동작을 포함할 수 있다.
다양한 실시예에 따르면, 상기 선택된 객체에 대한 정보를 표시하는 동안, 제1 제스처가 검출되면 상기 선택된 객체를 실행하는 동작, 및 상기 객체를 실행하는 동안, 제2 제스처가 검출되면 상기 객체의 실행을 종료하고 상기 사용자 인터페이스를 표시하는 동작을 더 포함할 수 있다.
다양한 실시예에 따르면, 상기 선택된 객체에 대한 정보를 표시하는 동안, 상기 선택된 객체와 관련된 기능을 제공하는 동작을 더 포함할 수 있다.
다양한 실시예에 따르면, 상기 사용자 인터페이스에 배치된 상기 적어도 하나의 객체 중 사용자에 의해 확인되지 않은 정보를 포함하는 제1 객체가 존재하면, 상기 사용자 인터페이스에서 상기 제1 객체에 대응되는 블록의 주변에 상기 사용자에 의해 미 확인된 정보의 존재를 알리는 인디케이션을 표시하는 동작을 더 포함할 수 있다.
다양한 실시예에 따르면, 상기 사용자에 의해 미 확인된 정보의 존재를 알리는 인디케이션이 선택되면, 상기 미 확인된 정보에 대한 상세 정보를 표시하는 동작, 및 상기 상세한 정보를 표시하는 동안, 제1 제스처가 검출되면 상기 제1 객체를 실행하는 동작을 더 포함 할 수 있다.
다양한 실시예에 따르면, 상기 사용자 인터페이스를 잠금 화면에서 표시 할 때, 상기 사용자 인터페이스의 제1 영역에 배치된 적어도 하나의 객체 중 선택된 객체에 대한 정보를 상기 사용자 인터페이스의 제2 영역에 표시하는 동작을 더 포함할 수 있다.
다양한 실시에에 따르면, 명령들을 저장하고 있는 저장 매체에 있어서, 상기 명령들은 적어도 하나의 프로세서에 의하여 실행될 때에 상기 적어도 하나의 프로세서로 하여금 적어도 하나의 동작을 수행하도록 설정된 것으로서, 상기 적어도 하나의 동작은, 시간의 순서에 따라 적어도 하나의 객체가 배치된 사용자 인터페이스를 표시하는 동작, 및 상기 사용자 인터페이스를 표시하는 동안 상기 사용자 인터페이스에 배치된 상기 적어도 하나의 객체 중 선택된 객체에 대한 정보를 표시하는 동작을 실행시키는 프로그램을 기록할 수 있다.

Claims (15)

  1. 전자 장치에 있어서,
    디스플레이 및
    시간의 순서에 따라 적어도 하나의 객체가 배치된 사용자 인터페이스를 표시하고, 상기 사용자 인터페이스를 표시하는 동안 상기 사용자 인터페이스에 배치된 상기 적어도 하나의 객체 중 선택된 객체에 대한 정보를 표시하도록 상기 디스플레이를 제어하는 제어부를 포함하는 전자 장치.
  2. 제1 항에 있어서, 상기 제어부는,
    상기 사용자 인터페이스에 상기 적어도 하나의 객체들 간의 이동이 가능한 포인터를 표시하고, 상기 포인터의 이동에 의해 선택된 객체에 대한 정보를 표시하는 전자 장치.
  3. 제2 항에 있어서, 상기 제어부는,
    상기 사용자 인터페이스를 제1 영역과 제2 영역으로 분할하고,
    상기 제1 영역에 상기 적어도 하나의 객체를 블록단위로 표시하고, 상기 적어도 하나의 객체들 간의 이동이 가능한 상기 포인터를 표시하며,
    상기 제2 영역에 상기 제1 영역에 기본 메뉴를 제공할 수 있는 인디케이션을 표시하며,
    상기 제1 영역에서 상기 포인터가 이동되면, 상기 포인터의 이동방향을 기반으로 상기 포인터가 위치된 블록에 대응되는 객체에 대한 정보를 표시하는 전자 장치.
  4. 제1 항에 있어서, 상기 제어부는,
    상기 디스플레이에 표시되는 상기 사용자 인터페이스의 위치를 기반으로, 상기 선택된 객체와 관련된 마지막 화면정보 또는 특정 화면정보를 재구성하여 상기 선택된 객체에 대한 정보를 표시하는 전자 장치.
  5. 제1 항에 있어서, 상기 제어부는,
    상기 선택된 객체에 대한 정보를 표시하는 동안, 제1 제스처가 검출되면 상기 선택된 객체를 실행하고,
    상기 객체를 실행하는 동안 제2 제스처가 검출되면 상기 객체의 실행을 종료하고 상기 사용자 인터페이스를 표시하는 전자 장치.
  6. 제1 항에 있어서, 상기 제어부는,
    상기 선택된 객체에 대한 정보를 표시하는 동안, 상기 선택된 객체와 관련된 기능을 제공하는 전자 장치.
  7. 제1 항에 있어서, 상기 제어부는,
    상기 사용자 인터페이스에 배치된 상기 적어도 하나의 객체 중 사용자에 의해 확인되지 않은 정보를 포함하는 제1 객체가 존재하면, 상기 사용자 인터페이스에서 상기 제1 객체에 대응되는 블록의 주변에 상기 사용자에 의해 미 확인된 정보의 존재를 알리는 인디케이션을 표시하고,
    상기 사용자에 의해 미 확인된 정보의 존재를 알리는 인디케이션이 선택되면, 상기 미 확인된 정보에 대한 상세 정보를 표시하고, 상기 상세한 정보를 표시하는 동안 제1 제스처가 검출되면 상기 제1 객체를 실행하는 전자 장치.
  8. 제1 항에 있어서, 상기 제어부는,
    상기 사용자 인터페이스를 잠금 화면에서 표시 할 때, 상기 사용자 인터페이스의 제1 영역에 배치된 적어도 하나의 객체 중 선택된 객체에 대한 정보를 상기 사용자 인터페이스의 제2 영역에 표시하는 전자 장치.
  9. 전자 장치의 사용자 인터페이스 제어방법에 있어서,
    시간의 순서에 따라 적어도 하나의 객체가 배치된 사용자 인터페이스를 표시하는 동작; 및
    상기 사용자 인터페이스를 표시하는 동안 상기 사용자 인터페이스에 배치된 상기 적어도 하나의 객체 중 선택된 객체에 대한 정보를 표시하는 동작을 포함하는 전자 장치의 사용자 인터페이스 제어방법.
  10. 제9 항에 있어서,
    상기 사용자 인터페이스에 상기 적어도 하나의 객체들 간의 이동이 가능한 포인터를 표시하고, 상기 포인터의 이동에 의해 상기 적어도 하나의 객체 중 상기 선택된 객체에 대한 정보를 표시하는 동작을 더 포함하고,
    상기 객체에 대한 정보를 표시하는 동작은,
    상기 사용자 인터페이스를 제1 영역과 제2 영역으로 분할하는 동작;
    상기 제1 영역에 상기 적어도 하나의 객체를 블록단위로 표시하고, 상기 적어도 하나의 객체들 간의 이동이 가능한 상기 포인터를 표시하며, 상기 제2 영역에 상기 제1 영역에 기본 메뉴를 제공할 수 있는 인디케이션을 표시하는 동작; 및
    상기 제1 영역에서 상기 포인터가 이동되면, 상기 포인터의 이동방향을 기반으로 상기 포인터가 위치된 블록에 대응되는 객체에 대한 정보를 표시하는 동작을 포함하는 전자 장치의 사용자 인터페이스 제어방법.
  11. 제9 항에 있어서, 상기 프리뷰 화면을 표시하는 동작은,
    상기 전자 장치의 디스플레이에 표시되는 상기 사용자 인터페이스의 위치를 기반으로, 상기 선택된 어플리케이션의 마지막 화면정보 또는 특정 화면정보를 재구성하여 상기 선택된 객체에 대한 정보를 표시하는 동작을 포함하는 전자 장치의 사용자 인터페이스 제어방법.
  12. 제9 항에 있어서,
    상기 선택된 객체에 대한 정보를 표시하는 동안, 제1 제스처가 검출되면 상기 선택된 객체를 실행하는 동작; 및
    상기 객체를 실행하는 동안, 제2 제스처가 검출되면 상기 객체의 실행을 종료하고 상기 사용자 인터페이스를 표시하는 동작을 더 포함하는 전자 장치의 사용자 인터페이스 제어방법.
  13. 제9 항에 있어서,
    상기 선택된 객체에 대한 정보를 표시하는 동안, 상기 선택된 객체와 관련된 기능을 제공하는 동작을 더 포함하는 전자 장치의 사용자 인터페이스 제어방법.
  14. 제9 항에 있어서,
    상기 사용자 인터페이스에 배치된 상기 적어도 하나의 객체 중 사용자에 의해 확인되지 않은 정보를 포함하는 제1 객체가 존재하면, 상기 사용자 인터페이스에서 상기 제1 객체에 대응되는 블록의 주변에 상기 사용자에 의해 미 확인된 정보의 존재를 알리는 인디케이션을 표시하는 동작;
    상기 사용자에 의해 미 확인된 정보의 존재를 알리는 인디케이션이 선택되면, 상기 미 확인된 정보에 대한 상세 정보를 표시하는 동작; 및
    상기 상세한 정보를 표시하는 동안, 제1 제스처가 검출되면 상기 제1 객체를 실행하는 동작을 더 포함하는 전자 장치의 사용자 인터페이스 제어방법.
  15. 제9 항에 있어서,
    상기 사용자 인터페이스를 잠금 화면에서 표시 할 때, 상기 사용자 인터페이스의 제1 영역에 배치된 적어도 하나의 객체 중 선택된 객체에 대한 정보를 상기 사용자 인터페이스의 제2 영역에 표시하는 동작을 더 포함하는 전자 장치의 사용자 인터페이스 제어방법.
PCT/KR2017/000781 2016-01-27 2017-01-23 전자 장치 및 전자 장치의 사용자 인터페이스 제어 방법 WO2017131401A1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US16/073,224 US10884578B2 (en) 2016-01-27 2017-01-23 Electronic device and method for controlling user interface of electronic device
EP17744523.6A EP3410282B1 (en) 2016-01-27 2017-01-23 Electronic device and method for controlling user interface of electronic device
CN201780008297.8A CN108604153A (zh) 2016-01-27 2017-01-23 电子设备以及用于控制电子设备的用户界面的方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020160010087A KR102497550B1 (ko) 2016-01-27 2016-01-27 전자 장치 및 전자 장치의 사용자 인터페이스 제어 방법
KR10-2016-0010087 2016-01-27

Publications (1)

Publication Number Publication Date
WO2017131401A1 true WO2017131401A1 (ko) 2017-08-03

Family

ID=59398553

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2017/000781 WO2017131401A1 (ko) 2016-01-27 2017-01-23 전자 장치 및 전자 장치의 사용자 인터페이스 제어 방법

Country Status (5)

Country Link
US (1) US10884578B2 (ko)
EP (1) EP3410282B1 (ko)
KR (1) KR102497550B1 (ko)
CN (1) CN108604153A (ko)
WO (1) WO2017131401A1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109445464A (zh) * 2019-01-08 2019-03-08 深圳市道通智能航空技术有限公司 一种飞行控制方法及飞行控制系统
EP3639126A4 (en) * 2017-08-04 2020-07-15 Samsung Electronics Co., Ltd. ELECTRONIC METHOD AND DEVICE FOR TRACKING USER ACTIVITY

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10261672B1 (en) * 2014-09-16 2019-04-16 Amazon Technologies, Inc. Contextual launch interfaces
KR102356812B1 (ko) * 2017-05-19 2022-01-28 엘지전자 주식회사 지문 감지가 가능한 전자장치
USD878411S1 (en) * 2017-08-16 2020-03-17 Lg Electronics Inc. Display screen with animated graphical user interface
CN109726000A (zh) * 2018-12-29 2019-05-07 苏州思必驰信息科技有限公司 多应用视图的管理方法、用于多应用视图的管理的装置及操作方法
CN111443841B (zh) * 2020-03-26 2021-12-31 维沃移动通信有限公司 一种对象移动方法及电子设备
CN112543300B (zh) * 2020-11-09 2021-10-08 深圳大因光电有限公司 一种可视化会议控制系统及使用方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090013275A1 (en) * 2007-07-05 2009-01-08 Darrell May System and method for quick view of application data on a home screen interface triggered by a scroll/focus action
KR20120098254A (ko) * 2011-02-28 2012-09-05 숭실대학교산학협력단 사용자 인터페이스 제공 장치 및 방법
KR101233955B1 (ko) * 2012-05-17 2013-02-15 권오형 사용자 중심의 메인 화면 아이콘 구성 장치 및 방법
WO2013119008A1 (ko) * 2012-02-07 2013-08-15 부가벤쳐스 전자 장치 및 컴퓨터로 구현되는 방법
US20150205509A1 (en) * 2013-12-02 2015-07-23 Daydials, Inc. User interface using graphical dials to represent user activity

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6828989B2 (en) * 2000-12-29 2004-12-07 Microsoft Corporation Graphically represented dynamic time strip for displaying user-accessible time-dependent data objects
JP5355872B2 (ja) * 2007-08-15 2013-11-27 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
US8826181B2 (en) * 2008-06-28 2014-09-02 Apple Inc. Moving radial menus
US8245156B2 (en) * 2008-06-28 2012-08-14 Apple Inc. Radial menu selection
US8522163B2 (en) 2008-12-19 2013-08-27 Verizon Patent And Licensing Inc. Systems and methods for radial display of time based information
KR101640464B1 (ko) 2009-10-26 2016-07-18 삼성전자 주식회사 터치스크린 기반의 ui 제공방법 및 이를 이용한 휴대 단말기
US8881060B2 (en) * 2010-04-07 2014-11-04 Apple Inc. Device, method, and graphical user interface for managing folders
US8707211B2 (en) * 2011-10-21 2014-04-22 Hewlett-Packard Development Company, L.P. Radial graphical user interface
CN103309551A (zh) 2012-03-16 2013-09-18 宇龙计算机通信科技(深圳)有限公司 移动终端和图标显示处理方法
US20130317997A1 (en) * 2012-05-25 2013-11-28 Jpms Inc Method and system for use of an application wheel user interface and verified assessments in hiring decisions
US20140195979A1 (en) * 2013-01-10 2014-07-10 Appsense Limited Interactive user interface
CN104035696B (zh) 2013-03-04 2017-12-19 观致汽车有限公司 车载消息中心在触控显示界面上的显示方法及装置
KR102144763B1 (ko) 2013-05-22 2020-08-28 삼성전자주식회사 웨어러블 부가 장치를 통한 스케줄 표시 방법 및 장치
KR20160120103A (ko) * 2015-04-07 2016-10-17 엘지전자 주식회사 이동 단말기 및 그것의 제어 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090013275A1 (en) * 2007-07-05 2009-01-08 Darrell May System and method for quick view of application data on a home screen interface triggered by a scroll/focus action
KR20120098254A (ko) * 2011-02-28 2012-09-05 숭실대학교산학협력단 사용자 인터페이스 제공 장치 및 방법
WO2013119008A1 (ko) * 2012-02-07 2013-08-15 부가벤쳐스 전자 장치 및 컴퓨터로 구현되는 방법
KR101233955B1 (ko) * 2012-05-17 2013-02-15 권오형 사용자 중심의 메인 화면 아이콘 구성 장치 및 방법
US20150205509A1 (en) * 2013-12-02 2015-07-23 Daydials, Inc. User interface using graphical dials to represent user activity

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3410282A4 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3639126A4 (en) * 2017-08-04 2020-07-15 Samsung Electronics Co., Ltd. ELECTRONIC METHOD AND DEVICE FOR TRACKING USER ACTIVITY
CN109445464A (zh) * 2019-01-08 2019-03-08 深圳市道通智能航空技术有限公司 一种飞行控制方法及飞行控制系统

Also Published As

Publication number Publication date
KR102497550B1 (ko) 2023-02-10
EP3410282B1 (en) 2023-01-11
CN108604153A (zh) 2018-09-28
US20190034058A1 (en) 2019-01-31
EP3410282A4 (en) 2018-12-05
US10884578B2 (en) 2021-01-05
EP3410282A1 (en) 2018-12-05
KR20170089635A (ko) 2017-08-04

Similar Documents

Publication Publication Date Title
WO2017135599A1 (ko) 외부 전자 장치를 제어하기 위한 방법 및 전자 장치
WO2018034555A1 (ko) 디스플레이를 제어하는 전자 장치 및 방법
WO2018151505A1 (en) Electronic device and method for displaying screen thereof
WO2017131401A1 (ko) 전자 장치 및 전자 장치의 사용자 인터페이스 제어 방법
WO2018169365A1 (en) Electronic device for controlling audio output and operation method thereof
WO2017179905A1 (ko) 플렉서블 디바이스 및 그 동작 방법
WO2017061762A1 (ko) 복수의 디스플레이를 구비한 전자장치 및 그 제어 방법
WO2019039871A1 (en) ELECTRONIC DEVICE AND METHOD FOR OPERATING APPLICATIONS
WO2017078366A1 (ko) 복수의 디스플레이들을 포함하는 전자 장치 및 그 동작 방법
WO2017026709A1 (ko) 전자 기기의 해상도 조정 방법 및 장치
WO2017209530A1 (en) Method of switching application and electronic device therefor
WO2017086676A1 (ko) 전자 장치 및 전자 장치의 컨텐츠 출력 방법
WO2017018722A1 (en) Screen operating method and electronic device supporting the same
WO2016175602A1 (en) Electronic device for providing short-cut user interface and method therefor
WO2017014587A1 (en) Electronic device and method for managing object in folder on electronic device
WO2017146360A1 (ko) 전자 장치, 음향 출력 시스템 및 음향 출력 시스템을 위한 전자 장치 제어 방법
WO2017119690A1 (ko) 전자 장치 및 그 동작 방법
WO2017131469A1 (ko) 어플리케이션을 제어하는 전자 장치와 이의 동작 방법
WO2017126878A1 (ko) 사용자 인터페이스를 표시하는 방법 및 이를 지원하는 전자 장치
WO2017023040A1 (en) Screen controlling method and electronic device for supporting the same
WO2018044065A1 (en) Method for displaying time information in low power state and electronic device including the same
WO2018217066A1 (ko) 생체 정보를 측정하는 전자 장치와 이의 동작 방법
WO2017026821A1 (ko) 전자 장치 및 전자 장치의 입력 방법
WO2018038483A1 (ko) 전자 장치 및 전자 장치의 동작 제어 방법
WO2016039596A1 (en) Method and apparatus for generating preview data

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17744523

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2017744523

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2017744523

Country of ref document: EP

Effective date: 20180827