WO2015072803A1 - 단말기 및 단말기의 제어 방법 - Google Patents

단말기 및 단말기의 제어 방법 Download PDF

Info

Publication number
WO2015072803A1
WO2015072803A1 PCT/KR2014/011049 KR2014011049W WO2015072803A1 WO 2015072803 A1 WO2015072803 A1 WO 2015072803A1 KR 2014011049 W KR2014011049 W KR 2014011049W WO 2015072803 A1 WO2015072803 A1 WO 2015072803A1
Authority
WO
WIPO (PCT)
Prior art keywords
output screen
applications
gesture
application
displaying
Prior art date
Application number
PCT/KR2014/011049
Other languages
English (en)
French (fr)
Inventor
박성욱
박세환
이재용
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Publication of WO2015072803A1 publication Critical patent/WO2015072803A1/ko
Priority to US15/158,284 priority Critical patent/US10712933B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/445Program loading or initiating
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/245Query processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/248Presentation of query results
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F8/00Arrangements for software engineering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs

Definitions

  • the described embodiment relates to a terminal and a method of controlling the terminal to enable a user to easily search for and execute an application.
  • a program running on a terminal is called an application.
  • various applications that can run on smart phones have been developed.
  • the user of the terminal installs and uses dozens or hundreds of applications in the terminal.
  • the user may have difficulty in finding an application to be executed among a large number of applications installed in the terminal.
  • a user wants to refer to information obtained through another application while using one application, it may be difficult to switch between the applications.
  • SMS short message service
  • a control method of a terminal includes displaying a first output screen including a screen of an application, receiving a first gesture, and a keyboard interface according to the received first gesture. Displaying a second output screen, receiving a search word through a keyboard interface, displaying a third output screen including a list of applications searched using the received search word, receiving a second gesture, And executing at least one or more applications among the searched applications according to the received second gesture.
  • a terminal and a method of controlling the terminal can be provided so that a user can easily search for and execute an application.
  • a terminal and a method of controlling the terminal may be provided so that a user may easily switch a screen displayed on the terminal from a screen of one application to a screen of another application.
  • FIG. 1 is a block diagram showing the configuration of a terminal according to an embodiment.
  • FIG. 2 is a flowchart illustrating a process of performing a control method of a terminal according to an embodiment.
  • 3 is a screen that includes a home screen and a docked launcher icon.
  • FIG. 4 is a screen including a screen of a contact application and a floated launcher icon.
  • 5 is a screen including a screen of the SMS application and a keyboard interface.
  • FIG. 6 is a screen including a screen of a contact application and a list of applications searched using the received search word.
  • FIG. 7 is a screen that includes a screen of a contact application and a list of applications searched using other received search terms.
  • FIG. 8 is a screen including a screen of a web browser application and a list of applications searched using another received search word.
  • FIG. 9 is a flowchart illustrating a process of performing a control method of a terminal according to another embodiment.
  • 10 is a screen including a screen of a contact application and a guide phrase for checking whether to search for a received search word using a search engine.
  • 11 is a flowchart illustrating a process of performing a control method of a terminal according to another embodiment.
  • 12 is a screen including a home screen and an entire application list.
  • FIG. 13 is a flowchart illustrating a process of performing a control method of a terminal according to another embodiment.
  • FIG. 14 is a screen including a home screen and a list of applications currently being executed by the terminal.
  • 15 is a flowchart illustrating a process of performing a control method of a terminal according to another embodiment.
  • 16 is a screen including a home screen and a list of applications recently executed by the terminal.
  • 17 is a flowchart illustrating a process of performing a control method of a terminal according to another embodiment.
  • 18 is a screen that includes a screen of a contact application and a list of applications mapped to keys of a keyboard interface.
  • 19 is a screen that includes a screen of a contact application and a list of applications mapped to other keys of a keyboard interface.
  • 20 is a flowchart illustrating a process of performing a control method of a terminal according to another embodiment.
  • FIG. 21 is a screen that includes a user interface that allows a user to edit a list of applications mapped to keys of a keyboard interface.
  • a control method of a terminal includes displaying a first output screen including a screen of an application, receiving a first gesture, and a keyboard interface according to the received first gesture. Displaying a second output screen, receiving a search word through a keyboard interface, displaying a third output screen including a list of applications searched using the received search word, receiving a second gesture, And executing at least one or more applications among the searched applications according to the received second gesture.
  • the first output screen may further include a docked launcher icon, and receiving the first gesture may include receiving a drag from the launcher icon.
  • the first output screen may further include a floated launcher icon, and receiving the first gesture may include receiving a tap on the launcher icon.
  • the displaying of the third output screen may include searching for an application including a search word in a name of the stored application, generating a third output screen including a list of searched applications, and a third of the stored applications. And displaying an output screen.
  • the displaying of the third output screen may include sorting the list of searched applications based on the number of times the applications included in the list are executed, and generating a third output screen including the sorted list of the applications. And displaying the third output screen.
  • the displaying of the third output screen may include searching for an application including a search word in an initial list of names of stored applications, generating a third output screen including a list of searched applications among stored applications; And displaying the third output screen.
  • the displaying of the third output screen may include searching for an application including a search word in a tag corresponding to the stored application, and generating a third output screen including a list of the searched applications. And displaying the third output screen.
  • the receiving of the second gesture may include receiving a tab for a specific application from among applications included in the list of searched applications, and executing the application may include executing a specific application. have.
  • the method of controlling the terminal may further include displaying a fourth output screen including a screen of the executed application.
  • a method of controlling a terminal may include displaying a first output screen including a screen of an application, receiving a first gesture, and a second keyboard including a keyboard interface according to the received first gesture. Displaying an output screen; receiving a search word through a keyboard interface; and when an application corresponding to the received search word is not stored, a third output screen including a result of searching for the search word using an external search engine is displayed. It may include the step of displaying.
  • the displaying of the third output screen may include searching for an application corresponding to a search word among stored applications, and if the application corresponding to the search word is not stored, search for the search word using an external search engine.
  • the method may include displaying a fourth output screen including a guide phrase for confirming and displaying a third output screen.
  • a method of controlling a terminal comprising: displaying a first output screen including a screen of an application, receiving a first gesture, and executing the first gesture according to the received first gesture Displaying a second output screen including at least one of a list of applications sorted on the basis of a list, a list of applications sorted on the basis of the number of executions, or a list of all stored applications; receiving a second gesture; And executing at least one application from among applications included in the second output screen according to the received second gesture.
  • the method of controlling the terminal may further include displaying a third output screen including a screen of the executed application.
  • a method for controlling a terminal including: displaying a first output screen including a screen of an application, receiving a first gesture, and according to the received first gesture, presently executing Terminating at least one application from a list of applications included in the second output screen by displaying a second output screen including a list of applications being received, receiving a second gesture, and receiving the second gesture; It may include the step.
  • a method of controlling a terminal including: displaying a first output screen including a screen of an application, receiving a first gesture, and receiving the first gesture; Displaying a second output screen including at least one of a list of applications sorted by time or a list of applications sorted by number of executions, receiving a second gesture, and receiving a second received screen And displaying, according to the gesture, a third output screen including a user interface for editing a list of applications included in the second output screen.
  • the user interface may include a user interface for excluding a specific application from a list of applications included in a second output screen and a replacement of a specific application with another application among a list of applications included in a second output screen. At least among a user interface, a user interface for adding a specific application to the list of applications included in the second output screen, or a user interface for changing the order of applications included in the list of applications included in the second output screen; It may include one or more.
  • a method of controlling a terminal may include displaying a first output screen including a screen of an application, receiving a first gesture, and receiving a keyboard interface according to the received first gesture.
  • Displaying a second output screen comprising: receiving a second gesture; displaying a third output screen including a list of applications mapped to keys of a keyboard interface according to the received second gesture;
  • the method may include receiving a third gesture, and executing at least one of the applications included in the third output screen according to the received third gesture.
  • the list of applications mapped to each key of the keyboard interface may include an application corresponding to each key of the first letter of the name of the stored application among all stored applications.
  • the method of controlling the terminal may further include displaying a fourth output screen including a screen of the executed application.
  • the third output screen may further include an icon disposed at an upper end of the key, and the icon may correspond to a predetermined application as a default from a list of applications mapped to the key.
  • a method of controlling a terminal may include displaying a first output screen including a screen of an application, receiving a first gesture, and receiving a keyboard interface according to the received first gesture.
  • Displaying a second output screen comprising: receiving a second gesture; displaying a third output screen including a list of applications mapped to keys of a keyboard interface according to the received second gesture
  • Receiving a third gesture and displaying, according to the received third gesture, a fourth output screen including a user interface for editing the list of mapped applications.
  • the user interface may also include a user interface for excluding a specific application from a list of mapped applications, a user interface for replacing a specific application with another application from a list of mapped applications, and a specific list of mapped applications. It may include at least one of a user interface for adding an application or a user interface for changing the order of the applications included in the list of mapped applications.
  • a terminal an input unit for receiving an input, a storage unit for storing at least one or more applications, a controller for executing an application and generating an output screen according to the received input, and to display an output screen
  • An output unit the control unit generates a first output screen including a screen of any application among the applications, the output unit displays the first output screen, the input unit receives the first gesture, and the control unit receives the received first
  • a second output screen including a keyboard interface is generated according to the gesture, the output unit displays the second output screen, the input unit receives a search word through the keyboard interface, and the control unit corresponds to the received search word among applications stored in the storage unit.
  • the display unit may display an output screen, the input unit may receive a second gesture, and the controller may execute at least one of the applications included in the list according to the received second gesture.
  • the controller may generate a fourth output screen including a screen of the executed application, and the output unit may display the fourth output screen.
  • first or “second” and the like are used to describe various components, such components are not limited by the above terms. Such terms may be used only to distinguish one component from another. Therefore, the first component mentioned below may be a second component within the technical spirit of the present invention.
  • terminal 100 and the control method of the terminal 100 according to the embodiment will be described in detail with reference to FIGS. 1 to 21.
  • the terminal 100 may include an input unit 110, a storage unit 120, an output unit 130, and a controller 140.
  • the input unit 110 may receive an input.
  • the input unit 110 may receive an input from a user of the terminal 100.
  • the input unit 110 may be, for example, a button, a touch screen, a trackball, a camera, a keyboard, a mouse, or a fingerprint recognition device.
  • the input unit 110 may be a touch screen.
  • the input unit 110 may receive a gesture from the user.
  • the user may input a tap or drag as a gesture through the touch screen.
  • the input unit 110 may receive a search word for searching for an application from a user.
  • the storage unit 120 may store an application. At least one or more applications may be installed in the storage unit 120.
  • the storage unit 120 may be a volatile memory or a nonvolatile memory.
  • the storage unit 120 may be, for example, a flash memory, a ROM, a RAM, an EEROM, an EPROM, an EEPROM, a hard disk drive (HDD), a register, or the like.
  • the storage unit 120 may include, for example, a file system, a database, or an embedded database.
  • the output unit 130 may display an output screen.
  • the output screen may be generated by the controller 140.
  • the output unit 130 may display a screen of one application among applications currently running on the terminal.
  • the output unit 130 may display a user interface.
  • the output screen may include a screen of an application or a user interface.
  • the output unit 130 may include a display device.
  • the output unit 130 may be, for example, a flat panel display device such as a liquid crystal display (LCD), an organic light emitting diode (OLED), a plasma display panel (PDP), or the like.
  • the output unit 130 may be a curved display or a flexible display.
  • the output unit 130 and the input unit 110 may be integrally formed, such as a touch screen, or may be configured separately.
  • the controller 140 may search for a specific application among the applications stored in the storage 120 using the search word received through the input unit 110.
  • the controller 140 may execute an application stored in the storage 120 according to the input received through the input 110.
  • the controller 140 may generate an output screen.
  • the controller 140 may control other components included in the terminal 100.
  • the controller 140 may be, for example, a central processing unit (CPU).
  • FIG. 2 is a flowchart illustrating a process of performing a control method of the terminal 100 according to an embodiment.
  • a step (S100) of displaying a first output screen including a screen of an application may be performed.
  • the output unit 130 may display an output screen including a screen of the application.
  • the output screen may be generated by the controller 140.
  • the application may be, for example, a home application, a short message service (SMS) application, a contact application, or a web browser application.
  • SMS short message service
  • the screen of the home application will be referred to as a home screen.
  • the first output screen may include a screen of the application and a launcher icon.
  • the first output screen may include a docked launcher icon 150.
  • the first output screen may include a floated launcher icon 160.
  • FIG. 3 is a screen including a home screen and a docked launcher icon 150. As shown in FIG. 3, the launcher icon 150 may be docked at a lower center portion of the first output screen.
  • 4 is a screen including a screen of a contact application and a floated launcher icon 160. As shown in FIG. 4, the launcher icon 160 may be included in the center of the first output screen.
  • an operation (S110) of receiving a first gesture may be performed.
  • the input unit 110 may receive a gesture from a user.
  • Gestures include, for example, taps, double taps, multi-point taps, hold, release holding, or drag. can do.
  • an operation (S120) of displaying a second output screen including the keyboard interface 170 may be performed according to the received first gesture.
  • the controller 140 may include a second output screen including a screen of the application and a keyboard interface 170. Can be generated.
  • the output unit 130 may display the generated second output screen.
  • the controller 140 may generate a second output screen including a screen of the application and a keyboard interface 170. For example, as shown in FIG. 5, a second output screen including the screen of the SMS application and the keyboard interface 170 may be generated and displayed.
  • the position of the floating launcher icon 160 may be changed and displayed. For example, when a drag from the floated launcher icon 160 to a position different from the position of the launcher icon 160 is received, the position of the launcher icon 160 may be changed and displayed.
  • the docked launcher icon 150 may be converted into a floating launcher icon 160 and displayed according to the received first gesture.
  • the floating launcher icon 160 may be converted into the docked launcher icon 150 and displayed.
  • the launcher icon 150 may be converted to the floated launcher icon 160 and displayed.
  • the launcher icon 160 may be switched to the docked launcher icon 150 and displayed.
  • an operation (S130) of receiving a search word through the keyboard interface 170 may be performed.
  • the input unit 110 may receive a search word from a user.
  • the user may input a search word using the keyboard interface 170 displayed on the touch screen.
  • an operation (S140) of displaying a third output screen including a list of applications searched using the received search word may be performed.
  • an output screen including a screen of a contact application and a list 180 of applications searched using the received search word may be generated and displayed.
  • the controller 140 may search for an application including a search word in the name of the application among the applications stored in the storage 120.
  • the input unit 110 may receive "Naver" as a search word from a user.
  • the controller 140 may search for an application including “Naver” in the name of the application among the applications stored in the storage 120.
  • the controller 140 may generate an output screen including the list 180 of the searched applications.
  • the output unit 130 may display an output screen including the list 180 of the searched applications.
  • the list of applications searched using the search word may be sorted based on the number of times the application is executed.
  • the controller 140 may generate an output screen including the list of the sorted applications. For example, referring to FIG. 6, an application having the name of “Naver map” may have been executed the most among the four applications. In addition, an application having "Naver" as a name may be most executed except for an application having "Naver map” as a name among the four applications.
  • the controller 140 may search for an application including a search word in the initial list of the name of the application among the applications stored in the storage 120.
  • 7 is a screen including a list 190 of applications searched using a screen of a contact application and another received search word.
  • the input unit 110 may receive “k k o” as a search word from a user.
  • the controller 140 may search for an application including “k k o” in the initial list of application names among the applications stored in the storage 120. For example, as shown in FIG. 7, "kakao talk”, “kakao story”, “kakao group”, “kakao music” (kakao music), respectively.
  • Four applications can be retrieved.
  • the output unit 130 may display an output screen including the list 190 of the searched applications.
  • the controller 140 may search for an application including a search word in a tag of the application among applications stored in the storage 120.
  • the tag of the application may be preset.
  • “katalk” may be preset as a tag of an application having “kakao talk” as a name.
  • TV may be preset as a tag of an application having "DMB” as a name.
  • “calendar” may be preset as a tag of an application having "scheduler” as a name.
  • “Naver Player” may be preset as a tag of an application having "Naver Media Player” as the name.
  • the input unit 110 may receive "katalk" as a search word from a user.
  • the controller 140 may search for an application including “katalk” in a tag of the application among applications stored in the storage 120. As shown in FIG. 8, an application having a name of “kakao talk” may be searched.
  • the output unit 130 may display an output screen including the list 200 of the searched applications.
  • an operation (S150) of receiving a second gesture may be performed.
  • the input unit 110 may receive a gesture from a user.
  • Gestures include, for example, taps, double taps, multi-point taps, hold, release holding, or drag. can do.
  • an operation (S160) of executing at least one or more applications among the searched applications according to the received second gesture may be performed.
  • the input unit 110 may receive a tab for an icon of an application having “Naver map” as a second gesture from a user.
  • the controller 140 may execute an application having “Naver map” as a name according to the received second gesture.
  • the controller 140 may generate a fourth output screen including the screen of the executed application.
  • the controller 140 may generate an output screen including a screen of an application having “Naver map” as a fourth output screen.
  • the output unit 130 may display the generated fourth output screen.
  • FIG. 9 is a flowchart illustrating a process of performing a control method of a terminal 100 according to another embodiment.
  • an operation (S200) of displaying a first output screen including a screen of an application may be performed. Since displaying the first output screen (S200) may correspond to displaying the first output screen (S100) described above, a detailed description thereof will be omitted.
  • receiving the first gesture S210 may correspond to receiving the first gesture S110 described above, a detailed description thereof will be omitted.
  • an operation (S220) of displaying a second output screen including the keyboard interface 170 may be performed according to the received first gesture. Since displaying the second output screen (S220) may correspond to displaying the second output screen (S120) described above, a detailed description thereof will be omitted.
  • an operation (S230) of receiving a search word may be performed. Since receiving the search word (S230) may correspond to receiving the search word (S130) described above, a detailed description thereof will be omitted.
  • the controller 140 may search for an application corresponding to a search word among applications stored in the storage 120. If the application corresponding to the search word is not stored in the storage unit 120, the controller 140 may receive a search result of the search word from an external search engine.
  • the controller 140 may receive a search result of the search word from a search engine of an external application sales site.
  • the controller 140 may generate a third output screen including the received result.
  • the output unit 130 may display the generated third output screen.
  • the controller 140 confirms whether to search the search word using an external search engine. It is possible to generate an output screen including the guidance text for.
  • FIG. 11 is a flowchart illustrating a process of performing a control method of a terminal 100 according to another embodiment.
  • an operation (S300) of displaying a first output screen including a screen of an application may be performed. Since displaying the first output screen (S300) may correspond to displaying the first output screen (S100) described above, a detailed description thereof will be omitted.
  • receiving the first gesture S310 may correspond to receiving the first gesture S110 described above, a detailed description thereof will be omitted.
  • an output screen may be displayed.
  • the controller 140 may generate a second output screen.
  • the controller 140 may generate a second output screen.
  • the output unit 130 may display the generated second output screen.
  • the second output screen is a screen of an SMS application, a list of applications 220 sorted based on the execution time, and a list 230 of applications sorted based on the number of executions. It may include. Referring to the list 220 of applications illustrated in FIG. 5, an application corresponding to “Naver Webtoon” may have been executed most recently. In addition, an application corresponding to the "Internet” may be most recently executed except for an application corresponding to "Naver Webtoon".
  • the application corresponding to “phone” may be executed the most.
  • an application corresponding to "mail” may have been executed the most except for an application corresponding to "telephone”.
  • the second output screen may include a home screen.
  • the second output screen may include the entire application list 240 stored in the storage 120.
  • an operation (S330) of receiving a second gesture may be performed.
  • the input unit 110 may receive a gesture from a user.
  • Gestures include, for example, taps, double taps, multi-point taps, hold, release holding, or drag. can do.
  • an operation (S340) of executing at least one or more applications among the displayed applications according to the received second gesture may be performed.
  • the input unit 110 may receive a tab for an icon of an application having “Help” as a second gesture from a user.
  • the controller 140 may execute an application having “Help” as a name according to the received second gesture.
  • the controller 140 may generate a third output screen including a screen of the executed application.
  • the controller 140 may generate an output screen including a screen of an application having “Help” as a third output screen.
  • the output unit 130 may display the generated third output screen.
  • FIG. 13 is a flowchart illustrating a process of performing a control method of a terminal 100 according to another embodiment.
  • an operation (S400) of displaying a first output screen including a screen of an application may be performed. Since displaying the first output screen (S400) may correspond to displaying the first output screen (S100) described above, a detailed description thereof will be omitted.
  • receiving the first gesture S410 may correspond to receiving the first gesture S110 described above, a detailed description thereof will be omitted.
  • an operation (S420) of displaying a second output screen including a list of applications currently executed according to the received first gesture may be performed.
  • the controller 140 may generate a second output screen. have.
  • the controller 140 may generate a second output screen.
  • the output unit 130 may display the generated second output screen.
  • the second output screen may include a list of applications currently being executed by the terminal 100.
  • the second output screen may include a list of applications currently running in the foreground or background of the terminal 100.
  • 14 is a screen including a home screen and a list 250 of applications currently being executed by the terminal 100.
  • an operation (S430) of receiving a second gesture may be performed.
  • the input unit 110 may receive a gesture from a user.
  • Gestures include, for example, taps, double taps, multi-point taps, hold, release holding, or drag. can do.
  • an operation (S440) of terminating at least one or more applications among the displayed applications may be performed according to the received second gesture.
  • the input unit 110 may receive a tap for a “X” marker displayed on the upper right of an icon corresponding to “Naver Webtoon” as a second gesture from a user.
  • the controller 140 may terminate the application having “Naver webtoon” as a name according to the received second gesture.
  • FIG. 15 is a flowchart illustrating a process of performing a control method of a terminal 100 according to another embodiment.
  • an operation (S500) of displaying a first output screen including a screen of an application may be performed.
  • the step S500 of displaying the first output screen may correspond to the step S100 of displaying the first output screen described above, and thus a detailed description thereof will be omitted.
  • Receiving the first gesture (S510) may correspond to receiving the first gesture (S110) described above, and thus a detailed description thereof will be omitted.
  • displaying a second output screen including at least one of a list of applications sorted based on the executed time or a list of applications sorted based on the number of executed times according to the received first gesture. S520 may be performed.
  • the controller 140 may generate a second output screen.
  • the controller 140 may generate a second output screen.
  • the output unit 130 may display the generated second output screen.
  • the second output screen is a screen of an SMS application, a list of applications 220 sorted based on the execution time, and a list 230 of applications sorted based on the number of executions. It may include.
  • an operation (S530) of receiving a second gesture may be performed.
  • the input unit 110 may receive a gesture from a user.
  • Gestures include, for example, taps, double taps, multi-point taps, hold, release holding, or drag. can do.
  • an operation (S540) of displaying a third output screen including a user interface for editing the displayed list of applications according to the received second gesture may be performed.
  • the input unit 110 may receive a tap for a specific icon from the user.
  • the input unit 110 may receive a tap for an icon corresponding to "recent record selection deletion" from the user.
  • the third output screen may include an "X" character marker 270 disposed at the upper right of an icon corresponding to each of the displayed applications as a user interface for editing a list of displayed applications.
  • the third output screen includes an “X” character marker 270 disposed at an upper right corner of an icon corresponding to each application included in the list 260 of applications arranged based on the executed time. It may include.
  • the "X" character marker 270 may be a user interface for excluding a specific application from the list of displayed applications.
  • the third output screen may include a user interface for replacing a specific application with another application from the list of displayed applications. According to another embodiment, the third output screen may include a user interface for adding a specific application to the list of displayed applications. According to another embodiment, the third output screen may include a user interface for changing the order of applications included in the list of displayed applications.
  • FIG. 17 is a flowchart illustrating a process of performing a control method of a terminal 100 according to another embodiment.
  • an operation (S600) of displaying a first output screen including a screen of an application may be performed. Since displaying the first output screen (S600) may correspond to displaying the first output screen (S100) described above, a detailed description thereof will be omitted.
  • an operation (S610) of receiving a first gesture may be performed. Since receiving the first gesture (S610) may correspond to receiving the first gesture (S110) described above, a detailed description thereof will be omitted.
  • an operation (S620) of displaying a second output screen including the keyboard interface 170 may be performed according to the received first gesture. Since displaying the second output screen (S620) may correspond to displaying the second output screen (S120) described above, a detailed description thereof will be omitted.
  • the input unit 110 may receive a gesture from a user.
  • Gestures include, for example, taps, double taps, multi-point taps, hold, release holding, or drag. can do.
  • an operation (S640) of displaying a third output screen including a list of applications mapped to keys of the keyboard interface 170 may be performed according to the received second gesture.
  • the keyboard interface 170 may include at least one key.
  • a list of applications may be pre-mapped to at least one of the keys.
  • each key included in the keyboard interface 170 may be mapped in advance to a list of applications in which the first syllable of the name of the application among the entire applications stored in the storage 120 is the same as the key value of each key. have.
  • the input unit 110 may receive a hold of one key among the keys included in the keyboard interface 170 as the second gesture.
  • the controller 140 may generate a third output screen including a list of applications mapped to the one key.
  • the output unit 130 may display the generated third output screen.
  • FIG. 18 is a screen including a screen of a contact application and a list of applications mapped to keys of the keyboard interface 170.
  • a list of applications may be mapped in advance to a key having a key value of “L”.
  • the application list may include three applications each named "leader's hub", “line”, and "LOTTE cinema”.
  • 19 is a screen that includes a screen of a contact application and a list of applications mapped to other keys of the keyboard interface 170.
  • a list of applications may be mapped in advance to a key having a key value of “H”.
  • the application list may include two applications each having a name of “Hangout” and “Hackers MP3”.
  • an operation (S650) of receiving a third gesture may be performed.
  • the input unit 110 may receive a gesture from a user.
  • Gestures include, for example, taps, double taps, multi-point taps, hold, release holding, or drag. can do.
  • an operation (S660) of executing at least one or more applications among the displayed applications according to the received third gesture may be performed.
  • the input unit 110 may receive a release holding from the user as a third gesture.
  • the controller 140 may execute an application corresponding to an icon currently rolled over from the list of applications according to the received third gesture.
  • an icon corresponding to a specific application may be rolled over as a default value from a list of applications mapped to the English key (or consonant key). have. Therefore, when a release release is received as the third gesture, the controller 140 may execute the specific application.
  • an icon corresponding to "line” may roll over as a default. Therefore, when the holding release is received as the third gesture, the controller 140 may execute an application corresponding to "line”.
  • an icon corresponding to “Hackers MP3” may be rolled over as a default. Therefore, when the hold release is received as the third gesture, the controller 140 may execute an application corresponding to "Hackers MP3".
  • the input unit 110 may receive a drag in a left direction from the user as a third gesture.
  • the controller 140 may cause the icon placed on the left of the currently rolled over icon to roll over. Therefore, when the release of the pressing after the dragging to the left direction is received as the third gesture, the controller 140 may execute an application corresponding to the icon disposed to the left of the currently rolled over icon. Referring to FIG. 18, when the drag release is received after the dragging to the left direction as the third gesture, the controller 140 may execute an application corresponding to “leaders hub”.
  • the input unit 110 may receive a drag in the right direction as a third gesture from the user.
  • the controller 140 may cause the icon placed on the right of the currently rolled over icon to roll over. Accordingly, when the release of the pressing after the dragging to the right direction is received as the third gesture, the controller 140 may execute an application corresponding to the icon disposed on the right side of the currently rolled over icon. Referring to FIG. 18, when a drag release to the right direction is received as the third gesture, the controller 140 may execute an application corresponding to “Lotte Cinema”.
  • the controller 140 may generate a fourth output screen including the screen of the executed application. For example, referring to FIG. 18, when a release release is received as the third gesture, the controller 140 may generate an output screen including a screen of an application having “line” as a fourth output screen. Can be. The output unit 130 may display the generated fourth output screen.
  • FIG. 20 is a flowchart illustrating a process of performing a control method of a terminal 100 according to another embodiment.
  • an operation (S700) of displaying a first output screen including a screen of an application may be performed. Since displaying the first output screen (S700) may correspond to displaying the first output screen (S100) described above, a detailed description thereof will be omitted.
  • an operation (S710) of receiving a first gesture may be performed. Since receiving the first gesture S710 may correspond to receiving the first gesture S110 described above, a detailed description thereof will be omitted.
  • an operation (S720) of displaying a second output screen including the keyboard interface 170 may be performed according to the received first gesture. Since displaying the second output screen (S720) may correspond to displaying the second output screen (S120) described above, a detailed description thereof will be omitted.
  • the input unit 110 may receive a gesture from a user.
  • Gestures include, for example, taps, double taps, multi-point taps, hold, release holding, or drag. can do.
  • an operation (S740) of displaying a third output screen including a list of applications mapped to keys of the keyboard interface 170 may be performed according to the received second gesture. Since displaying the third output screen (S740) may correspond to displaying the third output screen (S640) described above, a detailed description thereof will be omitted.
  • the input unit 110 may receive a gesture from a user.
  • Gestures include, for example, taps, double taps, multi-point taps, hold, release holding, or drag. can do.
  • an operation (S760) of displaying a fourth output screen including a user interface for editing the list of mapped applications according to the received third gesture may be performed.
  • the input unit 110 may receive a holding release after dragging in a left direction as a third gesture.
  • the controller 140 may cause the icon corresponding to “edit” to roll over in response to the drag in the left direction.
  • controller 140 may generate a fourth output screen including a user interface for editing the list of the mapped applications in response to the pressing and releasing.
  • the output unit 130 may display the generated fourth output screen.
  • FIG. 21 is an output screen that includes a user interface that allows a user to edit a list of applications mapped to keys of the keyboard interface 170.
  • the fourth output screen may include a button disposed on the right side of each application as a user interface for editing a list of mapped applications.
  • the button may be a user interface that allows a particular application to be excluded from the list of mapped applications.
  • the fourth output screen may include a user interface for replacing a specific application with another application from the list of mapped applications. According to another embodiment, the fourth output screen may include a user interface for adding a specific application to the list of mapped applications.
  • the fourth output screen may include a user interface for changing the order of applications included in the list of mapped applications.
  • the fourth output screen may include a user interface for designating an application corresponding to an icon to be rolled over as a default value among applications included in the list of mapped applications.
  • the keyboard interface 170 may be always running as a daemon in the operating system of the terminal 100. Therefore, according to the described embodiment, the user of the terminal 100 can not only easily switch the screen displayed on the terminal 100 from the screen of one application to the screen of another application, but also the terminal 100 at the time of switching. ) Operation burden and memory management burden can be reduced. In addition, according to the described embodiment, the user of the terminal can easily search for and execute the application.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Computational Linguistics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

기재된 실시예는 사용자가 어플리케이션을 용이하게 검색하고 실행시킬 수 있도록 하는 단말기 및 단말기의 제어 방법에 관한 것으로서, 임의의 임의의 어플리케이션의 화면을 포함하는 제1 출력 화면을 표시하는 단계, 제1제스처를 수신하는 단계, 수신된 제1제스처에 따라 키보드 인터페이스를 포함하는 제2 출력 화면을 표시하는 단계, 키보드 인터페이스를 통해 검색어를 수신하는 단계, 수신된 검색어를 이용하여 검색된 어플리케이션의 목록을 포함하는 제3 출력 화면을 표시하는 단계, 제2제스처를 수신하는 단계, 및 수신된 제2제스처에 따라 검색된 어플리케이션 중에서 적어도 하나 이상의 어플리케이션을 실행하는 단계를 포함하는 단말기의 제어 방법이 제공될 수 있다.

Description

단말기 및 단말기의 제어 방법
기재된 실시예는 사용자가 어플리케이션을 용이하게 검색하고 실행시킬 수 있도록 하는 단말기 및 단말기의 제어 방법에 관한 것이다.
통신 기술이 발전되고 전자 장치가 소형화됨에 따라 개인용 단말기가 일반 소비자에게 널리 보급되고 있다. 특히 최근에는 스마트폰, 스마트태블릿, 또는 휴대용 콘솔(portable console) 등과 같은 개인용 단말기(terminal)가 널리 보급되고 있다.
단말기 상에서는 다양한 프로그램들이 실행될 수 있다. 단말기 상에서 실행되는 프로그램은 어플리케이션(application)이라고 불리고 있다. 스마트폰이 널리 보급됨에 따라 스마트폰 상에서 실행될 수 있는 다양한 어플리케이션이 개발되었다. 단말기의 사용자는 수십개 내지 수백개의 어플리케이션을 단말기에 설치하고 사용하고 있다.
따라서, 사용자는 단말기에 설치되어 있는 많은 수의 어플리케이션 중에서 실행시키고자 하는 어플리케이션을 찾는 데에 어려움을 겪을 수 있다. 또한, 사용자가 하나의 어플리케이션을 사용하는 도중에 다른 어플리케이션을 통해 얻을 수 있는 정보를 참조하고자 하는 경우, 어플리케이션 간에 전환을 하는 데에 어려움을 겪을 수 있다.
예를 들어, 사용자가 문자 메시지를 작성하는 도중에 메일의 내용을 참조하고자 하는 경우를 가정하기로 한다. 사용자는 SMS(Short Message Service) 어플리케이션을 이용하여 문자 메시지를 작성할 수 있다. 사용자는 단말기의 버튼을 누름으로써 단말기에 홈 화면(home screen)이 표시되도록 할 수 있다. 사용자는 단말기에 설치되어 있는 어플리케이션들 중에서 메일 어플리케이션을 찾아 실행시킬 수 있다. 사용자는 메일의 내용을 확인한 뒤, 단말기에 SMS 어플리케이션의 화면이 다시 표시되도록 할 수 있다.
단말기의 사용자가 어플리케이션을 용이하게 검색하고 실행시킬 수 있는 방법 및 장치가 제공될 필요가 있다. 또한, 단말기의 사용자가 단말기에 표시되는 화면을 하나의 어플리케이션의 화면으로부터 다른 어플리케이션의 화면으로 용이하게 전환시키는 방법 및 장치가 제공될 필요가 있다.
본 발명의 일 실시예에 따른 단말기의 제어 방법은, 임의의 어플리케이션의 화면을 포함하는 제1 출력 화면을 표시하는 단계, 제1제스처를 수신하는 단계, 수신된 제1제스처에 따라 키보드 인터페이스를 포함하는 제2 출력 화면을 표시하는 단계, 키보드 인터페이스를 통해 검색어를 수신하는 단계, 수신된 검색어를 이용하여 검색된 어플리케이션의 목록을 포함하는 제3 출력 화면을 표시하는 단계, 제2제스처를 수신하는 단계, 및 수신된 제2제스처에 따라 검색된 어플리케이션 중에서 적어도 하나 이상의 어플리케이션을 실행하는 단계를 포함할 수 있다.
기재된 실시예에 따르면 사용자가 어플리케이션을 용이하게 검색하고 실행시킬 수 있도록 하는 단말기 및 단말기의 제어 방법이 제공될 수 있다.
또한, 사용자가 단말기에 표시되는 화면을 하나의 어플리케이션의 화면으로부터 다른 어플리케이션의 화면으로 용이하게 전환시킬 수 있도록 하는 단말기 및 단말기의 제어 방법이 제공될 수 있다.
도 1은 실시예에 따른 단말기의 구성을 나타내는 블록도이다.
도 2는 실시예에 따른 단말기의 제어 방법이 수행되는 과정을 나타내는 순서도이다.
도 3은 홈 화면 및 도킹된(docked) 런처(launcher) 아이콘을 포함하는 화면이다.
도 4는 연락처(contact) 어플리케이션의 화면 및 플로팅된(floated) 런처 아이콘을 포함하는 화면이다.
도 5는 SMS 어플리케이션의 화면 및 키보드 인터페이스를 포함하는 화면이다.
도 6은 연락처 어플리케이션의 화면 및 수신된 검색어를 이용하여 검색된 어플리케이션의 목록을 포함하는 화면이다.
도 7은 연락처 어플리케이션의 화면 및 수신된 다른 검색어를 이용하여 검색된 어플리케이션의 목록을 포함하는 화면이다.
도 8은 웹 브라우저 어플리케이션의 화면 및 수신된 또 다른 검색어를 이용하여 검색된 어플리케이션의 목록을 포함하는 화면이다.
도 9는 다른 실시예에 따른 단말기의 제어 방법이 수행되는 과정을 나타내는 순서도이다.
도 10은 연락처 어플리케이션의 화면 및 수신된 검색어를 검색 엔진을 이용하여 검색할지 여부의 확인을 위한 안내 문구를 포함하는 화면이다.
도 11은 또 다른 실시예에 따른 단말기의 제어 방법이 수행되는 과정을 나타내는 순서도이다.
도 12는 홈 화면 및 전체 어플리케이션 목록을 포함하는 화면이다.
도 13은 또 다른 실시예에 따른 단말기의 제어 방법이 수행되는 과정을 나타내는 순서도이다.
도 14는 홈 화면 및 현재 단말기에 의해 실행되고 있는 어플리케이션의 목록을 포함하는 화면이다.
도 15는 또 다른 실시예에 따른 단말기의 제어 방법이 수행되는 과정을 나타내는 순서도이다.
도 16은 홈 화면 및 최근에 단말기에 의해 실행된 어플리케이션의 목록을 포함하는 화면이다.
도 17은 또 다른 실시예에 따른 단말기의 제어 방법이 수행되는 과정을 나타내는 순서도이다.
도 18은 연락처 어플리케이션의 화면 및 키보드 인터페이스의 키에 매핑된(mapped) 어플리케이션의 목록을 포함하는 화면이다.
도 19는 연락처 어플리케이션의 화면 및 키보드 인터페이스의 다른 키에 매핑된 어플리케이션의 목록을 포함하는 화면이다.
도 20은 또 다른 실시예에 따른 단말기의 제어 방법이 수행되는 과정을 나타내는 순서도이다.
도 21은 사용자가 키보드 인터페이스의 키에 매핑된 어플리케이션의 목록을 편집할 수 있도록 하는 유저 인터페이스(user interface)를 포함하는 화면이다.
본 발명의 일 실시예에 따른 단말기의 제어 방법은, 임의의 어플리케이션의 화면을 포함하는 제1 출력 화면을 표시하는 단계, 제1제스처를 수신하는 단계, 수신된 제1제스처에 따라 키보드 인터페이스를 포함하는 제2 출력 화면을 표시하는 단계, 키보드 인터페이스를 통해 검색어를 수신하는 단계, 수신된 검색어를 이용하여 검색된 어플리케이션의 목록을 포함하는 제3 출력 화면을 표시하는 단계, 제2제스처를 수신하는 단계, 및 수신된 제2제스처에 따라 검색된 어플리케이션 중에서 적어도 하나 이상의 어플리케이션을 실행하는 단계를 포함할 수 있다.
또한, 제1 출력 화면은 도킹된(docked) 런처 아이콘을 더 포함하고, 제1제스처를 수신하는 단계는, 런처 아이콘으로부터의 드래그를 수신하는 단계를 포함할 수 있다.
또한, 제1 출력 화면은 플로팅된(floated) 런처 아이콘을 더 포함하고, 제1제스처를 수신하는 단계는, 런처 아이콘에 대한 탭(tap)을 수신하는 단계를 포함할 수 있다.
또한, 제3 출력 화면을 표시하는 단계는, 저장된 어플리케이션 중에서, 저장된 어플리케이션의 이름에 검색어가 포함된 어플리케이션을 검색하는 단계, 검색된 어플리케이션의 목록을 포함하는 제3 출력 화면을 생성하는 단계, 및 제3 출력 화면을 표시하는 단계를 포함할 수 있다.
또한, 제3 출력 화면을 표시하는 단계는, 검색된 어플리케이션의 목록을 목록에 포함된 어플리케이션이 실행된 횟수를 기준으로 하여 정렬하는 단계, 정렬된 어플리케이션의 목록을 포함하는 제3 출력 화면을 생성하는 단계, 및 제3 출력 화면을 표시하는 단계를 포함할 수 있다.
또한, 제3 출력 화면을 표시하는 단계는, 저장된 어플리케이션 중에서, 저장된 어플리케이션의 이름의 초성 목록에 검색어가 포함된 어플리케이션을 검색하는 단계, 검색된 어플리케이션의 목록을 포함하는 제3 출력 화면을 생성하는 단계, 및 제3 출력 화면을 표시하는 단계를 포함할 수 있다.
또한, 제3 출력 화면을 표시하는 단계는, 저장된 어플리케이션 중에서, 저장된 어플리케이션에 대응하는 태그(tag)에 검색어가 포함된 어플리케이션을 검색하는 단계, 검색된 어플리케이션의 목록을 포함하는 제3 출력 화면을 생성하는 단계, 및 제3 출력 화면을 표시하는 단계를 포함할 수 있다.
또한, 제2제스처를 수신하는 단계는, 검색된 어플리케이션의 목록에 포함된 어플리케이션 중에서 특정한 어플리케이션에 대한 탭을 수신하는 단계를 포함하고, 어플리케이션을 실행하는 단계는, 특정한 어플리케이션을 실행하는 단계를 포함할 수 있다.
또한, 단말기의 제어 방법은, 실행된 어플리케이션의 화면을 포함하는 제4 출력 화면을 표시하는 단계를 더 포함할 수 있다.
다른 실시예에 따른 단말기의 제어 방법은, 임의의 어플리케이션의 화면을 포함하는 제1 출력 화면을 표시하는 단계, 제1제스처를 수신하는 단계, 수신된 제1제스처에 따라 키보드 인터페이스를 포함하는 제2 출력 화면을 표시하는 단계, 키보드 인터페이스를 통해 검색어를 수신하는 단계, 수신된 검색어에 대응하는 어플리케이션이 저장되어 있지 않은 경우, 외부의 검색 엔진을 이용하여 검색어가 검색된 결과를 포함하는 제3 출력 화면을 표시하는 단계를 포함할 수 있다.
또한, 제3 출력 화면을 표시하는 단계는, 저장된 어플리케이션 중에서 검색어에 대응하는 어플리케이션을 검색하는 단계, 만약 검색어에 대응하는 어플리케이션이 저장되어 있지 않은 경우, 검색어를 외부의 검색 엔진을 이용하여 검색할지 여부의 확인을 위한 안내 문구를 포함하는 제4 출력 화면을 표시하는 단계, 및 제3 출력 화면을 표시하는 단계를 포함할 수 있다.
본 발명의 다른 실시예에 따른 단말기의 제어 방법은, 임의의 어플리케이션의 화면을 포함하는 제1 출력 화면을 표시하는 단계, 제1제스처를 수신하는 단계, 수신된 제1제스처에 따라, 실행된 시간을 기준으로 정렬된 어플리케이션의 목록, 실행된 횟수를 기준으로 정렬된 어플리케이션의 목록 또는 저장된 전체 어플리케이션의 목록 중에서 적어도 하나 이상을 포함하는 제2 출력 화면을 표시하는 단계, 제2제스처를 수신하는 단계, 및 수신된 제2제스처에 따라, 제2 출력 화면에 포함된 어플리케이션 중에서 적어도 하나 이상의 어플리케이션을 실행하는 단계를 포함할 수 있다.
또한, 단말기의 제어 방법은, 실행된 어플리케이션의 화면을 포함하는 제3 출력 화면을 표시하는 단계를 더 포함할 수 있다.
본 발명의 또 다른 실시예에 따른 단말기의 제어 방법은, 임의의 어플리케이션의 화면을 포함하는 제1 출력 화면을 표시하는 단계, 제1제스처를 수신하는 단계, 수신된 제1제스처에 따라, 현재 실행되고 있는 어플리케이션의 목록을 포함하는 제2 출력 화면을 표시하는 단계, 제2제스처를 수신하는 단계, 및 수신된 제2제스처에 따라 제2 출력 화면에 포함된 어플리케이션의 목록 중에서 적어도 하나 이상의 어플리케이션을 종료하는 단계를 포함할 수 있다.
본 발명의 또 다른 실시예에 따른 단말기의 제어 방법은, 임의의 어플리케이션의 화면을 포함하는 제1 출력 화면을 표시하는 단계, 제1제스처를 수신하는 단계, 수신된 제1제스처에 따라, 실행된 시간을 기준으로 정렬된 어플리케이션의 목록 또는 실행된 횟수를 기준으로 정렬된 어플리케이션의 목록 중에서 적어도 하나 이상을 포함하는 제2 출력 화면을 표시하는 단계, 제2제스처를 수신하는 단계, 및 수신된 제2제스처에 따라, 제2 출력 화면에 포함된 어플리케이션의 목록을 편집할 수 있도록 하는 유저 인터페이스를 포함하는 제3 출력 화면을 표시하는 단계를 포함할 수 있다.
또한, 유저 인터페이스는, 제2 출력 화면에 포함된 어플리케이션의 목록 중에서 특정한 어플리케이션을 제외할 수 있도록 하는 유저 인터페이스, 제2 출력 화면에 포함된 어플리케이션의 목록 중에서 특정한 어플리케이션을 다른 어플리케이션으로 치환할 수 있도록 하는 유저 인터페이스, 제2 출력 화면에 포함된 어플리케이션의 목록에 특정한 어플리케이션을 추가할 수 있도록 하는 유저 인터페이스 또는 제2 출력 화면에 포함된 어플리케이션의 목록에 포함된 어플리케이션의 순서를 변경할 수 있도록 하는 유저 인터페이스 중에서 적어도 하나 이상을 포함할 수 있다.
본 발명의 또 다른 실시예에 따른 단말기의 제어 방법은, 임의의 어플리케이션의 화면을 포함하는 제1 출력 화면을 표시하는 단계, 제1제스처를 수신하는 단계, 수신된 제1제스처에 따라 키보드 인터페이스를 포함하는 제2 출력 화면을 표시하는 단계, 제2제스처를 수신하는 단계, 수신된 제2제스처에 따라, 키보드 인터페이스의 키에 매핑된(mapped) 어플리케이션의 목록을 포함하는 제3 출력 화면을 표시하는 단계, 제3제스처를 수신하는 단계, 및 수신된 제3제스처에 따라, 제3 출력 화면에 포함된 어플리케이션 중에서 적어도 하나 이상의 어플리케이션을 실행하는 단계를 포함할 수 있다.
또한, 키보드 인터페이스의 각각의 키에 매핑된 어플리케이션의 목록은, 저장된 전체 어플리케이션 중에서 저장된 어플리케이션의 이름의 첫 글자의 초성이 각각의 키에 대응되는 어플리케이션을 포함할 수 있다.
또한, 단말기의 제어 방법은, 실행된 어플리케이션의 화면을 포함하는 제4 출력 화면을 표시하는 단계를 더 포함할 수 있다.
또한, 제3 출력 화면은 키의 상단에 배치된 아이콘을 더 포함하고, 아이콘은 키에 매핑된 어플리케이션의 목록 중에서 기본값(default)으로서 미리 정해진 어플리케이션에 대응할 수 있다.
본 발명의 또 다른 실시예에 따른 단말기의 제어 방법은, 임의의 어플리케이션의 화면을 포함하는 제1 출력 화면을 표시하는 단계, 제1제스처를 수신하는 단계, 수신된 제1제스처에 따라 키보드 인터페이스를 포함하는 제2 출력 화면을 표시하는 단계, 제2제스처를 수신하는 단계, 수신된 제2제스처에 따라 키보드 인터페이스의 키에 매핑된(mapped) 어플리케이션의 목록을 포함하는 제3 출력 화면을 표시하는 단계, 제3제스처를 수신하는 단계, 및 수신된 제3제스처에 따라, 매핑된 어플리케이션의 목록을 편집할 수 있도록 하는 유저 인터페이스(user interface)를 포함하는 제4 출력 화면을 표시하는 단계를 포함할 수 있다.
또한, 유저 인터페이스는, 매핑된 어플리케이션의 목록 중에서 특정한 어플리케이션을 제외할 수 있도록 하는 유저 인터페이스, 매핑된 어플리케이션의 목록 중에서 특정한 어플리케이션을 다른 어플리케이션으로 치환할 수 있도록 하는 유저 인터페이스, 매핑된 어플리케이션의 목록에 특정한 어플리케이션을 추가할 수 있도록 하는 유저 인터페이스 또는 매핑된 어플리케이션의 목록에 포함된 어플리케이션의 순서를 변경할 수 있도록 하는 유저 인터페이스 중에서 적어도 하나 이상을 포함할 수 있다.
본 발명의 일 실시예에 따른 단말기는, 입력을 수신하는 입력부, 적어도 하나 이상의 어플리케이션을 저장하는 저장부, 수신된 입력에 따라, 어플리케이션을 실행하고 출력 화면을 생성하는 제어부, 및 출력 화면을 표시하는 출력부를 포함하고, 제어부는 어플리케이션 중에서 임의의 어플리케이션의 화면을 포함하는 제1 출력 화면을 생성하고, 출력부는 제1 출력 화면을 표시하고, 입력부는 제1제스처를 수신하고, 제어부는 수신된 제1제스처에 따라 키보드 인터페이스를 포함하는 제2 출력 화면을 생성하고, 출력부는 제2 출력 화면을 표시하고, 입력부는 키보드 인터페이스를 통해 검색어를 수신하고, 제어부는 저장부에 저장된 어플리케이션 중에서 수신된 검색어에 대응하는 어플리케이션의 목록을 포함하는 제3 출력 화면을 생성하고, 출력부는 제3 출력 화면을 표시하고, 입력부는 제2제스처를 수신하고, 제어부는 수신된 제2제스처에 따라 목록에 포함된 어플리케이션 중에서 적어도 하나 이상의 어플리케이션을 실행할 수 있다.
또한, 제어부는 실행된 어플리케이션의 화면을 포함하는 제4 출력 화면을 생성하고, 출력부는 제4 출력 화면을 표시할 수 있다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.
비록 "제1" 또는 "제2" 등이 다양한 구성요소를 서술하기 위해서 사용되나, 이러한 구성요소는 상기와 같은 용어에 의해 제한되지 않는다. 상기와 같은 용어는 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용될 수 있다. 따라서, 이하에서 언급되는 제1구성요소는 본 발명의 기술적 사상 내에서 제2구성요소일 수도 있다.
본 명세서에서 사용된 용어는 실시예를 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 또는 "포함하는(comprising)"은 언급된 구성요소 또는 단계가 하나 이상의 다른 구성요소 또는 단계의 존재 또는 추가를 배제하지 않는다는 의미를 내포한다.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 해석될 수 있다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.
이하에서는, 도 1 내지 도 21을 참조하여 실시예에 따른 단말기(100) 및 단말기(100)의 제어 방법에 대해 상세히 설명하기로 한다.
도 1은 실시예에 따른 단말기(100)의 구성을 나타내는 블록도이다. 도 1을 참조하면, 단말기(100)는 입력부(110), 저장부(120), 출력부(130) 및 제어부(140)를 포함할 수 있다.
입력부(110)는 입력을 수신할 수 있다. 입력부(110)는 단말기(100)의 사용자로부터 입력을 수신할 수 있다. 입력부(110)는 예를 들어, 버튼, 터치스크린, 트랙볼, 카메라, 키보드, 마우스, 또는 지문 인식 장치 등일 수 있다. 입력부(110)는 터치스크린일 수 있다.
입력부(110)는 사용자로부터 제스처(gesture)를 수신할 수 있다. 사용자는 터치스크린을 통해 제스처로서 탭(tap) 또는 드래그(drag)를 입력할 수 있다. 입력부(110)는 사용자로부터 어플리케이션을 검색하기 위한 검색어를 수신할 수 있다.
저장부(120)는 어플리케이션을 저장할 수 있다. 저장부(120)에는 적어도 하나 이상의 어플리케이션이 설치(install)될 수 있다. 저장부(120)는 휘발성 메모리 또는 비휘발성 메모리일 수 있다. 저장부(120)는 예를 들어, 플래시(flash) 메모리, ROM, RAM, EEROM, EPROM, EEPROM, 하드디스크 드라이브(HDD, Hard Disk Drive), 또는 레지스터(register) 등일 수 있다. 저장부(120)는 예를 들어, 파일 시스템, 데이터베이스, 또는 임베디드 데이터베이스 등을 포함할 수 있다.
출력부(130)는 출력 화면을 표시할 수 있다. 출력 화면은 제어부(140)에 의해 생성될 수 있다. 출력부(130)는 현재 단말기 상에서 실행되고 있는 어플리케이션 중에서 하나의 어플리케이션의 화면을 표시할 수 있다. 출력부(130)는 유저 인터페이스를 표시할 수 있다. 다시 말해서, 출력 화면은 어플리케이션의 화면 또는 유저 인터페이스를 포함할 수 있다.
출력부(130)는 표시 장치를 포함할 수 있다. 출력부(130)는 예를 들어, LCD(Liquid Crystal Display), OLED(Organic Light Emitting Diode), PDP(Plasma Display Panel) 등의 평판 표시 장치일 수 있다. 또한 출력부(130)는, 곡면 디스플레이 또는 플렉서블 디스플레이(flexible display)일 수 있다. 출력부(130)와 입력부(110)는, 터치스크린과 같이 일체로 구성될 수도 있고, 별개로 구성될 수도 있다.
제어부(140)는 입력부(110)를 통해 수신된 검색어를 이용하여 저장부(120)에 저장된 어플리케이션 중에서 특정한 어플리케이션을 검색할 수 있다. 제어부(140)는 입력부(110)를 통해 수신된 입력에 따라 저장부(120)에 저장된 어플리케이션을 실행할 수 있다. 또한, 제어부(140)는 출력 화면을 생성할 수 있다.
제어부(140)는 단말기(100)에 포함된 다른 구성요소를 제어할 수 있다. 제어부(140)는 예를 들어, 중앙처리장치(Central Processing Unit, CPU)일 수 있다.
이하에서는 실시예에 따른 단말기(100)의 제어 방법에 대해 보다 상세히 설명하기로 한다. 도 2는 실시예에 따른 단말기(100)의 제어 방법이 수행되는 과정을 나타내는 순서도이다.
도 2를 참조하면, 실시예에 따른 단말기(100)의 제어 방법에서는 먼저, 임의의 어플리케이션의 화면을 포함하는 제1 출력 화면을 표시하는 단계(S100)가 수행될 수 있다. 출력부(130)는 어플리케이션의 화면을 포함하는 출력 화면을 표시할 수 있다. 출력 화면은 제어부(140)에 의해 생성될 수 있다. 상기 어플리케이션은 예를 들어, 홈(home) 어플리케이션, SMS(Short Message Service) 어플리케이션, 연락처(Contact) 어플리케이션, 또는 웹 브라우저 어플리케이션 등일 수 있다. 이하에서는 홈 어플리케이션의 화면을 홈 화면(home screen)이라 부르기로 한다.
제1 출력 화면은 어플리케이션의 화면 및 런처 아이콘을 포함할 수 있다. 제1 출력 화면은 도킹된(docked) 런처(launcher) 아이콘(150)을 포함할 수 있다. 제1 출력 화면은 플로팅된(floated) 런처 아이콘(160)을 포함할 수 있다.
도 3은 홈 화면 및 도킹된 런처 아이콘(150)을 포함하는 화면이다. 도 3에 나타난 바와 같이, 런처 아이콘(150)은 제1 출력 화면의 하단 중앙부에 도킹될 수 있다. 또한, 도 4는 연락처(contact) 어플리케이션의 화면 및 플로팅된(floated) 런처 아이콘(160)을 포함하는 화면이다. 도 4에 나타난 바와 같이, 런처 아이콘(160)은 제1 출력 화면의 가운데 부분에 포함될 수 있다.
다시 도 3을 참조하면, 다음으로, 제1제스처를 수신하는 단계(S110)가 수행될 수 있다. 입력부(110)는 사용자로부터 제스처를 수신할 수 있다. 제스처는 예를 들어, 탭(tap), 더블 탭(double tap), 멀티포인트 탭(multi-point tap), 누르고 있기(hold), 누르고 있기 해제(release holding), 또는 드래그(drag) 등을 포함할 수 있다.
다음으로, 상기 수신된 제1제스처에 따라 키보드 인터페이스(170)를 포함하는 제2 출력 화면을 표시하는 단계(S120)가 수행될 수 있다. 예를 들어, 도킹된 런처 아이콘(150)으로부터 런처 아이콘(150)의 위쪽 방향으로의 드래그가 수신된 경우, 제어부(140)는 상기 어플리케이션의 화면 및 키보드 인터페이스(170)를 포함하는 제2 출력 화면을 생성할 수 있다. 출력부(130)는 생성된 제2 출력 화면을 표시할 수 있다.
다른 실시예에 따르면, 플로팅된 런처 아이콘(160)에 대한 탭이 수신된 경우, 제어부(140)는 상기 어플리케이션의 화면 및 키보드 인터페이스(170)를 포함하는 제2 출력 화면을 생성할 수 있다. 예를 들어, 도 5에 나타난 바와 같이, SMS 어플리케이션의 화면 및 키보드 인터페이스(170)를 포함하는 제2 출력 화면이 생성되고 표시될 수 있다.
다른 실시예에 따르면, 상기 수신된 제1제스처에 따라, 플로팅된 런처 아이콘(160)의 위치가 변경되어 표시될 수 있다. 예를 들어, 플로팅된 런처 아이콘(160)으로부터 런처 아이콘(160)의 위치와 다른 위치로의 드래그가 수신된 경우, 런처 아이콘(160)의 위치가 변경되어 표시될 수 있다.
다른 실시예에 따르면, 상기 수신된 제1제스처에 따라, 도킹된 런처 아이콘(150)이 플로팅된 런처 아이콘(160)으로 전환되어 표시될 수 있다. 또한, 상기 수신된 제1제스처에 따라, 플로팅된 런처 아이콘(160)이 도킹된 런처 아이콘(150)으로 전환되어 표시될 수 있다.
예를 들어, 도킹된 런처 아이콘(150)에 대한 누르고 있기(hold)가 수신된 경우, 런처 아이콘(150)이 플로팅된 런처 아이콘(160)으로 전환되어 표시될 수 있다. 또한, 플로팅된 런처 아이콘(160)으로부터 출력 화면의 하단 중앙부로의 드래그가 수신된 경우, 런처 아이콘(160)이 도킹된 런처 아이콘(150)으로 전환되어 표시될 수 있다.
다시 도 2를 참조하면, 다음으로, 상기 키보드 인터페이스(170)를 통해 검색어를 수신하는 단계(S130)가 수행될 수 있다. 입력부(110)는 사용자로부터 검색어를 수신할 수 있다. 사용자는 터치스크린에 표시된 키보드 인터페이스(170)를 이용하여 검색어를 입력할 수 있다.
다음으로, 상기 수신된 검색어를 이용하여 검색된 어플리케이션의 목록을 포함하는 제3 출력 화면을 표시하는 단계(S140)가 수행될 수 있다. 예를 들어, 도 6에 나타난 바와 같이, 연락처 어플리케이션의 화면 및 수신된 검색어를 이용하여 검색된 어플리케이션의 목록(180)을 포함하는 출력 화면이 생성되고 표시될 수 있다.
제어부(140)는 저장부(120)에 저장된 어플리케이션 중에서 어플리케이션의 이름에 검색어가 포함된 어플리케이션을 검색할 수 있다. 도 6을 참조하면, 입력부(110)는 사용자로부터 검색어로서 "Naver"를 수신할 수 있다. 제어부(140)는 저장부(120)에 저장된 어플리케이션 중에서 어플리케이션의 이름에 "네이버(Naver)"가 포함된 어플리케이션을 검색할 수 있다. 제어부(140)는 검색된 어플리케이션의 목록(180)을 포함하는 출력 화면을 생성할 수 있다.
예를 들어, 도 6에 나타난 바와 같이, 각각 "네이버지도", "네이버", "네이버웹툰", "네이버 미디어 플레이어"를 이름으로 갖는 4개의 어플리케이션이 검색될 수 있다. 출력부(130)는 상기 검색된 어플리케이션의 목록(180)을 포함하는 출력 화면을 표시할 수 있다.
또한, 검색어를 이용하여 검색된 어플리케이션의 목록은 어플리케이션이 실행된 횟수를 기준으로 하여 정렬될 수 있다. 제어부(140)는 정렬된 어플리케이션의 목록을 포함하는 출력 화면을 생성할 수 있다. 예를 들어, 도 6을 참조하면, "네이버지도"를 이름으로 갖는 어플리케이션은 상기 4개의 어플리케이션 중에서 가장 많이 실행되었을 수 있다. 또한, "네이버"를 이름으로 갖는 어플리케이션은 상기 4개의 어플리케이션 중에서 "네이버지도"를 이름으로 갖는 어플리케이션을 제외하고 가장 많이 실행되었을 수 있다.
다른 실시예에 따르면, 제어부(140)는 저장부(120)에 저장된 어플리케이션 중에서 어플리케이션의 이름의 초성 목록에 검색어가 포함된 어플리케이션을 검색할 수 있다. 도 7은 연락처 어플리케이션의 화면 및 수신된 다른 검색어를 이용하여 검색된 어플리케이션의 목록(190)을 포함하는 화면이다.
도 7을 참조하면, 입력부(110)는 사용자로부터 검색어로서 "k k o"를 수신할 수 있다. 제어부(140)는 저장부(120)에 저장된 어플리케이션 중에서 어플리케이션의 이름의 초성 목록에 “k k o”가 포함된 어플리케이션을 검색할 수 있다. 예를 들어, 도 7에 나타난 바와 같이, 각각 "카카오톡(kakao talk)", "카카오스토리(kakao story)", "카카오그룹(kakao group)", "카카오뮤직(kakao music)"을 이름으로 갖는 4개의 어플리케이션이 검색될 수 있다. 출력부(130)는 상기 검색된 어플리케이션의 목록(190)을 포함하는 출력 화면을 표시할 수 있다.
다른 실시예에 따르면, 제어부(140)는 저장부(120)에 저장된 어플리케이션 중에서 어플리케이션의 태그(tag)에 검색어가 포함된 어플리케이션을 검색할 수 있다. 어플리케이션의 태그는 미리 설정될 수 있다. 예를 들어, "카카오톡(kakao talk)"을 이름으로 갖는 어플리케이션의 태그로서 "카톡(katalk)"이 미리 설정될 수 있다. 또한, "DMB"를 이름으로 갖는 어플리케이션의 태그로서 "티비(TV)"가 미리 설정될 수 있다. 또한, "스케줄러"를 이름으로 갖는 어플리케이션의 태그로서 "달력(calendar)"이 미리 설정될 수 있다. 또한, "네이버 미디어 플레이어"를 이름으로 갖는 어플리케이션의 태그로서 "네이버플레이어"가 미리 설정될 수 있다.
도 8은 웹 브라우저 어플리케이션의 화면 및 수신된 또 다른 검색어를 이용하여 검색된 어플리케이션의 목록(200)을 포함하는 화면이다. 도 8을 참조하면, 입력부(110)는 사용자로부터 검색어로서 "카톡(katalk)"을 수신할 수 있다. 제어부(140)는 저장부(120)에 저장된 어플리케이션 중에서 어플리케이션의 태그에 "카톡(katalk)"이 포함된 어플리케이션을 검색할 수 있다. 도 8에 나타난 바와 같이, "카카오톡(kakao talk)"을 이름으로 갖는 어플리케이션이 검색될 수 있다. 출력부(130)는 상기 검색된 어플리케이션의 목록(200)을 포함하는 출력 화면을 표시할 수 있다.
다시 도 2를 참조하면, 다음으로, 제2제스처를 수신하는 단계(S150)가 수행될 수 있다. 입력부(110)는 사용자로부터 제스처를 수신할 수 있다. 제스처는 예를 들어, 탭(tap), 더블 탭(double tap), 멀티포인트 탭(multi-point tap), 누르고 있기(hold), 누르고 있기 해제(release holding), 또는 드래그(drag) 등을 포함할 수 있다.
다음으로, 상기 수신된 제2제스처에 따라 상기 검색된 어플리케이션 중에서 적어도 하나 이상의 어플리케이션을 실행하는 단계(S160)가 수행될 수 있다. 예를 들어, 도 6을 참조하면, 입력부(110)는 사용자로부터 제2제스처로서 "네이버지도"를 이름으로 갖는 어플리케이션의 아이콘에 대한 탭을 수신할 수 있다. 제어부(140)는 상기 수신된 제2제스처에 따라 "네이버지도"를 이름으로 갖는 어플리케이션을 실행할 수 있다.
또한, 제어부(140)는 상기 실행된 어플리케이션의 화면을 포함하는 제4 출력 화면을 생성할 수 있다. 예를 들어, 제어부(140)는 제4 출력 화면으로서 "네이버지도"를 이름으로 갖는 어플리케이션의 화면을 포함하는 출력 화면을 생성할 수 있다. 출력부(130)는 생성된 제4 출력 화면을 표시할 수 있다.
도 9는 다른 실시예에 따른 단말기(100)의 제어 방법이 수행되는 과정을 나타내는 순서도이다. 도 9를 참조하면, 먼저, 임의의 어플리케이션의 화면을 포함하는 제1 출력 화면을 표시하는 단계(S200)가 수행될 수 있다. 제1 출력 화면을 표시하는 단계(S200)는 위에서 설명된 제1 출력 화면을 표시하는 단계(S100)에 대응할 수 있으므로 여기에서는 자세한 설명을 생략하기로 한다.
다음으로, 제1제스처를 수신하는 단계(S210)가 수행될 수 있다. 제1제스처를 수신하는 단계(S210)는 위에서 설명된 제1제스처를 수신하는 단계(S110)에 대응할 수 있으므로 여기에서는 자세한 설명을 생략하기로 한다.
다음으로, 상기 수신된 제1제스처에 따라 키보드 인터페이스(170)를 포함하는 제2 출력 화면을 표시하는 단계(S220)가 수행될 수 있다. 제2 출력 화면을 표시하는 단계(S220)는 위에서 설명된 제2 출력 화면을 표시하는 단계(S120)에 대응할 수 있으므로 여기에서는 자세한 설명을 생략하기로 한다.
다음으로, 검색어를 수신하는 단계(S230)가 수행될 수 있다. 검색어를 수신하는 단계(S230)는 위에서 설명된 검색어를 수신하는 단계(S130)에 대응할 수 있으므로 여기에서는 자세한 설명을 생략하기로 한다.
다음으로, 상기 수신된 검색어에 대응하는 어플리케이션이 저장되어 있지 않은 경우, 외부의 검색 엔진을 이용하여 상기 검색어가 검색된 결과를 포함하는 제3 출력 화면을 표시하는 단계(S240)가 수행될 수 있다. 제어부(140)는 저장부(120)에 저장된 어플리케이션 중에서 검색어에 대응하는 어플리케이션을 검색할 수 있다. 만약 검색어에 대응하는 어플리케이션이 저장부(120)에 저장되어 있지 않은 경우, 제어부(140)는 외부의 검색 엔진으로부터 상기 검색어가 검색된 결과를 수신할 수 있다.
예를 들어, 제어부(140)는 외부의 어플리케이션 판매 사이트의 검색 엔진으로부터 상기 검색어가 검색된 결과를 수신할 수 있다. 제어부(140)는 상기 수신된 결과를 포함하는 제3 출력 화면을 생성할 수 있다. 출력부(130)는 생성된 제3 출력 화면을 표시할 수 있다.
상기 수신된 검색어에 대응하는 어플리케이션이 저장되어 있지 않은 경우, 외부의 검색 엔진으로부터 상기 검색어가 검색된 결과를 수신하기 전에, 제어부(140)는 검색어를 외부의 검색 엔진을 이용하여 검색할지 여부의 확인을 위한 안내 문구를 포함하는 출력 화면을 생성할 수 있다. 출력부(130)는 생성된 출력 화면을 표시할 수 있다. 도 10은 연락처 어플리케이션의 화면 및 검색어를 외부의 검색 엔진을 이용하여 검색할지 여부의 확인을 위한 안내 문구(210)를 포함하는 화면이다.
도 11은 또 다른 실시예에 따른 단말기(100)의 제어 방법이 수행되는 과정을 나타내는 순서도이다. 도 11을 참조하면, 먼저, 임의의 어플리케이션의 화면을 포함하는 제1 출력 화면을 표시하는 단계(S300)가 수행될 수 있다. 제1 출력 화면을 표시하는 단계(S300)는 위에서 설명된 제1 출력 화면을 표시하는 단계(S100)에 대응할 수 있으므로 여기에서는 자세한 설명을 생략하기로 한다.
다음으로, 제1제스처를 수신하는 단계(S310)가 수행될 수 있다. 제1제스처를 수신하는 단계(S310)는 위에서 설명된 제1제스처를 수신하는 단계(S110)에 대응할 수 있으므로 여기에서는 자세한 설명을 생략하기로 한다.
다음으로, 상기 수신된 제1제스처에 따라, 실행된 시간을 기준으로 정렬된 어플리케이션의 목록, 실행된 횟수를 기준으로 정렬된 어플리케이션의 목록, 또는 저장된 전체 어플리케이션의 목록 중에서 적어도 하나 이상을 포함하는 제2 출력 화면을 표시하는 단계(S320)가 수행될 수 있다.
예를 들어, 도킹된 런처 아이콘(150)으로부터 런처 아이콘(150)의 위쪽 방향으로의 드래그가 수신된 경우, 제어부(140)는 제2 출력 화면을 생성할 수 있다. 다른 실시예에 따르면, 플로팅된 런처 아이콘(160)에 대한 탭이 수신된 경우, 제어부(140)는 제2 출력 화면을 생성할 수 있다. 출력부(130)는 생성된 제2 출력 화면을 표시할 수 있다.
예를 들어, 도 5를 참조하면, 제2 출력 화면은 SMS 어플리케이션의 화면, 실행된 시간을 기준으로 정렬된 어플리케이션의 목록(220), 및 실행된 횟수를 기준으로 정렬된 어플리케이션의 목록(230)을 포함할 수 있다. 도 5에 도시된 어플리케이션의 목록(220)을 참조하면, "네이버웹툰"에 대응하는 어플리케이션이 가장 최근에 실행되었을 수 있다. 또한, "인터넷"에 대응하는 어플리케이션이 "네이버웹툰"에 대응하는 어플리케이션을 제외하고 가장 최근에 실행되었을 수 있다.
또한, 도 5에 도시된 실행된 횟수를 기준으로 정렬된 어플리케이션의 목록(230)을 참조하면, "전화"에 대응하는 어플리케이션이 가장 많이 실행되었을 수 있다. 또한, "메일"에 대응하는 어플리케이션이 "전화"에 대응하는 어플리케이션을 제외하고 가장 많이 실행되었을 수 있다.
도 12는 홈 화면 및 전체 어플리케이션 목록을 포함하는 화면이다. 도 12를 참조하면, 제2 출력 화면은 홈 화면을 포함할 수 있다. 또한, 제2 출력 화면은 저장부(120)에 저장된 전체 어플리케이션 목록(240)을 포함할 수 있다.
다시 도 11을 참조하면, 다음으로, 제2제스처를 수신하는 단계(S330)가 수행될 수 있다. 입력부(110)는 사용자로부터 제스처를 수신할 수 있다. 제스처는 예를 들어, 탭(tap), 더블 탭(double tap), 멀티포인트 탭(multi-point tap), 누르고 있기(hold), 누르고 있기 해제(release holding), 또는 드래그(drag) 등을 포함할 수 있다.
다음으로, 상기 수신된 제2제스처에 따라 상기 표시된 어플리케이션 중에서 적어도 하나 이상의 어플리케이션을 실행하는 단계(S340)가 수행될 수 있다. 예를 들어, 도 12를 참조하면, 입력부(110)는 사용자로부터 제2제스처로서 "도움말"을 이름으로 갖는 어플리케이션의 아이콘에 대한 탭을 수신할 수 있다. 제어부(140)는 상기 수신된 제2제스처에 따라 "도움말"을 이름으로 갖는 어플리케이션을 실행할 수 있다.
또한, 제어부(140)는 상기 실행된 어플리케이션의 화면을 포함하는 제3 출력 화면을 생성할 수 있다. 예를 들어, 제어부(140)는 제3 출력 화면으로서 "도움말"을 이름으로 갖는 어플리케이션의 화면을 포함하는 출력 화면을 생성할 수 있다. 출력부(130)는 생성된 제3 출력 화면을 표시할 수 있다.
도 13은 또 다른 실시예에 따른 단말기(100)의 제어 방법이 수행되는 과정을 나타내는 순서도이다. 도 13을 참조하면, 먼저, 임의의 어플리케이션의 화면을 포함하는 제1 출력 화면을 표시하는 단계(S400)가 수행될 수 있다. 제1 출력 화면을 표시하는 단계(S400)는 위에서 설명된 제1 출력 화면을 표시하는 단계(S100)에 대응할 수 있으므로 여기에서는 자세한 설명을 생략하기로 한다.
다음으로, 제1제스처를 수신하는 단계(S410)가 수행될 수 있다. 제1제스처를 수신하는 단계(S410)는 위에서 설명된 제1제스처를 수신하는 단계(S110)에 대응할 수 있으므로 여기에서는 자세한 설명을 생략하기로 한다.
다음으로, 상기 수신된 제1제스처에 따라 현재 실행되고 있는 어플리케이션의 목록을 포함하는 제2 출력 화면을 표시하는 단계(S420)가 수행될 수 있다. 예를 들어, 도킹된 런처 아이콘(150)으로부터 런처 아이콘(150)의 위쪽 방향으로의 드래그가 수신된 후에 특정한 아이콘에 대한 탭이 수신된 경우, 제어부(140)는 제2 출력 화면을 생성할 수 있다. 다른 실시예에 따르면, 플로팅된 런처 아이콘(160)에 대한 탭이 수신된 후에 특정한 아이콘에 대한 탭이 수신된 경우, 제어부(140)는 제2 출력 화면을 생성할 수 있다. 출력부(130)는 생성된 제2 출력 화면을 표시할 수 있다.
제2 출력 화면은 현재 단말기(100)에 의해 실행되고 있는 어플리케이션의 목록을 포함할 수 있다. 제2 출력 화면은 현재 단말기(100)의 포어그라운드(foreground) 또는 백그라운드(background)에서 실행되고 있는 어플리케이션의 목록을 포함할 수 있다. 도 14는 홈 화면 및 현재 단말기(100)에 의해 실행되고 있는 어플리케이션의 목록(250)을 포함하는 화면이다.
다시 도 13을 참조하면, 다음으로, 제2제스처를 수신하는 단계(S430)가 수행될 수 있다. 입력부(110)는 사용자로부터 제스처를 수신할 수 있다. 제스처는 예를 들어, 탭(tap), 더블 탭(double tap), 멀티포인트 탭(multi-point tap), 누르고 있기(hold), 누르고 있기 해제(release holding), 또는 드래그(drag) 등을 포함할 수 있다.
다음으로, 상기 수신된 제2제스처에 따라 상기 표시된 어플리케이션 중에서 적어도 하나 이상의 어플리케이션을 종료하는 단계(S440)가 수행될 수 있다. 예를 들어, 도 14를 참조하면, 입력부(110)는 사용자로부터 제2제스처로서 "네이버웹툰"에 대응하는 아이콘의 우측 상단에 표시된 "X"자 마커(marker)에 대한 탭을 수신할 수 있다. 제어부(140)는 상기 수신된 제2제스처에 따라 "네이버웹툰"를 이름으로 갖는 어플리케이션을 종료할 수 있다.
도 15는 또 다른 실시예에 따른 단말기(100)의 제어 방법이 수행되는 과정을 나타내는 순서도이다. 도 15를 참조하면, 먼저, 임의의 어플리케이션의 화면을 포함하는 제1 출력 화면을 표시하는 단계(S500)가 수행될 수 있다. 제1 출력 화면을 표시하는 단계(S500)는 위에서 설명된 제1 출력 화면을 표시하는 단계(S100)에 대응할 수 있으므로 여기에서는 자세한 설명을 생략하기로 한다.
다음으로, 제1제스처를 수신하는 단계(S510)가 수행될 수 있다. 제1제스처를 수신하는 단계(S510)는 위에서 설명된 제1제스처를 수신하는 단계(S110)에 대응할 수 있으므로 여기에서는 자세한 설명을 생략하기로 한다.
다음으로, 상기 수신된 제1제스처에 따라, 실행된 시간을 기준으로 정렬된 어플리케이션의 목록 또는 실행된 횟수를 기준으로 정렬된 어플리케이션의 목록 중에서 적어도 하나 이상을 포함하는 제2 출력 화면을 표시하는 단계(S520)가 수행될 수 있다.
예를 들어, 도킹된 런처 아이콘(150)으로부터 런처 아이콘(150)의 위쪽 방향으로의 드래그가 수신된 경우, 제어부(140)는 제2 출력 화면을 생성할 수 있다. 다른 실시예에 따르면, 플로팅된 런처 아이콘(160)에 대한 탭이 수신된 경우, 제어부(140)는 제2 출력 화면을 생성할 수 있다. 출력부(130)는 생성된 제2 출력 화면을 표시할 수 있다. 예를 들어, 도 5를 참조하면, 제2 출력 화면은 SMS 어플리케이션의 화면, 실행된 시간을 기준으로 정렬된 어플리케이션의 목록(220), 및 실행된 횟수를 기준으로 정렬된 어플리케이션의 목록(230)을 포함할 수 있다.
다시 도 15를 참조하면, 다음으로, 제2제스처를 수신하는 단계(S530)가 수행될 수 있다. 입력부(110)는 사용자로부터 제스처를 수신할 수 있다. 제스처는 예를 들어, 탭(tap), 더블 탭(double tap), 멀티포인트 탭(multi-point tap), 누르고 있기(hold), 누르고 있기 해제(release holding), 또는 드래그(drag) 등을 포함할 수 있다.
다음으로, 상기 수신된 제2제스처에 따라 상기 표시된 어플리케이션의 목록을 편집할 수 있도록 하는 유저 인터페이스(user interface)를 포함하는 제3 출력 화면을 표시하는 단계(S540)가 수행될 수 있다. 예를 들어, 입력부(110)는 사용자로부터 특정한 아이콘에 대한 탭을 수신할 수 있다. 도 16을 참조하면, 입력부(110)는 사용자로부터 "최근 기록 선택삭제"에 대응하는 아이콘에 대한 탭을 수신할 수 있다.
또한, 제3 출력 화면은, 표시된 어플리케이션의 목록을 편집할 수 있도록 하는 유저 인터페이스로서 표시된 각각의 어플리케이션에 대응하는 아이콘의 우측 상단에 배치된 "X"자 마커(marker)(270)를 포함할 수 있다. 도 16을 참조하면, 제3 출력 화면은, 실행된 시간을 기준으로 정렬된 어플리케이션의 목록(260)에 포함된 각각의 어플리케이션에 대응하는 아이콘의 우측 상단에 배치된 "X"자 마커(270)를 포함할 수 있다. 상기 "X"자 마커(270)는 표시된 어플리케이션의 목록으로부터 특정한 어플리케이션을 제외할 수 있도록 하는 유저 인터페이스일 수 있다.
다른 실시예에 따르면, 제3 출력 화면은, 표시된 어플리케이션의 목록 중에서 특정한 어플리케이션을 다른 어플리케이션으로 치환할 수 있도록 하는 유저 인터페이스를 포함할 수 있다. 또 다른 실시예에 따르면, 제3 출력 화면은, 표시된 어플리케이션의 목록에 특정한 어플리케이션을 추가할 수 있도록 하는 유저 인터페이스를 포함할 수 있다. 또 다른 실시예에 따르면, 제3 출력 화면은, 표시된 어플리케이션의 목록에 포함된 어플리케이션의 순서를 변경할 수 있도록 하는 유저 인터페이스를 포함할 수 있다.
도 17은 또 다른 실시예에 따른 단말기(100)의 제어 방법이 수행되는 과정을 나타내는 순서도이다. 도 17을 참조하면, 먼저, 임의의 어플리케이션의 화면을 포함하는 제1 출력 화면을 표시하는 단계(S600)가 수행될 수 있다. 제1 출력 화면을 표시하는 단계(S600)는 위에서 설명된 제1 출력 화면을 표시하는 단계(S100)에 대응할 수 있으므로 여기에서는 자세한 설명을 생략하기로 한다.
다음으로, 제1제스처를 수신하는 단계(S610)가 수행될 수 있다. 제1제스처를 수신하는 단계(S610)는 위에서 설명된 제1제스처를 수신하는 단계(S110)에 대응할 수 있으므로 여기에서는 자세한 설명을 생략하기로 한다.
다음으로, 상기 수신된 제1제스처에 따라 키보드 인터페이스(170)를 포함하는 제2 출력 화면을 표시하는 단계(S620)가 수행될 수 있다. 제2 출력 화면을 표시하는 단계(S620)는 위에서 설명된 제2 출력 화면을 표시하는 단계(S120)에 대응할 수 있으므로 여기에서는 자세한 설명을 생략하기로 한다.
다음으로, 제2제스처를 수신하는 단계(S630)가 수행될 수 있다. 입력부(110)는 사용자로부터 제스처를 수신할 수 있다. 제스처는 예를 들어, 탭(tap), 더블 탭(double tap), 멀티포인트 탭(multi-point tap), 누르고 있기(hold), 누르고 있기 해제(release holding), 또는 드래그(drag) 등을 포함할 수 있다.
다음으로, 상기 수신된 제2제스처에 따라 상기 키보드 인터페이스(170)의 키에 매핑된(mapped) 어플리케이션의 목록을 포함하는 제3 출력 화면을 표시하는 단계(S640)가 수행될 수 있다. 키보드 인터페이스(170)는 적어도 하나 이상의 키를 포함할 수 있다. 상기 키 중에서 적어도 하나 이상의 키에는 어플리케이션의 목록이 미리 매핑되어 있을 수 있다.
예를 들어, 키보드 인터페이스(170)에 포함된 각각의 키는, 저장부(120)에 저장된 전체 어플리케이션 중에서 어플리케이션의 이름의 첫 음절이 상기 각 키의 키 값과 동일한 어플리케이션의 목록에 미리 매핑될 수 있다. 입력부(110)는 제2제스처로서 키보드 인터페이스(170)에 포함된 키 중에서 하나의 키에 대한 누르고 있기(hold)를 수신할 수 있다. 제어부(140)는 상기 하나의 키에 매핑된 어플리케이션의 목록을 포함하는 제3 출력 화면을 생성할 수 있다. 출력부(130)는 생성된 제3 출력 화면을 표시할 수 있다.
도 18은 연락처 어플리케이션의 화면 및 키보드 인터페이스(170)의 키에 매핑된(mapped) 어플리케이션의 목록을 포함하는 화면이다. 도 18을 참조하면, 키 값이 "L"인 키에는 어플리케이션의 목록이 미리 매핑될 수 있다. 상기 어플리케이션 목록에는 각각 "리더스허브", "라인", 및 "롯데시네마"를 이름으로 갖는 3개의 어플리케이션이 포함될 수 있다.
도 19는 연락처 어플리케이션의 화면 및 키보드 인터페이스(170)의 다른 키에 매핑된 어플리케이션의 목록을 포함하는 화면이다. 도 19를 참조하면, 키 값이 "H"인 키에는 어플리케이션의 목록이 미리 매핑될 수 있다. 상기 어플리케이션 목록에는 각각 "행아웃" 및 "해커스 MP3"를 이름으로 갖는 두 개의 어플리케이션이 포함될 수 있다.
다시 도 17을 참조하면, 다음으로, 제3제스처를 수신하는 단계(S650)가 수행될 수 있다. 입력부(110)는 사용자로부터 제스처를 수신할 수 있다. 제스처는 예를 들어, 탭(tap), 더블 탭(double tap), 멀티포인트 탭(multi-point tap), 누르고 있기(hold), 누르고 있기 해제(release holding), 또는 드래그(drag) 등을 포함할 수 있다.
다음으로, 상기 수신된 제3제스처에 따라 상기 표시된 어플리케이션 중에서 적어도 하나 이상의 어플리케이션을 실행하는 단계(S660)가 수행될 수 있다. 예를 들어, 도 18을 참조하면, 입력부(110)는 사용자로부터 제3제스처로서 누르고 있기 해제(release holding)를 수신할 수 있다. 제어부(140)는 상기 수신된 제3제스처에 따라 어플리케이션의 목록 중에서 현재 롤오버(roll-over)된 아이콘에 대응하는 어플리케이션을 실행할 수 있다.
키보드 인터페이스(170)의 영문 키(또는 자음 키)의 위치를 기초로 하여, 상기 영문 키(또는 자음 키)에 매핑된 어플리케이션의 목록 중에서 특정한 어플리케이션에 대응하는 아이콘이 기본값(default)으로서 롤오버될 수 있다. 따라서, 제3제스처로서 누르고 있기 해제가 수신된 경우, 제어부(140)는 상기 특정한 어플리케이션을 실행할 수 있다.
예를 들어, 도 18을 참조하면, "라인"에 대응하는 아이콘이 기본값으로서 롤오버될 수 있다. 따라서, 제3제스처로서 누르고 있기 해제가 수신된 경우, 제어부(140)는 "라인"에 대응하는 어플리케이션을 실행할 수 있다. 또한, 도 19를 참조하면, "해커스 MP3"에 대응하는 아이콘이 기본값으로서 롤오버될 수 있다. 따라서, 제3제스처로서 누르고 있기 해제가 수신된 경우, 제어부(140)는 "해커스 MP3"에 대응하는 어플리케이션을 실행할 수 있다.
또한, 입력부(110)는 사용자로부터 제3제스처로서 왼쪽 방향으로의 드래그를 수신할 수 있다. 제어부(140)는 현재 롤오버된 아이콘의 왼쪽에 배치된 아이콘이 롤오버되도록 할 수 있다. 따라서, 제3제스처로서 왼쪽 방향으로의 드래그 후 누르고 있기 해제가 수신된 경우, 제어부(140)는 현재 롤오버된 아이콘의 왼쪽에 배치된 아이콘에 대응하는 어플리케이션을 실행할 수 있다. 도 18을 참조하면, 제3제스처로서 왼쪽 방향으로의 드래그 후 누르고 있기 해제가 수신된 경우, 제어부(140)는 "리더스허브"에 대응하는 어플리케이션을 실행할 수 있다.
또한, 입력부(110)는 사용자로부터 제3제스처로서 오른쪽 방향으로의 드래그를 수신할 수 있다. 제어부(140)는 현재 롤오버된 아이콘의 오른쪽에 배치된 아이콘이 롤오버되도록 할 수 있다. 따라서, 제3제스처로서 오른쪽 방향으로의 드래그 후 누르고 있기 해제가 수신된 경우, 제어부(140)는 현재 롤오버된 아이콘의 오른쪽에 배치된 아이콘에 대응하는 어플리케이션을 실행할 수 있다. 도 18을 참조하면, 제3제스처로서 오른쪽 방향으로의 드래그 후 누르고 있기 해제가 수신된 경우, 제어부(140)는 "롯데시네마"에 대응하는 어플리케이션을 실행할 수 있다.
또한, 제어부(140)는 상기 실행된 어플리케이션의 화면을 포함하는 제4 출력 화면을 생성할 수 있다. 예를 들어, 도 18을 참조하면, 제3제스처로서 누르고 있기 해제가 수신된 경우, 제어부(140)는 제4 출력 화면으로서 "라인"을 이름으로 갖는 어플리케이션의 화면을 포함하는 출력 화면을 생성할 수 있다. 출력부(130)는 생성된 제4 출력 화면을 표시할 수 있다.
도 20은 또 다른 실시예에 따른 단말기(100)의 제어 방법이 수행되는 과정을 나타내는 순서도이다. 도 20을 참조하면, 먼저, 임의의 어플리케이션의 화면을 포함하는 제1 출력 화면을 표시하는 단계(S700)가 수행될 수 있다. 제1 출력 화면을 표시하는 단계(S700)는 위에서 설명된 제1 출력 화면을 표시하는 단계(S100)에 대응할 수 있으므로 여기에서는 자세한 설명을 생략하기로 한다.
다음으로, 제1제스처를 수신하는 단계(S710)가 수행될 수 있다. 제1제스처를 수신하는 단계(S710)는 위에서 설명된 제1제스처를 수신하는 단계(S110)에 대응할 수 있으므로 여기에서는 자세한 설명을 생략하기로 한다.
다음으로, 상기 수신된 제1제스처에 따라 키보드 인터페이스(170)를 포함하는 제2 출력 화면을 표시하는 단계(S720)가 수행될 수 있다. 제2 출력 화면을 표시하는 단계(S720)는 위에서 설명된 제2 출력 화면을 표시하는 단계(S120)에 대응할 수 있으므로 여기에서는 자세한 설명을 생략하기로 한다.
다음으로, 제2제스처를 수신하는 단계(S730)가 수행될 수 있다. 입력부(110)는 사용자로부터 제스처를 수신할 수 있다. 제스처는 예를 들어, 탭(tap), 더블 탭(double tap), 멀티포인트 탭(multi-point tap), 누르고 있기(hold), 누르고 있기 해제(release holding), 또는 드래그(drag) 등을 포함할 수 있다.
다음으로, 상기 수신된 제2제스처에 따라 상기 키보드 인터페이스(170)의 키에 매핑된(mapped) 어플리케이션의 목록을 포함하는 제3 출력 화면을 표시하는 단계(S740)가 수행될 수 있다. 제3 출력 화면을 표시하는 단계(S740)는 위에서 설명된 제3 출력 화면을 표시하는 단계(S640)에 대응할 수 있으므로 여기에서는 자세한 설명을 생략하기로 한다.
다음으로, 제3제스처를 수신하는 단계(S750)가 수행될 수 있다. 입력부(110)는 사용자로부터 제스처를 수신할 수 있다. 제스처는 예를 들어, 탭(tap), 더블 탭(double tap), 멀티포인트 탭(multi-point tap), 누르고 있기(hold), 누르고 있기 해제(release holding), 또는 드래그(drag) 등을 포함할 수 있다.
다음으로, 상기 수신된 제3제스처에 따라 상기 매핑된 어플리케이션의 목록을 편집할 수 있도록 하는 유저 인터페이스(user interface)를 포함하는 제4 출력 화면을 표시하는 단계(S760)가 수행될 수 있다. 도 18을 참조하면, 입력부(110)는 제3제스처로서 왼쪽 방향으로의 드래그 후 누르고 있기 해제를 수신할 수 있다. 제어부(140)는 왼쪽 방향으로의 드래그에 대응하여, "편집"에 대응하는 아이콘이 롤오버되도록 할 수 있다.
또한, 제어부(140)는 누르고 있기 해제에 대응하여, 상기 매핑된 어플리케이션의 목록을 편집할 수 있도록 하는 유저 인터페이스를 포함하는 제4 출력 화면을 생성할 수 있다. 출력부(130)는 생성된 제4 출력 화면을 표시할 수 있다.
도 21은 사용자가 키보드 인터페이스(170)의 키에 매핑된 어플리케이션의 목록을 편집할 수 있도록 하는 유저 인터페이스를 포함하는 출력 화면이다. 도 21을 참조하면, 제4 출력 화면은, 매핑된 어플리케이션의 목록을 편집할 수 있도록 하는 유저 인터페이스로서 각각의 어플리케이션의 우측에 배치된 버튼을 포함할 수 있다. 상기 버튼은 매핑된 어플리케이션의 목록으로부터 특정한 어플리케이션을 제외할 수 있도록 하는 유저 인터페이스일 수 있다.
다른 실시예에 따르면, 제4 출력 화면은, 매핑된 어플리케이션의 목록 중에서 특정한 어플리케이션을 다른 어플리케이션으로 치환할 수 있도록 하는 유저 인터페이스를 포함할 수 있다. 또 다른 실시예에 따르면, 제4 출력 화면은, 매핑된 어플리케이션의 목록에 특정한 어플리케이션을 추가할 수 있도록 하는 유저 인터페이스를 포함할 수 있다.
또 다른 실시예에 따르면, 제4 출력 화면은, 매핑된 어플리케이션의 목록에 포함된 어플리케이션의 순서를 변경할 수 있도록 하는 유저 인터페이스를 포함할 수 있다. 또 다른 실시예에 따르면, 제4 출력 화면은, 매핑된 어플리케이션의 목록에 포함된 어플리케이션 중에서 기본값으로서 롤오버되도록 할 아이콘에 대응하는 어플리케이션을 지정할 수 있도록 하는 유저 인터페이스를 포함할 수 있다.
키보드 인터페이스(170)는 단말기(100)의 운영체제에서 데몬(daemon)으로서 항상 실행되고 있을 수 있다. 따라서, 기재된 실시예에 따르면, 단말기(100)의 사용자가 단말기(100)에 표시되는 화면을 하나의 어플리케이션의 화면으로부터 다른 어플리케이션의 화면으로 용이하게 전환시킬 수 있을 뿐만 아니라, 전환시의 단말기(100)의 연산 부담 및 메모리 관리 부담을 경감시킬 수 있다. 또한, 기재된 실시예에 따르면 단말기의 사용자가 어플리케이션을 용이하게 검색하고 실행시킬 수 있다.
이상에서 첨부된 도면을 참조하여 본 발명의 실시예들을 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.

Claims (24)

  1. 임의의 어플리케이션의 화면을 포함하는 제1 출력 화면을 표시하는 단계;
    제1제스처를 수신하는 단계;
    상기 수신된 제1제스처에 따라 키보드 인터페이스를 포함하는 제2 출력 화면을 표시하는 단계;
    상기 키보드 인터페이스를 통해 검색어를 수신하는 단계;
    상기 수신된 검색어를 이용하여 검색된 어플리케이션의 목록을 포함하는 제3 출력 화면을 표시하는 단계;
    제2제스처를 수신하는 단계; 및
    상기 수신된 제2제스처에 따라 상기 검색된 어플리케이션 중에서 적어도 하나 이상의 어플리케이션을 실행하는 단계
    를 포함하는 단말기의 제어 방법.
  2. 제1항에 있어서,
    상기 제1 출력 화면은 도킹된(docked) 런처 아이콘을 더 포함하고,
    상기 제1제스처를 수신하는 단계는,
    상기 런처 아이콘으로부터의 드래그를 수신하는 단계
    를 포함하는 단말기의 제어 방법.
  3. 제1항에 있어서,
    상기 제1 출력 화면은 플로팅된(floated) 런처 아이콘을 더 포함하고,
    상기 제1제스처를 수신하는 단계는,
    상기 런처 아이콘에 대한 탭(tap)을 수신하는 단계
    를 포함하는 단말기의 제어 방법.
  4. 제1항에 있어서,
    상기 제3 출력 화면을 표시하는 단계는,
    저장된 어플리케이션 중에서, 상기 저장된 어플리케이션의 이름에 상기 검색어가 포함된 어플리케이션을 검색하는 단계;
    상기 검색된 어플리케이션의 목록을 포함하는 제3 출력 화면을 생성하는 단계; 및
    상기 제3 출력 화면을 표시하는 단계
    를 포함하는 단말기의 제어 방법.
  5. 제1항에 있어서,
    상기 제3 출력 화면을 표시하는 단계는,
    상기 검색된 어플리케이션의 목록을 상기 목록에 포함된 상기 어플리케이션이 실행된 횟수를 기준으로 하여 정렬하는 단계;
    상기 정렬된 어플리케이션의 목록을 포함하는 제3 출력 화면을 생성하는 단계; 및
    상기 제3 출력 화면을 표시하는 단계
    를 포함하는 단말기의 제어 방법.
  6. 제1항에 있어서,
    상기 제3 출력 화면을 표시하는 단계는,
    저장된 어플리케이션 중에서, 상기 저장된 어플리케이션의 이름의 초성 목록에 상기 검색어가 포함된 어플리케이션을 검색하는 단계;
    상기 검색된 어플리케이션의 목록을 포함하는 제3 출력 화면을 생성하는 단계; 및
    상기 제3 출력 화면을 표시하는 단계
    를 포함하는 단말기의 제어 방법.
  7. 제1항에 있어서,
    상기 제3 출력 화면을 표시하는 단계는,
    저장된 어플리케이션 중에서, 상기 저장된 어플리케이션에 대응하는 태그(tag)에 상기 검색어가 포함된 어플리케이션을 검색하는 단계;
    상기 검색된 어플리케이션의 목록을 포함하는 제3 출력 화면을 생성하는 단계; 및
    상기 제3 출력 화면을 표시하는 단계
    를 포함하는 단말기의 제어 방법.
  8. 제1항에 있어서,
    상기 제2제스처를 수신하는 단계는,
    상기 검색된 어플리케이션의 목록에 포함된 상기 어플리케이션 중에서 특정한 어플리케이션에 대한 탭을 수신하는 단계
    를 포함하고,
    상기 어플리케이션을 실행하는 단계는,
    상기 특정한 어플리케이션을 실행하는 단계
    를 포함하는 단말기의 제어 방법.
  9. 제1항에 있어서,
    상기 실행된 어플리케이션의 화면을 포함하는 제4 출력 화면을 표시하는 단계
    를 더 포함하는 단말기의 제어 방법.
  10. 임의의 어플리케이션의 화면을 포함하는 제1 출력 화면을 표시하는 단계;
    제1제스처를 수신하는 단계;
    상기 수신된 제1제스처에 따라 키보드 인터페이스를 포함하는 제2 출력 화면을 표시하는 단계;
    상기 키보드 인터페이스를 통해 검색어를 수신하는 단계;
    상기 수신된 검색어에 대응하는 어플리케이션이 저장되어 있지 않은 경우, 외부의 검색 엔진을 이용하여 상기 검색어가 검색된 결과를 포함하는 제3 출력 화면을 표시하는 단계
    를 포함하는 단말기의 제어 방법.
  11. 제10항에 있어서,
    상기 제3 출력 화면을 표시하는 단계는,
    저장된 어플리케이션 중에서 상기 검색어에 대응하는 어플리케이션을 검색하는 단계;
    만약 상기 검색어에 대응하는 어플리케이션이 저장되어 있지 않은 경우, 상기 검색어를 상기 외부의 검색 엔진을 이용하여 검색할지 여부의 확인을 위한 안내 문구를 포함하는 제4 출력 화면을 표시하는 단계; 및
    상기 제3 출력 화면을 표시하는 단계
    를 포함하는 단말기의 제어 방법.
  12. 임의의 어플리케이션의 화면을 포함하는 제1 출력 화면을 표시하는 단계;
    제1제스처를 수신하는 단계;
    상기 수신된 제1제스처에 따라, 실행된 시간을 기준으로 정렬된 어플리케이션의 목록, 실행된 횟수를 기준으로 정렬된 어플리케이션의 목록 또는 저장된 전체 어플리케이션의 목록 중에서 적어도 하나 이상을 포함하는 제2 출력 화면을 표시하는 단계;
    제2제스처를 수신하는 단계; 및
    상기 수신된 제2제스처에 따라, 상기 제2 출력 화면에 포함된 상기 어플리케이션 중에서 적어도 하나 이상의 어플리케이션을 실행하는 단계
    를 포함하는 단말기의 제어 방법.
  13. 제12항에 있어서,
    상기 실행된 어플리케이션의 화면을 포함하는 제3 출력 화면을 표시하는 단계
    를 더 포함하는 단말기의 제어 방법.
  14. 임의의 어플리케이션의 화면을 포함하는 제1 출력 화면을 표시하는 단계;
    제1제스처를 수신하는 단계;
    상기 수신된 제1제스처에 따라, 현재 실행되고 있는 어플리케이션의 목록을 포함하는 제2 출력 화면을 표시하는 단계;
    제2제스처를 수신하는 단계; 및
    상기 수신된 제2제스처에 따라 상기 제2 출력 화면에 포함된 상기 어플리케이션의 목록 중에서 적어도 하나 이상의 어플리케이션을 종료하는 단계
    를 포함하는 단말기의 제어 방법.
  15. 임의의 어플리케이션의 화면을 포함하는 제1 출력 화면을 표시하는 단계;
    제1제스처를 수신하는 단계;
    상기 수신된 제1제스처에 따라, 실행된 시간을 기준으로 정렬된 어플리케이션의 목록 또는 실행된 횟수를 기준으로 정렬된 어플리케이션의 목록 중에서 적어도 하나 이상을 포함하는 제2 출력 화면을 표시하는 단계;
    제2제스처를 수신하는 단계; 및
    상기 수신된 제2제스처에 따라, 상기 제2 출력 화면에 포함된 상기 어플리케이션의 목록을 편집할 수 있도록 하는 유저 인터페이스를 포함하는 제3 출력 화면을 표시하는 단계
    를 포함하는 단말기의 제어 방법.
  16. 제15항에 있어서,
    상기 유저 인터페이스는, 상기 제2 출력 화면에 포함된 상기 어플리케이션의 목록 중에서 특정한 어플리케이션을 제외할 수 있도록 하는 유저 인터페이스, 상기 제2 출력 화면에 포함된 상기 어플리케이션의 목록 중에서 특정한 어플리케이션을 다른 어플리케이션으로 치환할 수 있도록 하는 유저 인터페이스, 상기 제2 출력 화면에 포함된 상기 어플리케이션의 목록에 특정한 어플리케이션을 추가할 수 있도록 하는 유저 인터페이스 또는 상기 제2 출력 화면에 포함된 상기 어플리케이션의 목록에 포함된 상기 어플리케이션의 순서를 변경할 수 있도록 하는 유저 인터페이스 중에서 적어도 하나 이상을 포함하는 단말기의 제어 방법.
  17. 임의의 어플리케이션의 화면을 포함하는 제1 출력 화면을 표시하는 단계;
    제1제스처를 수신하는 단계;
    상기 수신된 제1제스처에 따라 키보드 인터페이스를 포함하는 제2 출력 화면을 표시하는 단계;
    제2제스처를 수신하는 단계;
    상기 수신된 제2제스처에 따라, 상기 키보드 인터페이스의 키에 매핑된(mapped) 어플리케이션의 목록을 포함하는 제3 출력 화면을 표시하는 단계;
    제3제스처를 수신하는 단계; 및
    상기 수신된 제3제스처에 따라, 상기 제3 출력 화면에 포함된 상기 어플리케이션 중에서 적어도 하나 이상의 어플리케이션을 실행하는 단계
    를 포함하는 단말기의 제어 방법.
  18. 제17항에 있어서,
    상기 키보드 인터페이스의 각각의 키에 매핑된 어플리케이션의 목록은, 저장된 전체 어플리케이션 중에서 상기 저장된 어플리케이션의 이름의 첫 글자의 초성이 상기 각각의 키에 대응되는 어플리케이션을 포함하는 단말기의 제어 방법.
  19. 제17항에 있어서,
    상기 실행된 어플리케이션의 화면을 포함하는 제4 출력 화면을 표시하는 단계
    를 더 포함하는 단말기의 제어 방법.
  20. 제17항에 있어서,
    상기 제3 출력 화면은 상기 키의 상단에 배치된 아이콘을 더 포함하고, 상기 아이콘은 상기 키에 매핑된 상기 어플리케이션의 목록 중에서 기본값(default)으로서 미리 정해진 어플리케이션에 대응하는 단말기의 제어 방법.
  21. 임의의 어플리케이션의 화면을 포함하는 제1 출력 화면을 표시하는 단계;
    제1제스처를 수신하는 단계;
    상기 수신된 제1제스처에 따라 키보드 인터페이스를 포함하는 제2 출력 화면을 표시하는 단계;
    제2제스처를 수신하는 단계;
    상기 수신된 제2제스처에 따라 상기 키보드 인터페이스의 키에 매핑된(mapped) 어플리케이션의 목록을 포함하는 제3 출력 화면을 표시하는 단계;
    제3제스처를 수신하는 단계; 및
    상기 수신된 제3제스처에 따라, 상기 매핑된 어플리케이션의 목록을 편집할 수 있도록 하는 유저 인터페이스(user interface)를 포함하는 제4 출력 화면을 표시하는 단계
    를 포함하는 단말기의 제어 방법.
  22. 제21항에 있어서,
    상기 유저 인터페이스는, 상기 매핑된 어플리케이션의 목록 중에서 특정한 어플리케이션을 제외할 수 있도록 하는 유저 인터페이스, 상기 매핑된 어플리케이션의 목록 중에서 특정한 어플리케이션을 다른 어플리케이션으로 치환할 수 있도록 하는 유저 인터페이스, 상기 매핑된 어플리케이션의 목록에 특정한 어플리케이션을 추가할 수 있도록 하는 유저 인터페이스 또는 상기 매핑된 어플리케이션의 목록에 포함된 상기 어플리케이션의 순서를 변경할 수 있도록 하는 유저 인터페이스 중에서 적어도 하나 이상을 포함하는 단말기의 제어 방법.
  23. 입력을 수신하는 입력부;
    적어도 하나 이상의 어플리케이션을 저장하는 저장부;
    상기 수신된 입력에 따라, 상기 어플리케이션을 실행하고 출력 화면을 생성하는 제어부; 및
    상기 출력 화면을 표시하는 출력부
    를 포함하고,
    상기 제어부는 상기 어플리케이션 중에서 임의의 어플리케이션의 화면을 포함하는 제1 출력 화면을 생성하고, 상기 출력부는 상기 제1 출력 화면을 표시하고, 상기 입력부는 제1제스처를 수신하고, 상기 제어부는 상기 수신된 제1제스처에 따라 키보드 인터페이스를 포함하는 제2 출력 화면을 생성하고, 상기 출력부는 상기 제2 출력 화면을 표시하고, 상기 입력부는 상기 키보드 인터페이스를 통해 검색어를 수신하고, 상기 제어부는 상기 저장부에 저장된 상기 어플리케이션 중에서 상기 수신된 검색어에 대응하는 어플리케이션의 목록을 포함하는 제3 출력 화면을 생성하고, 상기 출력부는 상기 제3 출력 화면을 표시하고, 상기 입력부는 제2제스처를 수신하고, 상기 제어부는 상기 수신된 제2제스처에 따라 상기 목록에 포함된 상기 어플리케이션 중에서 적어도 하나 이상의 어플리케이션을 실행하는 단말기.
  24. 제23항에 있어서,
    상기 제어부는 상기 실행된 어플리케이션의 화면을 포함하는 제4 출력 화면을 생성하고, 상기 출력부는 상기 제4 출력 화면을 표시하는 단말기.
PCT/KR2014/011049 2013-11-18 2014-11-18 단말기 및 단말기의 제어 방법 WO2015072803A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/158,284 US10712933B2 (en) 2013-11-18 2016-05-18 Terminal and method for controlling terminal

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2013-0140090 2013-11-18
KR1020130140090A KR102199460B1 (ko) 2013-11-18 2013-11-18 단말기 및 단말기의 제어 방법

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/158,284 Continuation US10712933B2 (en) 2013-11-18 2016-05-18 Terminal and method for controlling terminal

Publications (1)

Publication Number Publication Date
WO2015072803A1 true WO2015072803A1 (ko) 2015-05-21

Family

ID=53057669

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2014/011049 WO2015072803A1 (ko) 2013-11-18 2014-11-18 단말기 및 단말기의 제어 방법

Country Status (3)

Country Link
US (1) US10712933B2 (ko)
KR (1) KR102199460B1 (ko)
WO (1) WO2015072803A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108228275A (zh) * 2017-12-18 2018-06-29 广东欧珀移动通信有限公司 应用程序控制方法、装置、移动终端及计算机可读介质

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10503276B2 (en) 2013-12-19 2019-12-10 Korea Electronics Technology Institute Electronic device and a control method thereof
KR101510021B1 (ko) * 2013-12-19 2015-04-16 전자부품연구원 전자기기 및 전자기기의 제어방법
WO2015093665A1 (ko) 2013-12-19 2015-06-25 전자부품연구원 전자기기 및 전자기기의 제어방법
US11460971B2 (en) 2018-03-26 2022-10-04 Huawei Technologies Co., Ltd. Control method and electronic device
CN111602107B (zh) * 2018-04-19 2022-02-11 华为技术有限公司 一种应用退出时的显示方法及终端
CN109189319A (zh) * 2018-09-25 2019-01-11 珠海格力电器股份有限公司 基于虚拟键盘的快捷操作方法、系统、控制方法及终端

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070027852A1 (en) * 2005-07-29 2007-02-01 Microsoft Corporation Smart search for accessing options
US20090058821A1 (en) * 2007-09-04 2009-03-05 Apple Inc. Editing interface
US20120254795A1 (en) * 2008-03-04 2012-10-04 Van Os Marcel Methods and Graphical User Interfaces for Editing on a Portable Multifunction Device
US20120297348A1 (en) * 2011-05-18 2012-11-22 Santoro David T Control of a device using gestures
WO2013100480A1 (ko) * 2011-12-27 2013-07-04 주식회사 네오패드 스마트 기기에서의 메뉴 구성 방법 및 시스템

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7340686B2 (en) * 2005-03-22 2008-03-04 Microsoft Corporation Operating system program launch menu search
KR100754525B1 (ko) * 2005-08-29 2007-09-03 주식회사 에코마케팅 자동 입찰 방식의 인터넷 키워드 광고에서 입찰 순위를설정하는 방법
US7600194B2 (en) * 2005-12-02 2009-10-06 Microsoft Corporation Start menu operation for computer user interface
KR20090058821A (ko) * 2007-12-05 2009-06-10 삼성전자주식회사 프린터 드라이버 설치방법, 상기 설치방법을 실행할 수있는 프로그램이 수록된 기록매체, 화상형성장치 및 호스트장치
WO2011061556A1 (en) * 2009-11-20 2011-05-26 Kim Mo Intelligent search system
KR101160543B1 (ko) 2010-02-26 2012-06-28 에스케이플래닛 주식회사 키워드를 이용한 사용자 인터페이스 제공 방법 및 단말기
US8438473B2 (en) * 2011-01-05 2013-05-07 Research In Motion Limited Handling of touch events in a browser environment
US9652448B2 (en) * 2011-11-10 2017-05-16 Blackberry Limited Methods and systems for removing or replacing on-keyboard prediction candidates
US20130169540A1 (en) 2012-01-04 2013-07-04 Huy Hai Dinh Moving virtual keyboard
EP2631761A1 (en) * 2012-02-24 2013-08-28 Research In Motion Limited Method and apparatus for providing an option to undo a delete operation
KR101169374B1 (ko) 2012-04-04 2012-07-30 서주홍 스마트 기기용 키패드 표시 방법
US20140165012A1 (en) * 2012-12-12 2014-06-12 Wenbo Shen Single - gesture device unlock and application launch

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070027852A1 (en) * 2005-07-29 2007-02-01 Microsoft Corporation Smart search for accessing options
US20090058821A1 (en) * 2007-09-04 2009-03-05 Apple Inc. Editing interface
US20120254795A1 (en) * 2008-03-04 2012-10-04 Van Os Marcel Methods and Graphical User Interfaces for Editing on a Portable Multifunction Device
US20120297348A1 (en) * 2011-05-18 2012-11-22 Santoro David T Control of a device using gestures
WO2013100480A1 (ko) * 2011-12-27 2013-07-04 주식회사 네오패드 스마트 기기에서의 메뉴 구성 방법 및 시스템

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108228275A (zh) * 2017-12-18 2018-06-29 广东欧珀移动通信有限公司 应用程序控制方法、装置、移动终端及计算机可读介质

Also Published As

Publication number Publication date
US20160266788A1 (en) 2016-09-15
KR102199460B1 (ko) 2021-01-06
KR20150057138A (ko) 2015-05-28
US10712933B2 (en) 2020-07-14

Similar Documents

Publication Publication Date Title
WO2015072803A1 (ko) 단말기 및 단말기의 제어 방법
WO2013058539A1 (en) Method and apparatus for providing search function in touch-sensitive device
WO2020180013A1 (en) Apparatus for vision and language-assisted smartphone task automation and method thereof
WO2017086652A1 (en) Electronic device having rollable display and method of controlling the same
WO2016093506A1 (ko) 이동 단말기 및 그 제어 방법
WO2011078540A2 (en) Mobile device and related control method for external output depending on user interaction based on image sensing module
WO2011053058A2 (en) Mobile device and method for providing user interface (ui) thereof
WO2013105826A1 (en) Method and apparatus for executing a user function using voice recognition
WO2014073825A1 (en) Portable device and control method thereof
WO2015064903A1 (en) Displaying messages in an electronic device
WO2013073908A1 (en) Apparatus with touch screen for preloading multiple applications and method of controlling the same
WO2015005605A1 (en) Remote operation of applications using received data
WO2011087204A2 (en) Digital signage apparatus and method using the same
WO2011102689A2 (en) Multilingual key input apparatus and method thereof
EP2872971A1 (en) User interface apparatus and method for user terminal
WO2016035935A1 (en) Display device and method of controlling therefor
WO2016080713A1 (ko) 음성제어 영상표시 장치 및 영상표시 장치의 음성제어 방법
WO2012153914A1 (en) Method and apparatus for providing graphic user interface having item deleting function
WO2013141464A1 (ko) 터치 기반의 입력제어 방법
WO2017148142A1 (zh) 桌面图标文件夹的名称切换方法、装置及电子设备
EP2891041A1 (en) User interface apparatus in a user terminal and method for supporting the same
WO2019039739A1 (en) DISPLAY APPARATUS AND METHOD FOR CONTROLLING THE SAME
WO2017200323A1 (ko) 사용자 데이터를 저장하는 전자 장치 및 그 방법
WO2019039866A1 (en) ELECTRONIC DEVICE AND METHOD OF CONTROLLING THE SAME
WO2021040180A1 (ko) 디스플레이장치 및 그 제어방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14861535

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14861535

Country of ref document: EP

Kind code of ref document: A1