WO2015026101A1 - 디스플레이 장치의 애플리케이션 실행 방법 및 그 디스플레이 장치 - Google Patents

디스플레이 장치의 애플리케이션 실행 방법 및 그 디스플레이 장치 Download PDF

Info

Publication number
WO2015026101A1
WO2015026101A1 PCT/KR2014/007563 KR2014007563W WO2015026101A1 WO 2015026101 A1 WO2015026101 A1 WO 2015026101A1 KR 2014007563 W KR2014007563 W KR 2014007563W WO 2015026101 A1 WO2015026101 A1 WO 2015026101A1
Authority
WO
WIPO (PCT)
Prior art keywords
application
button
touch screen
application execution
input
Prior art date
Application number
PCT/KR2014/007563
Other languages
English (en)
French (fr)
Inventor
박대욱
김영진
이재열
김태수
최정환
김강태
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Priority to EP21165217.7A priority Critical patent/EP3859501B1/en
Priority to EP14838041.3A priority patent/EP3037938A4/en
Priority to US14/912,530 priority patent/US10528222B2/en
Priority to CN201480058455.7A priority patent/CN105683894B/zh
Priority to KR1020167004569A priority patent/KR102210999B1/ko
Publication of WO2015026101A1 publication Critical patent/WO2015026101A1/ko
Priority to US16/721,069 priority patent/US11144177B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04803Split screen, i.e. subdividing the display area or the window area into separate subareas
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/22Details of telephonic subscriber devices including a touch pad, a touch sensor or a touch detector

Definitions

  • the present invention relates to a method of executing an application of a display device and a display device thereof, and more particularly, to a method of executing the at least one application using an execution window in which an application is executed and a display device thereof.
  • a mobile device eg, mobile phone, smartphone or tablet PC
  • a desktop computer or touch screen may have at least one display device.
  • the user may divide and use the screen of the display device according to the working environment.
  • the page up button or the page down button on the keyboard may be used to move up or down the web page.
  • the mouse cursor can be used to select a scroll bar on the side of the web page to move up or down the web page.
  • a mobile device has a relatively small screen size that can be output, and has a limitation on an input method.
  • Mobile devices have difficulty in splitting and using the screen.
  • various applications are provided in a mobile device to satisfy a consumer's desire.
  • the mobile device is manufactured in a portable size, there are limitations on the size of a display and a provided user interface (UI). Accordingly, there is a inconvenience for a user in executing a plurality of applications in a mobile device. For example, in a mobile device, an execution screen of an application is displayed in the entire area of the display to execute one application. Then, to execute another application, the other application must be executed after terminating the displayed application. In other words, in order to execute various applications in a mobile device, it is cumbersome to repeat execution and termination processes for each application.
  • An embodiment of the present invention provides an application execution method and a display apparatus for easily controlling a plurality of application execution windows while displaying a plurality of application execution windows on one display provided in the display device.
  • a method of executing an application by a display device including a touch screen includes displaying an application execution window on a plurality of areas included on the touch screen, and displaying a button on at least one boundary line that separates the plurality of areas.
  • the method may include receiving an input for selecting a button, and displaying a list of at least one application executed in a predetermined area among the plurality of areas on the predetermined area based on the input.
  • a user interface that executes a plurality of applications and easily controls an execution window of the plurality of applications may be provided to the user.
  • FIG. 1 is a block diagram illustrating a display device according to an exemplary embodiment.
  • 2A to 2K are conceptual views illustrating a method of displaying an application execution window, according to some embodiments.
  • 3A through 3F are conceptual diagrams of an activity stack corresponding to some embodiments.
  • FIG. 4 is a flowchart for describing a method of executing an application of a display apparatus, according to an exemplary embodiment.
  • 5A and 5B are conceptual views illustrating a method of controlling an area in which an application execution window is displayed by using a button according to some embodiments.
  • 6A to 6W are conceptual diagrams for describing a method of executing a plurality of applications, according to some embodiments.
  • FIGS 7A-7I are conceptual diagrams of an activity stack according to some other embodiments.
  • FIG. 8 is a flowchart illustrating a method of providing a user interface for executing an application by a display device, according to some embodiments.
  • FIG. 9 is a flowchart for describing a method of executing an application by a display device, according to another exemplary embodiment.
  • FIG. 10 is a structural diagram briefly illustrating a structure of a display apparatus according to an exemplary embodiment.
  • 11A to 11D are diagrams for describing a method of displaying a button, according to some embodiments.
  • FIG. 12 is a flowchart illustrating a process of controlling a display device to display an application execution window, according to some embodiments.
  • 13 to 23 are exemplary views illustrating a method of displaying an application execution window by a display device according to some embodiments.
  • 24 is a flowchart illustrating a process of displaying, by a display device, a user interface according to some embodiments.
  • 25 to 27 are diagrams illustrating a method of displaying, by a display device, a user interface, according to some embodiments.
  • FIG. 28 is a flowchart illustrating a process of displaying an application execution window by a display device according to some embodiments.
  • 29 to 33 are views illustrating a method of displaying an application execution window by a display device according to some embodiments.
  • 34 is a flowchart illustrating a process of providing additional functions using a button according to some embodiments.
  • 35 is a diagram illustrating a display device that provides an additional function by using a button, according to some embodiments.
  • a method of executing an application by a display device including a touch screen may include displaying an application execution window on a plurality of areas included on the touch screen, and on at least one boundary line separating the plurality of areas. Displaying a button on the screen, receiving an input for selecting the button, and displaying a list of at least one application executed in the predetermined area among the plurality of areas on the predetermined area based on the input. Can be.
  • the predetermined area may include an activation area that can be controlled by a user input.
  • the activation area may be the last area selected from the plurality of areas before receiving an input for selecting a button.
  • the method of executing an application may further include displaying an indicator indicating an activation area on a button.
  • the application execution method may further include receiving an input for selecting at least one of the applications included in the list and displaying the execution window of the selected application in the selected area.
  • displaying the list may include displaying a list of at least one icon corresponding to the at least one application, and the method of executing an application may drag an icon included in the list of icons.
  • the method may further include receiving a touch input, and displaying an execution window of an application corresponding to the icon in an area corresponding to a position where the touch input ends.
  • the displaying of the list may further include displaying an icon corresponding to an operation associated with an application execution window displayed on the predetermined region in the predetermined region.
  • the icon may include a capture button for capturing an application execution window displayed in a predetermined region, an end button for terminating an application execution window displayed in a predetermined region, and an execution window of an application displayed in a predetermined region. It may include at least one of the full screen button to be displayed on the entire area of the touch screen.
  • a method of executing an application by a display device including a touch screen may include displaying an application execution window on each of a plurality of areas included on the touch screen, and at least one boundary line separating the plurality of areas. Displaying a button on the display, displaying a list including at least one application execution icon on a portion of the touch screen, receiving an input for dragging an application execution icon included in the list, and dragging The method may include determining a new application execution region and displaying an execution window of an application corresponding to the application execution icon on the determined new application execution region based on the position where the input is terminated and the position of the button.
  • the determining of the new application execution region may include determining the new application execution region when the dragged input is included in the boundary region including at least one boundary line. And determining the execution region.
  • the control unit may control the touch screen to display at least one application list executed in an area of a predetermined area.
  • the predetermined area may include an activation area that can be controlled by a user input.
  • the activation area may be the last area selected from the plurality of areas before receiving an input for selecting a button.
  • the controller may control the touch screen to display an indicator indicating an activation area on a button.
  • the touch screen may receive an input for selecting at least one of the applications included in the list, and the controller may control the touch screen to display an execution window of the selected application in the selected area.
  • the touch screen displays a list of at least one icon corresponding to at least one application, receives a touch input of dragging an icon included in the list of icons, and the control unit touch input.
  • the touch screen may be controlled to display an execution window of an application corresponding to an icon in an area corresponding to the end position.
  • the touch screen may further display an icon corresponding to an operation associated with an application execution window displayed on the predetermined region on the predetermined region of the touch screen.
  • the icon may include a capture button for capturing an application execution window displayed in a predetermined region, an end button for terminating an application execution window displayed in a predetermined region, and an execution window of an application displayed in a predetermined region. It may include at least one of the full screen button displayed on the entire area of the touch screen.
  • Display an application execution window in each of the plurality of regions display a list including at least one application execution icon on a button and a touch screen on at least one boundary line separating the plurality of regions, and the application execution icons included in the list.
  • the new application execution region is determined based on the touch screen that receives the input for dragging and the end of the input for dragging and the position of the displayed button, and displays the execution window of the application corresponding to the application execution icon in the determined new application execution region. It may include a control unit for controlling the touch screen to display.
  • the controller may determine a new application execution region to include regions adjacent to the at least one boundary line. have.
  • a method of controlling a display device including a touch screen includes displaying a button on a touch screen in which a position is moved according to a user's touch input, and displaying the button according to a position displayed on the touch screen. Displaying a user interface for controlling the device on the touch screen and controlling the display device as a user input for the user interface displayed on the touch screen is received.
  • the user interface includes at least one layout button for determining a display method of an application execution window
  • the controlling of the display apparatus may include receiving a user input for selecting one of the at least one layout button. And displaying at least one application execution window based on the display method determined as determined.
  • the displaying of the user interface on the touch screen may include obtaining a coordinate value indicating a position of the button on the touch screen and an application execution window corresponding to the obtained coordinate value.
  • the method may include displaying a user interface corresponding to the application displayed on the application execution window corresponding to the coordinate value on the touch screen.
  • the application execution window corresponding to the obtained coordinate value may be an application execution window displayed in an area including the coordinate value.
  • the user interface may include an application list including at least one of an application running by the display device and an application installed on the display device, and the controlling of the display device may include: And executing the selected application according to the user input.
  • a display device receives a user's touch input, displays a button whose position is moved according to the touch input, and provides a user interface for controlling the display device according to the position where the button is displayed on the touch screen.
  • the display apparatus may include a control unit for controlling the display apparatus according to a received touch screen and a user input for a user interface displayed on the touch screen.
  • the user interface includes at least one layout button for determining a display method of an application execution window, and the controller is configured to display the display method as a user input for selecting one of the at least one layout button is received.
  • the touch screen may display at least one application execution window based on the determined display method.
  • the controller acquires a coordinate value indicating a position of the button on the touch screen, determines whether an application execution window corresponding to the obtained coordinate value exists, and the touch screen obtains the coordinate value obtained. And a user interface corresponding to the application displayed in the application execution window corresponding to the coordinate value, if the application execution window corresponding to the.
  • the application execution window corresponding to the obtained coordinate value may be an application execution window displayed in an area including the coordinate value.
  • the user interface may include an application list including at least one of an application running by the display apparatus and an application installed on the display apparatus, and the controller may be selected according to a user input from the application list. You can run the application.
  • a computer readable recording medium may store a program for executing the above-described method on a computer.
  • touch or “touch input” may include not only a direct contact but also a case in which the display device senses a user's body that is close to the display device (eg, within 2 cm). have.
  • drag refers to moving a point touched by the display apparatus while the user touches the display apparatus.
  • FIG. 1 is a block diagram illustrating a display apparatus according to an exemplary embodiment.
  • FIG. 1 is only a display device according to an exemplary embodiment, and the display device according to the present invention may include fewer or more components than those shown in FIG. 1.
  • the display apparatus 100 may be connected to an external device (not shown) using the mobile communication module 120, the sub communication module 130, and the connector 165.
  • the external device may include at least one of another device (not shown), a mobile phone (not shown), a smart phone (not shown), a tablet PC (not shown), and a server (not shown).
  • the display apparatus 100 includes a touch screen 190 and a touch screen controller 195.
  • the display apparatus 100 may include a controller 110, a mobile communication module 120, a sub communication module 130, a multimedia module 140, a camera module 150, a GPS module 155, and an input / output module ( 160, a sensor module 170, a storage unit 175, and a power supply unit 180.
  • the sub communication module 130 includes at least one of a wireless LAN module 131 and a short range communication module 132
  • the multimedia module 140 includes a broadcast communication module 141, an audio play module 142, and a video play module.
  • 143 may include at least one.
  • the camera module 150 includes at least one of the first camera 151 and the second camera 152, and the input / output module 160 includes a button 161, a microphone 162, a speaker 163, and vibrations. It may include at least one of the motor 164, the connector 165 and the keypad 166.
  • the controller 110 may store a signal or data input from the outside of the ROM 112 and the display apparatus 100, in which the CPU 111, a control program for controlling the display apparatus 100 is stored, or the display apparatus 100.
  • the RAM 113 may be used as a storage area for a task performed at.
  • the CPU 111 may include a plurality of processors such as single core, dual core, triple core, or quad core.
  • the CPU 111, the ROM 112, and the RAM 113 may be connected to each other through an internal bus.
  • the controller 110 may include a mobile communication module 120, a sub communication module 130, a multimedia module 140, a camera module 150, a GPS module 155, an input / output module 160, a sensor module 170, and a storage module.
  • the unit 175, the power supply unit 180, the touch screen 190, and the touch screen controller 195 may be controlled.
  • the mobile communication module 120 may allow the display apparatus 100 to be connected to an external device through mobile communication using at least one (one or more) antennas (not shown) under the control of the controller 110. .
  • the mobile communication module 120 may be connected to a mobile phone (not shown), a smartphone (not shown), a tablet PC (not shown), or another device (not shown) having a phone number input to the display device 100.
  • a wireless signal for transmitting a voice call, a video call, a text message (SMS) or a multimedia message (MMS) may be transmitted / received.
  • the sub communication module 130 may include at least one of the WLAN module 131 and the short range communication module 132.
  • the WLAN module 131 may be included, only the local area communication module 132 may be included, or both the WLAN module 131 and the local area communication module 132 may be included.
  • the WLAN module 131 may connect to the Internet at a place where a wireless access point (AP) (not shown) is installed under the control of the controller 110.
  • the WLAN module 131 may support a WLAN standard IEEE802.11x of the Institute of Electrical and Electronics Engineers (IEEE).
  • the short range communication module 132 may wirelessly perform short range communication between the display apparatus 100 and an image forming apparatus (not shown) under the control of the controller 110.
  • the short range communication method may include a Bluetooth, an infrared data association (IrDA), and a Zig-bee method.
  • the display apparatus 100 may include at least one of the mobile communication module 120, the wireless LAN module 131, and the short range communication module 132 according to performance.
  • the multimedia module 140 may include a broadcast communication module 141, an audio play module 142, or a video play module 143.
  • the broadcast communication module 141 broadcasts a broadcast signal (for example, a TV broadcast signal, a radio broadcast signal or a data broadcast signal) transmitted from a broadcast station through a broadcast communication antenna (not shown) under the control of the controller 110. Additional information (eg, an electric program guide (EPG) or an electric service guide (ESG)) may be received.
  • EPG electric program guide
  • ESG electric service guide
  • the audio reproduction module 142 may reproduce the digital audio file stored or received under the control of the controller 110.
  • the video play module 143 may play a digital video file stored or received under the control of the controller 110.
  • the video play module 143 may play a digital audio file.
  • the multimedia module 140 may include an audio play module 142 and a video play module 143 except for the broadcast communication module 141.
  • the audio playback module 142 or the video playback module 143 of the multimedia module 140 may be included in the controller 100.
  • the camera module 150 may include at least one of the first camera 151 and the second camera 152 for capturing a still image or a video under the control of the controller 110.
  • the first camera 151 or the second camera 152 may include an auxiliary light source (not shown) that provides the amount of light required for imaging.
  • the first camera 151 may be disposed on the front surface of the display apparatus 100, and the second camera 152 may be disposed on the rear surface of the display apparatus 100.
  • the first camera 151 and the second camera 152 may be disposed adjacent to each other (eg, larger than 1 cm and smaller than 8 cm) to capture a 3D still image or a 3D video.
  • the GPS module 155 receives radio waves from a plurality of GPS satellites (not shown) on the Earth's orbit, and uses a time of arrival from the GPS satellites (not shown) to the display apparatus 100. The position of the display apparatus 100 can be calculated.
  • the input / output module 160 may include at least one of a plurality of buttons 161, a microphone 162, a speaker 163, a vibration motor 164, a connector 165, and a keypad 166.
  • Button 161 may be formed on the front, side or rear of the housing of the display device 100, the power / lock button (not shown), volume button (not shown) menu button, home button, return It may include at least one of a button (back button) and the search button 161.
  • the microphone 162 may generate an electrical signal by receiving a voice or sound under the control of the controller 110.
  • the speaker 163 displays sound corresponding to various signals of the mobile communication module 120, the sub communication module 130, the multimedia module 140, or the camera module 150 under the control of the controller 110. ) Can be output to the outside.
  • the speaker 163 may output a sound corresponding to a function performed by the display apparatus 100.
  • One or more speakers 163 may be formed at appropriate positions or positions of the housing of the display apparatus 100.
  • the vibration motor 164 may convert an electrical signal into mechanical vibration under the control of the controller 110. For example, when the voice call is received from another device (not shown) in the vibration mode, the vibration motor 164 may operate. The vibration motor 164 may operate in response to a user's touch operation on the touch screen 190 and a continuous movement of a touch input on the touch screen 190.
  • the connector 165 may be used as an interface for connecting the display apparatus 100 and an external device (not shown) or a power source (not shown). Under the control of the controller 110, data stored in the storage unit 175 of the display apparatus 100 may be transmitted to an external device (not shown) or an external device (not shown) through a wired cable connected to the connector 165. You can receive data from. Power may be input from a power source (not shown) or charged with a battery (not shown) through a wired cable connected to the connector 165.
  • the keypad 166 may receive a key input from the user for the control of the display apparatus 100.
  • the keypad 166 includes a physical keypad (not shown) formed on the display device 100 or a virtual keypad (not shown) displayed on the touch screen 190. Physical capacities (not shown) formed in the display apparatus 100 may be excluded depending on the performance or structure of the display apparatus 100.
  • the sensor module 170 includes at least one sensor that detects a state of the display apparatus 100.
  • the sensor module 170 may include a proximity sensor that detects whether the user approaches the display device 100, an illuminance sensor (not shown), or a display device that detects an amount of light around the display device 100. It may include a motion sensor (not shown) that detects an operation of the display device 100 (eg, rotation of the display device 100, acceleration or vibration applied to the display device 100).
  • the sensor of the sensor module 170 may be added or deleted according to the performance of the display apparatus 100.
  • the storage unit 175 may control the mobile communication module 120, the sub communication module 130, the multimedia module 140, the camera module 150, the GPS module 155, and the input / output module under the control of the controller 110.
  • the input / output signal or data corresponding to the operation of the sensor module 170 and the touch screen 190 may be stored.
  • the storage unit 175 may store a control program and applications for controlling the display apparatus 100 or the controller 110.
  • the term “storage unit” may include a storage unit 175, a ROM 112 in the controller 110, a RAM 113, or a memory card (not shown) mounted in the display apparatus 100.
  • the storage unit may include a nonvolatile memory, a volatile memory, a hard disk drive (HDD), or a solid state drive (SSD).
  • the power supply unit 180 may supply power to at least one battery (not shown) disposed in the housing of the display apparatus 100 under the control of the controller 110. In addition, the power supply unit 180 may supply power input from an external power source (not shown) to each unit of the display apparatus 100 through a wired cable connected to the connector 165.
  • the touch screen 190 may output a user interface corresponding to various services to the user.
  • the touch screen 190 may transmit an analog signal corresponding to at least one touch input to the user interface to the touch screen controller 195.
  • the touch screen 190 may receive at least one touch input through a user's body (eg, a finger) or a touchable input means (eg, a stylus pen).
  • the touch screen 190 may receive continuous movement of at least one touch input.
  • the touch screen 190 may transmit an analog signal corresponding to continuous movement of the touch input to the touch screen controller 195.
  • the touch input is not limited to an input through contact between the touch screen 190 and the user's body or touchable input means, and a non-contact input (for example, the distance between the touch screen 190 and the body is 1 mm or less).
  • the detectable interval on the touch screen 190 may be changed according to the performance or structure of the display apparatus 100.
  • the touch screen 190 may be implemented by, for example, a resistive method, a capacitive method, an infrared method, or an ultrasonic wave method.
  • a resistive method for example, a resistive method, a capacitive method, an infrared method, or an ultrasonic wave method.
  • the present invention is not limited thereto.
  • the touch screen controller 195 may convert an analog signal received from the touch screen 190 into a digital signal (for example, X coordinates and Y coordinates) and transmit the converted analog signal to the controller 110.
  • the controller 110 may control the touch screen 190 by using a digital signal received from the touch screen controller 195.
  • the controller 110 may select an application execution icon (not shown) displayed on the touch screen 190 or execute an application in response to a touch input.
  • the touch screen controller 195 may be included in the touch screen 190 or the controller 110.
  • FIG. 2A to 2K are conceptual views illustrating a method of displaying an application execution window according to an embodiment of the present invention.
  • the button described as displayed on the display device herein is a separate concept that is different from the button 161 of FIG. 1.
  • the button displayed on the display device refers to an object displayed on the display device to provide a user interface.
  • the button may be implemented in various forms as well as the form shown in the drawings.
  • the shape of the button may be variously modified into a circle, an oval, a polygon or an arbitrary image.
  • the button may not have a fixed shape and may be modified differently according to the context of the device. For example, when the number of application execution windows displayed on the display device increases from four to five, the rectangular button may be changed to a pentagonal button.
  • the button is described as being displayed on the touch screen, but according to some embodiments, the button may be replaced with a meaning of a partial area set on the touch screen without being displayed on the touch screen. For example, even if a button is not displayed on the touch screen, if the user's touch input is received in an area corresponding to the button, the display device may determine that the user's touch input to the button is received.
  • the display device 200 may be implemented in various forms such as a TV or a medical data display device as well as the mobile device described above with reference to FIG. 1. As shown in FIG. 2A, the display apparatus 200 may set the plurality of regions 201 to 204 on the touch screen.
  • the region set by the display apparatus 200 is referred to as a first region 201, a second region 202, a third region 203, and a fourth region 204. do.
  • an area in which the first area 201 and the third area 203 are combined is referred to as a fifth area (not shown).
  • the region in which the second region 202 and the fourth region 204 are combined is referred to as a sixth region (not shown).
  • the region in which the first region 201 and the second region 202 are combined is referred to as a seventh region.
  • the sum of the third region 203 and the fourth region 204 is referred to as an eighth region.
  • the entire screen in which all of the first to fourth areas 201 to 204 are added is referred to as an F area.
  • the control unit may include a first boundary line 211 that divides the first area 201 and the second area 202, and a second boundary line that divides the third area 203 and the fourth area 204. 212, a third boundary line 213 that separates the first area 201 and the third area 204, and a fourth boundary line 214 that separates the second area 202 and the fourth area 204 from each other.
  • the first boundary line 211 and the second boundary line 212 may form one line segment.
  • the third boundary line 213 and the fourth boundary line 214 may form one line segment.
  • the first boundary line 211 to the fourth boundary line 214 are not necessarily displayed, but may be lines virtually set in the display apparatus 200.
  • the controller may set the first area 201 to the fourth area 204 so as not to overlap each other. For example, as illustrated in FIG. 2A, the controller (not shown) may set the first area 201 on the upper left side. The controller (not shown) may set the second region 202 on the upper right side. The controller (not shown) may set the third region 203 on the lower left side. The controller (not shown) may set the fourth region 204 on the lower right side.
  • the controller (not shown) may set the first boundary line 211 and the second boundary line 212 to divide the screen from side to side.
  • the third boundary line 213 and the fourth boundary line 214 may be set to divide the screen up and down.
  • the touch screen may display the button 210 at a point where the first boundary line 211, the second boundary line 212, the third boundary line 213, and the fourth boundary line 214 meet.
  • the button 210 may be a function key for changing the size of an area displaying an execution window of an application or entering an operation mode for controlling the execution window.
  • the controller may control the touch screen to display an execution window of the application in each of the plurality of regions.
  • the controller may control the touch screen to display an execution window of an application in each of the plurality of areas 201 to 204 as shown in FIGS. 2B to 2K.
  • the application execution window refers to a window displaying an execution screen of an application. That is, the "execution window” may mean a kind of frame displaying an execution screen of a corresponding application.
  • Objects related to the application may be displayed on the execution screen of the application.
  • the object may be implemented in various forms such as text, figure, icon, button, check box, photo, video, web, map, and the like.
  • a predetermined function or event may be performed on the object.
  • the object may be referred to as a view, depending on the operating system.
  • At least one of a capture button for capturing the execution window for controlling the display of the execution window, a minimize button for minimizing the execution window, a full screen button for maximizing the display of the execution window, and an exit button for exiting the execution window may be displayed.
  • a capture button for capturing the execution window for controlling the display of the execution window For example, at least one of a capture button for capturing the execution window for controlling the display of the execution window, a minimize button for minimizing the execution window, a full screen button for maximizing the display of the execution window, and an exit button for exiting the execution window may be displayed.
  • the controller may control the touch screen to display icons 231 to 237 corresponding to an executable application on the screen.
  • the display apparatus 200 may execute the A application.
  • the controller may control the touch screen so that the execution window 230 of the A application is displayed in the first area 201.
  • the controller may control the touch screen so that icons 231 to 237 corresponding to the executable application are displayed at an arbitrary position of the touch screen.
  • the display apparatus 200 displays the first area 201 to the first.
  • An execution window of an application corresponding to the selected icon may be displayed in one of the fourth areas 204.
  • the controller may display an indicator 221 indicating the activation area on the displayed button 220.
  • the activation area may mean an area in which an execution window of an application which is executed last or last selected by a user is displayed.
  • An application manipulated by a user may be referred to as an application selected by the user.
  • the indicator 221 may be implemented in various ways to indicate the location of the activation area. For example, at least a portion of the application execution window of the activation area may be displayed in an area where the application execution window and the button 220 of the activation area overlap. Alternatively, an arrow indicating the direction of the activation area may be displayed on the button 220.
  • the activation area may be determined using an activity stack. You can place the activity stack on top of the application that was run last or last selected by the user.
  • the display apparatus 200 may determine an area for displaying an execution window of an application corresponding to the stack disposed at the top as an activation area.
  • the activation area may be referred to as a focused area.
  • the indicator 221 may be displayed to indicate the first area 201.
  • 3A is a conceptual diagram of an activity stack managed by the display apparatus 200.
  • the controller (not shown) may generate and manage the A application stack 301 on the activity stack in response to the execution of the A application.
  • the user 1 may touch an icon corresponding to the B application.
  • the controller controls the touch screen to display the execution window 240 of the B application in the second area 202 as shown in FIG. 2D.
  • the controller may determine the area in which the execution window is displayed in a preset order. For example, the controller (not shown) may determine the new application execution region in which the execution window of the new application is displayed in the order of the second region 202, the third region 203, and the fourth region 204.
  • the above-described order is merely an example and may be changed according to embodiments.
  • the indicator 221 may be displayed to indicate the second area 202.
  • 3B is a conceptual diagram of an activity stack corresponding to FIG. 2D.
  • the controller (not shown) generates the B application stack 302 on the activity stack in response to the execution of the B application. Meanwhile, the controller (not shown) may arrange the stack 302 of the most recently executed B application above the stack 301 of the A application.
  • the user 1 may touch an icon 233 corresponding to the C application.
  • the controller may display the execution window 250 for executing the C application on the fourth area 204 as shown in FIG. 2F. Can be. As the execution window 250 for executing the C application is displayed on the fourth area 204, the indicator 221 may be displayed to indicate the fourth area 204.
  • 3C is a conceptual diagram of an activity stack corresponding to FIG. 2F.
  • the controller (not shown) generates the C application stack 303 on the activity stack as the C application executes.
  • the controller (not shown) arranges the stack 303 of the most recently executed C application at the top.
  • the user 1 may touch an icon 234 corresponding to the D application.
  • the controller (not shown) controls the touch screen such that an execution window 260 for executing the D application is displayed on the third area 203 as shown in FIG. 2H. can do.
  • the indicator 221 may be displayed to indicate the third area 203 on the button 220.
  • 3D is a conceptual diagram of an activity stack corresponding to FIG. 2H.
  • the controller (not shown) may generate the D application stack 304 on the activity stack as the D application is executed.
  • the control unit (not shown) places the stack 304 of the most recently executed D application at the top.
  • FIG. 2I is a conceptual diagram of an activity stack corresponding to FIG. 2I.
  • the controller (not shown) may arrange the stack 302 of the B application at the top.
  • the controller may determine the second area 202 as the active area. Accordingly, the indicator 221 indicating the second area 202 may be displayed on the button 220.
  • the user 1 may touch an icon 235 corresponding to the E application.
  • the controller may display the touch screen such that the execution window 270 of the E application is displayed on the fourth area 204 as shown in FIG. 2K. Can be controlled.
  • the controller may refer to the activity stack of FIG. 3E when there is no empty area.
  • the controller may select a stack disposed at the lowest level among the activity stacks.
  • the display apparatus 200 may display the execution window 270 of the E application on the fourth area 250 in which the execution window of the C application disposed at the lowermost level is displayed.
  • 3F is a conceptual diagram of an activity stack corresponding to FIG. 2K.
  • the controller (not shown) may generate the E application stack 305 on the activity stack as the E application is executed. Meanwhile, the controller (not shown) may arrange the stack 305 of the E application at the top.
  • FIG. 4 is a flowchart illustrating an application execution method of a display apparatus according to an exemplary embodiment.
  • the display device may execute a plurality of applications (S410).
  • the application may be executed as an input for touching an icon corresponding to the application is received.
  • the display device may check a layout for arranging an execution window of the application (S420).
  • Layout is a concept that defines the area where the execution window can be placed.
  • the layout may have various forms such as a top and bottom two split layout, a left and right two split layout, a three split layout, and a four split layout.
  • the display device may determine a position to display the execution window of the application according to the checked layout (S430). For example, if the layout is a left and right two-part layout divided into a fifth area and a sixth area, the display device arranges the execution window of the web browser and the execution window of the phone book application in the fifth area, and the sixth area. You can place the execution window of the video playback application.
  • the layout is a left and right two-part layout divided into a fifth area and a sixth area
  • the display device arranges the execution window of the web browser and the execution window of the phone book application in the fifth area, and the sixth area. You can place the execution window of the video playback application.
  • the display device may display an execution window based on the order of applications (S440). For example, if the execution window of the web browser and the execution window of the phone book application are placed in the fifth area, the activity stack is referred to as the fifth execution window of the execution window of the web browser and the execution window of the phone book application. Can be displayed in the area.
  • 5A and 5B are conceptual views illustrating a method of controlling an area in which an application execution window is displayed using a button according to an embodiment of the present invention.
  • the display apparatus 500 includes a first region 501, a second region 502, a third region 503, a fourth region 504, a first boundary line 505, and a second boundary line. 507, the third boundary line 506, and the fourth boundary line 508 can be set. However, the present invention is not limited thereto, and the display apparatus 500 may determine an area and a boundary line by various methods.
  • the display apparatus 500 may display the button 220 on at least one boundary line.
  • each display line 500 may have a boundary line.
  • the button 220 may be displayed at the meeting point.
  • the display apparatus 500 sets the fifth region (not shown), the sixth region (not shown), the first boundary line 505, and the second boundary line 507, the display apparatus ( 500 may display the button 220 on the first boundary line 505 or the second boundary line 507.
  • the display apparatus 500 may move the button 220 according to the position where the touch input is input. have.
  • the display apparatus 500 may change the size and position of an area and a boundary line for displaying an execution window of an application.
  • 6A through 6W are conceptual views illustrating a method of executing a plurality of applications according to an embodiment of the present invention.
  • the display apparatus 600 may display a list 610 of at least one application in a state where an A application is executed.
  • the list of applications represents the applications that can be executed.
  • icons 611-617 corresponding to applications that can be executed may be a list of applications.
  • FIG. 7A is a conceptual diagram of an activity stack corresponding to FIG. 6A.
  • the controller (not shown) generates a stack of the A application as shown in FIG. 7A.
  • the user 10 may manipulate the display apparatus 600 to additionally execute the B application. For example, after touching the icon 612 corresponding to the B application as shown in FIG. 7B, the user may drag the icon 612 to the sixth area 623 as shown in FIG. 7C.
  • the display apparatus 600 executes a B application corresponding to the selected icon.
  • the display apparatus 600 arranges the A application, which was disposed in the F region, in the fifth region 619.
  • the display device 600 additionally places the executed B application in the sixth area 623.
  • the execution window 620 of the A application is displayed in the fifth area 619, and the execution window 630 of the B application is displayed in the sixth area 623.
  • the display device 600 may display a button 622 on the boundary line between the fifth area 619 and the sixth area 623.
  • an indicator 621 indicating the execution window 630 of the last executed application B may be displayed.
  • the indicator 621 may indicate an area in which an execution window of an application disposed at the top of the activity stack is displayed.
  • FIG. 7B is a conceptual diagram of an activity stack corresponding to FIG. 6D.
  • the stack of the A application displayed in the F region is changed to the one displayed in the fifth region 619.
  • an activity stack of the B application is generated, and the B application is disposed in the sixth area 623.
  • the activity stack of the B application is at the top.
  • the user 10 may change the position of the button while the button 622 is displayed. As shown in FIGS. 5A and 5B, as the position of the button is changed, the size of an area in which the execution window of the application is displayed may be changed.
  • the user 10 may touch the icon 613 corresponding to the C application, and then drag the icon 613 to the fourth region 627 as shown in FIG. 6G.
  • the size of the fourth area 627 may be determined according to the position of the button 622.
  • the display apparatus 600 may execute the C application. As illustrated in FIG. 6H, the display apparatus 600 may display an execution window 640 of the C application on the fourth region 627. In this case, the display apparatus 600 may display an indicator 621 indicating an activation area in which the execution window 640 of the C application is displayed on the button 622.
  • FIG. 7C is a conceptual diagram of an activity stack corresponding to FIG. 6H.
  • the controller (not shown) creates a stack of C applications as the C applications are executed.
  • the C application is allocated to the fourth area 627.
  • FIG. 6E as the area where the execution window 630 of the B application is displayed is divided, the B application is allocated to the second area.
  • the user 10 may adjust the size of an area where the execution windows 620 to 640 of each application are displayed according to an input for moving the button 622.
  • the user 10 touches the icon 614 corresponding to the D application, and then drags the icon 614 corresponding to the D application to the third area 614 as shown in FIG. 6K. can do.
  • the display apparatus 600 may execute the D application. As illustrated in FIG. 6L, the display apparatus 600 may display an execution window 650 of the D application on the third region 631. In this case, the display apparatus 600 may display an indicator 621 indicating an activation area in which the execution window 650 of the D application is displayed on the button 622.
  • FIG. 7D is a conceptual diagram of an activity stack corresponding to FIG. 6L.
  • the controller (not shown) generates a stack of D applications as the D applications are executed.
  • the D application is allocated to the third area 631.
  • the A application is allocated to the first area.
  • the user 10 may touch the icon 615 corresponding to the E application, and then drag the icon 615 corresponding to the E application to the boundary area 659.
  • the boundary area 659 is set by the display apparatus 600 and is an area including the boundary line 680.
  • the display apparatus 600 may execute the E application. As illustrated in FIG. 6N, the display apparatus 600 may arrange the execution window 660 of the E application in the seventh region including the first region and the second region adjacent to the boundary line 680 included in the boundary region. In this case, the display apparatus 600 may display an indicator 621 indicating an activation area in which the execution window 660 of the E application is displayed on the button 622.
  • the controller (not shown) may generate a stack of E applications.
  • the E application is arranged in the seventh area, and the A application and the B application displayed in the first area and the second area included in the seventh area are arranged in the seventh area.
  • the user 10 may touch the icon 616 corresponding to the F application, and then drag the icon 616 corresponding to the F application to the second area 661.
  • the display apparatus 600 may execute the F application. As illustrated in FIG. 6P, the display apparatus 600 may display an execution window 670 of the F application on the second area 661.
  • the controller (not shown) may generate a stack of the F application disposed in the second region as in the seventh region.
  • the A application, the B application, and the E application disposed in the seventh area may be disposed in the first area as the seventh area is divided.
  • the touch screen may receive an input for selecting the execution window 660 of the E application from the user 10.
  • the controller (not shown) may arrange the stack of the E application as the highest as illustrated in FIG. 7G.
  • the display apparatus 600 may display an indicator 621 indicating a position displayed on the execution window 660 of the E application on the button 622.
  • the display apparatus 600 may receive an input for selecting the button 622 from the user 10. For example, the user 10 may touch the button 622. As the input for selecting the button 622 is received, the display apparatus 600 may display a list 611, 612, and 615 of applications arranged in the first area, which is the activated area. That is, with reference to the activity stack of FIG. 7G, icons corresponding to the A application, the B application, and the E application disposed in the area 1 may be displayed in the first area.
  • the display apparatus 600 may further display icons 691, 692, and 693 corresponding to an operation associated with an execution window of an application displayed in the first area.
  • the display window 600 may display the execution window 620 of the application A in the first area as shown in FIG. 6S. Can be.
  • FIG. 7H is a conceptual diagram of an activity stack corresponding to FIG. 6S.
  • the controller may arrange the stack of the A application at the top.
  • a list 611, 612, and 615 of applications arranged in the first area, which is an activated area, may be displayed.
  • an input for dragging an icon 612 corresponding to the B application from the user 10 to the area where the execution window 640 of the C application is displayed may be received.
  • the display apparatus 600 displays the execution window 630 of the B application.
  • the display apparatus 600 may display an indicator 621 indicating a position where the execution window 630 of the B application is displayed on the button 622.
  • FIG. 7I is a conceptual diagram of an activity stack corresponding to FIG. 6U.
  • the controller (not shown) updates the area in which the B application is placed to the fourth area, and places the stack of the B application at the top. .
  • icons 691, 692, and 693 corresponding to an operation associated with an execution window of an application displayed in the first area, which is an activated area may be further displayed.
  • An operation related to an execution window of the application may be to perform various additional functions on the application execution window.
  • an icon corresponding to an operation related to an execution window may include an end button 691 for terminating the execution window, a full screen button 692 for displaying the execution window on the entire area of the touch screen, and a capture button for capturing the execution window. It may include at least one of (693).
  • the present invention is not limited to this example.
  • the control unit when an input for selecting the end button 691 is received from the user 10, the control unit (not shown) may display an A application as shown in (b) of FIG. 6V. You can exit the Run window.
  • 7J is a conceptual diagram of an activity stack corresponding to FIG. 6V. As the execution window of the A application is terminated, the stack of the A application can be deleted.
  • the display apparatus 600 may display (b) of FIG. 6W.
  • the execution window 660 of the A application displayed on the activated area may be displayed on the entire area of the touch screen.
  • the display apparatus 600 may capture the activated execution window 660.
  • FIG. 8 is a flowchart illustrating a method of providing a user interface for executing an application by a display device according to an exemplary embodiment.
  • the display device may display an application execution window on each of a plurality of areas included on the touch screen (S810).
  • the display device may display a button on at least one boundary line that divides the plurality of areas.
  • the display device may display an indicator indicating an activation area on the button.
  • the activation area may mean the last selected area of the plurality of areas.
  • the activation area means an area in which an execution window in a state that can be controlled by a user input is displayed.
  • the display device may receive an input for selecting a button (S830).
  • the display device may display a list of applications in a predetermined area as an input for selecting a button is received (S840).
  • the predetermined area may be an activation area.
  • the list of applications may be a list of at least one icon corresponding to the at least one application.
  • the display device may display an execution window of the selected application in the selected area.
  • the display device may display an execution window of an application corresponding to the icon in the area where the icon is dragged.
  • the display device may further display an icon corresponding to an operation associated with an application execution window displayed in a predetermined region.
  • An icon corresponding to an operation associated with an application execution window displayed in a predetermined area includes a capture button for capturing an application execution window displayed in a predetermined area, an end button for terminating an application execution window displayed in a predetermined area, and an application displayed in the predetermined area. It may include at least one of a full screen button for displaying an execution window on the entire area of the touch screen.
  • FIG. 9 is a flowchart illustrating a method of executing an application by a display device according to another embodiment of the present invention.
  • the display device may display an application execution window on each of a plurality of areas included on the touch screen (S910).
  • the display apparatus may display a button on at least one boundary line that divides the plurality of areas.
  • the display device may display a list including at least one application execution icon on a partial area of the touch screen (S930).
  • the display device may determine a new application execution region based on the position where the application execution icon is dragged and the position of the button (S940).
  • the new application execution region refers to an area in which an execution window of an additionally executed application is displayed.
  • the new application execution region may be determined to include regions adjacent to the at least one boundary line.
  • the display device may display an execution window of the application in the determined new application execution region (S950).
  • FIG. 10 is a structural diagram briefly illustrating a structure of a display apparatus according to an exemplary embodiment of the present invention.
  • the display apparatus 1000 may display an application execution window on each of a plurality of regions, display a button on at least one boundary line that divides the plurality of regions, and receive an input for selecting the button. Based on the touch screen 1010 and the received input, it may include a control unit 1020 for controlling the touch screen to display a list of at least one application executed in a predetermined area of the plurality of areas in the predetermined area. .
  • the predetermined area includes an activation area that can be controlled by user input.
  • the activation area may be a last selected area of the plurality of areas.
  • controller 1020 may control the touch screen to display an indicator indicating the activation area on a button.
  • 11A to 11D are diagrams for describing a method of displaying a button according to an embodiment of the present invention.
  • the display device 1100 may display a button 1122 on a boundary line that divides areas in which execution windows of a plurality of applications are displayed.
  • the display device 1100 may set the alignment line 1120 according to a layout displaying an application execution window.
  • an edge of the touch screen may also be further included in the alignment line.
  • the display device 1100 may further set the alignment area 1110.
  • the alignment line 1120 may be included in the alignment area 1110.
  • the alignment line 1120 and the alignment area 1110 may be determined based on the number and location of execution windows of an application displayed on the touch screen. That is, when the layout is a top-down 2-division layout, left-right 2-division layout, 3-division layout, 4-division layout, or the like, an alignment line 1120 and an alignment region 1110 may be set according to each layout.
  • the display apparatus 1100 when the display apparatus 1100 receives an input for moving the button 1122 into the alignment area 1110 through the touch screen, the display device 1100 arranges the closest distance from the last position where the button 1122 is moved. Button 1122 can be moved over line 1120.
  • the display device 1100 may determine an area in which the execution window of the application is displayed based on the position of the button 1122 moved on the alignment line 1120. Accordingly, the display device 1100 may arrange the area in which the execution window of the application is displayed.
  • the display apparatus 1100 may set an alignment point 1130 at a preset point on the alignment line 1120.
  • the display apparatus 1100 receives a predetermined input (for example, an input of touching the button twice in succession) with respect to the button 1122, the display device 1100 arranges the button 1122 as illustrated in (b) of FIG. 11C. Move to 1130.
  • animation using the function illustrated in FIG. 11D may be applied. That is, when the button 1122 moves to the alignment line 1120 or the alignment point 1130, after the button 1122 passes the alignment line 1120 or the alignment point 1130, the alignment line 1120 or alignment again. May move to point 1130.
  • FIG. 12 is a flowchart illustrating a process of controlling a display device to display an application execution window, according to some embodiments.
  • the display device may display a floating button on the touch screen (S1201).
  • the floating button is displayed above the content displayed by the display device (for example, an application execution window) and may mean an object whose position is moved according to a user's input.
  • the floating button may be a translucent icon whose position is moved as a drag input is received from a user.
  • the display device may display a user interface for controlling the display device on the touch screen according to the position where the floating button is displayed.
  • the display device may display a user interface including a layout button around the floating button (S1202).
  • the layout button may refer to an object that determines how to display an application execution window.
  • the display method may mean a display mode for displaying an application execution window.
  • the display mode is a window mode for displaying an application execution window in each of the areas 1210, 1220, and 1230 set for the touch screen as shown in FIG. 13, as shown in FIG. 19.
  • a partition mode for displaying an application execution window on each of the divided regions of the touch screen, and a tap mode for displaying a tab 2000 corresponding to each application as illustrated in FIG. 21 It may be any one, but is not limited thereto.
  • the display device may select a layout button based on the user input.
  • the user input may be a touch input for a layout button displayed on the touch screen.
  • the display device may display an execution window of the application on the touch screen according to the selected layout button (S1204).
  • 13 to 23 are exemplary views illustrating a method of displaying an application execution window by a display device according to some embodiments.
  • the display apparatus 1200 may display a button 220 on a touch screen.
  • the button 220 may be a floating button.
  • the display device 1200 may display at least one application execution window.
  • the display apparatus 1200 may display an application execution window in each of the areas 1210, 1220, and 1230 set for the touch screen.
  • 13 to 18 illustrate examples in which the display device displays an application execution window when the display method is the window mode.
  • the position where the button 220 is displayed may change according to a user's touch input.
  • the display apparatus 1200 may receive a drag input starting from a position where the button 220 is displayed from the user 10 through the touch screen.
  • the display device may display the button 220 at the position where the drag input is terminated.
  • the drag input is merely an example of a touch input for explaining an embodiment and may be replaced by another type of touch input.
  • the button 220 may be displayed in a transparent or translucent manner so that the user can see the application execution screen to be displayed in the area where the button 220 is located.
  • the display apparatus 1200 may receive a user input for the user 10 to select the button 220.
  • the display apparatus 1200 may receive a touch input for a location where the button 220 is displayed.
  • the display apparatus 1200 may display the user interface 1600 around the button 220.
  • the user interface 1600 may include a Graphic User Interface (GUI) object (eg, an icon) for the user 10 to control the display apparatus 1200.
  • GUI Graphic User Interface
  • the layout button may refer to an object that determines how to display an application execution window.
  • the display method may mean a display mode for displaying an application execution window.
  • the display mode is a window mode for displaying an application execution window in each of the areas 1210, 1220, and 1230 set for the touch screen as shown in FIG. 13, as shown in FIG. 19.
  • a partition mode for displaying an application execution window on each of the divided regions of the touch screen, and a tap mode for displaying a tab 2000 corresponding to each application as illustrated in FIG. 21 It may be any one, but is not limited thereto.
  • the display apparatus 1200 may display the entire area of the touch screen in a plurality of areas. Can be divided into The display device 1200 may display application execution windows in each of the divided regions. Here, as shown in FIG. 19, the display device may divide the entire area of the touch screen based on the position of the button 220.
  • the display apparatus 1200 may select an application execution window.
  • a tap can be displayed.
  • the display apparatus 1200 may display a tab for selecting an application execution window on the touch screen.
  • the display apparatus 1200 may display an application execution window corresponding to the selected tab through the touch screen.
  • the display apparatus 1200 may execute an operation according to the received user input and display the button 220 on the edge of the touch screen. Can be. As shown in FIG. 21, by moving the button 220 to the edge of the touch screen, the button 220 may be prevented from covering the application execution screen.
  • 22 and 23 are exemplary views illustrating a method of displaying an application execution window by a display device according to some embodiments.
  • the display device 1200 may display an application execution icon near the button.
  • the application execution icon may correspond to an application being executed or an application installed in the display device 1200, respectively.
  • the display apparatus 1200 may display application execution icons 2101, 2102, 2103, 2104, and 2105.
  • the display apparatus 1200 may display an application execution window corresponding to the application execution icon. For example, as shown in FIG. 23, the user 10 may drag the application execution icon 2105 corresponding to the E application in one direction 2200. When a touch input for dragging the application execution icon 2105 is received, the display apparatus 1200 may display the execution window 2210 of the E application from an edge 2201 positioned in the opposite direction of the drag input.
  • 24 is a flowchart illustrating a process of displaying, by a display device, a user interface according to some embodiments.
  • the display device may display a floating button on the touch screen (S2410).
  • the floating button is displayed above the content displayed by the display device (for example, an application execution window) and may mean an object whose position is moved according to a user's input.
  • the floating button may be a translucent icon whose position is moved as a drag input is received from a user.
  • the display device may acquire a coordinate value indicating at which position on the touch screen the floating button is displayed (S2420). For example, the display device may acquire a coordinate value indicating the position of the center point of the floating button.
  • the present invention is not limited thereto, and the method of obtaining the coordinate value by the display apparatus may vary in various embodiments.
  • the display device may determine whether an application execution window corresponding to the coordinate value obtained in operation S2420 exists (S2430).
  • the display device may display a basic user interface in operation S2440.
  • 25 is a diagram illustrating a display device 2500 displaying a basic user interface, according to some embodiments.
  • the display apparatus 2500 may display a basic user interface around the button 220.
  • the display apparatus 2500 may display a basic user interface including a home button 2511, a power button 2512, a search button 2513, and the like around the button (@ 20).
  • FIG. 25 is a diagram illustrating a display device 2500 receiving an input for dragging a button 220, according to some embodiments.
  • the user 10 drags the button 220 shown on the touch screen of the display device 2500 to an area 2613 corresponding to the A application 2611 and the B application 2612. Can receive a button.
  • a user interface corresponding to an application located at the top of the activity stack among the plurality of applications may be displayed. .
  • FIG. 27 is an exemplary diagram illustrating a display device displaying a user interface corresponding to an application corresponding to the coordinate value of the button 220, according to some embodiments.
  • the button 220 is located in an area 2613 corresponding to the A application 2611 and the B application 2612, the display device 2500 is located at the top of the activity stack than the B application 2612. ) Can be displayed.
  • the display device 220 may display a user interface including a bookmark button 2521, a refresh button 2522, a share button 2523, and the like. .
  • FIG. 28 is a flowchart illustrating a process of displaying an application execution window by a display device according to some embodiments.
  • the display device may display a floating button on the touch screen (S2810).
  • the display device may receive a touch input with respect to the floating button (S2820).
  • the display device may receive an input of dragging the floating button.
  • the display device may change the size of the application execution window (S2840).
  • 29 to 33 are views illustrating a method of displaying an application execution window by a display device according to some embodiments.
  • the display device 2900 may receive a touch input of the user 10 with respect to the button 220 located in the control region 2910 while the execution screen of the A application is displayed on the touch screen.
  • the touch input may be an input of dragging the button 220.
  • the control area 2910 may be part of an area where an execution screen of the A application is displayed.
  • the display device 2900 displays the execution screen 3010 of the reduced A application as shown in FIG. 30.
  • the execution screen 3020 of the B application may be displayed in an area where the execution screen 3010 of the A application is not displayed.
  • the button 220 positioned in the area where the execution screen 3010 of the A application is displayed on the display device 2900.
  • the touch input of the user 10 may be received.
  • an area where the execution screen 3010 of the A application is displayed may be a control area.
  • the display device 2900 when a touch input of the user 10 dragging the button 220 is received, the display device 2900 according to some embodiments may display the A application execution screen 3210 on the entire touch screen. Can be.
  • the display device 2900 may display an animation in which the A application execution screen 3310 is enlarged in the first direction 3311 as illustrated in FIG. 33.
  • the B application execution screen 3320 may display an animation of moving in the second direction 3321.
  • 34 is a flowchart illustrating a process of providing additional functions using a button according to some embodiments.
  • 35 is a diagram illustrating a display device that provides an additional function by using a button, according to some embodiments.
  • the display device may display a floating button on the touch screen (S3410).
  • the display device may receive a touch input for a floating button (S3420).
  • the display device may receive an input of double touching the floating button.
  • the double touch may mean an input of touching the button twice within a preset time.
  • the display device may display an image in which the content displayed at the location of the floating button is enlarged around the button (S2840). ).
  • the display apparatus 3500 may display an image 3510 in which content is enlarged around the button 220.
  • the content may mean information displayed on the touch screen such as an image or a video.
  • Computer readable media can be any available media that can be accessed by a computer and includes both volatile media such as RAM and nonvolatile media such as ROM, removable and non-removable media.
  • Computer readable media may include both computer storage media and communication media.
  • Computer storage media includes both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data.
  • Communication media typically includes computer readable instructions, data structures, program modules, or other data in a modulated data signal such as a carrier wave, or other transmission mechanism, and includes any information delivery media.
  • the computer storage medium may be implemented with a ROM, RAM, flash memory, CD, DVD, magnetic disk or magnetic tape.
  • a program for executing a step of receiving an input for selecting a button and displaying a list of at least one application executed in a predetermined area among the plurality of areas in the predetermined area based on the input. have.

Abstract

터치스크린을 포함하는 디스플레이 장치가 적어도 하나의 애플리케이션을 실행하는 방법이 개시된다. 본 발명에 따른 애플리케이션 실행 방법은 터치스크린 상에 포함된 복수의 영역 각각에 애플리케이션 실행 창을 표시하는 단계와, 복수의 영역을 구분하는 적어도 하나의 경계선 상에 버튼을 표시하는 단계와, 버튼을 선택하는 입력을 수신하는 단계 및 수신된 입력에 기초하여, 복수의 영역 중 소정의 영역에서 실행되는 적어도 하나의 애플리케이션의 목록을 소정의 영역에 표시하는 단계를 포함할 수 있다.

Description

디스플레이 장치의 애플리케이션 실행 방법 및 그 디스플레이 장치
본 발명은 디스플레이 장치의 애플리케이션 실행 방법 및 그 디스플레이 장치에 관한 것으로, 보다 상세하게는 디스플레이 장치가 애플리케이션이 실행되는 실행 창을 이용하여 적어도 하나의 애플리케이션을 실행하는 방법 및 그 디스플레이 장치에 관한 것이다.
데스크톱 컴퓨터 또는 터치스크린을 사용하는 모바일 장치(예를 들어, 휴대폰, 스마트폰 또는 태블릿 PC)는 적어도 하나의 디스플레이 장치를 가질 수 있다.
데스크톱 컴퓨터의 경우, 사용자는 작업 환경에 따라 디스플레이 장치의 화면을 분할하여 사용할 수 있다. 웹 브라우저가 실행되는 경우, 키보드에 있는 페이지 업(page up) 버튼 또는 페이지 다운(page down) 버튼을 이용하여 웹 페이지의 위 방향 또는 아래 방향으로 이동할 수 있다. 키보드 대신 마우스를 이용하는 경우, 마우스의 커서로 웹 페이지의 측면에 있는 스크롤 바(scroll bar)를 선택하여 웹 페이지의 위 방향 또는 아래 방향으로 이동할 수 있다.
이에 비해, 모바일 장치는 상대적으로 출력할 수 있는 화면의 크기가 작고, 입력 방법에 제한이 있다. 모바일 장치는 화면을 분할하여 이용하는데 어려움이 있다.
또한, 고성능의 하드웨어가 소형화됨에 따라서, 모바일 장치에서도 다양한 애플리케이션들이 실행될 수 있다. 제조사에 의해 모바일 장치에 설치되는 기본 애플리케이션들과, 일반 이용자들에 의해 개발된 다양한 애플리케이션들이 모바일 장치에서 실행될 수 있다.
이와 같이, 소비자의 욕구를 충족시키기 위한 다양한 애플리케이션들이 모바일 장치에 제공되고 있으나, 모바일 장치는 휴대 가능한 크기로 제작되므로, 디스플레이의 크기 및 제공되는 사용자 인터페이스(User Interface; UI)에 제한이 있다. 따라서, 모바일 장치에서는 복수의 애플리케이션을 실행하는데 사용자의 불편함이 있다. 예를 들어, 모바일 장치에서는 하나의 애플리케이션을 실행하기 위하여 디스플레이의 전체 영역에 애플리케이션의 실행 화면이 표시된다. 이후, 다른 애플리케이션을 실행하기 위하여, 표시된 애플리케이션을 종료시킨 이후에 다른 애플리케이션을 실행하여야 한다. 즉, 모바일 장치에서는 여러 가지 애플리케이션들을 실행시키기 위해서는 각각의 애플리케이션에 대한 실행 및 종료 과정들을 반복해야 하는 번거로움이 있다.
이에 따라, 하나의 디스플레이 상에 복수 개의 애플리케이션 실행 창을 표시하는 기술 개발이 필요하다. 또한, 복수 개의 애플리케이션 실행 창을 실행시키면서, 복수 개의 실행 창을 사용자가 원하는 바에 따라 제어하기 위한 사용자 인터페이스가 필요하다.
본 발명의 실시예는 디스플레이 장치에 구비된 하나의 디스플레이 상에 복수 개의 애플리케이션 실행 창을 표시하면서, 복수 개의 애플리케이션 실행 창을 용이하게 제어하기 위한 애플리케이션 실행 방법 및 그 디스플레이 장치를 제공한다.
터치스크린을 포함하는 디스플레이 장치가 애플리케이션을 실행하는 방법은, 터치스크린 상에 포함된 복수의 영역에 애플리케이션 실행 창을 표시하는 단계와, 복수의 영역을 구분하는 적어도 하나의 경계선 상에 버튼을 표시하는 단계와, 버튼을 선택하는 입력을 수신하는 단계와, 입력에 기초하여 복수의 영역 중 소정의 영역에서 실행되는 적어도 하나의 애플리케이션의 목록을 소정의 영역에 표시하는 단계를 포함할 수 있다.
본 발명의 일부 실시 예에 따르면, 복수 개의 애플리케이션을 실행하고, 복수 개의 애플리케이션의 실행 창을 사용자가 용이하게 제어할 수 있는 사용자 인터페이스(User Interface)를 사용자에게 제공할 수 있다.
도 1은 일부 실시 예에 따른 디스플레이 장치를 나타내는 블록도이다.
도 2a 내지 2k는 일부 실시 예에 따라 애플리케이션 실행 창을 표시하는 방법을 설명하기 위한 개념도들이다.
도 3a 내지 도 3f는 일부 실시 예에 대응하는 액티비티 스택에 대한 개념도들이다.
도 4는 일부 실시 예에 의한 디스플레이 장치의 애플리케이션 실행 방법을 설명하기 위한 순서도이다.
도 5a 및 도 5b는 일부 실시 예에 따라 버튼을 이용하여 애플리케이션 실행 창이 표시되는 영역을 제어하는 방법을 설명하기 위한 개념도들이다.
도 6a 내지 도 6w는 일부 실시 예에 따라 복수의 애플리케이션을 실행하는 방법을 설명하기 위한 개념도들이다.
도 7a 내지 도 7i 는 다른 일부 실시 예에 따른 액티비티 스택에 대한 개념도들이다.
도 8은 일부 실시 예에 따라 디스플레이 장치가 애플리케이션을 실행하기 위한 사용자 인터페이스를 제공하는 방법을 설명하기 위한 순서도이다.
도 9는 다른 일부 실시 예에 따라 디스플레이 장치가 애플리케이션을 실행하는 방법을 설명하기 위한 순서도이다.
도 10은 일부 실시 예에 따른 디스플레이 장치의 구조를 간단히 도시한 구조도이다.
도 11a 내지 도 11d는 일부 실시 예에 따라 버튼을 표시하는 방법을 설명하기 위한 도면이다.
도 12는 일부 실시 예에 따라 애플리케이션 실행 창을 표시하도록 디스플레이 장치를 제어하는 프로세스를 도시한 순서도이다.
도 13 내지 도 23은 일부 실시 예에 따라 디스플레이 장치가 애플리케이션 실행 창을 디스플레이하는 방법을 도시한 예시도이다.
도 24는 일부 실시 예에 따라 디스플레이 장치가 사용자 인터페이스를 표시하는 프로세스를 도시한 순서도이다.
도 25 내지 도 27은 일부 실시 예에 따라 디스플레이 장치가 사용자 인터페이스를 표시하는 방법을 도시한 예시도이다.
도 28은 일부 실시 예에 따라 디스플레이 장치가 애플리케이션 실행 창을 표시하는 프로세스를 도시한 순서도이다.
도 29 내지 도 33은 일부 실시 예에 따라 디스플레이 장치가 애플리케이션 실행 창을 표시하는 방법을 도시한 예시도이다.
도 34는 일부 실시 예에 따라 버튼을 이용하여 부가적인 기능을 제공하는 프로세스를 도시한 순서도이다.
도 35는 일부 실시 예에 따라 버튼을 이용하여 부가적인 기능을 제공하는 디스플레이 장치를 도시한 예시도이다.
일부 실시 예에 따라 터치스크린을 포함하는 디스플레이 장치가 애플리케이션을 실행하는 방법은, 터치스크린 상에 포함된 복수의 영역에 애플리케이션 실행 창을 표시하는 단계와, 복수의 영역을 구분하는 적어도 하나의 경계선 상에 버튼을 표시하는 단계와, 버튼을 선택하는 입력을 수신하는 단계와, 입력에 기초하여 복수의 영역 중 소정의 영역에서 실행되는 적어도 하나의 애플리케이션의 목록을 소정의 영역에 표시하는 단계를 포함할 수 있다.
또한, 다른 일부 실시 예에 따르면, 소정의 영역은 사용자 입력에 의해 제어될 수 있는 활성화 영역을 포함할 수 있다.
또한, 또 다른 일부 실시 예에 따르면, 활성화 영역은 버튼을 선택하는 입력을 수신하기 이전에, 복수의 영역 중에서 마지막으로 선택된 영역일 수 있다.
또한, 또 다른 일부 실시 예에 따른 애플리케이션 실행 방법은, 버튼 상에 활성화 영역을 지시하는 지시자(indicator)를 표시하는 단계를 더 포함할 수 있다.
또한, 또 다른 일부 실시 예에 따른 애플리케이션 실행 방법은, 목록에 포함된 애플리케이션 중 적어도 하나를 선택하는 입력을 수신하는 단계 및 선택된 애플리케이션의 실행 창을 선택된 영역에 표시하는 단계를 더 포함할 수 있다.
또한, 또 다른 일부 실시 예에 따르면, 목록을 표시하는 단계는 적어도 하나의 애플리케이션에 대응하는 적어도 하나의 아이콘의 목록을 표시하는 단계를 포함하고, 애플리케이션 실행 방법은 아이콘의 목록에 포함된 아이콘을 드래그하는 터치 입력을 수신하는 단계 및 터치 입력이 종료되는 위치에 대응되는 영역에 아이콘에 대응되는 애플리케이션의 실행 창을 표시하는 단계를 더 포함할 수 있다.
또한, 또 다른 일부 실시 예에 따르면, 목록을 표시하는 단계는 소정의 영역에 소정의 영역에 표시된 애플리케이션 실행 창과 관련된 동작에 대응하는 아이콘을 더 표시하는 것을 특징으로 할 수 있다.
또한, 또 다른 일부 실시 예에 따르면, 아이콘은 소정의 영역에 표시된 애플리케이션 실행 창을 캡쳐하는 캡쳐 버튼, 소정의 영역에 표시된 애플리케이션 실행 창을 종료하는 종료 버튼 및 소정의 영역에 표시된 애플리케이션의 실행 창을 상기 터치스크린의 전체 영역에 표시하는 전체화면 버튼 중 적어도 하나를 포함할 수 있다.
일부 실시 예에 따라 터치스크린을 포함하는 디스플레이 장치가 애플리케이션을 실행하는 방법은, 터치스크린 상에 포함된 복수의 영역 각각에 애플리케이션 실행 창을 표시하는 단계와, 복수의 영역을 구분하는 적어도 하나의 경계선 상에 버튼을 표시하는 단계와, 적어도 하나의 애플리케이션 실행 아이콘을 포함하는 목록을 터치스크린의 일부 영역에 표시하는 단계와, 목록에 포함된 애플리케이션 실행 아이콘을 드래그하는 입력을 수신하는 단계와, 드래그하는 입력이 종료된 위치 및 버튼의 위치에 기초하여, 신규 애플리케이션 실행 영역을 결정하는 단계 및 결정된 신규 애플리케이션 실행 영역에 애플리케이션 실행 아이콘에 대응하는 애플리케이션의 실행 창을 표시하는 단계를 포함할 수 있다.
또한, 다른 일부 실시 예에 따르면, 신규 애플리케이션 실행 영역을 결정하는 단계는 드래그하는 입력이 종료된 위치가 적어도 하나의 경계선을 포함하는 경계 영역에 포함되는 경우, 적어도 하나의 경계선에 인접한 영역들을 신규 애플리케이션 실행 영역으로 결정하는 단계를 포함할 수 있다.
복수의 영역 각각에 애플리케이션 실행 창을 표시하고, 복수의 영역을 구분하는 적어도 하나의 경계선 상에 버튼을 표시하며, 버튼을 선택하는 입력을 수신하는 터치스크린 및 입력에 기초하여, 복수의 영역 중 소정의 영역에서 실행되는 적어도 하나의 애플리케이션 목록이 소정의 영역에 표시되도록 상기 터치스크린을 제어하는 제어부를 포함할 수 있다.
또한, 다른 일부 실시 예에 따르면, 소정의 영역은 사용자 입력에 의해 제어될 수 있는 활성화 영역을 포함할 수 있다.
또한, 또 다른 일부 실시 예에 따르면, 활성화 영역은 버튼을 선택하는 입력을 수신하기 이전에, 복수의 영역 중에서 마지막으로 선택된 영역일 수 있다.
또한, 또 다른 일부 실시 예에 따르면, 제어부는 버튼 상에 활성화 영역을 지시하는 지시자를 표시하도록 상기 터치스크린을 제어할 수 있다.
또한, 또 다른 일부 실시 예에 따르면, 터치스크린은 목록에 포함된 애플리케이션 중 적어도 하나를 선택하는 입력을 수신하고, 제어부는 선택된 애플리케이션의 실행 창이 선택된 영역에 표시되도록 터치스크린을 제어할 수 있다.
또한, 또 다른 일부 실시 예에 따르면, 터치스크린은 적어도 하나의 애플리케이션에 대응하는 적어도 하나의 아이콘의 목록을 표시하고, 아이콘의 목록에 포함된 아이콘을 드래그하는 터치 입력을 수신하며, 제어부는 터치 입력이 종료되는 위치에 대응되는 영역에 아이콘에 대응되는 애플리케이션의 실행 창을 표시되도록 터치스크린을 제어할 수 있다.
또한, 또 다른 일부 실시 예에 따르면, 터치스크린은 터치스크린의 소정의 영역에, 소정의 영역에 표시된 애플리케이션 실행 창과 관련된 동작에 대응하는 아이콘을 더 표시할 수 있다.
또한, 또 다른 일부 실시 예에 따르면, 아이콘은 소정의 영역에 표시된 애플리케이션 실행 창을 캡쳐하는 캡쳐 버튼, 소정의 영역에 표시된 애플리케이션 실행 창을 종료하는 종료 버튼 및 소정의 영역에 표시된 애플리케이션의 실행 창을 터치스크린의 전체 영역에 표시하는 전체화면 버튼 중 적어도 하나를 포함할 수 있다.
복수의 영역 각각에 애플리케이션 실행 창을 표시하고, 복수의 영역을 구분하는 적어도 하나의 경계선 상에 버튼 및 터치스크린에 적어도 하나의 애플리케이션 실행 아이콘을 포함하는 목록을 표시하며, 목록에 포함된 애플리케이션 실행 아이콘을 드래그하는 입력을 수신하는 터치스크린 및 드래그하는 입력이 종료된 위치 및 표시된 버튼의 위치에 기초하여 신규 애플리케이션 실행 영역을 결정하며, 결정된 신규 애플리케이션 실행 영역에 애플리케이션 실행 아이콘에 대응하는 애플리케이션의 실행 창을 표시하도록 터치스크린을 제어하는 제어부를 포함할 수 있다.
또한, 다른 일부 실시 예에 따르면, 제어부는 드래그하는 입력이 종료된 위치가 적어도 하나의 경계선을 포함하는 경계 영역에 포함되는 경우, 적어도 하나의 경계선에 인접한 영역들을 포함하도록 신규 애플리케이션 실행 영역을 결정할 수 있다.
일부 실시 예에 따라 터치스크린을 포함하는 디스플레이 장치를 제어하는 방법은, 터치스크린 상에 사용자의 터치 입력에 따라 위치가 이동되는 버튼을 표시하는 단계와, 버튼이 터치스크린 상에 표시된 위치에 따라서 디스플레이 장치를 제어하기 위한 사용자 인터페이스를 터치스크린 상에 표시하는 단계 및 터치스크린 상에 표시된 사용자 인터페이스에 대한 사용자 입력이 수신됨에 따라서 디스플레이 장치를 제어하는 단계를 포함할 수 있다.
또한, 다른 일부 실시 예에 따르면, 사용자 인터페이스는 애플리케이션 실행 창의 표시 방식을 결정하는 적어도 하나의 레이아웃 버튼을 포함하고, 디스플레이 장치를 제어하는 단계는 적어도 하나의 레이아웃 버튼 중 하나를 선택하는 사용자 입력이 수신됨에 따라서 결정되는 표시 방식에 기초하여 적어도 하나의 애플리케이션 실행 창을 표시하는 단계를 포함할 수 있다.
또한, 또 다른 일부 실시 예에 따르면, 사용자 인터페이스를 터치스크린 상에 표시하는 단계는 버튼의 상기 터치스크린 상의 위치를 나타내는 좌표 값을 획득하는 단계 및 획득된 좌표 값에 상응하는 애플리케이션 실행 창이 존재하는 경우, 좌표 값에 상응하는 애플리케이션 실행 창에 표시된 애플리케이션에 상응하는 사용자 인터페이스를 터치스크린에 표시하는 단계를 포함할 수 있다.
또한, 또 다른 일부 실시 예에 따르면, 획득된 좌표 값에 상응하는 애플리케이션 실행 창은 좌표 값을 포함하는 영역에 표시된 애플리케이션 실행 창인 것을 특징으로 할 수 있다.
또한, 또 다른 일부 실시 예에 따르면, 사용자 인터페이스는 디스플레이 장치에 의해 실행 중인 애플리케이션 및 디스플레이 장치에 설치된 애플리케이션 중 적어도 하나를 포함하는 애플리케이션 목록을 포함할 수 있고, 디스플레이 장치를 제어하는 단계는 애플리케이션 목록 중에서 사용자 입력에 따라서 선택된 애플리케이션을 실행하는 단계를 포함할 수 있다.
일부 실시 예에 따른 디스플레이 장치는, 사용자의 터치 입력을 수신하며, 터치 입력에 따라 위치가 이동되는 버튼을 표시하고, 버튼이 상기 터치스크린 상에 표시된 위치에 따라서 디스플레이 장치를 제어하기 위한 사용자 인터페이스를 표시하는 터치스크린 및 터치스크린 상에 표시된 사용자 인터페이스에 대한 사용자 입력이 수신됨에 따라서 디스플레이 장치를 제어하는 제어부를 포함할 수 있다.
또한, 다른 일부 실시 예에 따르면, 사용자 인터페이스는 애플리케이션 실행 창의 표시 방식을 결정하는 적어도 하나의 레이아웃 버튼을 포함하고, 제어부는 적어도 하나의 레이아웃 버튼 중 하나를 선택하는 사용자 입력이 수신됨에 따라서 표시 방식을 결정하고, 터치스크린은 결정된 표시 방식에 기초하여 적어도 하나의 애플리케이션 실행 창을 표시할 수 있다.
또한, 또 다른 일부 실시 예에 따르면, 제어부는 버튼의 터치스크린 상의 위치를 나타내는 좌표 값을 획득하고, 획득된 좌표 값에 상응하는 애플리케이션 실행 창이 존재하는지 여부를 판단하며, 터치스크린은 획득된 좌표 값에 상응하는 애플리케이션 실행 창이 존재하는 경우, 좌표 값에 상응하는 애플리케이션 실행 창에 표시된 애플리케이션에 상응하는 사용자 인터페이스를 표시하는, 디스플레이 장치.
또한, 또 다른 일부 실시 예에 따르면, 획득된 좌표 값에 상응하는 애플리케이션 실행 창은 좌표 값을 포함하는 영역에 표시된 애플리케이션 실행 창인 것을 특징으로 할 수 있다.
또한, 또 다른 일부 실시 예에 따르면, 사용자 인터페이스는 디스플레이 장치에 의해 실행 중인 애플리케이션 및 디스플레이 장치에 설치된 애플리케이션 중 적어도 하나를 포함하는 애플리케이션 목록을 포함할 수 있고, 제어부는 애플리케이션 목록 중에서 사용자 입력에 따라서 선택된 애플리케이션을 실행할 수 있다.
일부 실시 예에 따른 컴퓨터로 읽을 수 있는 기록매체에는 상기 기술된 방법을 컴퓨터에서 실행시키기 위한 프로그램이 기록될 수 있다.
아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
본 명세서에서, “터치” 또는 “터치 입력”이라 함은 직접 접촉하는 경우뿐만 아니라, 디스플레이 장치가 디스플레이 장치에 근접(예를 들어, 2 cm 이내)한 사용자의 신체를 감지하는 경우를 포함할 수 있다.
또한, 본 명세서에서, “드래그”란 사용자가 디스플레이 장치에 터치한 상태에서, 디스플레이 장치에 터치된 지점을 이동하는 것을 의미한다.
이하 첨부된 도면을 참고하여 본 발명을 상세히 설명하기로 한다.
도 1 은 일 실시 예에 따른 디스플레이 장치를 나타내는 블록도이다. 도 1 은 일 실시 예에 따른 디스플레이 장치일 뿐이며, 본 발명에 따른 디스플레이 장치는 도 1에 도시된 구성요소보다 적은 구성요소를 포함하거나, 보다 많은 구성요소를 포함할 수 있다.
디스플레이 장치(100)는 이동통신 모듈(120), 서브통신 모듈(130) 및 커넥터(165)를 이용하여 외부장치(도시되지 않음)와 연결될 수 있다. 외부장치는 다른 장치(도시되지 않음), 휴대폰(도시되지 않음), 스마트폰(도시되지 않음), 태블릿PC(도시되지 않음) 및 서버(도시되지 않음) 중 적어도 하나를 포함할 수 있다.
도 1을 참조하면, 디스플레이 장치(100)는 터치스크린(190) 및 터치스크린 컨트롤러(195)를 포함한다. 또한, 디스플레이 장치(100)는 제어부(110), 이동통신 모듈(120), 서브통신 모듈(130), 멀티미디어 모듈(140), 카메라 모듈(150), GPS 모듈(155), 입/출력 모듈(160), 센서 모듈(170), 저장부(175) 및 전원공급부(180)를 포함한다. 서브통신 모듈(130)은 무선랜 모듈(131) 및 근거리통신 모듈(132) 중 적어도 하나를 포함하고, 멀티미디어 모듈(140)은 방송통신 모듈(141), 오디오재생 모듈(142) 및 동영상재생 모듈(143) 중 적어도 하나를 포함할 수 있다. 카메라 모듈(150)은 제 1 카메라(151) 및 제 2 카메라(152) 중 적어도 하나를 포함하고, 입/출력 모듈(160)은 버튼(161), 마이크(162), 스피커(163), 진동모터(164), 커넥터(165) 및 키패트(166) 중 적어도 하나를 포함할 수 있다.
제어부(110)는 CPU(111), 디스플레이 장치(100)의 제어를 위한 제어 프로그램이 저장된 롬(112) 및 디스플레이 장치(100)의 외부로부터 입력되는 신호 또는 데이터를 기억하거나, 디스플레이 장치(100)에서 수행되는 작업을 위한 기억영역으로 사용되는 램(113)을 포함할 수 있다. CPU(111)는 싱글 코어, 듀얼 코어, 트리플 코어, 또는 쿼드 코어 등 복수의 프로세서를 포함할 수 있다. CPU(111), 롬(112) 및 램(113)은 내부 버스(BUS)를 통해 상호 연결될 수 있다.
제어부(110)는 이동통신 모듈(120), 서브통신 모듈(130), 멀티미디어 모듈(140), 카메라 모듈(150), GPS 모듈(155), 입출력 모듈(160), 센서 모듈(170), 저장부(175), 전원공급부(180), 터치스크린(190) 및 터치스크린 컨트롤러(195)를 제어할 수 있다.
이동통신 모듈(120)은 제어부(110)의 제어에 따라 적어도 하나(하나 또는 복수)의 안테나(도시되지 않음)를 이용하여 이동 통신을 통해 디스플레이 장치(100)가 외부 장치와 연결되도록 할 수 있다. 이동통신 모듈(120)은 디스플레이 장치(100)에 입력되는 전화번호를 가지는 휴대폰(도시되지 않음), 스마트폰(도시되지 않음), 태블릿 PC(도시되지 않음) 또는 다른 장치(도시되지 않음)와 음성 통화, 화상 통화, 문자메시지(SMS) 또는 멀티미디어 메시지(MMS) 전송을 하기 위한 무선 신호를 송/수신할 수 있다.
서브통신 모듈(130)은 무선랜 모듈(131)과 근거리통신 모듈(132) 중 적어도 하나를 포함할 수 있다. 예를 들어, 무선랜 모듈(131)만 포함하거나, 근거리통신 모듈(132)만 포함하거나 또는 무선랜 모듈(131)과 근거리통신 모듈(132)을 모두 포함할 수 있다.
무선랜 모듈(131)은 제어부(110)의 제어에 따라 무선 AP(access point)(도시되지 않음)가 설치된 장소에서 인터넷에 연결할 수 있다. 무선랜 모듈(131)은 미국전기전자학회(IEEE)의 무선랜 규격 IEEE802.11x를 지원할 수 있다. 근거리통신 모듈(132)은 제어부(110)의 제어에 따라 디스플레이 장치(100)와 화상형성장치(도시되지 않음) 사이에 무선으로 근거리 통신을 할 수 있다. 근거리 통신방식은 블루투스(Bluetooth), 적외선 통신(IrDA, infrared data association), 지그비(Zig-bee) 방식 등 이 포함될 수 있다.
디스플레이 장치(100)는 성능에 따라 이동통신 모듈(120), 무선랜 모듈(131) 및 근거리통신 모듈(132) 중 적어도 하나를 포함할 수 있다.
멀티미디어 모듈(140)은 방송통신 모듈(141), 오디오재생 모듈(142) 또는 동영상재생 모듈(143)을 포함할 수 있다. 방송통신 모듈(141)은 제어부(110)의 제어에 따라 방송통신 안테나(도시되지 않음)를 통해 방송국에서부터 송출되는 방송 신호(예를 들어, TV 방송 신호, 라디오 방송 신호 또는 데이터방송 신호) 및 방송 부가 정보(예를 들어, EPG(Electric Program Guide) 또는 ESG(Electric Service Guide))를 수신할 수 있다. 오디오 재생 모듈(142)은 제어부(110)의 제어에 따라 저장되거나 또는 수신되는 디지털 오디오 파일을 재생할 수 있다. 동영상재생 모듈(143)은 제어부(110)의 제어에 따라 저장되거나 또는 수신되는 디지털 동영상 파일을 재생할 수 있다. 동영상 재생 모듈(143)은 디지털 오디오 파일을 재생할 수 있다.
멀티미디어 모듈(140)은 방송통신 모듈(141)을 제외하고 오디오재생 모듈(142)과 동영상재생 모듈(143)을 포함할 수 있다. 또한, 멀티미디어 모듈(140)의 오디오재생 모듈(142) 또는 동영상재생 모듈(143)은 제어부(100)에 포함될 수 있다.
카메라 모듈(150)은 제어부(110)의 제어에 따라 정지이미지 또는 동영상을 촬영하는 제 1 카메라(151) 및 제 2 카메라(152) 중 적어도 하나를 포함할 수 있다. 또한, 제 1 카메라(151) 또는 제 2 카메라(152)는 촬영에 필요한 광량을 제공하는 보조 광원(도시되지 않음)을 포함할 수 있다. 제 1 카메라(151)는 상기 디스플레이 장치(100) 전면에 배치되고, 제 2 카메라(152)는 상기 디스플레이 장치(100)의 후면에 배치될 수 있다. 또는, 제 1 카메라(151)와 제 2 카메라(152)는 인접하게(예를 들어, 간격이 1 cm보다 크고, 8 cm 보다 작게) 배치되어 3차원 정지이미지 또는 3차원 동영상을 촬영할 수 있다.
GPS 모듈(155)은 지구 궤도상에 있는 복수의 GPS 위성(도시되지 않음)에서부터 전파를 수신하고, GPS 위성(도시되지 않음)에서부터 디스플레이장치(100)까지 전파도달시간(Time of Arrival)을 이용하여 디스플레이 장치(100)의 위치를 산출할 수 있다.
입/출력 모듈(160)은 복수의 버튼(161), 마이크(162), 스피커(163), 진동모터(164), 커넥터(165) 및 키패드(166) 중 적어도 하나를 포함할 수 있다.
버튼(161)은 상기 디스플레이 장치(100)의 하우징의 전면, 측면 또는 후면에 형성될 수 있으며, 전원/잠금 버튼(도시되지 않음), 볼륨버튼(도시되지 않음) 메뉴 버튼, 홈 버튼, 돌아가기 버튼(back button) 및 검색 버튼(161) 중 적어도 하나를 포함할 수 있다.
마이크(162)는 제어부(110)의 제어에 따라 음성(voice) 또는 사운드(sound)를 입력 받아 전기적인 신호를 생성할 수 있다.
스피커(163)는 제어부(110)의 제어에 따라 이동통신 모듈(120), 서브통신 모듈(130), 멀티미디어 모듈(140) 또는 카메라 모듈(150)의 다양한 신호에 대응되는 사운드를 디스플레이 장치(100) 외부로 출력할 수 있다. 스피커(163)는 디스플레이 장치(100)가 수행하는 기능에 대응되는 사운드를 출력할 수 있다. 스피커(163)는 상기 디스플레이 장치(100)의 하우징의 적절한 위치 또는 위치들에 하나 또는 복수로 형성될 수 있다.
진동모터(164)는 제어부(110)의 제어에 따라 전기적 신호를 기계적 진동으로 변환할 수 있다. 예를 들어, 진동 모드에 있는 디스플레이 장치(100)는 다른 장치(도시되지 않음)로부터 음성통화가 수신되는 경우, 진동 모터(164)가 동작할 수 있다. 진동 모터(164)는 터치스크린(190) 상에 접촉하는 사용자의 터치 동작 및 터치스크린(190) 상에서의 터치 입력의 연속적인 움직임에 응답하여 동작할 수 있다.
커넥터(165)는 디스플레이 장치(100)와 외부장치(도시되지 않음) 또는 전원소스(도시되지 않음)를 연결하기 위한 인터페이스로 이용될 수 있다. 제어부(110)의 제어에 따라 커넥터(165)에 연결된 유선 케이블을 통해 디스플레이 장치(100)의 저장부(175)에 저장된 데이터를 외부장치(도시되지 않음)로 전송하거나 외부장치(도시되지 않음)에서부터 데이터를 수신할 수 있다. 커넥터(165)에 연결된 유선 케이블을 통해 전원소스(도시되지 않음)에서부터 전원이 입력되거나 배터리(도시되지 않음)를 충전할 수 있다.
키패드(166)는 디스플레이 장치(100)의 제어를 위해 사용자로부터 키 입력을 수신할 수 있다. 키패드(166)는 디스플레이 장치(100)에 형성되는 물리적인 키패드(도시되지 않음) 또는 터치스크린(190)에 표시되는 가상의 키패드(도시되지 않음)를 포함한다. 디스플레이 장치(100)에 형성되는 물리적인 캐피드(도시되지 않음)는 디스플레이 장치(100)의 성능 또는 구조에 따라 제외될 수 있다.
센서 모듈(170)은 디스플레이 장치(100)의 상태를 검출하는 적어도 하나의 센서를 포함한다. 예를 들어, 센서모듈(170)은 사용자의 디스플레이 장치(100)에 대한 접근여부를 검출하는 근접센서, 디스플레이 장치(100) 주변의 빛의 양을 검출하는 조도센서(도시되지 않음) 또는 디스플레이 장치(100)의 동작(예를 들어, 디스플레이 장치(100)의 회전, 디스플레이 장치(100)에 가해지는 가속도 또는 진동)을 검출하는 모션센서(도시되지 않음)를 포함할 수 있다. 센서모듈(170)의 센서는 디스플레이 장치(100)의 성능에 따라 추가되거나 삭제될 수 있다.
저장부(175)는 제어부(110)의 제어에 따라 이동통신 모듈(120), 서브통신 모듈(130), 멀티미디어 모듈(140), 카메라 모듈(150), GPS 모듈(155), 입/출력 모듈(160), 센서 모듈(170), 터치스크린(190)의 동작에 대응되게 입/출력되는 신호 또는 데이터를 저장할 수 있다. 저장부(175)는 디스플레이 장치(100) 또는 제어부(110)의 제어를 위한 제어 프로그램 및 애플리케이션들을 저장할 수 있다.
“저장부”라는 용어는 저장부(175), 제어부(110) 내 롬(112), 램(113) 또는 디스플레이 장치(100)에 장착되는 메모리 카드(도시되지 않음)를 포함할 수 있다. 저장부는 비휘발성메모리, 휘발성메모리, 하드디스크드라이브(HDD) 또는 솔리드 스테이트 드라이브(SSD)를 포함할 수 있다.
전원공급부(180)는 제어부(110)의 제어에 따라 디스플레이 장치(100)의 하우징에 배치되는 적어도 하나의 배터리(도시되지 않음)에 전원을 공급할 수 있다. 또한, 전원공급부(180)는 커넥터(165)와 연결된 유선 케이블을 통해 외부의 전원소스(도시되지 않음)로부터 입력되는 전원을 디스플레이 장치(100)의 각 부로 공급할 수 있다.
터치스크린(190)은 사용자에게 다양한 서비스에 대응되는 사용자 인터페이스를 출력할 수 있다. 터치스크린(190)은 사용자 인터페이스에 입력되는 적어도 하나의 터치에 대응되는 아날로그 신호를 터치스크린 컨트롤러(195)로 전송할 수 있다. 터치스크린(190)은 사용자의 신체(예를 들어, 손가락) 또는 터치 가능한 입력 수단(예를 들어, 스타일러스 펜)을 통해 적어도 하나의 터치 입력을 수신할 수 있다. 또한, 터치스크린(190)은 적어도 하나의 터치 입력의 연속적인 움직임을 수신할 수 있다. 터치스크린(190)은 터치 입력의 연속적인 움직임에 대응되는 아날로그 신호를 터치스크린 컨트롤러(195)로 전송할 수 있다.
본 발명에서 터치 입력이라 함은 터치스크린(190)과 사용자의 신체 또는 터치 가능한 입력 수단과의 접촉을 통한 입력에 한정되지 않고, 비접촉 입력(예를 들어, 터치스크린(190)과 신체 간의 간격이 1mm 이하)을 포함할 수 있다. 터치스크린(190)에서 검출가능한 간격은 디스플레이 장치(100)의 성능 또는 구조에 따라 변경될 수 있다.
터치스크린(190)은, 예를 들어, 저항막(resistive) 방식, 정전용량(capacitive) 방식, 적외선(infrared) 방식 또는 초음파(ultrasound wave)방식으로 구현될 수 있다. 다만 이에 한정되지 않는다.
터치스크린 컨트롤러(195)는 터치스크린(190)으로부터 수신된 아날로그 신호를 디지털 신호(예를 들어, X 좌표 및 Y 좌표)로 변환하여 제어부(110)로 전송할 수 잇다. 제어부(110)는 터치스크린 컨트롤러(195)로부터 수신된 디지털 신호를 이용하여 터치스크린(190)을 제어할 수 있다. 예를 들어, 제어부(110)는 터치 입력에 응답하여 터치스크린(190)에 표시된 애플리케이션 실행 아이콘(도시되지 않음)을 선택하거나 또는 애플리케이션을 실행할 수 있다. 터치스크린 컨트롤러(195)는 터치스크린(190) 또는 제어부(110)에 포함될 수 있다.
도 2a 내지 2k는 본 발명의 실시 예에 따라 애플리케이션 실행 창을 표시하는 방법을 설명하기 위한 개념도들이다. 본 명세서에서 디스플레이 장치에 표시되는 것으로 기술되는 버튼은 도 1의 버튼(161)과 구별되는 별개의 개념이다. 디스플레이 장치에 표시되는 버튼은 사용자 인터페이스를 제공하기 위해 디스플레이 장치에 표시되는 객체를 의미한다. 버튼은 도면에 도시된 형태 뿐만 아니라 다양한 형태로 구현될 수 있다. 버튼의 형태는 원형, 타원형, 다각형이나 임의의 이미지 등으로 다양하게 변형될 수 있다. 또한, 버튼은 고정된 형태를 가지지 않고 디바이스의 컨텍스트(context)에 따라서 다르게 변형될 수도 있다. 예를 들어, 디스플레이 장치에 표시되는 애플리케이션 실행 창의 수가 넷에서 다섯으로 증가하면, 사각형의 버튼이 오각형의 버튼으로 변경될 수 있다. 본 명세서에서 버튼은 터치스크린 상에 표시되는 것으로 기술되나, 일부 실시 예에 따르면 버튼은 터치스크린 상에 표시되지 않고 터치스크린 상에 설정된 일부 영역을 의미하는 것으로 대체될 수도 있다. 예를 들어, 터치스크린 상에 버튼이 표시되지 않더라도, 디스플레이 장치는 버튼에 상응하는 영역에 사용자의 터치 입력이 수신되면 버튼에 대한 사용자의 터치 입력이 수신된 것으로 판단할 수 있다. 한편, 디스플레이 장치(200)는 도 1과 관련하여 상술한 모바일 장치뿐만 아니라, TV 또는 의료용 데이터 표시 장치와 같은 다양한 형태로 구현될 수 있다. 도 2a에 도시된 바와 같이, 디스플레이 장치(200)는 터치스크린 상에 복수 개의 영역들(201 내지 204)을 설정할 수 있다. 설명의 편의를 위하여, 본 명세서 전체에서, 디스플레이 장치(200)가 설정하는 영역을 제 1 영역(201), 제 2 영역(202), 제 3 영역(203) 및 제 4 영역(204)이라 언급한다. 또한, 제 1 영역(201) 및 제 3 영역(203)을 합한 영역을 제 5 영역(도시되지 않음)이라 언급한다. 제 2 영역(202) 및 제 4 영역(204)를 합한 영역을 제 6 영역(도시되지 않음)이라 언급한다. 제 1 영역(201) 및 제 2 영역(202)을 합한 영역을 제 7 영역이라 언급한다. 제 3 영역(203) 및 제 4 영역(204)을 합한 영역을 제 8 영역이라 언급한다. 제 1 영역 내지 제 4 영역(201 내지 204)를 모두 합한 전체 화면을 F 영역이라 언급한다. 제어부(도시되지 않음)는 제 1 영역(201) 및 제 2 영역(202)을 구분하는 제 1 경계선(211), 제 3 영역(203) 및 제 4 영역(204)을 구분하는 제 2 경계선(212), 제 1 영역(201) 및 제 3 영역(204)을 구분하는 제 3 경계선(213) 및 제 2 영역(202) 및 제 4 영역(204)을 구분하는 제 4 경계선(214)을 설정할 수 있다. 여기서, 제 1 경계선(211) 및 제 2 경계선(212)은 하나의 선분을 이룰 수 있다. 제 3 경계선(213) 및 제 4 경계선(214)은 하나의 선분을 이룰 수 있다. 제 1 경계선(211) 내지 제 4 경계선(214)는 반드시 표시되어야 하는 것은 아니며, 디스플레이 장치(200)에 가상으로 설정된 선일 수 있다. 제어부(도시되지 않음)는 제 1 영역(201) 내지 제 4 영역(204)을 서로 중첩되지 않도록 설정할 수 있다. 예를 들어, 도 2a에 도시된 바와 같이, 제어부(도시되지 않음)는 제 1 영역(201)을 좌측 상단에 설정할 수 있다. 제어부(도시되지 않음)는 제 2 영역(202)을 우측 상단에 설정할 수 있다. 제어부(도시되지 않음)는 제 3 영역(203)을 좌측 하단에 설정할 수 있다. 제어부(도시되지 않음)는 제 4 영역(204)를 우측 하단에 설정할 수 있다. 제어부(도시되지 않음)는 화면을 좌우로 분할하도록 제 1 경계선(211) 및 제 2 경계선(212)을 설정할 수 있다. 화면을 상하로 분할하도록 제 3 경계선(213) 및 제 4 경계선(214)을 설정할 수 있다.
또한, 터치스크린은 제 1 경계선(211), 제 2 경계선(212), 제 3 경계선(213), 제 4 경계선(214)이 만나는 지점에 버튼(210)을 표시할 수 있다. 버튼(210)은 애플리케이션의 실행 창을 표시하는 영역의 크기를 변경하거나 실행 창을 제어하기 위한 동작 모드에 진입하는 기능 키일 수 있다.
제어부(도시되지 않음)는 복수의 영역 각각에 애플리케이션의 실행 창이 표시되도록 터치스크린을 제어할 수 있다. 예를 들어, 제어부(도시되지 않음)는 도 2b 내지 2k에서와 같이 복수의 영역(201 내지 204) 각각에 애플리케이션의 실행 창이 표시되도록 터치스크린을 제어할 수 있다.
본 명세서에서, 애플리케이션 실행 창은 애플리케이션의 실행 화면을 표시하는 창을 의미한다. 즉, “실행 창”은 대응되는 애플리케이션의 실행 화면을 표시하는 프레임의 일종을 의미할 수 있다. 애플리케이션의 실행 화면 상에는 애플리케이션과 관련된 객체(object)들이 표시될 수 있다. 객체는 텍스트, 도형, 아이콘, 버튼, 체크박스, 사진, 동영상, 웹(web), 맵(map)등 다양한 형태로 구현될 수 있다. 객체를 사용자가 터치하는 경우, 객체에 미리 정해진 기능 또는 이벤트가 수행될 수 있다. 상기 객체는 운영체제에 따라 뷰(view)라고 언급될 수 있다. 예를 들어, 실행 창의 표시를 제어하기 위한 실행 창을 캡쳐하는 캡쳐 버튼, 실행 창을 최소화하는 최소화 버튼, 실행창의 표시를 최대화 하는 전체화면 버튼 및 실행 창을 종료하는 종료 버튼 중 적어도 하나가 표시될 수 있다.
도 2b를 참조하면, 제어부(도시되지 않음)는 화면에 실행 가능한 애플리케이션에 대응되는 아이콘(231 내지 237)이 표시되도록 터치스크린을 제어할 수 있다. 여기서, 디스플레이 장치(200)는 A 애플리케이션을 실행할 수 있다. 도 2b에서와 같이, A 애플리케이션이 실행됨에 따라서, 제어부(도시되지 않음)는 A 애플리케이션의 실행 창(230)이 제 1 영역(201)에 표시되도록 터치스크린을 제어할 수 있다. 또한, 제어부(도시되지 않음)는실행 가능한 애플리케이션에 대응되는 아이콘(231 내지 237)이 터치스크린의 임의의 위치에 표시되도록 터치스크린을 제어할 수 있다. 애플리케이션에 대응되는 아이콘(231 내지 237) 중 하나의 아이콘을 터치하는 입력, 즉, 실행하고자 하는 애플리케이션에 대응되는 아이콘을 선택하는 입력이 수신되면, 디스플레이 장치(200)는 제 1 영역(201) 내지 제 4 영역(204) 중 하나에 선택된 아이콘에 대응되는 애플리케이션의 실행 창을 표시할 수 있다.
또한, 제어부(도시되지 않음)는 표시된 버튼(220) 상에 활성화 영역을 지시하는 지시자(indicator)(221)를 표시할 수 있다. 본 명세서에서, 활성화 영역은, 가장 마지막으로 실행되거나 가장 마지막으로 사용자에 의해 선택된 애플리케이션의 실행 창이 표시되는 영역을 의미할 수 있다. 사용자에 의해 조작된 애플리케이션은 사용자에 의해 선택된 애플리케이션으로 언급될 수 있다.
지시자(221)는 활성화 영역의 위치를 표시하기 위해 다양하게 구현될 수 있다. 예를 들어, 활성화 영역의 애플리케이션 실행 창과 버튼(220)이 중첩된 영역에 활성화 영역의 애플리케이션 실행 창의 적어도 일부가 표시되도록 할 수 있다. 또는, 활성화 영역의 방향을 지시하는 화살표가 버튼(220) 상에 표시될 수 있다.
활성화 영역은 액티비티 스택(activity stack)을 이용하여 판단될 수 있다. 가장 마지막으로 실행되거나 가장 마지막으로 사용자에 의해 선택된 애플리케이션의 액티비티 스택을 가장 상위에 배치할 수 있다. 디스플레이 장치(200)는 가장 상위에 배치된 스택에 상응하는 애플리케이션의 실행 창을 표시하는 영역을 활성화 영역으로 결정할 수 있다. 활성화 영역은 포커스(focus)된 영역이라고 언급될 수도 있다.
즉 도 2b에서 지시자(221)는 제 1 영역(201)을 지시하도록 표시될 수 있다.
한편, 도 3a는 디스플레이 장치(200)가 관리하는 액티비티 스택(activity stack)에 대한 개념도이다. 제어부(도시되지 않음)는 A 애플리케이션의 실행에 대응하여, 액티비티 스택 상에 A 애플리케이션 스택(301)을 생성하고 관리할 수 있다.
도 2c에서 사용자(1)는 B 애플리케이션에 대응하는 아이콘을 터치할 수 있다. B 애플리케이션에 대응하는 아이콘을 선택하는 입력이 수신되면, 제어부(도시되지 않음)는 도 2d와 같이 B 애플리케이션의 실행 창(240)이 제 2 영역(202)에 표시되도록 터치스크린을 제어한다. 제어부(도시되지 않음)는 실행 창이 표시되는 영역을 기 설정된 순서에 따라서 결정할 수 있다. 예를 들어, 제어부(도시되지 않음)는 제 2 영역(202), 제 3 영역(203) 및 제 4 영역(204)의 순서로 신규 애플리케이션의 실행 창이 표시되는 신규 애플리케이션 실행 영역을 결정할 수 있다. 상술된 순서는 단순한 예시이며, 실시 예에 따라서 변경될 수 있다.
도 2d에서 B 애플리케이션의 실행 창(240)이 제 2 영역(202)에 표시됨에 따라서, 지시자(221)는 제 2 영역(202)을 지시하도록 표시될 수 있다.
한편, 도 3b는 도 2d에 대응하는 액티비티 스택에 대한 개념도이다. 제어부(도시되지 않음)는 B 애플리케이션의 실행에 대응하여, 액티비티 스택 상에 B 애플리케이션 스택(302)을 생성한다. 한편, 제어부(도시되지 않음)는 가장 최근에 실행된 B 애플리케이션의 스택(302)을 A 애플리케이션의 스택(301)보다 상위에 배치할 수 있다.
도 2e에서 사용자(1)는 C 애플리케이션에 대응하는 아이콘(233)을 터치할 수 있다.
C 애플리케이션에 대응하는 아이콘(233)을 선택하는 입력이 수신됨에 따라서, 제어부(도시되지 않음)는 도 2f와 같이 C 애플리케이션을 실행하는 실행 창(250)을 제 4 영역(204) 상에 표시할 수 있다. C 애플리케이션을 실행하는 실행 창(250)이 제 4 영역(204) 상에 표시됨에 따라서, 제 4 영역(204)을 지시하도록 지시자(221)가 표시될 수 있다.
한편, 도 3c는 도 2f에 대응하는 액티비티 스택에 대한 개념도이다. 제어부(도시되지 않음)는 C 애플리케이션이 실행됨에 따라서, 액티비티 스택 상에 C 애플리케이션 스택(303)을 생성한다. 한편, 제어부(도시되지 않음)는 가장 최근에 실행된 C 애플리케이션의 스택(303)을 가장 상위에 배치한다.
도 2g에서 사용자(1)는 D 애플리케이션에 대응하는 아이콘(234)을 터치할 수 있다. D 애플리케이션에 대응하는 아이콘(234)에 선택됨에 따라서, 제어부(도시되지 않음)는 도 2h와 같이 D 애플리케이션을 실행하는 실행 창(260)이 제 3 영역(203) 상에 표시되도록 터치스크린을 제어할 수 있다. D 애플리케이션을 실행하는 실행 창(260)이 제 3 영역(203) 상에 표시됨에 따라서, 버튼(220) 상에 제 3 영역(203)을 지시하도록 지시자(221)가 표시될 수 있다.
한편, 도 3d는 도 2h에 대응하는 액티비티 스택에 대한 개념도이다. 제어부(도시되지 않음)는 D 애플리케이션이 실행됨에 따라서, 액티비티 스택 상에 D 애플리케이션 스택(304)을 생성할 수 있다. 한편, 제어부(도시되지 않음) 가장 최근에 실행된 D 애플리케이션의 스택(304)을 가장 상위에 배치한다.
한편, 사용자(1)는 도 2i에서와 같이 B 애플리케이션을 조작할 수 있다. 도 3e는 도 2i에 대응하는 액티비티 스택에 대한 개념도이다. 제어부(도시되지 않음)는 B 애플리케이션의 실행 창(240)에 대한 사용자 입력이 수신됨에 따라서, B 애플리케이션의 스택(302)을 가장 상위에 배치할 수 있다.
도 2i에서와 같이, B 애플리케이션의 실행 장(240)에 대한 사용자 입력이 수신됨에 따라서, 제어부(도시되지 않음)는 제 2 영역(202)을 활성화 영역으로 결정할 수 있다. 이에 따라서, 버튼(220) 상에 제 2 영역(202)을 지시하는 지시자(221)가 표시될 수 있다.
도 2j에서 사용자(1)는 E 애플리케이션에 대응하는 아이콘(235)을 터치할 수 있다. E 애플리케이션에 대응하는 아이콘(235)을 선택하는 입력이 수신됨에 따라서, 제어부(도시되지 않음)는 도 2k와 같이 E 애플리케이션의 실행 창(270)이 제 4 영역(204) 상에 표시되도록 터치스크린을 제어할 수 있다. 제어부(도시되지 않음)는 비어있는(empty) 영역이 없는 경우, 도 3e의 액티비티 스택을 참조할 수 있다. 제어부(도시되지 않음)는 액티비티 스택 중 가장 하위에 배치된 스택을 선택할 수 있다. 디스플레이 장치(200)는 가장 하위에 배치된 C 애플리케이션의 실행 창이 표시되는 제 4 영역(250) 상에 E 애플리케이션의 실행 창(270)을 표시할 수 있다.
한편, 도 3f는 도 2k에 대응하는 액티비티 스택에 대한 개념도이다. 제어부(도시되지 않음)는 E 애플리케이션이 실행됨에 따라서, 액티비티 스택 상에 E 애플리케이션 스택(305)를 생성할 수 있다. 한편, 제어부(도시되지 않음)는 E 애플리케이션의 스택(305)을 가장 상위에 배치할 수 있다.
도 4는 본 발명의 일 실시 예에 의한 디스플레이 장치의 애플리케이션 실행 방법을 설명하기 위한 순서도이다.
먼저, 디스플레이 장치는 복수 개의 애플리케이션을 실행할 수 있다(S410). 예를 들어, 애플리케이션에 대응되는 아이콘을 터치하는 입력이 수신됨에 따라서 애플리케이션을 실행할 수 있다.
디스플레이 장치는, 애플리케이션의 실행 창을 배치하기 위한 레이아웃(layout)을 확인할 수 있다(S420). 레이아웃은 실행 창을 배치할 수 있는 영역을 정의한 개념이다. 레이아웃은 상하 2 분할 레이아웃, 좌우 2 분할 레이아웃, 3 분할 레이아웃, 4 분할 레이아웃 등의 다양한 형태를 가질 수 있다.
디스플레이 장치는 확인된 레이아웃에 따라서 애플리케이션의 실행 창을 표시할 위치를 결정할 수 있다(S430). 예를 들어, 레이아웃이 제 5 영역 및 제 6 영역으로 구분되는 좌우 2 분할 레이아웃인 경우, 디스플레이 장치는 제 5 영역에 웹 브라우저의 실행 창 및 전화번호부 애플리케이션의 실행 창을 배치하고, 제 6 영역에 동영상 재생 애플리케이션의 실행 창을 배치할 수 있다.
이후, 디스플레이 장치는 애플리케이션들의 순위(order)에 기초하여 실행 창을 표시할 수 있다(S440). 예를 들어, 웹 브라우저의 실행 창 및 전화번호부 애플리케이션의 실행 창이 제 5 영역에 배치된 경우, 액티비티 스택을 참조하여 웹 브라우저의 실행 창 및 전화번호부 애플리케이션의 실행 창 중 순위가 높은 실행 창을 제 5 영역에 표시할 수 있다.
도 5a 및 도 5b는 본 발명의 일 실시예에 따라 버튼을 이용하여 애플리케이션 실행 창이 표시되는 영역을 제어하는 방법을 설명하기 위한 개념도들이다.
도 5a를 참조하면, 디스플레이 장치(500)는 제 1 영역(501), 제 2 영역(502), 제 3 영역(503), 제 4 영역(504), 제 1 경계선(505), 제 2 경계선(507), 제 3 경계선(506) 및 제 4 경계선(508)을 설정할 수 있다. 다만, 본 발명이 이에 한정되는 것은 아니며, 디스플레이 장치(500)는 다양한 방법에 의해서 영역 및 경계선을 결정할 수 있다.
또한 디스플레이 장치(500)는 적어도 하나의 경계선 상에 버튼(220)을 표시할 수 있다. 예를 들어, 도 5a에서와 같이, 디스플레이 장치(500)는 제 1 경계선(505), 제 2 경계선(507), 제 3 경계선(506) 및 제 4 경계선(508)이 설정된 경우, 각 경계선이 만나는 지점에 버튼(220)을 표시할 수 있다. 다른 예를 들면, 디스플레이 장치(500)가 제 5 영역(도시되지 않음), 제 6 영역(도시되지 않음), 제 1 경계선(505) 및 제 2 경계선(507)을 설정한 경우, 디스플레이 장치(500)는 제 1 경계선(505) 또는 제 2 경계선(507) 상에 버튼(220)을 표시할 수 있다.
도 5b를 참조하면, 사용자(10)에 의해 입력된 터치 입력이 버튼(220)을 드래그하는 입력인 경우, 디스플레이 장치(500)는 터치 입력이 입력된 위치에 따라 버튼(220)을 이동시킬 수 있다. 또한, 디스플레이 장치(500)는 버튼(220)의 위치가 이동됨에 따라서 애플리케이션의 실행 창을 표시하기 위한 영역 및 경계선의 크기와 위치를 변경할 수 있다.
도 6a 내지 도 6w는 본 발명의 일 실시 예에 따라 복수의 애플리케이션을 실행하는 방법을 설명하기 위한 개념도들이다.
도 6a를 참조하면, 디스플레이 장치(600)는 A 애플리케이션이 실행된 상태에서, 적어도 하나의 애플리케이션의 목록(610)을 표시할 수 있다. 애플리케이션의 목록은 실행될 수 있는 애플리케이션을 나타낸다. 예를 들어, 실행될 수 있는 애플리케이션들에 대응되는 아이콘들(611 내지 617)이 애플리케이션의 목록일 수 있다.
한편, 도 7a는 도 6a에 대응하는 액티비티 스택(activity stack)에 대한 개념도이다. 전체 화면인 F 영역에서 A 애플리케이션의 실행 창이 표시됨에 따라서, 제어부(도시되지 않음)는 도 7a와 같이 A 애플리케이션의 스택을 생성한다.
여기서, 사용자(10)는 B 애플리케이션을 추가적으로 실행하도록 디스플레이 장치(600)를 조작할 수 있다. 예를 들어, 도 7b에서와 같이 B 애플리케이션에 대응되는 아이콘(612)을 터치한 이후에, 도 7c에서와 같이 제 6 영역(623)으로 드래그할 수 있다.
수신된 드래그 입력이 제 6 영역(623)에서 종료되면, 디스플레이 장치(600)는 선택된 아이콘에 대응하는 B 애플리케이션을 실행한다. 또한, 디스플레이 장치(600)는 F 영역에 배치되어 있던 A 애플리케이션은 제 5 영역(619)에 배치한다. 디스플레이 장치(600)는 추가적으로 실행된 B 애플리케이션은 제 6 영역(623)에 배치한다.
결과적으로, 도 6d에서와 같이 A 애플리케이션의 실행 창(620)이 제 5 영역(619)에 표시되고, B 애플리케이션의 실행 창(630)이 제 6 영역(623)에 표시된다.
여기서, 디스플레이 장치(600)는 제 5 영역(619) 및 제 6 영역(623) 간의 경계선 상에 버튼(622)을 표시할 수 있다. 또한, 버튼(622) 상에, 가장 마지막에 실행된 B 애플리케이션의 실행 창(630)을 지시하는 지시자(indicator)(621)를 표시할 수 있다. 지시자(621)는 액티비티 스택에서 가장 상위에 배치된 애플리케이션의 실행 창이 표시되는 영역을 지시할 수 있다.
한편, 도 7b는 도 6d에 대응하는 액티비티 스택에 대한 개념도이다. F 영역에서 표시되던 A 애플리케이션의 스택은 제 5 영역(619)에 표시되는 것으로 변경된다. 또한, B 애플리케이션이 실행됨에 따라서, B 애플리케이션의 액티비티 스택이 생성되고, B 애플리케이션은 제 6 영역(623)에 배치된다. B 애플리케이션의 액티비티 스택은 가장 상위에 배치된다.
도 6e를 참조하면, 사용자(10)는 버튼(622)이 표시된 상태에서, 버튼의 위치를 변경할 수 있다. 도 5a 및 도 5b에서 본 바와 같이, 버튼의 위치가 변경됨에 따라서 애플리케이션의 실행 창이 표시되는 영역의 크기가 변경될 수 있다.
이후, 도 6f에서와 같이, 사용자(10)는 C 애플리케이션에 대응되는 아이콘(613)을 터치한 이후, 도 6g에서와 같이 아이콘(613)을 제 4 영역(627)으로 드래그할 수 있다. 여기서, 제 4 영역(627)의 크기는 버튼(622)의 위치에 따라서 결정될 수 있다.
C 애플리케이션에 대응되는 아이콘(613)을 제 4 영역(627)으로 드래그하는 입력이 종료되면, 디스플레이 장치(600)는 C 애플리케이션을 실행할 수 있다. 도 6h와 같이, 디스플레이 장치(600)는 C 애플리케이션의 실행 창(640)을 제 4 영역(627) 상에 표시할 수 있다. 이 때, 디스플레이 장치(600)는 버튼(622) 상에 C 애플리케이션의 실행 창(640)이 표시되는 활성화 영역을 지시하는 지시자(621)를 표시할 수 있다.
한편, 도 7c는 도 6h에 대응하는 액티비티 스택에 대한 개념도이다. 제어부(도시되지 않음)는 C 애플리케이션이 실행됨에 따라서 C 애플리케이션의 스택을 생성한다. 여기서, C 애플리케이션은 제 4 영역(627)에 할당된다. 도 6e에서 B 애플리케이션의 실행 창(630)이 표시되던 영역이 분할됨에 따라서, B 애플리케이션은 제 2 영역에 할당된다.
도 6i에서와 같이, 사용자(10)는 버튼(622)을 이동하는 입력에 따라서 각 애플리케이션의 실행 창(620 내지 640)이 표시되는 영역의 크기를 조절할 수 있다.
이후, 도 6j에서와 같이, 사용자(10)는 D 애플리케이션에 대응되는 아이콘(614)을 터치한 이후, 도 6k에서와 같이 D 애플리케이션에 대응되는 아이콘(614)을 제 3 영역(614)으로 드래그할 수 있다.
D 애플리케이션에 대응되는 아이콘(614)을 제 3 영역(631)으로 드래그하는 입력이 종료되면, 디스플레이 장치(600)는 D 애플리케이션을 실행할 수 있다. 도 6l과 같이, 디스플레이 장치(600)는 D 애플리케이션의 실행 창(650)을 제 3 영역(631) 상에 표시할 수 있다. 이 때, 디스플레이 장치(600)는 버튼(622) 상에 D 애플리케이션의 실행 창(650)이 표시되는 활성화 영역을 지시하는 지시자(621)를 표시할 수 있다.
한편, 도 7d는 도 6l에 대응하는 액티비티 스택에 대한 개념도이다. 제어부(도시되지 않음)는 D 애플리케이션이 실행됨에 따라서 D 애플리케이션의 스택을 생성한다. 여기서, D 애플리케이션은 제 3 영역(631)에 할당된다. 도 6i에서 A 애플리케이션의 실행 창(620)이 표시되던 영역이 분할됨에 따라서, A 애플리케이션은 제 1 영역에 할당된다.
이후, 도 6m에서와 같이, 사용자(10)는 E 애플리케이션에 대응되는 아이콘(615)을 터치한 이후, E 애플리케이션에 대응되는 아이콘(615)을 경계 영역(659)으로 드래그할 수 있다. 여기서, 경계 영역(659)은 디스플레이 장치(600)에 의해 설정되고, 경계선(680)을 포함하는 영역이다.
E 애플리케이션에 대응되는 아이콘(615)을 경계 영역(659)으로 드래그하는 입력이 종료되면, 디스플레이 장치(600)는 E 애플리케이션을 실행할 수 있다. 도 6n과 같이, 디스플레이 장치(600)는 경계 영역에 포함된 경계선(680)에 인접한 제 1 영역 및 제 2 영역을 포함하는 제 7 영역에 E 애플리케이션의 실행 창(660)을 배치할 수 있다. 이 때, 디스플레이 장치(600)는 버튼(622) 상에 E 애플리케이션의 실행 창(660)이 표시되는 활성화 영역을 지시하는 지시자(621)를 표시할 수 있다.
한편, 도 7e는 도 6n에 대응되는 액티비티 스택에 대한 개념도이다. 제어부(도시되지 않음)는 E 애플리케이션의 스택을 생성할 수 있다. E 애플리케이션은 제 7 영역에 배치가 되고, 제 7 영역에 포함되는 제 1 영역 및 제 2 영역에 표시되던 A 애플리케이션 및 B 애플리케이션은 제 7 영역으로 배치된다.
이후, 도 6o에서와 같이, 사용자(10)는 F 애플리케이션에 대응되는 아이콘(616)을 터치한 이후, F 애플리케이션에 대응되는 아이콘(616)을 제 2 영역(661)으로 드래그할 수 있다.
F 애플리케이션에 대응되는 아이콘(616)을 제 2 영역(661)으로 드래그하는 입력이 종료되면, 디스플레이 장치(600)는 F 애플리케이션을 실행할 수 있다. 도 6p과 같이, 디스플레이 장치(600)는 F 애플리케이션의 실행 창(670)을 제 2 영역(661) 상에 표시할 수 있다. 이 때, 제어부(도시되지 않음)는 제 7f와 같이 제 2 영역에 배치된 F 애플리케이션의 스택을 생성할 수 있다. 제 7 영역에 배치된 A 애플리케이션, B 애플리케이션 및 E 애플리케이션은, 제 7 영역이 분할됨에 따라서, 제 1 영역에 배치될 수 있다.
이후, 도 6p에서와 같이, 터치스크린은 사용자(10)로부터 E 애플리케이션의 실행 창(660)을 선택하는 입력을 수신할 수 있다. 제어부(도시되지 않음)는 E 애플리케이션의 실행 창(660)이 선택됨에 따라서, 도 7g와 같이 E 애플리케이션의 스택을 가장 상위로 배치할 수 있다. 이 때, 디스플레이 장치(600)는 버튼(622) 상에 E 애플리케이션의 실행 창(660)에 표시되는 위치를 지시하는 지시자(621)를 표시할 수 있다.
도 6q를 참조하면, 디스플레이 장치(600)는 사용자(10)로부터 버튼(622)을 선택하는 입력을 수신할 수 있다. 예를 들어, 사용자(10)는 버튼(622)을 터치할 수 있다. 디스플레이 장치(600)는 버튼(622)을 선택하는 입력이 수신됨에 따라서, 활성화된 영역인 제 1 영역에 배치된 애플리케이션의 목록(611, 612 및 615)을 표시할 수 있다. 즉, 도 7g의 액티비티 스택을 참조하여, 영역 1에 배치된 A 애플리케이션, B 애플리케이션 및 E 애플리케이션에 대응하는 아이콘을 제 1 영역에 표시할 수 있다.
또한, 버튼(622)을 선택하는 입력이 수신됨에 따라서, 디스플레이 장치(600)는 제 1 영역에 표시된 애플리케이션의 실행 창과 관련된 동작에 대응하는 아이콘(691, 692, 693)을 더 표시할 수 있다.
디스플레이 장치(600)는 제 1 영역에 표시된 아이콘 중 A 애플리케이션에 대응되는 아이콘(611)을 선택하는 입력이 수신됨에 따라서, 도 6s와 같이 제 1 영역에 A 애플리케이션의 실행 창(620)을 표시할 수 있다.
도 7h는 도 6s에 대응하는 액티비티 스택의 개념도이다. 제어부(도시되지 않음)는 중 A 애플리케이션에 대응되는 아이콘(611)을 선택하는 입력이 수신됨에 따라서, A 애플리케이션의 스택을 가장 상위에 배치할 수 있다.
도 6t를 참조하면, 버튼(622)을 선택하는 입력이 수신됨에 따라서 활성화된 영역인 제 1 영역에 배치된 애플리케이션의 목록(611, 612 및 615)을 표시할 수 있다. 또한, 도 6t에 도시된 바와 같이, 사용자(10)로부터 B 애플리케이션에 대응되는 아이콘(612)을 C 애플리케이션의 실행 창(640)이 표시된 영역으로 드래그하는 입력을 수신할 수 있다. B 애플리케이션에 대응되는 아이콘(612)을 C 애플리케이션의 실행 창(640)이 표시된 영역으로 드래그하는 입력이 종료됨에 따라서, 도 6u에 도시된 바와 같이 디스플레이 장치(600)는 B 애플리케이션의 실행 창(630)을 제 4 영역에 표시할 수 있다. 이 때, 디스플레이 장치(600)는 버튼(622) 상에 B 애플리케이션의 실행 창(630)이 표시되는 위치를 지시하는 지시자(621)를 표시할 수 있다.
한편, 도 7i는 도 6u에 대응하는 액티비티 스택의 개념도이다. B 애플리케이션에 대응하는 실 창(630)이 제 4 영역에 표시됨에 따라서, 제어부(도시되지 않음)는 B 애플리케이션이 배치된 영역을 제 4 영역으로 업데이트하고, B 애플리케이션의 스택을 가장 상위로 배치한다.
도 6v를 참조하면, 버튼(622)을 선택하는 입력이 수신됨에 따라서 활성화된 영역인 제 1 영역에 표시된 애플리케이션의 실행 창과 관련된 동작에 대응하는 아이콘(691, 692, 693)을 더 표시할 수 있다. 애플리케이션의 실행 창과 관련된 동작은 애플리케이션 실행 창에 대한 다양한 부가 기능을 수행하는 것일 수 있다. 예를 들면, 실행 창과 관련된 동작에 대응하는 아이콘은 실행 창을 종료하는 종료 버튼(691), 실행 창을 상기 터치스크린의 전체 영역에 표시하는 전체화면 버튼(692) 및 실행 창을 캡쳐하는 캡쳐 버튼(693) 중 적어도 하나를 포함할 수 있다. 다만, 본 발명이 이 예시에 한정되는 것은 아니다. 도 6v의 (a)에서 도시된 바와 같이, 사용자(10)로부터 종료 버튼(691)을 선택하는 입력이 수신되면, 도 6v의 (b)에서 도시된 바와 같이 제어부(도시되지 않음)는 A 애플리케이션의 실행 창을 종료할 수 있다.
도 7j는 도 6v에 대응하는 액티비티 스택의 개념도이다. A 애플리케이션의 실행 창이 종료됨에 따라서, A 애플리케이션의 스택을 삭제할 수 있다.
도 6w를 참조하면, 도 6w의 (a)에서 도시된 바와 같이, 사용자(10)로부터 전체 화면 버튼(692)을 선택하는 입력이 수신됨에 따라서, 디스플레이 장치(600)는 도 6w의 (b)에서 도시된 바와 같이 활성화된 영역에 표시된 A 애플리케이션의 실행 창(660)을 터치스크린의 전체 영역에 표시할 수 있다.
또한, 사용자(10)로부터 캡쳐 버튼(693)을 선택하는 입력이 수신됨에 따라서, 디스플레이 장치(600)는 활성화된 실행 창(660)을 캡쳐할 수 있다.
도 8은 본 발명의 일 실시 예에 따라 디스플레이 장치가 애플리케이션을 실행하기 위한 사용자 인터페이스를 제공하는 방법을 설명하기 위한 순서도이다.
먼저, 디스플레이 장치는 터치스크린 상에 포함된 복수의 영역 각각에 애플리케이션 실행 창을 표시할 수 있다(S810). 또한, 디스플레이 장치는 복수의 영역을 구분하는 적어도 하나의 경계선 상에 버튼을 표시할 수 있다(S820).
여기서, 디스플레이 장치는 버튼 상에 활성화 영역을 지시하는 지시자를 표시할 수 있다. 활성화 영역은 복수의 영역 중에서 마지막으로 선택된 영역을 의미할 수 있다. 또한, 활성화 영역은 사용자 입력에 의해 제어될 수 있는 상태의 실행 창이 표시되는 영역을 의미한다.
이후, 디스플레이 장치는 버튼을 선택하는 입력을 수신할 수 있다(S830). 디스플레이 장치는 버튼을 선택하는 입력이 수신됨에 따라서 소정의 영역에 애플리케이션의 목록을 표시할 수 있다(S840). 여기서, 소정의 영역은 활성화 영역일 수 있다.
또한, 애플리케이션의 목록은 적어도 하나의 애플리케이션에 대응하는 적어도 하나의 아이콘의 목록일 수 있다. 디스플레이 장치는 목록에 포함된 애플리케이션 중 적어도 하나를 선택하는 입력을 수신하는 경우, 선택된 애플리케이션의 실행 창을 선택된 영역에 표시할 수 있다. 디스플레이 장치는 목록에 포함된 아이콘을 드래그하는 터치 입력을 수신한 경우, 아이콘이 드래그된 영역에 아이콘에 대응되는 애플리케이션의 실행 창을 표시할 수 있다.
또한, 디스플레이 장치는 소정의 영역에 표시된 애플리케이션 실행 창과 관련된 동작에 대응하는 아이콘을 더 표시할 수 있다. 소정의 영역에 표시된 애플리케이션 실행 창과 관련된 동작에 대응하는 아이콘은 소정의 영역에 표시된 애플리케이션 실행 창을 캡쳐하는 캡쳐 버튼, 소정의 영역에 표시된 애플리케이션 실행 창을 종료하는 종료 버튼 및 소정의 영역에 표시된 애플리케이션의 실행 창을 상기 터치스크린의 전체 영역에 표시하는 전체화면 버튼 중 적어도 하나를 포함할 수 있다.
도 9는 본 발명의 다른 실시예에 따라 디스플레이 장치가 애플리케이션을 실행하는 방법을 설명하기 위한 순서도이다.
먼저, 디스플레이 장치는 터치스크린 상에 포함된 복수의 영역 각각에 애플리케이션 실행 창을 표시할 수 있다(S910). 또한, 디스플레이 장치는 복수의 영역을 구분하는 적어도 하나의 경계선 상에 버튼을 표시할 수 있다(S920).
이후, 디스플레이 장치는 적어도 하나의 애플리케이션 실행 아이콘을 포함하는 목록을 터치스크린의 일부 영역에 표시할 수 있다(S930).
이후, 디스플레이 장치는 애플리케이션 실행 아이콘이 드래그된 위치 및 버튼의 위치에 기초하여, 신규 애플리케이션 실행 영역을 결정할 수 있다(S940). 여기서, 신규 애플리케이션 실행 영역은, 추가적으로 실행되는 애플리케이션의 실행 창이 표시될 영역을 의미한다.
여기서, 드래그하는 입력이 종료된 위치가 상기 적어도 하나의 경계선을 포함하는 경계 영역에 포함되는 경우, 적어도 하나의 경계선에 인접한 영역들을 포함하도록 신규 애플리케이션 실행 영역을 결정할 수 있다.
이후, 디스플레이 장치는 결정된 신규 애플리케이션 실행 영역에 애플리케이션의 실행 창을 표시할 수 있다(S950).
도 10은 본 발명의 일 실시예에 따른 디스플레이 장치의 구조를 간단히 도시한 구조도이다.
본 발명의 일 실시예에 따른 디스플레이 장치(1000)는 복수의 영역 각각에 애플리케이션 실행 창을 표시하고, 복수의 영역을 구분하는 적어도 하나의 경계선 상에 버튼을 표시하며, 버튼을 선택하는 입력을 수신하는 터치스크린(1010) 및 수신된 입력에 기초하여, 복수의 영역 중 소정의 영역에서 실행되는 적어도 하나의 애플리케이션 목록이 소정의 영역에 표시되도록 터치스크린을 제어하는 제어부(1020)를 포함할 수 있다.
여기서, 소정의 영역은 사용자 입력에 의해 제어될 수 있는 활성화 영역을 포함한다. 활성화 영역은 복수의 영역 중에서 마지막으로 선택된 영역일 수 있다.
또한, 제어부(1020)는 버튼 상에 상기 활성화 영역을 지시하는 지시자를 표시하도록 상기 터치스크린을 제어할 수 있다.
도 11a 내지 도 11d는 본 발명의 일 실시예에 따라 버튼을 표시하는 방법을 설명하기 위한 도면이다.
도 11a를 참조하면, 디스플레이 장치(1100)는 복수의 애플리케이션의 실행 창이 표시되는 영역을 구분하는 경계선 상에 버튼(1122)을 표시할 수 있다. 또한, 디스플레이 장치(1100)는 애플리케이션 실행 창을 표시하는 레이아웃에 따라서, 정렬선(1120)을 설정할 수 있다. 도 11a에 표시된 점선(1120) 이외에 터치스크린의 테두리 또한 정렬선에 더 포함될 수 있다.
또한, 디스플레이 장치(1100)는 정렬 영역(1110)을 더 설정할 수 있다. 정렬선(1120)은 정렬 영역(1110) 내에 포함될 수 있다.
도 11a에 도시된 바와 같이, 정렬선(1120) 및 정렬 영역(1110)은 터치스크린에 표시된 애플리케이션의 실행 창의 수 및 위치에 기초하여 결정될 수 있다. 즉, 레이아웃이 상하 2 분할 레이아웃, 좌우 2 분할 레이아웃, 3 분할 레이아웃, 4 분할 레이아웃 등인 경우, 각각의 레이아웃에 따라 정렬선(1120) 및 정렬 영역(1110)이 설정될 수 있다.
도 11b를 참조하면, 디스플레이 장치(1100)는 터치스크린을 통해 버튼(1122)을 정렬 영역(1110) 내로 이동하는 입력을 수신하는 경우, 버튼(1122)이 이동된 마지막 위치로부터 가장 가까운 거리의 정렬선(1120) 상으로 버튼(1122)을 이동할 수 있다.
디스플레이 장치(1100)는 정렬선(1120) 상으로 이동된 버튼(1122)의 위치에 기초하여 애플리케이션의 실행 창이 표시되는 영역을 결정할 수 있다. 이에 따라서, 디스플레이 장치(1100)는 애플리케이션의 실행 창이 표시되는 영역을 정렬할 수 있다.
또한, 도 11c의 (a)를 참조하면, 디스플레이 장치(1100)는 정렬선(1120) 상의 기 설정된 지점에 정렬지점(1130)을 설정할 수 있다. 디스플레이 장치(1100)는 버튼(1122)에 대한 소정의 입력(예를 들어, 버튼을 연속하여 2회 터치하는 입력)을 수신하는 경우, 도 11c의 (b)와 같이 버튼(1122)을 정렬지점(1130)으로 이동시킬 수 있다.
또한, 본 발명의 일 실시예에 따르면, 도 11a 내지 도 11c에 기초하여 버튼(1122)이 이동하는 경우, 도 11d에 도시된 함수를 이용한 애니메이션을 적용할 수 있다. 즉, 버튼(1122)이 정렬선(1120) 또는 정렬지점(1130)으로 이동하는 경우, 버튼(1122)이 정렬선(1120) 또는 정렬지점(1130)을 지나친 후 다시 정렬선(1120) 또는 정렬지점(1130)으로 이동할 수 있다.
도 12는 일부 실시 예에 따라 애플리케이션 실행 창을 표시하도록 디스플레이 장치를 제어하는 프로세스를 도시한 순서도이다.
먼저, 디스플레이 장치는 터치스크린 상에 플로팅 버튼(floating button)을 표시할 수 있다(S1201). 플로팅 버튼은 디스플레이 장치에 의해 표시되는 컨텐츠(예를 들어, 애플리케이션 실행 창)보다 상위에 표시되며, 사용자의 입력에 따라서 위치가 이동되는 객체를 의미할 수 있다. 예를 들어, 플로팅 버튼은 사용자로부터 드래그(drag) 입력을 수신함에 따라서 위치가 이동되는 반투명한 아이콘일 수 있다.
또한, 디스플레이 장치는 플로팅 버튼이 표시된 위치에 따라서 디스플레이 장치를 제어하기 위한 사용자 인터페이스를 터치스크린 상에 표시할 수 있다. 일부 실시 예에 따르면, 디스플레이 장치는 플로팅 버튼의 주변에 레이아웃 버튼을 포함하는 사용자 인터페이스를 표시할 수 있다(S1202). 레이아웃 버튼은 애플리케이션 실행 창의 표시 방식을 결정하는 객체를 의미할 수 있다. 표시 방식은 애플리케이션 실행 창을 표시하기 위한 디스플레이 모드(display mode)를 의미할 수 있다. 예를 들어, 표시 방식은 도 13에 도시된 바와 같이 터치스크린에 대해 설정된 각각의 영역들(1210, 1220, 1230) 내에 애플리케이션 실행 창을 표시하는 창 모드(window mode), 도 19에 도시된 바와 같이 터치스크린 전체를 분할한 영역들 각각에 애플리케이션 실행 창을 표시하는 분할 모드(partition mode) 및 도 21에 도시된 바와 같이 각 애플리케이션에 대응되는 탭(2000)을 표시하는 탭 모드(tap mode) 중 어느 하나일 수 있으나, 이에 한정되지 아니한다.
이후, 디스플레이 장치는 사용자 입력에 기초하여 레이아웃 버튼을 선택할 수 있다. 여기서, 사용자 입력은 터치스크린 상에 표시된 레이아웃 버튼에 대한 터치 입력일 수 있다. 레이아웃 버튼이 선택되면(S1203), 디스플레이 장치는 선택된 레이아웃 버튼에 따라서 터치스크린에 애플리케이션의 실행 창을 표시할 수 있다(S1204).
도 13 내지 도 23은 일부 실시 예에 따라 디스플레이 장치가 애플리케이션 실행 창을 디스플레이하는 방법을 도시한 예시도이다.
도 13에 도시된 바와 같이, 디스플레이 장치(1200)는 터치스크린 상에 버튼(220)을 표시할 수 있다. 여기서 버튼(220)은 플로팅 버튼일 수 있다. 또한, 디스플레이 장치(1200)는 적어도 하나의 애플리케이션 실행 창을 표시할 수 있다. 예를 들어, 표시 방식이 창 모드인 경우, 디스플레이 장치(1200)는 터치스크린에 대해 설정된 각각의 영역들(1210, 1220, 1230) 내에 애플리케이션 실행 창을 표시할 수 있다. 도 13 내지 도 18은 표시 방식이 창 모드인 경우 디스플레이 장치가 애플리케이션 실행 창을 표시하는 예시를 도시한 도면이다.
버튼(220)이 플로팅 버튼인 경우, 사용자의 터치 입력에 따라서 버튼(220)이 표시되는 위치가 변경될 수 있다. 예를 들어 도 14에 도시된 바와 같이, 디스플레이 장치(1200)는 버튼(220)이 표시된 위치로부터 시작되는 드래그 입력을 사용자(10)로부터 터치스크린을 통해서 수신할 수 있다. 드래그 입력이 수신되면, 도 15에 도시된 바와 같이, 디스플레이 장치는 드래그 입력이 종료된 위치에 버튼(220)을 표시할 수 있다. 드래그 입력은 일 실시 예를 설명하기 위한 터치 입력의 예시일 뿐, 다른 방식의 터치 입력으로 대체될 수 있다. 여기서, 버튼(220)이 위치한 영역에 표시될 애플리케이션 실행 화면을 사용자가 볼 수 있도록 하기 위하여, 버튼(220)은 투명하거나 반투명하게 표시될 수 있다.
또한, 일부 실시 예에 따르면, 디스플레이 장치(1200)는 사용자(10)가 버튼(220)을 선택하는 사용자 입력을 수신할 수 있다. 예를 들면, 도 16에 도시된 바와 같이, 디스플레이 장치(1200)는 버튼(220)이 표시된 위치에 대한 터치 입력을 수신할 수 있다. 버튼(220)을 선택하는 입력이 수신되면, 도 17에 도시된 바와 같이 디스플레이 장치(1200)는 버튼(220)의 주변에 사용자 인터페이스(1600)를 표시할 수 있다. 사용자 인터페이스(1600)는 사용자(10)가 디스플레이 장치(1200)를 제어하기 위한 GUI(Graphic User Interface) 객체(예를 들어, 아이콘(icon)) 등을 포함할 수 있다. 레이아웃 버튼은 애플리케이션 실행 창의 표시 방식을 결정하는 객체를 의미할 수 있다. 표시 방식은 애플리케이션 실행 창을 표시하기 위한 디스플레이 모드(display mode)를 의미할 수 있다. 예를 들어, 표시 방식은 도 13에 도시된 바와 같이 터치스크린에 대해 설정된 각각의 영역들(1210, 1220, 1230) 내에 애플리케이션 실행 창을 표시하는 창 모드(window mode), 도 19에 도시된 바와 같이 터치스크린 전체를 분할한 영역들 각각에 애플리케이션 실행 창을 표시하는 분할 모드(partition mode) 및 도 21에 도시된 바와 같이 각 애플리케이션에 대응되는 탭(2000)을 표시하는 탭 모드(tap mode) 중 어느 하나일 수 있으나, 이에 한정되지 아니한다.
도 18에 도시된 바와 같이, 사용자 인터페이스(1600)에 포함된 분할 모드 버튼(1601)이 사용자(10)의 터치 입력에 의해 선택되면, 디스플레이 장치(1200)는 터치스크린의 전체 영역을 복수의 영역으로 분할할 수 있다. 디스플레이 장치(1200)는 애플리케이션 실행 창들을 분할된 복수의 영역 각각에 디스플레이할 수 있다. 여기서, 디스플레이 장치는 도 19에 도시된 바와 같이, 버튼(220)의 위치에 기초하여 터치스크린의 전체 영역을 분할할 수 있다.
또한, 도 20에 도시된 바와 같이, 사용자 인터페이스(1600)에 포함된 탭 모드 버튼(1602)이 사용자(10)의 터치 입력에 의해 선택되면, 디스플레이 장치(1200)는 애플리케이션 실행 창을 선택하기 위한 탭(tap)을 디스플레이할 수 있다. 예를 들어, 도 21에 도시된 바와 같이, 디스플레이 장치(1200)는 애플리케이션 실행 창을 선택하기 위한 탭을 터치스크린 상에 표시할 수 있다. 디스플레이 장치(1200)는 선택된 탭에 대응하는 애플리케이션 실행 창을 터치스크린을 통해 표시할 수 있다. 또한, 일부 실시 예에 따르면, 디스플레이 장치(1200)는 사용자 인터페이스(1600)를 통해 사용자 입력이 수신되면, 수신된 사용자 입력에 따른 동작을 실행하고, 버튼(220)을 터치스크린의 가장자리에 표시할 수 있다. 도 21에 도시된 바와 같이 버튼(220)을 터치스크린의 가장자리로 이동시킴으로써, 버튼(220)이 애플리케이션 실행화면을 가리는 것을 방지할 수 있다.
도 22 및 도 23은 일부 실시 예에 따라 디스플레이 장치가 애플리케이션 실행 창을 디스플레이하는 방법을 도시한 예시도이다.
일부 실시 예에 따르면, 디스플레이 장치(1200)는 버튼의 주변에 애플리케이션 실행 아이콘을 표시할 수 있다. 애플리케이션 실행 아이콘은 각각 실행 중인 애플리케이션 또는 디스플레이 장치(1200)에 설치된 애플리케이션에 대응될 수 있다. 예를 들면, 도 22에 도시된 바와 같이 디스플레이 장치(1200)는 애플리케이션 실행 아이콘들(2101, 2102, 2103, 2104, 2105)을 표시할 수 있다.
디스플레이 장치(1200)는 표시된 애플리케이션 실행 아이콘에 대한 사용자 입력이 수신되면, 애플리케이션 실행 아이콘에 대응하는 애플리케이션 실행 창을 표시할 수 있다. 예를 들어, 도 23에 도시된 바와 같이, 사용자(10)는 E 애플리케이션에 상응하는 애플리케이션 실행 아이콘(2105)을 한 방향(2200)으로 드래그할 수 있다. 애플리케이션 실행 아이콘(2105)을 드래그하는 터치 입력이 수신되면, 디스플레이 장치(1200)는 드래그 입력의 반대 방향에 위치하는 가장자리(2201)로부터 E 애플리케이션의 실행 창(2210)을 표시할 수 있다.
도 24는 일부 실시 예에 따라 디스플레이 장치가 사용자 인터페이스를 표시하는 프로세스를 도시한 순서도이다.
먼저, 디스플레이 장치는 터치스크린 상에 플로팅 버튼(floating button)을 표시할 수 있다(S2410). 플로팅 버튼은 디스플레이 장치에 의해 표시되는 컨텐츠(예를 들어, 애플리케이션 실행 창)보다 상위에 표시되며, 사용자의 입력에 따라서 위치가 이동되는 객체를 의미할 수 있다. 예를 들어, 플로팅 버튼은 사용자로부터 드래그(drag) 입력을 수신함에 따라서 위치가 이동되는 반투명한 아이콘일 수 있다.
이후, 디스플레이 장치는 플로팅 버튼이 터치스크린 상의 어느 위치에 표시되었는지를 나타내는 좌표 값을 획득할 수 있다(S2420). 예를 들어, 디스플레이 장치는 플로팅 버튼의 중심점의 위치를 나타내는 좌표 값을 획득할 수 있다. 다만, 이에 한정되는 것은 아니며, 디스플레이 장치가 좌표 값을 획득하는 방법은 실시 예에 따라 다양하게 변경될 수 있다. 디스플레이 장치는 S2420 단계에서 획득된 좌표 값에 상응하는 애플리케이션 실행 창이 존재하는지 여부를 판단할 수 있다(S2430).
S2420 단계에서 획득된 좌표 값에 상응하는 애플리케이션 실행 창이 존재하는 경우, 디스플레이 장치는 기본 사용자 인터페이스를 표시할 수 있다(S2440). 도 25는 일부 실시 예에 따라 기본 사용자 인터페이스를 표시하는 디스플레이 장치(2500)를 도시한 예시도이다. 버튼(220)이 애플리케이션 실행 창이 표시되지 않은 영역에 위치하는 경우, 도 25에 도시된 바와 같이 디스플레이 장치(2500)는 버튼(220)의 주변에 기본 사용자 인터페이스를 디스플레이할 수 있다. 예를 들어, 디스플레이 장치(2500)는 홈 버튼(2511), 전원 버튼(2512) 및 검색 버튼(2513) 등을 포함하는 기본 사용자 인터페이스를 버튼(@20) 주변에 표시할 수 있다.
또는, S2420 단계에서 획득된 좌표 값에 상응하는 위치에 애플리케이션 실행 창이 존재하는 경우, 디스플레이 장치는 애플리케이션 실행 창에 상응하는 사용자 인터페이스를 표시할 수 있다(S2445). 도 25는 일부 실시 예에 따라 버튼(220)을 드래그하는 입력을 수신하는 디스플레이 장치(2500)를 도시한 예시도이다. 도 25에 도시된 바와 같이, 사용자(10)는 디스플레이 장치(2500)의 터치스크린 상에 도시된 버튼(220)을 A 애플리케이션(2611) 및 B 애플리케이션(2612)에 상응하는 영역(2613)으로 드래그하는 버튼을 수신할 수 있다. 도 25에 도시된 바와 같이 이동된 버튼(220)의 좌표 값에 상응하는 복수의 애플리케이션들이 존재하는 경우, 복수의 애플리케이션들 중 액티비티 스택의 상단에 위치하는 애플리케이션에 상응하는 사용자 인터페이스를 표시할 수 있다. 도 27은 일부 실시 예에 따라 버튼(220)의 좌표 값에 상응하는 애플리케이션에 상응하는 사용자 인터페이스를 표시하는 디스플레이 장치를 도시한 예시도이다. 버튼(220)이 A 애플리케이션(2611) 및 B 애플리케이션(2612)에 상응하는 영역(2613) 내에 위치하는 경우, 디스플레이 장치(2500)는 B 애플리케이션(2612) 보다 액티비티 스택의 상단에 위치한 A 애플리케이션(2611)에 상응하는 사용자 인터페이스를 표시할 수 있다. 예를 들면, A 애플리케이션(2611)이 인터넷 브라우저인 경우, 디스플레이 장치(220)는 북마크 버튼(2521), 새로 고침 버튼(2522) 및 공유 버튼(2523) 등을 포함하는 사용자 인터페이스를 표시할 수 있다.
도 28은 일부 실시 예에 따라 디스플레이 장치가 애플리케이션 실행 창을 표시하는 프로세스를 도시한 순서도이다.
먼저, 디스플레이 장치는 터치스크린 상에 플로팅 버튼(floating button)을 표시할 수 있다(S2810). 디스플레이 장치는 플로팅 버튼에 대한 터치 입력을 수신할 수 있다(S2820). 예를 들어, 디스플레이 장치는 플로팅 버튼을 드래그하는 입력을 수신할 수 있다. 여기서, 터치 입력을 수신하는 시점의 플로팅 버튼의 위치가 제어 영역에 포함되는 경우(S2830), 디스플레이 장치는 애플리케이션 실행 창의 크기를 변경할 수 있다(S2840).
도 29 내지 도 33은 일부 실시 예에 따라 디스플레이 장치가 애플리케이션 실행 창을 표시하는 방법을 도시한 예시도이다.
도 29에 도시된 바와 같이, 디스플레이 장치(2900)는 터치스크린에 A 애플리케이션의 실행 화면이 표시된 상태에서, 제어 엉역(2910) 내에 위치한 버튼(220)에 대한 사용자(10)의 터치 입력을 수신할 수 있다. 예를 들어, 터치 입력은 버튼(220)을 드래그하는 입력일 수 있다. 이 경우, 제어 영역(2910)은 A 애플리케이션의 실행 화면이 표시된 영역 중 일부일 수 있다. 제어 엉역(2910) 내에 위치한 버튼(220)에 대한 사용자(10)의 터치 입력이 수신되면, 디스플레이 장치(2900)는 도 30에 도시된 바와 같이 축소된 A 애플리케이션의 실행 화면(3010)을 표시하고, A 애플리케이션의 실행 화면(3010)이 표시되지 않은 영역에 B 애플리케이션의 실행 화면(3020)을 표시할 수 있다.
또한, 도 31와 같이 A 애플리케이션의 실행 화면(3010) 및 B 애플리케이션의 실행 화면(3020)이 표시된 상태에서, 디스플레이 장치(2900) A 애플리케이션의 실행 화면(3010)이 표시된 영역 내에 위치한 버튼(220)에 대한 사용자(10)의 터치 입력을 수신할 수 있다. 이 경우, A 애플리케이션의 실행 화면(3010)이 표시된 영역이 제어 영역일 수 있다. 도 32에 도시된 바와 같이 버튼(220)을 드래그하는 사용자(10)의 터치 입력이 수신되면, 일부 실시 예에 따른 디스플레이 장치(2900)는 터치스크린 전체에 A 애플리케이션 실행 화면(3210)을 표시할 수 있다. 또는, 다른 일부 실시 예에 따른 디스플레이 장치(2900)는 도 33에 도시된 바와 같이 A 애플리케이션 실행 화면(3310)이 제 1 방향(3311)으로 확대되는 애니메이션을 표시할 수 있다. 또한, B 애플리케이션 실행 화면(3320)이 제 2 방향(3321)으로 이동하는 애니메이션을 표시할 수 있다.
도 34는 일부 실시 예에 따라 버튼을 이용하여 부가적인 기능을 제공하는 프로세스를 도시한 순서도이다. 또한, 도 35는 일부 실시 예에 따라 버튼을 이용하여 부가적인 기능을 제공하는 디스플레이 장치를 도시한 예시도이다.
먼저, 디스플레이 장치는 터치스크린 상에 플로팅 버튼(floating button)을 표시할 수 있다(S3410). 디스플레이 장치는 플로팅 버튼에 대한 터치 입력을 수신할 수 있다(S3420). 예를 들어, 디스플레이 장치는 플로팅 버튼을 더블 터치하는 입력을 수신할 수 있다. 여기서, 더블 터치란 미리 설정된 시간 이내에 버튼을 2회 터치하는 입력을 의미할 수 있다.
플로팅 버튼에 대한 터치 입력이 수신되면, 디스플레이 장치는 플로팅 버튼의 위치가 애플리케이션 실행 창에 포함되는 경우(S3430), 플로팅 버튼의 위치에 표시된 컨텐츠를 확대한 이미지를 버튼 주변에 표시할 수 있다(S2840). 도 35를 참조하면, 디스플레이 장치(3500)는 버튼(220)의 주변에 컨텐츠를 확대한 이미지(3510)를 표시할 수 있다. 여기서, 컨텐츠는 이미지나 동영상 등 터치스크린 상에 표시된 정보를 의미할 수 있다.
본 발명의 일 실시예는 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, RAM과 같은 휘발성 및 ROM 과 같은 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체 및 통신 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. 통신 매체는 전형적으로 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈, 또는 반송파와 같은 변조된 데이터 신호의 기타 데이터, 또는 기타 전송 메커니즘을 포함하며, 임의의 정보 전달 매체를 포함한다. 예를 들어, 컴퓨터 저장 매체는 ROM, RAM, 플래시 메모리, CD, DVD, 자기 디스크 또는 자기 테이프 등으로 구현될 수 있다. 본 발명의 일 실시예에 따르면, 컴퓨터 저장 매체에 터치스크린 상에 포함된 복수의 영역 각각에 애플리케이션 실행 창을 표시하는 단계와, 복수의 영역을 구분하는 적어도 하나의 경계선 상에 버튼을 표시하는 단계와, 버튼을 선택하는 입력을 수신하는 단계 및 입력에 기초하여, 복수의 영역 중 소정의 영역에서 실행되는 적어도 하나의 애플리케이션의 목록을 소정의 영역에 표시하는 단계를 실행하기 위한 프로그램이 기록될 수 있다.
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.
본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.

Claims (31)

  1. 터치스크린을 포함하는 디스플레이 장치의 애플리케이션 실행 방법에 있어서,
    상기 터치스크린 상에 포함된 복수의 영역 각각에 애플리케이션 실행 창을 표시하는 단계;
    상기 복수의 영역을 구분하는 적어도 하나의 경계선 상에 버튼을 표시하는 단계;
    상기 버튼을 선택하는 입력을 수신하는 단계; 및
    상기 입력에 기초하여, 상기 복수의 영역 중 소정의 영역에서 실행되는 적어도 하나의 애플리케이션의 목록을 상기 소정의 영역에 표시하는 단계; 를 포함하는 애플리케이션 실행 방법.
  2. 제 1 항에 있어서,
    상기 소정의 영역은,
    사용자 입력에 의해 제어될 수 있는 활성화 영역을 포함하는, 애플리케이션 실행 방법.
  3. 제 2 항에 있어서,
    상기 활성화 영역은,
    상기 버튼을 선택하는 입력을 수신하기 이전에, 상기 복수의 영역 중에서 마지막으로 선택된 영역인, 애플리케이션 실행 방법.
  4. 제 3 항에 있어서,
    상기 애플리케이션 실행 방법은,
    상기 버튼 상에 상기 활성화 영역을 지시하는 지시자(indicator)를 표시하는 단계를 더 포함하는, 애플리케이션 실행 방법.
  5. 제 1 항에 있어서,
    상기 애플리케이션 실행 방법은,
    상기 목록에 포함된 애플리케이션 중 적어도 하나를 선택하는 입력을 수신하는 단계; 및
    상기 선택된 애플리케이션의 실행 창을 상기 선택된 영역에 표시하는 단계; 를 더 포함하는 애플리케이션 실행 방법.
  6. 제 1 항에 있어서,
    상기 목록을 표시하는 단계는,
    상기 적어도 하나의 애플리케이션에 대응하는 적어도 하나의 아이콘의 목록을 표시하는 단계를 포함하고,
    상기 애플리케이션 실행 방법은,
    상기 아이콘의 목록에 포함된 아이콘을 드래그하는 터치 입력을 수신하는 단계; 및
    상기 터치 입력이 종료되는 위치에 대응되는 영역에 상기 아이콘에 대응되는 애플리케이션의 실행 창을 표시하는 단계; 를 더 포함하는 애플리케이션 실행 방법.
  7. 제 1 항에 있어서,
    상기 목록을 표시하는 단계는,
    상기 소정의 영역에, 상기 소정의 영역에 표시된 애플리케이션 실행 창과 관련된 동작에 대응하는 아이콘을 더 표시하는, 애플리케이션 실행 방법.
  8. 제 7 항에 있어서,
    상기 아이콘은,
    상기 소정의 영역에 표시된 애플리케이션 실행 창을 캡쳐하는 캡쳐 버튼, 상기 소정의 영역에 표시된 애플리케이션 실행 창을 종료하는 종료 버튼 및 상기 소정의 영역에 표시된 애플리케이션의 실행 창을 상기 터치스크린의 전체 영역에 표시하는 전체화면 버튼 중 적어도 하나를 포함하는, 애플리케이션 실행 방법.
  9. 터치스크린을 포함하는 디스플레이 장치의 애플리케이션 실행 방법에 있어서,
    상기 터치스크린 상에 포함된 복수의 영역 각각에 애플리케이션 실행 창을 표시하는 단계;
    상기 복수의 영역을 구분하는 적어도 하나의 경계선 상에 버튼을 표시하는 단계;
    적어도 하나의 애플리케이션 실행 아이콘을 포함하는 목록을 상기 터치스크린의 일부 영역에 표시하는 단계;
    상기 목록에 포함된 애플리케이션 실행 아이콘을 드래그하는 입력을 수신하는 단계;
    상기 드래그하는 입력이 종료된 위치 및 상기 버튼의 위치에 기초하여, 신규 애플리케이션 실행 영역을 결정하는 단계; 및
    상기 결정된 신규 애플리케이션 실행 영역에 상기 애플리케이션 실행 아이콘에 대응하는 애플리케이션의 실행 창을 표시하는 단계를 포함하는, 애플리케이션 실행 방법.
  10. 제 9 항에 있어서,
    상기 신규 애플리케이션 실행 영역을 결정하는 단계는,
    상기 드래그하는 입력이 종료된 위치가 상기 적어도 하나의 경계선을 포함하는 경계 영역에 포함되는 경우, 상기 적어도 하나의 경계선에 인접한 영역들을 포함하도록 상기 신규 애플리케이션 실행 영역을 결정하는 단계를 포함하는, 애플리케이션 실행 방법.
  11. 복수의 영역 각각에 애플리케이션 실행 창을 표시하고, 상기 복수의 영역을 구분하는 적어도 하나의 경계선 상에 버튼을 표시하며, 상기 버튼을 선택하는 입력을 수신하는 터치스크린; 및
    상기 입력에 기초하여, 상기 복수의 영역 중 소정의 영역에서 실행되는 적어도 하나의 애플리케이션 목록이 상기 소정의 영역에 표시되도록 상기 터치스크린을 제어하는 제어부; 를 포함하는 디스플레이 장치.
  12. 제 11 항에 있어서,
    상기 소정의 영역은,
    사용자 입력에 의해 제어될 수 있는 활성화 영역을 포함하는, 디스플레이 장치.
  13. 제 12 항에 있어서,
    상기 활성화 영역은,
    상기 버튼을 선택하는 입력을 수신하기 이전에, 상기 복수의 영역 중에서 마지막으로 선택된 영역인, 디스플레이 장치.
  14. 제 13 항에 있어서,
    상기 제어부는,
    상기 버튼 상에 상기 활성화 영역을 지시하는 지시자를 표시하도록 상기 터치스크린을 제어하는, 디스플레이 장치.
  15. 제 11 항에 있어서,
    상기 터치스크린은,
    상기 목록에 포함된 애플리케이션 중 적어도 하나를 선택하는 입력을 수신하고,
    상기 제어부는,
    상기 선택된 애플리케이션의 실행 창이 상기 선택된 영역에 표시되도록 상기 터치스크린을 제어하는, 디스플레이 장치.
  16. 제 11 항에 있어서,
    상기 터치스크린은,
    상기 적어도 하나의 애플리케이션에 대응하는 적어도 하나의 아이콘의 목록을 표시하고, 상기 아이콘의 목록에 포함된 아이콘을 드래그하는 터치 입력을 수신하며,
    상기 제어부는,
    상기 터치 입력이 종료되는 위치에 대응되는 영역에 상기 아이콘에 대응되는 애플리케이션의 실행 창을 표시되도록 상기 터치스크린을 제어하는, 디스플레이 장치.
  17. 제 11 항에 있어서,
    상기 터치스크린은,
    상기 터치스크린의 상기 소정의 영역에, 상기 소정의 영역에 표시된 애플리케이션 실행 창과 관련된 동작에 대응하는 아이콘을 더 표시하는, 디스플레이 장치.
  18. 제 16 항에 있어서,
    상기 아이콘은,
    상기 소정의 영역에 표시된 애플리케이션 실행 창을 캡쳐하는 캡쳐 버튼, 상기 소정의 영역에 표시된 애플리케이션 실행 창을 종료하는 종료 버튼 및 상기 소정의 영역에 표시된 애플리케이션의 실행 창을 상기 터치스크린의 전체 영역에 표시하는 전체화면 버튼 중 적어도 하나를 포함하는, 디스플레이 장치.
  19. 복수의 영역 각각에 애플리케이션 실행 창을 표시하고, 상기 복수의 영역을 구분하는 적어도 하나의 경계선 상에 버튼 및 상기 터치스크린에 적어도 하나의 애플리케이션 실행 아이콘을 포함하는 목록을 표시하며, 상기 목록에 포함된 애플리케이션 실행 아이콘을 드래그하는 입력을 수신하는 터치스크린; 및
    상기 드래그하는 입력이 종료된 위치 및 상기 표시된 버튼의 위치에 기초하여 신규 애플리케이션 실행 영역을 결정하며, 상기 결정된 신규 애플리케이션 실행 영역에 상기 애플리케이션 실행 아이콘에 대응하는 애플리케이션의 실행 창을 표시하도록 상기 터치스크린을 제어하는 제어부를 포함하는, 디스플레이 장치.
  20. 제 19 항에 있어서,
    상기 제어부는,
    상기 드래그하는 입력이 종료된 위치가 상기 적어도 하나의 경계선을 포함하는 경계 영역에 포함되는 경우, 상기 적어도 하나의 경계선에 인접한 영역들을 포함하도록 상기 신규 애플리케이션 실행 영역을 결정하는, 디스플레이 장치.
  21. 제 1 항의 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.
  22. 터치스크린을 포함하는 디스플레이 장치의 제어 방법에 있어서,
    상기 터치스크린 상에 사용자의 터치 입력에 따라 위치가 이동되는 버튼을 표시하는 단계;
    상기 버튼이 상기 터치스크린 상에 표시된 위치에 따라서 상기 디스플레이 장치를 제어하기 위한 사용자 인터페이스를 상기 터치스크린 상에 표시하는 단계; 및
    상기 터치스크린 상에 표시된 상기 사용자 인터페이스에 대한 사용자 입력이 수신됨에 따라서 상기 디스플레이 장치를 제어하는 단계를 포함하는, 제어 방법.
  23. 제 22 항에 있어서,
    상기 사용자 인터페이스는, 애플리케이션 실행 창의 표시 방식을 결정하는 적어도 하나의 레이아웃 버튼을 포함하고,
    상기 디스플레이 장치를 제어하는 단계는, 상기 적어도 하나의 레이아웃 버튼 중 하나를 선택하는 상기 사용자 입력이 수신됨에 따라서 결정되는 표시 방식에 기초하여 적어도 하나의 애플리케이션 실행 창을 표시하는 단계를 포함하는, 제어 방법.
  24. 제 22 항에 있어서,
    상기 사용자 인터페이스를 상기 터치스크린 상에 표시하는 단계는,
    상기 버튼의 상기 터치스크린 상의 위치를 나타내는 좌표 값을 획득하는 단계; 및
    상기 획득된 좌표 값에 상응하는 애플리케이션 실행 창이 존재하는 경우, 상기 좌표 값에 상응하는 애플리케이션 실행 창에 표시된 애플리케이션에 상응하는 사용자 인터페이스를 상기 터치스크린에 표시하는 단계를 포함하는, 제어 방법.
  25. 제 24 항에 있어서,
    상기 획득된 좌표 값에 상응하는 애플리케이션 실행 창은, 상기 좌표 값을 포함하는 영역에 표시된 애플리케이션 실행 창인, 제어 방법.
  26. 제 22 항에 있어서,
    상기 사용자 인터페이스는 상기 디스플레이 장치에 의해 실행 중인 애플리케이션 및 상기 디스플레이 장치에 설치된 애플리케이션 중 적어도 하나를 포함하는 애플리케이션 목록을 포함하고,
    상기 디스플레이 장치를 제어하는 단계는, 애플리케이션 목록 중에서 상기 사용자 입력에 따라서 선택된 애플리케이션을 실행하는 단계를 포함하는, 제어 방법.
  27. 사용자의 터치 입력을 수신하며, 상기 터치 입력에 따라 위치가 이동되는 버튼을 표시하고, 상기 버튼이 상기 터치스크린 상에 표시된 위치에 따라서 상기 디스플레이 장치를 제어하기 위한 사용자 인터페이스를 표시하는 터치스크린; 및
    상기 터치스크린 상에 표시된 상기 사용자 인터페이스에 대한 사용자 입력이 수신됨에 따라서 상기 디스플레이 장치를 제어하는 제어부를 포함하는, 디스플레이 장치.
  28. 제 27 항에 있어서,
    상기 사용자 인터페이스는, 애플리케이션 실행 창의 표시 방식을 결정하는 적어도 하나의 레이아웃 버튼을 포함하고,
    상기 제어부는, 상기 적어도 하나의 레이아웃 버튼 중 하나를 선택하는 상기 사용자 입력이 수신됨에 따라서 표시 방식을 결정하고,
    상기 터치스크린은 상기 결정된 표시 방식에 기초하여 적어도 하나의 애플리케이션 실행 창을 표시하는, 디스플레이 장치.
  29. 제 27 항에 있어서,
    상기 제어부는, 상기 버튼의 상기 터치스크린 상의 위치를 나타내는 좌표 값을 획득하고, 상기 획득된 좌표 값에 상응하는 애플리케이션 실행 창이 존재하는지 여부를 판단하며,
    상기 터치스크린은, 상기 획득된 좌표 값에 상응하는 애플리케이션 실행 창이 존재하는 경우, 상기 좌표 값에 상응하는 애플리케이션 실행 창에 표시된 애플리케이션에 상응하는 사용자 인터페이스를 표시하는, 디스플레이 장치.
  30. 제 29 항에 있어서,
    상기 획득된 좌표 값에 상응하는 애플리케이션 실행 창은, 상기 좌표 값을 포함하는 영역에 표시된 애플리케이션 실행 창인, 디스플레이 장치.
  31. 제 27 항에 있어서,
    상기 사용자 인터페이스는 상기 디스플레이 장치에 의해 실행 중인 애플리케이션 및 상기 디스플레이 장치에 설치된 애플리케이션 중 적어도 하나를 포함하는 애플리케이션 목록을 포함하고,
    상기 제어부는, 애플리케이션 목록 중에서 상기 사용자 입력에 따라서 선택된 애플리케이션을 실행하는, 디스플레이 장치.
PCT/KR2014/007563 2013-08-22 2014-08-14 디스플레이 장치의 애플리케이션 실행 방법 및 그 디스플레이 장치 WO2015026101A1 (ko)

Priority Applications (6)

Application Number Priority Date Filing Date Title
EP21165217.7A EP3859501B1 (en) 2013-08-22 2014-08-14 Application execution method by display device and display device thereof
EP14838041.3A EP3037938A4 (en) 2013-08-22 2014-08-14 Application execution method by display device and display device thereof
US14/912,530 US10528222B2 (en) 2013-08-22 2014-08-14 Application execution method by display device and display device thereof
CN201480058455.7A CN105683894B (zh) 2013-08-22 2014-08-14 显示设备的应用执行方法及其显示设备
KR1020167004569A KR102210999B1 (ko) 2013-08-22 2014-08-14 디스플레이 장치의 애플리케이션 실행 방법 및 그 디스플레이 장치
US16/721,069 US11144177B2 (en) 2013-08-22 2019-12-19 Application execution method by display device and display device thereof

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20130099927 2013-08-22
KR10-2013-0099927 2013-08-22

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US14/912,530 A-371-Of-International US10528222B2 (en) 2013-08-22 2014-08-14 Application execution method by display device and display device thereof
US16/721,069 Continuation US11144177B2 (en) 2013-08-22 2019-12-19 Application execution method by display device and display device thereof

Publications (1)

Publication Number Publication Date
WO2015026101A1 true WO2015026101A1 (ko) 2015-02-26

Family

ID=52483835

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2014/007563 WO2015026101A1 (ko) 2013-08-22 2014-08-14 디스플레이 장치의 애플리케이션 실행 방법 및 그 디스플레이 장치

Country Status (5)

Country Link
US (2) US10528222B2 (ko)
EP (2) EP3859501B1 (ko)
KR (1) KR102210999B1 (ko)
CN (1) CN105683894B (ko)
WO (1) WO2015026101A1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104731454A (zh) * 2015-03-31 2015-06-24 联想(北京)有限公司 一种信息处理方法和电子设备
US11789589B2 (en) 2019-02-22 2023-10-17 Sony Group Corporation Information processing apparatus and information processing method for dividing display screen for display of plurality of applications

Families Citing this family (49)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6132644B2 (ja) * 2013-04-24 2017-05-24 キヤノン株式会社 情報処理装置、表示制御方法、コンピュータプログラム、及び記憶媒体
KR102108069B1 (ko) * 2014-01-22 2020-05-08 엘지전자 주식회사 이동단말기 및 그 제어방법
JP6371577B2 (ja) * 2014-05-08 2018-08-08 古野電気株式会社 情報表示装置及び情報表示装置の表示レイアウト変更方法
US10558344B2 (en) * 2015-06-01 2020-02-11 Apple Inc. Linking multiple windows in a user interface display
US9846535B2 (en) * 2015-06-05 2017-12-19 Apple Inc. Devices and methods for processing touch inputs over multiple regions of a touch-sensitive surface
KR20170014356A (ko) * 2015-07-29 2017-02-08 엘지전자 주식회사 이동 단말기 및 이의 제어방법
KR102426695B1 (ko) 2015-10-20 2022-07-29 삼성전자주식회사 화면 출력 방법 및 이를 지원하는 전자 장치
US10222979B2 (en) * 2015-12-04 2019-03-05 Datalogic Usa, Inc. Size adjustable soft activation trigger for touch displays on electronic device
US20170205990A1 (en) * 2016-01-14 2017-07-20 Lenovo (Beijing) Limited Method, system, and apparatus for controlling display regions for an electronic device
KR102542122B1 (ko) * 2016-04-01 2023-06-09 엘지전자 주식회사 영상표시장치
CN106200391B (zh) * 2016-06-24 2019-09-10 杭州鸿雁电器有限公司 一种室内家居设备的控制设备及控制方法和控制装置
CN106201399A (zh) * 2016-06-30 2016-12-07 深圳市金立通信设备有限公司 一种分屏窗口显示方法及终端
WO2018000382A1 (zh) * 2016-06-30 2018-01-04 华为技术有限公司 一种查看应用程序的图形用户界面、方法及终端
CN106168870A (zh) * 2016-06-30 2016-11-30 深圳市金立通信设备有限公司 一种分屏窗口显示方法及终端
CN107015721A (zh) * 2016-10-20 2017-08-04 阿里巴巴集团控股有限公司 一种应用界面的管理方法和装置
KR102303420B1 (ko) * 2017-02-28 2021-09-23 삼성전자주식회사 전자 장치 및 전자 장치의 윈도우 관리 방법
CN106874097A (zh) * 2017-02-28 2017-06-20 努比亚技术有限公司 一种终端屏幕的分屏显示方法及装置
KR20180116574A (ko) * 2017-04-17 2018-10-25 엘지전자 주식회사 이동 단말기
JP2019003337A (ja) * 2017-06-13 2019-01-10 シャープ株式会社 画像表示装置
EP3447623B1 (en) * 2017-08-22 2020-01-29 Samsung Electronics Co., Ltd. Electronic device and control method thereof
WO2019104519A1 (en) 2017-11-29 2019-06-06 Entit Software Llc Gesture buttons
JP2019109803A (ja) * 2017-12-20 2019-07-04 コニカミノルタ株式会社 タッチパネル共用支援装置、タッチパネル共用方法、およびコンピュータプログラム
CN108536366A (zh) * 2018-03-28 2018-09-14 维沃移动通信有限公司 一种应用程序窗口调整方法及终端
JP7093690B2 (ja) * 2018-07-05 2022-06-30 フォルシアクラリオン・エレクトロニクス株式会社 情報制御装置、及び表示変更方法
US11775135B2 (en) * 2018-07-31 2023-10-03 Huawei Technologies Co., Ltd. Application icon displaying method and terminal
CN109445572B (zh) 2018-09-10 2023-12-08 华为技术有限公司 全屏显示视频中快速调出小窗口的方法、图形用户接口及终端
KR102599383B1 (ko) * 2018-10-26 2023-11-08 삼성전자 주식회사 분할된 화면 상에서 실행 가능한 어플리케이션 리스트를 디스플레이하는 전자 장치 및 전자 장치의 동작 방법
CN109684024A (zh) * 2018-12-29 2019-04-26 深圳Tcl数字技术有限公司 多窗口的显示方法、智能终端及计算机可读存储介质
CN110032309B (zh) * 2019-04-10 2020-10-30 维沃移动通信有限公司 一种分屏方法及终端设备
CN110333818A (zh) * 2019-05-24 2019-10-15 华为技术有限公司 分屏显示的处理方法、装置、设备和存储介质
CN112130715B (zh) * 2019-06-25 2022-09-09 华为技术有限公司 一种显示方法与电子设备
USD926814S1 (en) * 2019-07-08 2021-08-03 UAB “Kurybinis {hacek over (z)}ingsnis” Computer screen with graphical user interface simulating a layout
CN116723266A (zh) * 2019-07-31 2023-09-08 华为技术有限公司 一种悬浮窗口的管理方法及相关装置
CN112776720A (zh) * 2019-11-05 2021-05-11 深圳市大富科技股份有限公司 车载显示屏的显示方法以及车载系统
KR102176458B1 (ko) * 2019-11-18 2020-11-09 셀렉트스타 주식회사 데이터 라벨링을 위한 바운딩 박스 그리기 방법 및 장치
CN112965642A (zh) 2019-11-27 2021-06-15 中兴通讯股份有限公司 电子设备及其驱动方法、驱动模块、计算机可读存储介质
CN112882823A (zh) * 2019-11-29 2021-06-01 华为技术有限公司 屏幕显示方法及电子设备
JP2023507057A (ja) 2019-12-18 2023-02-21 フォルシアクラリオン・エレクトロニクス株式会社 表示制御装置、及び表示制御方法
JP2023507056A (ja) * 2019-12-18 2023-02-21 フォルシアクラリオン・エレクトロニクス株式会社 表示制御装置、及び表示制御方法
US11137887B1 (en) 2020-01-15 2021-10-05 Navvis & Company, LLC Unified ecosystem experience for managing multiple healthcare applications from a common interface
EP4109228A4 (en) * 2020-02-21 2023-03-29 Sony Group Corporation INFORMATION PROCESSING DEVICE, PROGRAM AND METHOD
CN111399720A (zh) * 2020-03-24 2020-07-10 北京小米移动软件有限公司 一种显示应用界面的方法、装置及存储介质
WO2022014740A1 (ko) * 2020-07-15 2022-01-20 엘지전자 주식회사 이동 단말기 및 그 제어 방법
CN112162665B (zh) * 2020-09-21 2021-11-09 维沃移动通信有限公司 操作方法及装置
US20220374009A1 (en) * 2021-05-21 2022-11-24 Ideaforge Technology Pvt. Ltd. System and method for displaying elements of an application in split-screen view
JP7440669B2 (ja) 2021-08-02 2024-02-28 サムスン エレクトロニクス カンパニー リミテッド 画面制御方法及び装置
CN113849147A (zh) * 2021-09-30 2021-12-28 联想(北京)有限公司 一种信息处理方法及电子设备
US20240004524A1 (en) * 2022-06-30 2024-01-04 Microsoft Technology Licensing, Llc Window arrangements using tabbed user interface elements
WO2024035069A1 (ko) * 2022-08-08 2024-02-15 삼성전자주식회사 디스플레이의 표시 영역의 사이즈에 기반하여 어플리케이션의 전환을 위한 리스트를 표시하기 위한 전자 장치, 방법, 및 기록 매체

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090024508A (ko) * 2007-09-04 2009-03-09 주식회사 엘지텔레콤 통신 단말기에서 수행되는 다중 윈도우 전환 방법 및 상기방법이 채용된 통신 단말기
US20090293007A1 (en) * 2008-05-23 2009-11-26 Palm, Inc. Navigating among activities in a computing device
US20100081475A1 (en) * 2008-09-26 2010-04-01 Ching-Liang Chiang Mobile device interface with dual windows
US20100088634A1 (en) * 2007-01-25 2010-04-08 Akira Tsuruta Multi-window management apparatus and program, storage medium and information processing apparatus
KR20130054072A (ko) * 2011-11-16 2013-05-24 삼성전자주식회사 다중 어플리케이션을 실행하는 모바일 장치 및 그 방법

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5682550A (en) * 1995-06-07 1997-10-28 International Business Machines Corporation System for restricting user access to default work area settings upon restoration from nonvolatile memory where the settings are independent of the restored state information
US6088005A (en) * 1996-01-11 2000-07-11 Hewlett-Packard Company Design and method for a large, virtual workspace
JP3740529B2 (ja) * 2002-05-23 2006-02-01 独立行政法人産業技術総合研究所 配向制御したタンパク質の固定化方法およびそれを利用したタンパク質の整列固定化方法
US20050022135A1 (en) * 2003-07-23 2005-01-27 De Waal Abraham B. Systems and methods for window alignment grids
US10503342B2 (en) * 2006-08-04 2019-12-10 Apple Inc. User interface spaces
US20080059904A1 (en) * 2006-08-30 2008-03-06 Christopher Patrick Abbey Method, apparatus, and computer program product for implementing enhanced window focus in a graphical desktop
US8645853B2 (en) * 2006-11-03 2014-02-04 Business Objects Software Ltd. Displaying visualizations linked to one or more data source queries
US8677273B2 (en) * 2007-11-01 2014-03-18 Nokia Corporation System and method for displaying media items
US8499254B2 (en) 2008-10-27 2013-07-30 Microsoft Corporation Surfacing and management of window-specific controls
US8302026B2 (en) * 2008-11-28 2012-10-30 Microsoft Corporation Multi-panel user interface
KR101173982B1 (ko) 2008-12-18 2012-08-16 한국전자통신연구원 터치 스크린을 이용한 인터페이스를 제공하는 이동식 단말기
US20100235784A1 (en) 2009-03-16 2010-09-16 Bas Ording Methods and Graphical User Interfaces for Editing on a Multifunction Device with a Touch Screen Display
KR101640460B1 (ko) * 2009-03-25 2016-07-18 삼성전자 주식회사 휴대 단말기의 분할 화면 운용 방법 및 이를 지원하는 휴대 단말기
KR101636570B1 (ko) * 2009-10-28 2016-07-20 엘지전자 주식회사 출력표시영역 제어 장치 및 방법
US8208964B2 (en) 2009-10-30 2012-06-26 Cellco Partnership Flexible home page layout for mobile devices
KR20110085189A (ko) 2010-01-19 2011-07-27 박철 터치패널을 갖는 개인휴대단말기의 작동방법
US8994713B2 (en) * 2010-10-01 2015-03-31 Z124 Smart pad operation with differing display parameters applied to different display elements
US20120174020A1 (en) * 2010-12-31 2012-07-05 International Business Machines Corporation Indication of active window when switching tasks in a multi-monitor environment
KR101788051B1 (ko) * 2011-01-04 2017-10-19 엘지전자 주식회사 이동 단말기 및 그 제어방법
KR101889838B1 (ko) * 2011-02-10 2018-08-20 삼성전자주식회사 터치 스크린 디스플레이를 구비한 휴대 기기 및 그 제어 방법
US9104290B2 (en) 2011-02-11 2015-08-11 Samsung Electronics Co., Ltd. Method for controlling screen of mobile terminal
KR101778045B1 (ko) * 2011-02-11 2017-09-14 삼성전자 주식회사 휴대단말기의 화면 제어 방법
KR101860341B1 (ko) * 2011-09-09 2018-05-24 엘지전자 주식회사 이동 단말기 및 이의 제어방법
US20130346912A1 (en) * 2012-06-20 2013-12-26 Alexander Buening Method And System To Launch And Manage An Application On A Computer System Having A Touch Panel Input Device
US9582096B2 (en) * 2012-03-28 2017-02-28 Sony Corporation Information processing apparatus, information processing method, and program
KR101417318B1 (ko) * 2012-08-17 2014-07-09 주식회사 팬택 멀티태스킹이 가능한 사용자 인터페이스 제공방법, 이동 단말기, 컴퓨터 판독 가능 매체
CN103838457A (zh) * 2012-11-26 2014-06-04 腾讯科技(深圳)有限公司 一种滤镜列表显示方法及装置
US9715282B2 (en) * 2013-03-29 2017-07-25 Microsoft Technology Licensing, Llc Closing, starting, and restarting applications
US20140310642A1 (en) * 2013-04-15 2014-10-16 Microsoft Corporation Deferred placement prompt
JP6132644B2 (ja) * 2013-04-24 2017-05-24 キヤノン株式会社 情報処理装置、表示制御方法、コンピュータプログラム、及び記憶媒体
US9535565B2 (en) * 2013-05-13 2017-01-03 Microsoft Technology Licensing, Llc Smart insertion of applications into layouts
US20140351722A1 (en) * 2013-05-23 2014-11-27 Microsoft User interface elements for multiple displays
US9785340B2 (en) * 2014-06-12 2017-10-10 Apple Inc. Systems and methods for efficiently navigating between applications with linked content on an electronic device with a touch-sensitive display
US11301124B2 (en) * 2017-08-18 2022-04-12 Microsoft Technology Licensing, Llc User interface modification using preview panel

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100088634A1 (en) * 2007-01-25 2010-04-08 Akira Tsuruta Multi-window management apparatus and program, storage medium and information processing apparatus
KR20090024508A (ko) * 2007-09-04 2009-03-09 주식회사 엘지텔레콤 통신 단말기에서 수행되는 다중 윈도우 전환 방법 및 상기방법이 채용된 통신 단말기
US20090293007A1 (en) * 2008-05-23 2009-11-26 Palm, Inc. Navigating among activities in a computing device
US20100081475A1 (en) * 2008-09-26 2010-04-01 Ching-Liang Chiang Mobile device interface with dual windows
KR20130054072A (ko) * 2011-11-16 2013-05-24 삼성전자주식회사 다중 어플리케이션을 실행하는 모바일 장치 및 그 방법

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3037938A4 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104731454A (zh) * 2015-03-31 2015-06-24 联想(北京)有限公司 一种信息处理方法和电子设备
US11789589B2 (en) 2019-02-22 2023-10-17 Sony Group Corporation Information processing apparatus and information processing method for dividing display screen for display of plurality of applications

Also Published As

Publication number Publication date
KR20160045714A (ko) 2016-04-27
EP3037938A4 (en) 2017-05-10
CN105683894B (zh) 2021-09-21
US20160202852A1 (en) 2016-07-14
EP3859501B1 (en) 2022-09-28
US11144177B2 (en) 2021-10-12
EP3037938A1 (en) 2016-06-29
EP3859501A1 (en) 2021-08-04
US10528222B2 (en) 2020-01-07
CN105683894A (zh) 2016-06-15
US20200125222A1 (en) 2020-04-23
KR102210999B1 (ko) 2021-02-03

Similar Documents

Publication Publication Date Title
WO2015026101A1 (ko) 디스플레이 장치의 애플리케이션 실행 방법 및 그 디스플레이 장치
WO2014088310A1 (en) Display device and method of controlling the same
WO2017111358A1 (en) User terminal device, and mode conversion method and sound system for controlling volume of speaker thereof
WO2014088348A1 (en) Display device for executing a plurality of applications and method for controlling the same
WO2017082627A1 (en) Mobile terminal and method for controlling the same
WO2016195291A1 (en) User terminal apparatus and method of controlling the same
WO2017052143A1 (en) Image display device and method of operating the same
WO2014112777A1 (en) Method for providing haptic effect in portable terminal, machine-readable storage medium, and portable terminal
WO2016093506A1 (ko) 이동 단말기 및 그 제어 방법
WO2014157897A1 (en) Method and device for switching tasks
WO2013151399A1 (en) Method and system for controlling display device and computer-readable recording medium
WO2014017790A1 (en) Display device and control method thereof
WO2014193101A1 (en) Method and apparatus for controlling screen display using environmental information
WO2018026059A1 (ko) 이동 단말기 및 그 제어방법
WO2010143843A2 (ko) 컨텐츠 브로드캐스트 방법 및 이를 적용한 디바이스
WO2014017841A1 (en) User terminal apparatus and control method thereof cross-reference to related applications
WO2013073898A1 (en) Mobile device for executing multiple applications and method thereof
WO2014189223A1 (en) Apparatus, method and computer readable recording medium for displaying thumbnail image of panoramic photo
WO2016076474A1 (ko) 이동단말기 및 그 제어방법
WO2017094926A1 (ko) 단말 장치 및 제어 방법
WO2015030564A1 (en) Display apparatus, portable device and screen display methods thereof
WO2015199280A1 (en) Mobile terminal and method of controlling the same
WO2014088253A1 (en) Method and system for providing information based on context, and computer-readable recording medium thereof
WO2014092469A1 (en) Content playing apparatus, method for providing ui of content playing apparatus, network server, and method for controlling by network server
WO2017175942A1 (en) Mobile terminal and method for controlling the same

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14838041

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2014838041

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 14912530

Country of ref document: US

ENP Entry into the national phase

Ref document number: 20167004569

Country of ref document: KR

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE