WO2015194712A1 - Computing apparatus and method for controlling same - Google Patents

Computing apparatus and method for controlling same Download PDF

Info

Publication number
WO2015194712A1
WO2015194712A1 PCT/KR2014/010748 KR2014010748W WO2015194712A1 WO 2015194712 A1 WO2015194712 A1 WO 2015194712A1 KR 2014010748 W KR2014010748 W KR 2014010748W WO 2015194712 A1 WO2015194712 A1 WO 2015194712A1
Authority
WO
WIPO (PCT)
Prior art keywords
key
keyboard
finger
display unit
screen
Prior art date
Application number
PCT/KR2014/010748
Other languages
French (fr)
Korean (ko)
Inventor
윤재선
박영준
홍석현
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020140074707A external-priority patent/KR20150145402A/en
Priority claimed from KR1020140086640A external-priority patent/KR20160006932A/en
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Publication of WO2015194712A1 publication Critical patent/WO2015194712A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]

Definitions

  • the present invention relates to a computing device and a control method thereof.
  • Portable computing devices such as laptops or netbooks, are being developed in a way that emphasizes user convenience.
  • a portable computing device having a touch pad has also been generalized to improve the inconvenience of separately carrying an accessory input device such as a mouse.
  • an accessory input device such as a mouse.
  • the touch pad is provided, the size of the computing device is inevitably increased and there is a problem in that user convenience is limited because the user input through the touch is limited to the area of the touch pad.
  • An object of the present invention is to provide a computing device with a user convenience and a control method thereof by proposing a keyboard with a touch sensor.
  • Another object of the present invention is to provide a computing device capable of providing an intuitive user environment using a keyboard having a touch sensor and a control method thereof.
  • a computing device includes a keyboard including a plurality of keys and a touch sensor provided on at least one of the plurality of keys, a display unit, and a controller, wherein the controller is a preset condition Detect a first touch input of touching a first key in the keyboard, detect a screen output on the display unit when the first touch input is detected, and based on the detected screen, The display unit is controlled to execute a function corresponding to the first key and to output a result of the function execution.
  • a method of controlling a computing device may include detecting a first touch input of touching a first key in a keyboard including a touch sensor according to a preset condition, and detecting the first touch. According to an input, the step of executing a function corresponding to the first key, and outputting a result of the execution of the function to the display, and the step of executing a function corresponding to the first key, Executing a specific program mapped to a first key, executing a specific file mapped to the first key, and executing a specific function mapped to the first key among functions that may be implemented in the computing device It may include any one of the steps.
  • the computing device includes a keyboard including a plurality of keys and a touch sensor provided on at least a portion of the plurality of keys, a display unit, and a control unit. Recognizing at least a first finger touching a first key, a second finger touching a second key, and a third finger touching a third key, wherein the first key is the second key on the keyboard. And the third key is located to the right of the second key, and the second key on the keyboard is on the same line as at least one of the first key and the third key, or the first key and The display unit is positioned above the third key and controls the display unit to display an indicator in the first area on the screen based on the recognition result.
  • FIG. 1 is a block diagram of a computing device of the present invention.
  • FIG. 2 illustrates an appearance of a computing device related to the present invention.
  • FIG. 3 is a flowchart illustrating an example of a method of controlling a computing device according to an embodiment of the present invention.
  • FIG. 4 is a diagram illustrating an example of a screen output to a display unit according to a first touch input in a computing device according to an embodiment of the present invention.
  • FIG. 5 is a diagram illustrating an example of a database stored in a memory of a computing device according to an embodiment of the present invention.
  • FIG. 6 illustrates an example of a GUI that is output to a display unit of a computing device according to an embodiment of the present disclosure.
  • FIG. 7 is a diagram for describing another example of a screen output to a display unit according to a first touch input in a computing device according to an embodiment of the present disclosure.
  • FIG. 8 illustrates an example of a preset condition for sensing a first touch input in a computing device according to an embodiment of the present disclosure.
  • FIG. 9 is a diagram for describing another example of a preset condition for sensing a first touch input in a computing device according to an embodiment of the present disclosure.
  • FIG. 10 is a diagram for describing another example of a preset condition for sensing a first touch input in a computing device according to an embodiment of the present disclosure.
  • FIG. 11 is a flowchart illustrating another example of a method for controlling a computing device according to an embodiment of the present invention.
  • FIG. 12 illustrates an example of a screen output to a display unit according to a first touch input in a computing device according to an embodiment of the present disclosure.
  • FIG. 13 is a diagram for describing another example of a screen output to a display unit according to a first touch input in a computing device according to an embodiment of the present disclosure.
  • FIG. 14 is a diagram for describing another example of a screen output to a display unit according to a first touch input in a computing device according to an embodiment of the present invention.
  • FIG. 15 is a diagram for describing another example of a screen output to a display unit according to a first touch input in a computing device according to an embodiment of the present disclosure.
  • FIG. 16 illustrates another example of a screen output to a display unit according to a first touch input in a computing device according to an embodiment of the present disclosure.
  • 17 is a diagram for describing an example of a screen output to a display unit according to a first touch input in a computing device according to an embodiment of the present invention.
  • FIG. 18 is a diagram for describing an example that may appear after FIG. 17.
  • FIG. 19 illustrates another example of a screen output to a display unit according to a first touch input in a computing device according to an embodiment of the present disclosure.
  • FIG. 20 is a diagram for describing an example that may appear after FIG. 19.
  • FIG. 21 is a diagram for describing another example of a screen output to a display unit according to a first touch input in a computing device according to an embodiment of the present disclosure.
  • 22 is a flowchart illustrating an example of a control method of a computing device according to an embodiment of the present invention.
  • FIG. 23 is a diagram illustrating an example of a screen displayed on a display unit of a computing device according to an embodiment of the present invention.
  • FIG. 24 illustrates another example of a screen displayed on a display unit of a computing device according to an embodiment of the present invention.
  • 25 is a diagram illustrating an example of a screen displayed on a display unit in a computing device according to an embodiment of the present invention.
  • FIG. 26 illustrates an example of a screen displayed on a display unit of a computing device according to an embodiment of the present disclosure.
  • FIG. 27 illustrates another example of a screen displayed on a display unit of a computing device according to an embodiment of the present invention.
  • FIG. 28 is a diagram illustrating still another example of a screen displayed on a display unit of a computing device according to an embodiment of the present invention.
  • 29 is a diagram illustrating still another example of a screen displayed on a display unit of a computing device according to an embodiment of the present invention.
  • FIG. 30 is a flowchart for explaining another example of a control method of a computing device according to an exemplary embodiment.
  • FIG. 31 illustrates an example of a screen displayed on a display unit of a computing device according to an embodiment of the present disclosure.
  • FIG. 32 is a diagram illustrating an example of a screen displayed on a display unit in a computing device according to an embodiment of the present invention.
  • FIG 33 is a flowchart illustrating still another example of a control method of a computing device according to an embodiment of the present invention.
  • FIG. 34 is a diagram illustrating an example of a screen displayed on a display unit of a computing device according to an embodiment of the present invention.
  • 35 illustrates another example of a screen displayed on a display unit of a computing device according to an embodiment of the present invention.
  • 36 is a diagram illustrating still another example of a screen displayed on a display unit of a computing device according to an embodiment of the present invention.
  • FIG. 37 illustrates an example of a screen displayed on a display unit of a computing device according to an embodiment of the present invention.
  • 38 is a diagram illustrating an example of a screen displayed on a display unit of a computing device according to an embodiment of the present invention.
  • 39 is a flowchart illustrating still another example of a method for controlling a computing device according to an embodiment of the present invention.
  • FIG. 40 is a diagram illustrating an example of a screen displayed on a display unit of a computing device according to one embodiment of the present invention.
  • FIG. 41 is a diagram illustrating another example of a screen displayed on a display unit of a computing device according to an embodiment of the present invention.
  • FIG. 41 is a diagram illustrating another example of a screen displayed on a display unit of a computing device according to an embodiment of the present invention.
  • FIG. 42 is a diagram illustrating an example of a screen displayed on a display unit of a computing device according to one embodiment of the present invention.
  • FIG. 43 is a diagram illustrating an example of a screen displayed on a display unit in a computing device according to an embodiment of the present invention.
  • 44 is a diagram illustrating an example of a screen displayed on a display unit in the computing device according to an embodiment of the present invention.
  • 45 is a diagram illustrating an example of a screen displayed on a display unit in the computing device according to one embodiment of the present invention.
  • the computing device described herein includes a desktop computer, a laptop computer, an ultrabook, a netbook, a tablet PC, a digital signage, and the like, and includes a display including a keyboard as a user input unit. It may mean a device.
  • FIG. 1 is a block diagram of a computing device of the present invention.
  • the computing device 100 may include a communication unit 110, a user input unit 120, an external device interface unit 130, a sensing unit 140, an output unit 150, a memory 160, a power supply unit 170, and a control unit ( 180) and the like.
  • a communication unit 110 may include a communication unit 110, a user input unit 120, an external device interface unit 130, a sensing unit 140, an output unit 150, a memory 160, a power supply unit 170, and a control unit ( 180) and the like.
  • the components shown in FIG. 1 are not essential to the implementation of the computing device, so that the computing device 100 having more or fewer components may be implemented.
  • the communication unit 110 of the components between the computing device 100 and a wired / wireless communication system, between the computing device 100 and another computing device, or between the computing device 100 and an external server. It may include one or more modules that enable communication between them. In addition, the communication unit 110 may include one or more modules that connect the computing device 100 to one or more networks.
  • the communication unit 110 may include at least one of the broadcast receiving unit 111, the network interface unit 112, and the mobile communication unit 113.
  • the broadcast receiving unit 111 receives a broadcast signal and / or broadcast related information from an external broadcast management server through a broadcast channel.
  • the broadcast channel may include a satellite channel and a terrestrial channel.
  • Two or more of the broadcast reception modules may be provided to the computing device 100 for simultaneous broadcast reception or broadcast channel switching for at least two broadcast channels.
  • the broadcast management server may mean a server that generates and transmits a broadcast signal and / or broadcast related information or a server that receives a previously generated broadcast signal and / or broadcast related information and transmits the same to a terminal.
  • the broadcast signal may include not only a TV broadcast signal, a radio broadcast signal, and a data broadcast signal, but also a broadcast signal having a data broadcast signal combined with a TV broadcast signal or a radio broadcast signal.
  • the broadcast signal may be encoded according to at least one of technical standards (or broadcast methods, for example, ISO, IEC, DVB, ATSC, etc.) for transmitting and receiving digital broadcast signals, and the broadcast receiving unit 111 may
  • the digital broadcast signal may be received using a method suitable for the technical standard set by the standards.
  • the broadcast associated information may mean information related to a broadcast channel, a broadcast program, or a broadcast service provider.
  • the broadcast related information may also be provided through a mobile communication network. In this case, the broadcast related information may be received by the mobile communication unit 113.
  • the network interface unit 112 provides an interface for connecting the computing device 100 to a wired / wireless network including an internet network.
  • the network interface unit 112 may be a concept including a local area communication unit that may communicate with another computing device 100, an external server, or an external device using local area networks.
  • the network interface unit 112 may include, for example, an Ethernet terminal for connection with a wired network, and for connection with a wireless network, for example, a wireless LAN (WLAN), a Wi-Fi network.
  • WLAN wireless LAN
  • Wi-Fi Wireless Fidelity
  • Direct Digital Living Network Alliance
  • DLNA Wireless Broadband
  • WiMAX World Interoperability for Microwave Access
  • HSDPA High Speed Downlink Packet Access
  • HSUPA High Speed Uplink Packet Access
  • LTE High Speed Uplink Packet Access
  • LTE Long Term Evolution
  • LTE-A Long Term Evolution-Advanced
  • Bluetooth TM Bluetooth TM
  • Radio Frequency Identification RFID
  • IrDA Infrared Data Association
  • UWB User
  • UWB Wideband
  • ZigBee ZigBee
  • NFC Near Field Communication
  • USB Wireless Universal Serial Bus
  • the mobile communication unit 113 may include technical standards or communication schemes for mobile communication (eg, Global System for Mobile communication (GSM), Code Division Multi Access (CDMA), Code Division Multi Access 2000 (CDMA2000), and EV-DO). (Enhanced Voice-Data Optimized or Enhanced Voice-Data Only), Wideband CDMA (WCDMA), High Speed Downlink Packet Access (HSDPA), High Speed Uplink Packet Access (HSPA), Long Term Evolution (LTE), Long LTE-A (Long-A) Term Evolution-Advanced) and transmits and receives a wireless signal with at least one of a base station, an external terminal, a server.
  • the wireless signal may include various types of data according to transmission and reception of a voice call signal, a video call call signal, or a text / multimedia message.
  • the network interface unit 112 for performing a wireless Internet access through the mobile communication network May be understood as a kind of mobile communication unit 113.
  • the user input unit 120 is for receiving information from a user.
  • the controller 180 may control an operation of the computing device 100 to correspond to the input information. .
  • the user input unit 120 may be a mechanical input means (or a mechanical key, eg, a button, a dome switch, a jog wheel, a jog switch, located at the front or rear or side of the computing device 100). Etc.) and touch input means.
  • a mechanical input means or a mechanical key, eg, a button, a dome switch, a jog wheel, a jog switch, located at the front or rear or side of the computing device 100. Etc.) and touch input means.
  • the user input unit 120 may include a keyboard 121, and may further include at least one of the touch pad 122 and the mouse 123.
  • the user input unit 120 may include buttons, dome switches, jog wheels, jog switches, and the like located on the front and rear or side surfaces of the housing 124 of the computing device 100. It may further include a touch ball (touch ball) and the like.
  • the housing 124 may also be understood as a kind of the user input unit 120.
  • the keyboard 121 includes a plurality of keys, and a touch sensor is provided on at least some of the plurality of keys or all of the plurality of keys.
  • the keyboard 121 may be configured in a form in which a plurality of keys are combined with each key protruding upward, similar to a keyboard in a general computing device.
  • the keyboard 121 may receive a user input signal when the user presses each key by a predetermined degree or more, or may receive a user input signal when the user touches each key.
  • the keyboard 121 may be configured to have a flat shape like the touch pad 122 without the plurality of keys protruding upward.
  • the keyboard 121 may include a touch sensor on all of the plurality of keys, and may receive a user input signal when the user touches each key.
  • the touch pad 122 may include a touch sensor and may be disposed on one surface of the housing 124 facing the display unit 151.
  • the mouse 123 may be connected to the computing device 100 through an external device interface unit 130, which will be described later. Since the touch pad 122 and the mouse 123 as the user input unit 120 are components well known to those skilled in the art, a detailed description thereof will be omitted.
  • the external device interface unit 130 is an interface that enables data communication between the external device and the computing device 100.
  • the external device interface unit 130 may include a wired / wireless headset port, a wired / wireless data port, a memory card port, a port for connecting a device equipped with an identification module, and audio. It may include at least one of an input / output (I / O) port, a video input / output (I / O) port, and an earphone port.
  • the external device interface unit 130 may be connected to an external device such as an external memory, an external computing device, a separate user input unit, an earphone, a camera, a game device, or the like by wire / wireless.
  • the external device interface unit 130 transmits an image, audio, or data signal input from the outside to the controller 180 through a connected external device.
  • the external device interface unit 130 may output a video, audio or data signal processed by the controller 180 to an external device.
  • the sensing unit 140 senses at least one of opening and closing information of a cover of the computing device, information in the computing device, surrounding environment information, and user information surrounding the computing device, and generates a sensing signal corresponding thereto.
  • the controller 180 may control driving or operation of the computing device 100 or perform data processing, function, or operation related to an application program installed in the computing device 100 based on the sensing signal.
  • the output unit 150 is used to generate an output related to vision, hearing, and the like, and may include at least one of the display unit 151, the sound output unit 152, and the light output unit 153.
  • the display unit 151 may form a layer structure or an integrated structure with the touch sensor, thereby implementing a touch screen.
  • Such a touch screen may provide an output interface between the computing device 100 and the user while functioning as a user input unit 120 that provides an input interface between the computing device 100 and the user.
  • the display unit 151 may display an image signal, a data signal, a GUI signal, an image signal received from the communication unit 110 or the external device interface unit 130, R, G, and the like processed by the controller 180, respectively.
  • the drive signal is generated by converting into a B signal.
  • the display unit 151 may be a PDP, an LCD, an OLED, a flexible display, a 3D display, or the like.
  • the sound output unit 152 may include a signal processed by the controller 180, a voice signal received from the communication unit 110, a voice signal stored in the memory 160, and a voice signal received through the external device interface unit 130. You can output The sound output unit 152 may include a receiver, a speaker, a buzzer, and the like.
  • the memory 160 stores data supporting various functions of the computing device 100.
  • the memory 160 may store a plurality of application programs or applications that are driven by the computing device 100, data for operating the mobile terminal 100, and instructions.
  • the memory 160 may be a flash memory type, a hard disk type, a solid state disk type, an SSD type, a silicon disk drive type, or a multimedia card micro type.
  • Card-type memory e.g., SD or XD memory
  • RAM random access memory
  • SRAM static random access memory
  • ROM read-only memory
  • It may include at least one type of storage medium of -only memory (PROM), programmable read-only memory (PROM), magnetic memory, magnetic disk and optical disk.
  • the power supply unit 170 receives an external power source and an internal power source under the control of the controller 180 to supply power for operation of each component.
  • the power supply unit 170 may include a rechargeable battery.
  • the controller 180 controls operations related to application programs and the first half of the mobile terminal 100.
  • the controller 180 may include a central processing unit (CPU) 181 and a main chipset 182.
  • the central processing unit 181 controls the overall operation of the computing device 100.
  • the main chipset 182 performs a function similar to a chipset provided on a main board of a general computing device. More specifically, the main chipset 182 may mean a core controller chip that connects and controls each component.
  • the main chipset 182 refers to a south bridge that controls peripheral devices such as a north bridge and an interface that controls memory and graphics, and each bridge may be implemented as a separate element or as a single element. It may be implemented as a module.
  • the north bridge may perform a function of controlling a graphics processing unit (GPU) or a graphics card including the same, which is provided separately. Seen to be.
  • GPU graphics processing unit
  • FIG. 2 illustrates an appearance of a computing device related to the present invention.
  • the computing device 100 includes a display unit 151, a keyboard 121, and a housing 124.
  • the housing 124 may be referred to as a case, and a portion surrounding the display unit 151 may be divided into a front case 124a and a portion surrounding the keyboard 121 facing the display unit 151 as a rear case 124b. have.
  • the touch pad 122 may be provided on one surface of the housing 124 facing the display unit 151, but is not limited thereto.
  • the housing 124 may include a touch sensor.
  • the touch sensor may be provided at one side of the housing 124 facing the display unit 151 and at the periphery of the keyboard 121.
  • the computing device 100 is illustrated in the form of a notebook computer having a touch pad 122, but this is merely an example, and includes another keyboard 121 having a touch sensor. Computing device 100 in a form also falls within the scope of the present invention.
  • FIG. 3 is a flowchart illustrating an example of a method of controlling a computing device according to an embodiment of the present invention.
  • the controller 180 detects a first touch input of touching a first key in the keyboard 121 according to a preset condition (S201).
  • the first key is, among a plurality of keys provided on the keyboard 121, a letter key, a numeric key, or a special key (for example, "Ctrl key” and "Alt key as keys other than the letter key or numeric key). ",” Esc key “,” Shift key “, and the like.
  • the preset condition may be a condition of touching the first key for a preset time, a condition of touching the first key while touching a second key of the keyboard 121, and a second key of the keyboard 121.
  • a condition of touching at least two keys in the keyboard a second key located at the outermost side of the keyboard 121 before touching the first key, and the first key and the second key in the keyboard 121; It may be at least one of a condition of touching at least one key located between the keys, and a condition of touching the first key while touching the touch pad 122.
  • the controller 180 when detecting the first touch input, may also detect whether the keyboard 121 is set to a Korean input mode or an English input mode.
  • the controller 180 executes a function corresponding to the first key according to the first touch input (S202).
  • the memory 160 may store in advance mapping data of a specific key and a predetermined function in the keyboard 121. Functions corresponding to specific keys in the keyboard 121 may be set at the time of manufacture of the computing device 100, may be set at the time of operating system or firmware update of the computing device 100, or the computing device 100 is in use. It may be set or changed by the user.
  • the controller 180 may access the memory 160 to detect a function corresponding to the first key, and execute the detected function.
  • the controller 180 controls the display unit 151 to output a result of executing the function (S203).
  • the controller 180 may output an execution screen of a specific program to the display unit 151 or output a GUI including a result of executing the function to the display unit 151.
  • FIG. 4 is a diagram illustrating an example of a screen output to a display unit according to a first touch input in a computing device according to an embodiment of the present invention.
  • the controller 180 detects a first touch input of touching a first key in the keyboard 121 according to a preset condition.
  • the preset condition is a condition of touching the first key for a preset time. For example, when a user touches a letter key (“N key”) in the keyboard 121 for a predetermined time or more, the controller 180 may detect the first touch input.
  • the controller 180 may access the memory 160 and detect a function corresponding to the “N key”.
  • the memory 160 may store in advance mapping data of a specific key and a predetermined function in the keyboard 121.
  • FIG. 5 is a diagram illustrating an example of a database stored in a memory of a computing device according to an embodiment of the present invention.
  • the memory 160 may store in advance mapping data of a specific key and a predetermined function in the keyboard 121.
  • a function corresponding to a specific key of the keyboard 121 means execution of a specific program mapped to the specific key, execution of a specific file mapped to the specific key, or a function that may be implemented in the computing device 100. It may be at least one of execution of a specific function mapped to the specific key among these.
  • the controller 180 detects a first touch input of touching the "N key” according to a preset condition. In this case, you can run a program for Internet use.
  • the controller 180 may execute a program having the highest number of times of use of the user among the various programs, or may be selected by a user. You can also run the program.
  • the controller 180 touches the "W key” according to a preset condition. If an input is detected, you can run a program for working with documents.
  • the controller 180 may execute a program having the highest number of times of use of the user among the various programs, or may be selected by a user. You can also run the program.
  • the function mapped to a specific key may vary depending on whether the input mode of the keyboard 121 is a Korean input mode or an English input mode.
  • the memory 160 maps and stores the "Internet execution" function on the "Q key” in the keyboard 121 and maps the "execution of a document work program” function to the "key” in the keyboard 121. Can be stored.
  • the "Q key” and the " ⁇ key” correspond to physically the same key in the keyboard 121.
  • the controller 180 detects an input mode of the keyboard 121 when the first touch input is detected, and executes a document work program if the keyboard 121 is a Korean input mode, and if the keyboard 121 is an English input mode. You can run a program to use the Internet.
  • the controller 180 may use the keyboard ( 121.
  • the display unit 151 includes a GUI including a list of a specific key and corresponding functions (for example, execution of a specific program, execution of a specific file, or execution of a specific function that can be implemented in the computing device 100). You can also print
  • the controller 180 may perform a function corresponding to the “N key” (for example, executing the Internet). ) And output the first screen 210, which is the result of the function execution, to the display unit 151.
  • the first screen 210 may be an execution screen of a specific program selected from a program for use of the Internet stored in the memory 160 or selected by a user.
  • a GUI for confirming whether the function corresponding to the first key is executed may be output to the display unit 151 to check whether the user's intention is correct. . This will be described with reference to FIG. 6.
  • FIG. 6 illustrates an example of a GUI that is output to a display unit of a computing device according to an embodiment of the present disclosure.
  • the controller 180 determines whether to execute a function corresponding to the first key.
  • the display unit 151 may be controlled to output the display.
  • the GUI 220 may include information about a first key touched by a user according to a preset condition (for example, "N key”), information about a function corresponding to the first key (for example, "Internet execution") and a guide message asking whether to execute the function corresponding to the first key. This is to prevent a malfunction that is different from the intention of the user when the user unintentionally touches the first key.
  • the controller 180 When the confirmation menu 221 in the GUI 220 is selected, the controller 180 performs an Internet execution function as a function corresponding to the first key, and when the cancel menu 222 in the GUI 220 is selected.
  • the GUI 220 may be removed from the display unit 151 without performing a function corresponding to the first key.
  • the user may select a desired menu by placing the icon I displayed on the display unit 151 on a desired menu (confirmation menu 221 or cancellation menu 222) in the GUI 220.
  • the user may input a position movement and menu selection command of the icon I using the mouse 123, or move the position and the menu of the icon I by touching the touch pad 122 by hand.
  • the selection command may be input or the position movement of the icon I and the menu selection command may be input by touching the keyboard 121 or the housing 124 with the touch sensor by hand.
  • FIG. 7 is a diagram for describing another example of a screen output to a display unit according to a first touch input in a computing device according to an embodiment of the present disclosure.
  • the controller 180 detects a first touch input of touching a first key in the keyboard 121 according to a preset condition.
  • the preset condition is a condition of touching the first key for a preset time. For example, when a user touches a letter key (“F key”) in the keyboard 121 for a predetermined time or more, the controller 180 may detect the first touch input.
  • F key letter key
  • the controller 180 may access the memory 160 and detect a function corresponding to the “F key”.
  • the memory 160 may store in advance mapping data of a specific key and a predetermined function in the keyboard 121.
  • An example of mapping data of a specific key and a predetermined function in the keyboard 121 stored in the memory 160 is similar to that described above with reference to FIG. 5, and thus a detailed description thereof will be omitted.
  • the controller 180 executes a function corresponding to the “F key” (for example, system shutdown), and executes a function.
  • the second screen 230 that is the result of the output may be output to the display unit 151.
  • the controller 180 includes a second screen 230 including a GUI 231 for terminating the system.
  • the system After outputting a system shutdown command is input separately from the user through the GUI 231, the system may be terminated, or after outputting a second screen 230 including a GUI 231 for system shutdown After a time passes, the system may be automatically shut down, or the system may be immediately shut down without outputting the GUI 231 for shutting down the system.
  • a GUI for checking whether to execute the function corresponding to the “F key”. May be output to the display unit 151.
  • FIG. 8 illustrates an example of a preset condition for sensing a first touch input in a computing device according to an embodiment of the present disclosure.
  • the controller 180 detects a first touch input of touching a first key in the keyboard 121 according to a preset condition.
  • the preset condition is a condition in which the first key is touched while the second key in the keyboard 121 is touched or a state in which pressure or more than a preset degree is applied to the second key in the keyboard 121. It may be a condition of touching the first key in a state where the second key is pressed. For example, when a user touches a letter key (eg, “F key”) in the keyboard 121 while pressing or touching a special key (“Alt key”) in the keyboard 121, the controller may be used. 180 may detect the first touch input.
  • a letter key eg, “F key”
  • Alt key a special key
  • the preset condition may be a condition of touching the first key while touching the touch pad 122.
  • the controller 180 may control the first key.
  • a touch input can be detected.
  • a portion of the user's hand using the keyboard 121 is placed on the touch pad 122 with the keyboard ( 121) may be common.
  • FIG. 9 is a diagram for describing another example of a preset condition for sensing a first touch input in a computing device according to an embodiment of the present disclosure.
  • the controller 180 detects a first touch input of touching a first key in the keyboard 121 according to a preset condition.
  • the preset condition may be a condition of touching at least two keys in the keyboard 121 before touching the first key.
  • the first key and the at least two keys may be continuously located in the keyboard 121.
  • the first key and the at least two keys are located consecutively on a straight line (vertical line, horizontal line, or diagonal line) in the keyboard 121 or in any curved (structured or atypical) form on the keyboard 121. Can be positioned consecutively.
  • the controller 180 may touch at least two keys consecutively positioned in the keyboard 122, and then a specific key adjacent to the last touched key among the at least two keys is greater than or equal to a preset level.
  • the specific key may be recognized as the first key, and when at least three keys consecutively positioned in the keyboard 122 are touched, the last touched key among the at least three keys is touched. It can also be recognized as a key. For example, a user touches three consecutive letter keys (for example, "A key”, "S key”, and "D key”) in the keyboard 121, and then touches the "D key". When a letter key (for example, "F key”) is touched, the controller 180 can detect the first touch input.
  • FIG. 10 is a diagram for describing another example of a preset condition for sensing a first touch input in a computing device according to an embodiment of the present disclosure.
  • the controller 180 detects a first touch input of touching a first key in the keyboard 121 according to a preset condition.
  • the preset condition means a second key located at the outermost side of the keyboard 121 before touching the first key and between the first key and the second key in the keyboard 121. It may be a condition of touching at least one key located at.
  • the first key, the at least one key, and the second key may be continuously located in the keyboard 121.
  • the preset condition is a housing 124 including a touch sensor and at least one positioned between the housing 124 and the first key before touching the first key. It may be a condition of touching a key.
  • the housing 124 may be a portion surrounding the keyboard 121 facing the display unit 151 and having a touch sensor.
  • the at least one key located between the housing 124 and the first key may include a key located at the outermost portion of the keyboard 121.
  • at least one key and the first key positioned between the housing 124 and the first key may be continuously located in the keyboard 121.
  • the preset condition may be a condition of touching the first key while touching the housing 124.
  • the controller 180 can detect the first touch input.
  • a letter key eg, “F key”
  • the function executed by the controller 180 may vary. This will be described with reference to FIGS. 11 to 21.
  • FIG. 11 is a flowchart illustrating another example of a method for controlling a computing device according to an embodiment of the present invention.
  • the controller 180 detects a first touch input of touching a first key in the keyboard 121 according to a preset condition (S301).
  • the first key may be a letter key, numeric key or special key (for example, Ctrl key, Alt key, Esc key, etc.) among a plurality of keys provided in the keyboard 121.
  • the preset condition may be a condition of touching the first key for a preset time, a condition of touching the first key while touching a second key of the keyboard 121, and a second key of the keyboard 121.
  • a condition of touching at least two keys in the keyboard a second key located at the outermost side of the keyboard 121 before touching the first key, and the first key and the second key in the keyboard 121; It may be at least one of a condition of touching at least one key located between the keys, and a condition of touching the first key while touching the touch pad 122.
  • the controller 180 when detecting the first touch input, may also detect whether the keyboard 121 is set to a Korean input mode or an English input mode.
  • the controller 180 detects the screen output on the display unit 151 when the first touch input is detected (S302).
  • the screen output to the display unit 151 may be a screen corresponding to a specific program that is being executed when the first touch input is detected, or when the first touch input is detected. If there is no specific program running, it may be the desktop (or home screen).
  • the specific program may mean a program created for the purpose of solving a specific task, unlike a basic software program such as an operating system (OS) or a utility program. According to an embodiment, even if there is a specific program running when the first touch input is detected, if the execution screen of the specific program is minimized, a background screen (or a home screen) is displayed when the first touch input is detected. The screen may be output to the unit 151.
  • the screens displayed on the display unit 151 when the first touch input is detected are the plurality of specific programs. May be an execution screen of a specific program displayed on a main area of the screen of the display unit 151 without being minimized.
  • the main area of the screen of the display unit 151 refers to an area excluding a task bar for displaying the current state of the computing device 100 and information about a running program.
  • the first touch input is detected.
  • the specific program executed first, the last program executed most, among the execution screens of the specific program displayed on the main area of the screen of the display unit 151. It may be an execution screen of a specific program satisfying a set condition or a specific program selected by a user.
  • the controller 180 executes a function corresponding to the first key based on the detected screen (S303).
  • the memory 160 may store in advance mapping data of a specific key and a predetermined function in the keyboard 121.
  • a function corresponding to the first key may include a file and a program stored in the memory 160 of the computing device 100 and the computing device 100 when the first key corresponds to a specific character.
  • functions that may be searched at least one of a file name, a program name, and a function name starting with the specific character may be searched, and the search function may be based on the detected screen.
  • the controller 180 is a file name, a program name, and a function name starting with the specific character as related to the program for the document task. At least one of the can be searched.
  • the controller 180 may start a file name or a program starting with the specific consonant. At least one of a name and a function name can be searched, and if the input mode of the keyboard 121 is set to the English input mode, among the file name, program name, and function name starting with an alphabet corresponding to the first key, You can search for at least one.
  • the function corresponding to the first key is an output of a GUI for controlling a specific function related to a specific program corresponding to the detected screen or a specific function related to the specific program corresponding to the detected screen. Can be the execution of.
  • the function corresponding to the first key means that the first key corresponds to a special key (for example, a "Ctrl key", an "Alt key”, or a "Shift key”). It may be a function of detecting a list of shortcut keys including the first key from a list of shortcut keys related to a function of a specific program corresponding to the displayed screen.
  • the shortcut key may mean at least two keys in the keyboard 121 when at least two keys in the keyboard 121 are set to be executed in advance when a specific function of the specific program is executed.
  • the memory 160 may store a list of shortcut keys related to the function of the specific program in advance.
  • the controller 180 controls the display unit 151 to output a result of executing the function (S304). For example, the controller 180 may output a GUI including a result of executing the function to the display unit 151.
  • FIG. 12 illustrates an example of a screen output to a display unit according to a first touch input in a computing device according to an embodiment of the present disclosure.
  • the controller 180 detects a first touch input of touching a first key in the keyboard 121 according to a preset condition.
  • the preset condition may be a condition of touching the first key for a preset time, a condition of touching the first key while touching a second key of the keyboard 121, and a second key of the keyboard 121.
  • the first key is a character key corresponding to a specific character.
  • the controller 180 detects a screen output on the display unit 151 when the first touch input is detected.
  • the detected screen is a background screen (or a home screen).
  • the controller 180 executes a function corresponding to the first key based on the detected screen. That is, the controller 180 based on the detected screen, the specific character from among files and programs stored in the memory 160 of the computing device 100 and functions that may be implemented in the computing device 100. At least one of a file name, a program name, and a function name beginning with the search may be searched. When the detected screen is a background screen, a file name, a program name, and a function name starting with the specific character to be searched may not be related to each other. According to an exemplary embodiment, the controller 180 may search for a file name, a program name, and a function name starting with an alphabet corresponding to the first key, regardless of the input mode of the keyboard 121, or the keyboard 121.
  • the input mode of is set to the Hangul input mode and the first key corresponds to a specific consonant of the Hangul, at least one of a file name, a program name, and a function name starting with the specific consonant is searched and the keyboard 121
  • the input mode is set to the English input mode, at least one of a file name, a program name, and a function name starting with an alphabet corresponding to the first key may be searched for.
  • the controller 180 may include a file name, a program name, and a function having a history used recently (within a preset period from the present) among the file name, program name, and function name starting with the specific character. You can also search for people.
  • the controller 180 controls the display unit 151 to output the first GUI 310 including the result of the function execution.
  • the controller 180 may control the display unit 151 to separately output the search result by file, program, and function in the first GUI 310.
  • the controller 180 outputs the search results separately by file, program, and function in the first GUI 310, but includes a file name, a program name, and a function name having a most recently used history.
  • the display unit 151 may be controlled to output in order.
  • the controller 180 outputs the search results by file, program, and function in the first GUI 310, and the history used in the recent (within a predetermined period from the present) is displayed.
  • the display unit 151 may be controlled to separately output a file name, a program name, and a function name.
  • the user may select a desired menu from among a file name, a program name, and a function name included in the first GUI 310 to execute the file, the program, or the function.
  • the user may input a position movement and menu selection command of the icon I using the mouse 123, or move the position and the menu of the icon I by touching the touch pad 122 by hand.
  • the selection command may be input or the position movement of the icon I and the menu selection command may be input by touching the keyboard 121 or the housing 124 with the touch sensor by hand.
  • FIG. 13 is a diagram for describing another example of a screen output to a display unit according to a first touch input in a computing device according to an embodiment of the present disclosure.
  • the content overlapping with FIG. 12 will not be described again, and the following description will focus on differences.
  • the controller 180 may control the display unit 151 to output a thumbnail image 311 corresponding to at least some of the searched file names on the first GUI 310. For example, when a file name corresponding to an image file or a video file exists among the searched file names, the controller 180 displays a thumbnail image 311 corresponding to each of the corresponding file names on the first GUI 310. Can be displayed. The thumbnail image 311 may be located in parallel with the corresponding file name in the first GUI 310. When the searched file name is a video file, the thumbnail image 311 may be a reduced size of the representative image representing the video file.
  • FIG. 14 is a diagram for describing another example of a screen output to a display unit according to a first touch input in a computing device according to an embodiment of the present invention. 12 and 13 will not be described again, and the following description will focus on differences.
  • the controller 180 detects a first touch input of touching a first key in the keyboard 121 according to a preset condition. Since the preset condition is similar to that described above with reference to FIGS. 4 and 7 to 10, a detailed description thereof will be omitted. In the present embodiment, it is assumed that the first key is a character key corresponding to a specific character.
  • the controller 180 detects a screen output on the display unit 151 when the first touch input is detected.
  • the detected screen is an execution screen of a playback program for listening to a video or music
  • the display unit 151 displays a first screen which is an execution screen of the playback program. Assume 320 is displayed.
  • the controller 180 executes a function corresponding to the first key based on the detected screen. That is, the controller 180 based on the detected screen, the specific character from among files and programs stored in the memory 160 of the computing device 100 and functions that may be implemented in the computing device 100. At least one of a file name, a program name, and a function name beginning with the search may be searched. According to an embodiment, the controller 180 may include a file name, a program name, and a function having a history used recently (within a preset period from the present) among the file name, program name, and function name starting with the specific character. You can also search for people.
  • controller 180 may search only the file name, program name and function name starting with the specific character related to the playback program, and may search for all of the file name, program name and function name starting with the specific character.
  • searching but outputting the search results to the display unit 151, the one related to the playback program may be displayed first.
  • the controller 180 controls the display unit 151 to output the first GUI 310 including the result of the function execution.
  • the first GUI 310 may be displayed on the first screen 320 which is an execution screen of the playback program.
  • the controller 180 may display only the file name, program name, and function name related to the playback program in the first GUI 310 among the file name, program name, and function name starting with the specific character.
  • a name, a program name, and a function name are all displayed on the first GUI 310, but a file name, a program name, and a function name related to the playback program may be displayed on the first GUI 310 first.
  • a file name, a program name, and a function name associated with the playback program are a file name that can be played back with the playback program, a file name with a history played through the playback program, a program name that can be linked with the playback program, and the playback.
  • FIG. 15 is a diagram for describing another example of a screen output to a display unit according to a first touch input in a computing device according to an embodiment of the present disclosure. 12 and 14 will not be described again, and the following description will focus on differences.
  • the controller 180 detects a first touch input of touching a first key in the keyboard 121 according to a preset condition. Since the preset condition is similar to that described above with reference to FIGS. 4 and 7 to 10, a detailed description thereof will be omitted. In the present embodiment, it is assumed that the first key is a character key corresponding to a specific character.
  • the controller 180 detects a screen output on the display unit 151 when the first touch input is detected.
  • the detected screen is an execution screen of a document work program for a document work
  • the display unit 151 displays a second screen (executed screen of the document work program). Assume 330 is displayed.
  • the controller 180 executes a function corresponding to the first key based on the detected screen. That is, the controller 180 based on the detected screen, the specific character from among files and programs stored in the memory 160 of the computing device 100 and functions that may be implemented in the computing device 100. At least one of a file name, a program name, and a function name beginning with the search may be searched.
  • the controller 180 may include a file name, a program name, and a function having a history used recently (within a preset period from the present) among the file name, program name, and function name starting with the specific character. You can also search for people.
  • the controller 180 may search only a file name, a program name, and a function name beginning with the specific character and related to the document work program, and may search for a file name, program name, and function name beginning with the specific character.
  • the information related to the document work program may be preferentially displayed when the search results are output to the display unit 151.
  • the controller 180 controls the display unit 151 to output the first GUI 310 including the result of the function execution.
  • the first GUI 310 may be displayed on the second screen 330 which is an execution screen of the document work program.
  • the controller 180 may display only the file name, program name, and function name related to the document work program among the file name, program name, and function name starting with the specific character to be displayed on the first GUI 310.
  • a file name, a program name, and a function name are all displayed on the first GUI 310, but a file name, a program name, and a function name related to the document work program may be preferentially displayed on the first GUI 310.
  • a file name, a program name, and a function name associated with the document work program may include a file name of a document worked using the document work program, a file name of a document that can be viewed through the document work program, and the document work program. It may be a program name that can be linked, a program name having a transmission history of a document file viewable through the document work program, a function name associated with functions of the document work program, and the like.
  • FIG. 16 illustrates another example of a screen output to a display unit according to a first touch input in a computing device according to an embodiment of the present disclosure.
  • the contents overlapping with those of FIGS. 12 to 15 will not be described again, and the following description will focus on differences.
  • the controller 180 detects a first touch input of touching a first key in the keyboard 121 according to a preset condition. Since the preset condition is similar to that described above with reference to FIGS. 4 and 7 to 10, a detailed description thereof will be omitted. In the present embodiment, it is assumed that the first key is a character key corresponding to a specific character.
  • the controller 180 detects a screen output on the display unit 151 when the first touch input is detected.
  • the detected screen is an execution screen of a web service program for using the Internet, and when the first touch input is detected, the display unit 151 displays a third screen which is an execution screen of the web service program. Assume 340 is displayed.
  • the controller 180 executes a function corresponding to the first key based on the detected screen. That is, the controller 180 is based on the detected screen, among the file name, program name, web page name, URL address, and functions that can be implemented in the computing device 100 associated with the web service program. At least one of a file name, a program name, a web page name, a URL address, and a function name starting with the specific character may be searched.
  • the controller 180 may have a history used recently (within a preset period from the present) among file names, program names, web page names, URL addresses, and function names starting with the specific character. You can also search for file names, program names, web page names, URL addresses, and function names.
  • the controller 180 may include a file name downloaded through the web service program, a program name downloaded through the web service program, a program name interoperable with the web service program, and a visited through the web service program. Web page name with history, URL address with history visited through the web service program, Web page name or URL address added by user to the web service program as a favorite, functions related to the functions of the web service program Persons and the like.
  • the controller 180 may store a history of a file name, a program name, a web page name, a URL address, and a function name that have been used recently (within a predetermined period from the present) of the file name beginning with the specific character. You can also search for names, program names, web page names, URL addresses, and function names.
  • the controller 180 controls the display unit 151 to output the first GUI 310 including the result of the function execution.
  • the first GUI 310 may be displayed on the third screen 340 which is an execution screen of the web service program.
  • 17 is a diagram for describing an example of a screen output to a display unit according to a first touch input in a computing device according to an embodiment of the present invention.
  • the controller 180 detects a first touch input of touching a first key in the keyboard 121 according to a preset condition. Since the preset condition is similar to that described above with reference to FIGS. 4 and 7 to 10, a detailed description thereof will be omitted. In this embodiment, it is assumed that the first key is a space bar.
  • the controller 180 detects a screen output on the display unit 151 when the first touch input is detected.
  • the detected screen is an execution screen of a playback program for listening to a video or music, and when the first touch input is detected, the display unit 151 plays the specific video file being played through the playback program. Assume that a fourth screen 350 associated with is displayed.
  • the controller 180 executes a function corresponding to the first key based on the detected screen.
  • the function corresponding to the first key may be an output of a GUI for controlling a specific function related to the playback program or execution of a specific function related to the playback program.
  • the controller 180 controls the display unit 151 to output a second GUI 360 for controlling a play related function of the play program based on the detected screen, and accordingly, The second GUI 360 is displayed on the display unit 151.
  • the second GUI 360 may be displayed on the fourth screen 350 which is an execution screen of the playback program.
  • the second GUI 360 may include a progress bar 361a for adjusting a playback point of the specific file, an indicator 361b indicating a playback point of the specific file on the progress bar 361a, and the specific file.
  • the play menu 364 and the next file play menu 365 for selecting a play of the file immediately following the specific file in the play list may be included.
  • FIG. 18 is a diagram for describing an example that may appear after FIG. 17.
  • the controller 180 touches the first key in the keyboard 121.
  • a second touch input of dragging left or right may be sensed.
  • the controller 180 may control the display unit 151 to move the indicator 361b to the left or right on the progress bar 361a according to the second touch input.
  • the display unit 151 may output a playback screen corresponding to the position of the indicator 361b moved on the progress bar 361a according to the second touch input. In this way, the user can select a playback point of the specific program by taking an intuitive operation of touching the long space bar from side to side in the horizontal direction, thereby enhancing user convenience.
  • FIG. 19 illustrates another example of a screen output to a display unit according to a first touch input in a computing device according to an embodiment of the present disclosure.
  • the controller 180 detects a first touch input of touching a first key in the keyboard 121 according to a preset condition. Since the preset condition is similar to that described above with reference to FIGS. 4 and 7 to 10, a detailed description thereof will be omitted. In this embodiment, it is assumed that the first key is a space bar.
  • the controller 180 detects a screen output on the display unit 151 when the first touch input is detected.
  • the detected screen is an execution screen of a web service program for using the Internet, and when the first touch input is detected, the display unit 151 displays a fifth screen which is an execution screen of the web service program. Assume 370 is displayed.
  • the controller 180 executes a function corresponding to the first key based on the detected screen.
  • the function corresponding to the first key may be an output of a GUI for controlling a specific function related to the web service program or execution of a specific function related to the web service program.
  • the controller 180 may output a third GUI 380 including images corresponding to a web page having a history of access through the web service program based on the detected screen. 151 is controlled, and accordingly, the third GUI 380 is displayed on the display unit 151.
  • the third GUI 380 may be displayed on the fifth screen 370 which is an execution screen of the web service program.
  • the third GUI 380 includes images 381 corresponding to a web page having a history of access through the web service program within a preset period from the present.
  • an arrow 382 indicating that there are more images to be included in the third GUI 380 is displayed in the third GUI 380. It may be included in the output.
  • the third GUI 380 includes three images 381a, 381b, and 381c
  • the rightmost image 381c may correspond to the most recently visited web page.
  • the indicator 383 may be displayed to indicate an image 381c corresponding to the most recently visited web page.
  • the indicator 383 may be in the form of highlighting the edge of the image 381c.
  • FIG. 20 is a diagram for describing an example that may appear after FIG. 19.
  • the controller 180 may detect a second touch input of dragging left or right while touching the first key in the keyboard 121. have.
  • the controller 180 when the second touch input of dragging to the left while detecting the first key in the keyboard 121 is detected, the controller 180 is an image adjacent to the image 381c to the left of the image 381c.
  • the display unit 151 may be controlled to indicate 381b. Thereafter, when the second touch input of dragging the right side while touching the first key in the keyboard 121 is detected, the controller 180 is an image adjacent to the image 381b to the right.
  • the display unit 151 may be controlled to point 381c again. In this way, the user can browse the web pages with the recently accessed history by taking an intuitive operation of touching the long space bar from side to side in the horizontal direction, thereby enhancing user convenience.
  • the web corresponding to the selected image 381 is selected.
  • the screen of the page may be output to the display unit 151.
  • FIG. 21 is a diagram for describing another example of a screen output to a display unit according to a first touch input in a computing device according to an embodiment of the present disclosure.
  • the controller 180 detects a first touch input of touching a first key in the keyboard 121 according to a preset condition. Since the preset condition is similar to that described above with reference to FIGS. 4 and 7 to 10, a detailed description thereof will be omitted.
  • the first key is a "Ctrl key” of a special key (for example, "Ctrl key”, “Alt key”, “Shift key”, etc.).
  • the controller 180 detects a screen output on the display unit 151 when the first touch input is detected.
  • the detected screen is an execution screen of a document work program for a document work
  • the display unit 151 displays a sixth screen (executed screen of the document work program). Assume that the screen is displayed.
  • the controller 180 executes a function corresponding to the first key based on the detected screen. That is, the controller 180 may detect a list of shortcut keys including the first key from a list of shortcut keys associated with a function of a document work program corresponding to the detected screen, based on the detected screen. Can be.
  • the shortcut key may mean at least two keys in the keyboard 121 when at least two keys in the keyboard 121 are set to be executed in advance when a specific function of the specific program is executed.
  • the memory 160 may store a list of shortcut keys related to the function of the specific program in advance.
  • the controller 180 may output the fourth GUI 391 including the result of executing the function to the display unit 151.
  • the fourth GUI 391 may be displayed on the sixth screen 390 which is an execution screen of the document work program.
  • the user may use the keyboard 121 provided with the touch sensor as a mouse. This will be described with reference to FIGS. 22 to 29.
  • 22 is a flowchart illustrating an example of a control method of a computing device according to an embodiment of the present invention.
  • the controller 180 may include a first finger touching a first key, a second finger touching a second key, and a third finger touching a third key among a plurality of keys included in the keyboard 121. At least it is recognized (S401). The user may be in a position to put his hand on the keyboard 121 similar to using the mouse 123.
  • the first key is located to the left of the second key
  • the third key is located to the right of the second key
  • the second key on the keyboard 121 may be located on the same line as at least one of the first key and the third key, or may be positioned above the first key and the third key.
  • a touch input may be positioned at the top of the detected keys.
  • the first key and the third key on the keyboard 121 may be located adjacent to the second key, respectively.
  • the meaning that two keys are adjacent to each other on the keyboard 121 may mean that the two keys are adjacent to each other in a straight line, diagonal line, or diagonal line on the keyboard 121.
  • the first to third fingers correspond to the fingers of a user who uses the keyboard 121. According to an embodiment, when one finger touches two adjacent keys simultaneously, at least one of the first key, the second key, and the third key may mean two adjacent keys.
  • the controller 180 recognizes a first finger touching the first key and touches the second key when a touch input of touching the first key, the second key, and the third key is detected.
  • a second finger may be recognized and a third finger touching the third key may be recognized.
  • the controller 180 may detect a touch input even with keys other than the first to third keys, but recognition of the first to third fingers may be performed only through the first to third keys.
  • the controller 180 controls the display unit 151 to display the first indicator in the first area on the screen based on the recognition result of the first finger, the second finger, and the third finger (S402).
  • the memory 160 may include first coordinate value data related to at least a partial area on the keyboard 121, second coordinate value data related to an entire area of the screen of the display unit 151, and the first coordinate value data and the first coordinate value data. 2 may store mapping data of coordinate data.
  • the first indicator may be displayed on the preset first area on the screen of the display unit 151 when the first finger, the second finger and the third finger are recognized, and the first key and the second indicator on the keyboard 121.
  • the display apparatus may be displayed on the first area of the screen of the display unit 151 based on the first coordinate value data associated with at least one of the key and the third key and the mapping data.
  • the controller 180 recognizes dragging of the first finger, the second pigger, and the third finger on the keyboard 121 (S403). For example, the controller 180 detects a touch input on a first key, simultaneously detects a touch input on a first key and a key adjacent to the first key, and detects a touch input on a key adjacent to the first key. In this case, dragging of the first finger may be recognized. Similarly, the controller 180 can recognize dragging of the second finger and the third finger.
  • the memory 160 may previously store a program or an application necessary for recognizing dragging of the finger.
  • the controller 180 calculates a change amount of first coordinate value data associated with at least one of the first finger, the second finger, and the third finger by the dragging (S404).
  • the controller 180 may include first coordinate value data, a first finger, a second finger, and a first coordinate value data of the first finger on the keyboard 121 before dragging the first finger, the second finger, and the third finger.
  • the change amount of the first coordinate value data associated with the first finger may be calculated using the first coordinate value data of the first finger on the keyboard 121.
  • the controller 180 may control the display unit 151 to move and display the first indicator from the first area to the second area on the screen based on the calculated change amount (S405). For example, the controller 180 may display the first indicator on the screen in the first area based on the mapping data of the first coordinate value data and the second coordinate value data stored in the memory 160 and the calculated change amount. The display unit 151 may be controlled to move to the second area. Alternatively, the controller 180 may move the first indicator from the first area to the second area on the screen based on the dragging direction of the first finger, the second finger, and the third finger and the calculated change amount. The display unit 151 may be controlled.
  • FIG. 23 is a diagram illustrating an example of a screen displayed on a display unit of a computing device according to an embodiment of the present invention.
  • the controller 180 may include a first finger touching a first key, a second finger touching a second key, and a third key among a plurality of keys included in the keyboard 121. Recognize at least the third finger that touches.
  • the controller 180 recognizes a first finger that touches the “T key”, which is the first key, and recognizes the second key.
  • a second finger touching “Y key” and “U key” may be recognized, and a third finger touching "J key” which is a third key may be recognized. Since the second finger is touching two adjacent keys, the second key may correspond to the two adjacent keys "Y key” and "U key”.
  • the controller 180 may include keys other than the first key, the second key, and the third key (for example, “T key”, “Y key”, “U key”, and “J key”), and the touch pad 122. ) And / or the touch input may be sensed through the housing 124, but the touch input detected at a portion other than the first key, the second key, and the third key satisfying the conditions described above with reference to FIG. 22 is ignored. (ignore)
  • the controller 180 When the first finger, the second finger, and the third finger are recognized, the controller 180 outputs the first indicator I1 similarly to the case where there is a user input by the mouse 123. ) Can be controlled.
  • the first indicator I1 may be displayed on the preset first area on the screen.
  • the first area may be a center area on the screen of the display unit 151.
  • FIG. 24 illustrates another example of a screen displayed on a display unit of a computing device according to an embodiment of the present invention.
  • the controller 180 recognizes at least a first finger touching a first key, a second finger touching a second key, and a third finger touching a third key among a plurality of keys included in the keyboard 121,
  • the display unit 151 is controlled to display the first indicator I1 in the first area on the screen based on the recognition result.
  • the controller 180 detects first coordinate value data associated with at least one of a first key, a second key, and a third key on the keyboard 121, and detects the first coordinate value data and the memory 160.
  • the display unit 151 may be controlled to display the first indicator I1 in the first area on the screen based on the stored mapping data of the first coordinate value data and the second coordinate value data.
  • the first area may be an area corresponding to the second coordinate value data on the screen of the display unit 151 mapped to the detected first coordinate value data on the keyboard 121. That is, when the user places his hand in the upper left area of the keyboard 121, the first indicator I1 may be displayed in the upper left area on the screen of the display unit 151.
  • the first indicator I1 on the screen of the display unit 151 may be moved accordingly. This will be described with reference to FIG. 25.
  • 25 is a diagram illustrating an example of a screen displayed on a display unit in a computing device according to an embodiment of the present invention.
  • the controller 180 may include a first finger touching a first key, a second finger touching a second key, and a third key among a plurality of keys included in the keyboard 121.
  • the display unit 151 is controlled to recognize at least the third finger touching and display the first indicator I1 in the first area on the screen based on the recognition result.
  • the controller 180 recognizes dragging of the first finger, the second pigger, and the third finger on the keyboard 121, and based on the recognition result, the first controller as shown in FIG. 25B.
  • the display unit 151 may be controlled to move the indicator I1 from the first area on the screen to the second area.
  • the controller 180 may calculate a change amount of first coordinate value data associated with at least one of the first finger, the second finger, and the third finger by the dragging.
  • the amount of change in the first coordinate value data of each of the at least two fingers of the first, second and third fingers may be the same as or different from each other.
  • the controller 180 may include first coordinate value data, a first finger, a second finger, and a first coordinate value data of the first finger on the keyboard 121 before dragging the first finger, the second finger, and the third finger. After dragging the three fingers, the change amount of the first coordinate value data associated with the first finger may be calculated using the first coordinate value data of the first finger on the keyboard 121.
  • the controller 180 may display the first indicator I1 on the screen in the first area based on the mapping data of the first coordinate value data and the second coordinate value data stored in the memory 160 and the calculated change amount.
  • the display unit 151 may be controlled to move to two areas. Alternatively, the controller 180 may move the first indicator I1 from the first area to the second area on the screen based on the dragging direction of the first finger, the second finger, and the third finger and the calculated change amount.
  • the display unit 151 may be controlled to move.
  • the distance that the finger, which is the target of the change amount of the first coordinate value data, moved on the keyboard 121 is changed from the first area on the screen of the display unit 151 to the second area by the first indicator I1. It may be shorter than the distance traveled.
  • the user may input a predetermined user command by tapping the keyboard 121 with the index finger while the hand is positioned on the keyboard 121.
  • FIGS. 26 to 29 show recognition of the finger and display of the first indicator I1 as described above with reference to FIGS. 23 and 24, and dragging recognition and the first indicator of the finger as described above with reference to FIG. 25. It may be an example after the movement of.
  • FIGS. 26 and 27 show examples similar to when the left button of the mouse 123 is clicked
  • FIGS. 28 and 29 show examples similar to when the right button of the mouse 123 is clicked. It is shown.
  • FIG. 26 illustrates an example of a screen displayed on a display unit of a computing device according to an embodiment of the present disclosure.
  • the controller 180 may include a first finger on the keyboard 121 in a first area on the keyboard 121 where the first finger is positioned by dragging the first, second, and third fingers. A first touch input of tapping an area once is detected.
  • the controller 180 may display the screen on the screen of the display unit 151 on which the first indicator I1 is located by dragging the first finger, the second finger, and the third finger according to the detected first touch input.
  • the specific function corresponding to the second area may be executed.
  • the execution of a specific function means that an execution screen of a specific program is displayed on an area of the screen of the display unit 151 except for a task bar, and the first indicator I1 is displayed on the execution screen of the specific program.
  • When located on a menu option may mean execution of the specific function, or when the first indicator I1 is located on a menu option of a specific function included in the task bar area on the screen of the display unit 151. It may mean execution of the specific function, or when the first indicator I1 is located on a menu icon corresponding to a specific file displayed on the desktop of the display unit 151, it may mean a function of highlighting the menu icon. It may be.
  • the user moves his hand on the keyboard 121 to place the first indicator I1 at the “Start” menu option 211 on the desktop 410.
  • the keyboard 121 can be tapped once with the index finger (first finger).
  • the controller 180 may include a first finger on the keyboard 121 in a first area on the keyboard 121 where the first finger is positioned by dragging the first, second, and third fingers. A first touch input of tapping an area once is detected.
  • a function corresponding to the "start” menu option 411 may be executed.
  • the controller 180 may control the display unit 151 to display the GUI 412 that is a result of executing the function corresponding to the “start” menu option 411.
  • FIG. 27 illustrates another example of a screen displayed on a display unit of a computing device according to an embodiment of the present invention.
  • the controller 180 may include a first finger on the keyboard 121 in a first area on the keyboard 121 where the first finger is positioned by dragging the first, second, and third fingers. A second touch input of tapping the area twice within a preset time is sensed.
  • the controller 180 may display a screen on the screen of the display unit 151 in which the first indicator I1 is located by dragging the first finger, the second finger, and the third finger according to the detected second touch input.
  • the specific function corresponding to the second area may be executed. For example, execution of a specific function may mean execution of the specific file when the first indicator I1 is located on a specific file displayed on the desktop of the display unit 151, or the execution of the display unit 151.
  • the first indicator I1 is located on the text included in the execution screen of the document work program. This may mean a function of highlighting a part of the text.
  • the user moves his or her hand on the keyboard 121 to position the first indicator I1 on the menu icon 421 corresponding to a specific file on the desktop 410.
  • the keyboard 121 can be quickly tapped twice with the index finger (first finger).
  • the controller 180 may include a first finger on the keyboard 121 in a first area on the keyboard 121 where the first finger is positioned by dragging the first, second, and third fingers. A second touch input of tapping the area twice within a preset time is sensed.
  • the specific file corresponding to the menu icon 421 may be executed.
  • the controller 180 may control the display unit 151 to display the screen 422 corresponding to the execution result of the specific file.
  • FIG. 28 is a diagram illustrating still another example of a screen displayed on a display unit of a computing device according to an embodiment of the present invention.
  • the controller 180 may include a second finger on the keyboard 121 in a second area on the keyboard 121 where the second finger is located by dragging the first finger, the second finger, and the third finger. A third touch input of tapping the area once is detected.
  • the controller 180 may detect a screen output on the display unit 151 when the third touch input is detected, and execute a specific function corresponding to the third touch input based on the detected screen.
  • execution of a specific function may mean an output of a GUI including a list of functions related to the desktop when the first indicator I1 is located in an empty space of the desktop of the display unit 151
  • the first indicator I1 may mean an output of a GUI including a list of functions related to the specific file.
  • an execution screen of a specific program is displayed in an area except the task bar on the screen and the first indicator I1 is located on the execution screen of the specific program, it means an output of a GUI including a list of functions related to the specific program. You may.
  • the user moves his hand on the keyboard 121 to place the first indicator I1 in an empty space of the desktop 410 and then stops (second finger). Can tap the keyboard 121 once.
  • the controller 180 may include a second finger on the keyboard 121 in a second area on the keyboard 121 where the second finger is located by dragging the first finger, the second finger, and the third finger. A third touch input of tapping the area once is detected.
  • the controller 180 detects that the screen output on the display unit 151 is the desktop screen 410, and as shown in FIG. 28B, the first finger And a list of functions related to the desktop 410 in an empty space of the desktop 410 of the display unit 151 where the first indicator I1 is located by dragging the second finger and the third finger.
  • the display unit 151 may be controlled to output the GUI 431.
  • FIG. 29 is a diagram illustrating still another example of a screen displayed on a display unit of a computing device according to an embodiment of the present invention. Contents overlapping with those described above with reference to FIG. 28 will not be described again.
  • the user moves his or her hand on the keyboard 121 to place the first indicator I1 in a predetermined area on the screen of the display unit 151 and then with the middle finger (second finger).
  • the keyboard 121 can be tapped once.
  • the controller 180 may include a second finger on the keyboard 121 in a second area on the keyboard 121 where the second finger is located by dragging the first finger, the second finger, and the third finger. A third touch input of tapping the area once is detected.
  • the controller 180 detects that the screen output on the display unit 151 is the execution screen 440 of a specific program, and as shown in FIG. 29B, In a predetermined area of the display unit 151 where the first indicator I1 is located by dragging the first finger, the second finger, and the third finger, a GUI 441 including a list of functions related to the specific program is provided.
  • the display unit 151 may be controlled to output.
  • the user may use the keyboard 121 provided with the touch sensor as the touch pad 122. This will be described with reference to FIGS. 30 to 32.
  • FIG. 30 is a flowchart for explaining another example of a control method of a computing device according to an exemplary embodiment.
  • the controller 180 recognizes a first finger touching a first key among a plurality of keys included in the keyboard 121 (S501).
  • the user may take a posture of placing one finger on the keyboard 121 similarly to using the touch pad 122.
  • the first key may be any key among a plurality of keys included in the keyboard 121. According to an embodiment, when one finger touches two adjacent keys simultaneously, the first key may mean two adjacent keys. If a touch input of touching the first key is detected, the controller 180 may recognize a first finger touching the first key.
  • the controller 180 controls the display unit 151 to display the second indicator in the first area on the screen based on the recognition result of the first finger (S502).
  • the memory 160 may include first coordinate value data related to at least a partial area on the keyboard 121, second coordinate value data related to an entire area of the screen of the display unit 151, and the first coordinate value data and the first coordinate value data. 2 may store mapping data of coordinate data.
  • the second indicator may be displayed on the preset first area on the screen of the display unit 151 when the first finger is recognized, and the first coordinate value data and the mapping associated with the first key on the keyboard 121. It may be displayed in the first area on the screen of the display unit 151 based on the data.
  • the controller 180 recognizes dragging of the first finger on the keyboard 121 (S503). For example, the controller 180 detects a touch input on a first key, simultaneously detects a touch input on a first key and a key adjacent to the first key, and detects a touch input on a key adjacent to the first key. In this case, dragging of the first finger may be recognized.
  • the memory 160 may previously store a program or an application necessary for recognizing dragging of the finger.
  • the controller 180 calculates an amount of change of the first coordinate value data related to the first finger by the dragging (S504).
  • the controller 180 may include the first coordinate value data of the first finger on the keyboard 121 before dragging the first finger and the first of the first finger on the keyboard 121 after dragging the first finger.
  • a change amount of the first coordinate value data related to the first finger may be calculated.
  • the controller 180 may control the display unit 151 to move and display the second indicator from the first area to the second area on the screen based on the calculated change amount (S505). For example, based on the mapping data of the first coordinate value data and the second coordinate value data stored in the memory 160 and the calculated change amount, the second indicator is moved from the first area to the second area on the screen.
  • the display unit 151 may be controlled.
  • the controller 180 may control the display unit 151 to move the second indicator from the first area to the second area on the screen based on the dragging direction of the first finger and the calculated change amount. Can be.
  • FIG. 31 illustrates an example of a screen displayed on a display unit of a computing device according to an embodiment of the present disclosure.
  • the controller 180 recognizes a first finger touching a first key among a plurality of keys included in the keyboard 121.
  • the controller 180 may control the display unit 151 to output the second indicator I2 similarly to the case where the user input by the touch pad 122 is performed.
  • the second indicator I2 may be displayed on the preset first area on the screen.
  • the first area may be a center area on the screen of the display unit 151.
  • the controller 180 detects first coordinate value data related to the first key on the keyboard 121, and detects the detected first coordinate value data and the first coordinate value stored in the memory 160.
  • the display unit 151 may be controlled to display the second indicator I2 in the first area on the screen based on the mapping data of the data and the second coordinate value data.
  • the first area may be an area corresponding to the second coordinate value data on the screen of the display unit 151 mapped to the detected first coordinate value data on the keyboard 121. That is, when the user places a finger on the upper left area of the keyboard 121, the second indicator I2 may be displayed on the upper left area of the screen of the display unit 151.
  • At least one of the shape, size, color, and transparency of the second indicator I2 may be different from that of the first indicator I1.
  • the second indicator I2 on the screen of the display unit 151 may be moved accordingly. This will be described with reference to FIG. 32.
  • FIG. 32 is a diagram illustrating an example of a screen displayed on a display unit in a computing device according to an embodiment of the present invention.
  • the controller 180 recognizes a first finger touching a first key among a plurality of keys included in the keyboard 121 and based on the recognition result, the second indicator I2. ) Is displayed on the screen to control the display unit 151.
  • the controller 180 recognizes the dragging of the first finger on the keyboard 121, and based on the recognition result, the controller 180 displays the second indicator I2 in the first area on the screen as shown in FIG. 32B.
  • the display unit 151 may be controlled to move to the second area.
  • the controller 180 may calculate a change amount of first coordinate value data related to the first finger by the dragging.
  • the controller 180 may include the first coordinate value data of the first finger on the keyboard 121 before dragging the first finger and the first of the first finger on the keyboard 121 after dragging the first finger.
  • a change amount of the first coordinate value data related to the first finger may be calculated.
  • the controller 180 may display the second indicator I2 on the screen in the first area based on the mapping data of the first coordinate value data and the second coordinate value data stored in the memory 160 and the calculated change amount.
  • the display unit 151 may be controlled to move to two areas.
  • the controller 180 may move the second indicator I2 from the first area to the second area on the screen based on the dragging direction of the first finger and the calculated change amount. ) Can be controlled.
  • the distance that the first finger moves on the keyboard 121 may be shorter than the distance that the second indicator I2 moves from the first area on the screen of the display unit 151 to the second area.
  • the user may input a predetermined user command by tapping the keyboard 121 with the first finger while the finger is positioned on the keyboard 121. Since this is similar to that described above with reference to FIGS. 26 and 27, a detailed description thereof will be omitted.
  • the user may virtually divide the screen of the display unit 151 or scroll the screen using the keyboard 121 provided with the touch sensor. This will be described with reference to FIGS. 33 to 38.
  • FIG 33 is a flowchart illustrating still another example of a control method of a computing device according to an embodiment of the present invention.
  • the controller 180 recognizes a first finger touching a first key and a second finger touching a second key among a plurality of keys included in the keyboard 121 (S601).
  • the first key and the second key may be located adjacent to each other on the keyboard 121, and the first key may be located on the same line as the second key or be lower than the second key.
  • the meaning that two keys are adjacent to each other on the keyboard 121 may mean that the two keys are adjacent to each other in a straight line, diagonal line, or diagonal line on the keyboard 121.
  • at least one of the first key and the second key may mean two adjacent keys.
  • the controller 180 recognizes a first finger that touches the first key and recognizes a second finger that touches the second key when a touch input of touching the first key and the second key, respectively, is detected. can do.
  • the memory 160 may include first coordinate value data related to at least a partial area on the keyboard 121, second coordinate value data related to an entire area of the screen of the display unit 151, and the first coordinate value data and the first coordinate value data. 2 may store mapping data of coordinate data.
  • the controller 180 recognizes dragging of the first finger and the second finger on the keyboard 121 (S602). For example, the controller 180 detects a touch input on a first key, simultaneously detects a touch input on a first key and a key adjacent to the first key, and detects a touch input on a key adjacent to the first key. In this case, dragging of the first finger may be recognized. Similarly, the controller 180 can recognize dragging of the second finger.
  • the memory 160 may previously store a program or an application necessary for recognizing dragging of the finger.
  • the controller 180 may recognize dragging of the first finger and the second finger in the downward direction of the first key and the second key on the keyboard 121.
  • the controller 180 may recognize dragging of the first finger and the second finger in a right or left direction of the first key and the second key on the keyboard 121.
  • dragging of the first finger and the second finger may be recognized in the up / down direction or the left / right direction of the first and second keys on the keyboard 121.
  • the controller 180 may execute a specific function among functions that may be implemented in the computing device 100 based on the recognition result of the dragging (S603).
  • the controller 180 may divide the screen of the display unit 151 into a first area and a second area located to the right of the first area based on the dragging recognition result. .
  • the controller 180 detects first coordinate value data associated with at least one of the first key and the second key, and maps the mapping data of the first coordinate value data and the second coordinate value data stored in the memory 160.
  • the display unit By using the display unit to detect second coordinate value data corresponding to the detected first coordinate value data, wherein the detected second coordinate value data corresponds to a part of a boundary between the first area and the second area.
  • the screen of 151 may be divided.
  • the controller 180 divides the screen of the display unit 151 into a first area and a second area located below the first area based on a result of the dragging recognition. can do.
  • the controller 180 detects first coordinate value data associated with at least one of the first key and the second key, and maps the mapping data of the first coordinate value data and the second coordinate value data stored in the memory 160.
  • the display unit By using the display unit to detect second coordinate value data corresponding to the detected first coordinate value data, wherein the detected second coordinate value data corresponds to a part of a boundary between the first area and the second area.
  • the screen of 151 may be divided.
  • the controller 180 may scroll the screen of the display unit 151 up / down or scroll the left / right directions based on the recognition result of the dragging.
  • the user has an advantage of inputting a desired user command by intuitively moving his or her hand on the keyboard 121.
  • FIG. 34 is a diagram illustrating an example of a screen displayed on a display unit of a computing device according to an embodiment of the present invention.
  • the controller 180 recognizes a first finger touching a first key and a second finger touching a second key among a plurality of keys included in the keyboard 121.
  • the first key and the second key may be located adjacent to each other on the keyboard 121.
  • the first key and the second key may be located on the keyboard 121 to the upper side.
  • the controller 180 may recognize dragging of the first finger and the second finger in the downward direction of the first key and the second key on the keyboard 121.
  • the last touched key of the first finger and the second finger by dragging the first finger and the second finger is a key located at the outermost part (eg, the lower edge) on the keyboard 121.
  • the controller 180 displays the screen of the display unit 151 on the right side of the first area 611 and the first area 611 based on the dragging recognition result. It may be divided into the second region 612 located. For example, when the dragging of the first finger and the second finger is recognized, the controller 180 may recognize each of the first area 611 and the second area 612 located on the right side of the first area 611. The screen of the display unit 151 may be divided to have the same width. As another example, when the dragging of the first finger and the second finger is recognized, the controller 180 detects first coordinate value data associated with at least one of the first key and the second key, and the memory 160.
  • Second coordinate value data corresponding to the detected first coordinate value data is detected using mapping data of the first coordinate value data and the second coordinate value data stored in the second coordinate value data, and the detected second coordinate value data is
  • the screen of the display unit 151 may be divided to correspond to a part of a boundary line between the first area 611 and the second area 612.
  • 35 illustrates another example of a screen displayed on a display unit of a computing device according to an embodiment of the present invention. Duplicates to those described above with reference to FIG. 34 will not be described again.
  • the controller 180 divides the screen of the display unit 151 into a first area 611 and a second area 612 located on the right side of the first area 611 based on the recognition result of the dragging. can do.
  • the controller 180 detects first coordinate value data associated with at least one of the first key and the second key, and stores the first coordinate value data in the memory 160.
  • the second coordinate value data corresponding to the detected first coordinate value data is detected using mapping data of the first coordinate value data and the second coordinate value data, and the detected second coordinate value data is the first coordinate value.
  • the screen of the display unit 151 may be divided to correspond to a part of the boundary line between the area 611 and the second area 612. That is, when the user places a finger on the left side of the keyboard 121 and drags it downward, the boundary line between the first area 611 and the second area 612 of the display unit 151 is located on the left side of the entire screen. Can be located.
  • 36 is a diagram illustrating still another example of a screen displayed on a display unit of a computing device according to an embodiment of the present invention.
  • the controller 180 recognizes a first finger touching a first key and a second finger touching a second key among a plurality of keys included in the keyboard 121.
  • the first key and the second key may be located adjacent to each other on the keyboard 121.
  • the first key and the second key may be located on the keyboard 121 to the left or right side.
  • the controller 180 may recognize dragging of the first finger and the second finger in a right or left direction of the first key and the second key on the keyboard 121.
  • the last touched key of the first finger and the second finger by dragging the first finger and the second finger, respectively is located at the outermost (eg, right edge or left edge) on the keyboard 121. Assume that it is a key.
  • the controller 180 may display the screen of the display unit 151 under the first area 611 and the first area 611 based on the dragging recognition result. It may be divided into the second region 612 located. For example, when the dragging of the first finger and the second finger is recognized, the controller 180 may recognize each of the first area 611 and the second area 612 located below the first area 611. The screen of the display unit 151 may be divided to have the same vertical width. As another example, when the dragging of the first finger and the second finger is recognized, the controller 180 detects first coordinate value data associated with at least one of the first key and the second key, and the memory 160.
  • Second coordinate value data corresponding to the detected first coordinate value data is detected using mapping data of the first coordinate value data and the second coordinate value data stored in the second coordinate value data, and the detected second coordinate value data is
  • the screen of the display unit 151 may be divided to correspond to a part of a boundary line between the first area 611 and the second area 612.
  • FIG. 37 illustrates an example of a screen displayed on a display unit of a computing device according to an embodiment of the present invention.
  • an execution screen 620 of a specific program is output to the display unit 151.
  • the scroll bar 621 and the indicator 622 positioned on the scroll bar 621 are displayed on the right side of the execution screen 620.
  • the indicator 622 may indicate where a portion of the page displayed on the current execution screen 620 is displayed among all pages that may be displayed through the execution screen 620.
  • the controller 180 recognizes a first finger touching a first key and a second finger touching a second key among a plurality of keys included in the keyboard 121.
  • the first key and the second key may be located adjacent to each other on the keyboard 121.
  • the controller 180 may recognize dragging of the first finger and the second finger in the lower or upper direction of the first key and the second key on the keyboard 121.
  • the last touched key of the first finger and the second finger by dragging the first finger and the second finger, respectively is located at the outermost portion (eg, the lower edge or the upper edge) on the keyboard 121. Assume that this is not a key.
  • the controller 180 may scroll the screen of the display unit 151 in a lower or upper direction (not shown) based on the recognition result of the dragging. Referring to the execution screen 620 output to the display unit 151, it may be confirmed that the position of the indicator 622 is moved from the top to the bottom on the scroll bar 621 based on the recognition result of the dragging.
  • 38 is a diagram illustrating an example of a screen displayed on a display unit of a computing device according to an embodiment of the present invention.
  • an execution screen 620 of a specific program is output to the display unit 151.
  • a scroll bar 621 and an indicator 622 positioned on the scroll bar 621 are displayed below the execution screen 620.
  • the indicator 622 may indicate where a portion of the page displayed on the current execution screen 620 is displayed among all pages that may be displayed through the execution screen 620.
  • the controller 180 recognizes a first finger touching a first key and a second finger touching a second key among a plurality of keys included in the keyboard 121.
  • the first key and the second key may be located adjacent to each other on the keyboard 121.
  • the controller 180 may recognize dragging of the first finger and the second finger in a right or left direction of the first key and the second key on the keyboard 121.
  • the last touched key of the first finger and the second finger by dragging the first finger and the second finger, respectively is located at the outermost (eg, right edge or left edge) on the keyboard 121. Assume that this is not a key.
  • the controller 180 may scroll the screen of the display unit 151 in the right or left direction (not shown) based on the recognition result of the dragging. Referring to the execution screen 620 output to the display unit 151, it may be confirmed that the position of the indicator 622 is moved from left to right on the scroll bar 621 based on the recognition result of the dragging.
  • 39 is a flowchart illustrating still another example of a method for controlling a computing device according to an embodiment of the present invention.
  • the controller 180 recognizes, on the keyboard 121, a first finger touching a first key and a second finger touching a second key (S701).
  • the first key and the second key are spaced apart from each other on the keyboard 121, and the first key may be a special key (eg, a "Shift key”, a "Ctrl key”, an "Alt key”, etc.).
  • the controller 180 recognizes a first finger that touches the first key and recognizes a second finger that touches the second key when a touch input of touching the first key and the second key, respectively, is detected. can do.
  • the memory 160 may include first coordinate value data related to at least a partial area on the keyboard 121, second coordinate value data related to an entire area of the screen of the display unit 151, and the first coordinate value data and the first coordinate value data. 2 may store mapping data of coordinate data.
  • the controller 180 recognizes dragging of the second finger on the keyboard 121 (S702).
  • the controller 180 may recognize dragging of the second finger while the first finger touches the first key.
  • the controller 180 may execute a specific function among functions that may be implemented in the computing device 100 based on the recognition result of the dragging (S703).
  • the controller 180 may control the display unit 151 to display a trajectory corresponding to the dragging of the second finger on the screen.
  • the controller 180 detects first coordinate value data related to the second finger on the keyboard 121 before dragging the second finger, and changes the amount of change of the first coordinate value data according to dragging of the second finger. Calculates and outputs a trace corresponding to the dragging of the second finger to the display unit 151 based on the mapping data of the first coordinate value data and the second coordinate value data stored in the memory 160 and the calculated change amount. Can be.
  • the controller 180 outputs a trajectory corresponding to the dragging of the second finger to the display unit 151, performs handwriting recognition based on the trajectory displayed on the display unit 151, and performs the handwriting. Based on the recognition result, the trajectory may be converted into a letter, a number, or a symbol and output to the display unit 151.
  • the memory 160 may store a program or an application required for handwriting recognition in advance.
  • the controller 180 may control the display unit 151 to highlight and display a part of the text displayed on the screen of the display unit 151 based on the dragging of the second finger. For example, the controller 180 detects first coordinate value data related to the second finger on the keyboard 121 before dragging the second finger, and changes the amount of change of the first coordinate value data according to dragging of the second finger. The display unit 151 may be controlled to highlight a portion of the text based on the mapping data of the first coordinate value data and the second coordinate value data stored in the memory 160 and the calculated change amount. According to an embodiment, the controller 180 detects the number of keys touched by the second finger by dragging the second finger, and detects the number of characters (including letters, numbers, and symbol modes) included in the text. The display unit 151 may be controlled to highlight and display the same number of characters (including letters, numbers, and symbol modes) as the number of keys.
  • FIG. 40 is a diagram illustrating an example of a screen displayed on a display unit of a computing device according to one embodiment of the present invention.
  • the controller 180 recognizes, on the keyboard 121, a first finger touching a first key and a second finger touching a second key.
  • the first key and the second key are spaced apart from each other on the keyboard 121, and the first key may be a special key (eg, a "Shift key", a "Ctrl key”, an “Alt key”, etc.).
  • the execution screen 710 of the paint program may be output to the display unit 151.
  • the controller 180 recognizes dragging of the second finger while the first finger touches the first key.
  • the controller 180 may control the display unit 151 to display the trajectory 711 corresponding to the dragging of the second finger on the execution screen 710.
  • the controller 180 detects first coordinate value data related to the second finger on the keyboard 121 before dragging the second finger, and changes the amount of change of the first coordinate value data according to dragging of the second finger.
  • the display unit 151 calculates a trace 711 corresponding to the dragging of the second finger based on the mapping data of the first coordinate value data and the second coordinate value data stored in the memory 160 and the calculated change amount. Can be output to
  • FIG. 41 is a diagram illustrating another example of a screen displayed on a display unit of a computing device according to an embodiment of the present invention.
  • FIG. 41 is a diagram illustrating another example of a screen displayed on a display unit of a computing device according to an embodiment of the present invention.
  • the controller 180 recognizes, on the keyboard 121, a first finger touching a first key and a second finger touching a second key.
  • the first key and the second key are spaced apart from each other on the keyboard 121, and the first key may be a special key (eg, a "Shift key", a "Ctrl key”, an "Alt key”, etc.).
  • the execution screen 720 of the document work program may be output to the display unit 151.
  • the controller 180 recognizes dragging of the second finger while the first finger touches the first key.
  • the controller 180 may control the display unit 151 to display the trajectory 721 corresponding to the dragging of the second finger on the execution screen 720.
  • the controller 180 performs handwriting recognition based on the trajectory 721 displayed on the execution screen 720, and based on the result of the handwriting recognition, the trajectory.
  • the display unit 151 may be controlled to convert 721 into letters, numbers, or symbols and output the converted characters.
  • FIG. 42 is a diagram illustrating an example of a screen displayed on a display unit of a computing device according to one embodiment of the present invention.
  • the controller 180 recognizes, on the keyboard 121, a first finger touching a first key and a second finger touching a second key.
  • the first key and the second key are spaced apart from each other on the keyboard 121, and the first key may be a special key (eg, a "Shift key", a "Ctrl key”, an "Alt key”, etc.).
  • the execution screen 730 of the document work program is output to the display unit 151, and the text 731 is included in the execution screen 730.
  • the controller 180 recognizes dragging of the second finger while the first finger touches the first key.
  • the controller 180 displays the portion 732 of the text displayed on the execution screen of the display unit 151 by highlighting the display unit 151 based on the dragging of the second finger. ) Can be controlled.
  • the controller 180 may include a first associated with the second finger on the keyboard 121 before dragging the second finger. Detect coordinate value data, calculate a change amount of the first coordinate value data according to the dragging of the second finger, map data of the first coordinate value data and the second coordinate value data stored in the memory 160, and the calculated change amount Based on the above, the display unit 151 may be controlled to highlight a portion of the text 731.
  • the controller 180 detects the number of keys touched by the second finger by dragging the second finger, and includes a character (letter, number, symbol mode) included in the text 731.
  • the display unit 151 may be controlled to highlight and display the same number of characters (including letters, numbers, and symbol modes) among the detected keys.
  • the user using the keyboard 121 with a touch sensor to turn over the page of the screen output to the display unit 151, or the screen output to the display unit 151 You can zoom in and out. This will be described with reference to FIGS. 43 and 44.
  • FIG. 43 is a diagram illustrating an example of a screen displayed on a display unit in a computing device according to an embodiment of the present invention.
  • the controller 180 recognizes a first finger touching a first key among a plurality of keys on the keyboard 121.
  • the controller 180 may recognize the first finger that touches the first key more than a preset value, or recognize the first finger that touches the first key while applying a pressure equal to or greater than a preset degree to the first key. Can be.
  • the controller 180 recognizes dragging of the first finger on the keyboard 121.
  • the controller 180 may turn over the page of the screen output to the display unit 151 based on the recognition result of dragging the first finger. For example, when the controller 180 recognizes dragging the first finger in the right direction of the first key, the controller 180 can turn the screen output on the display unit 151 from the current page to the next page. When the dragging of the first finger is recognized in the left direction, the screen output to the display unit 151 may be turned from the current page to the previous page.
  • 44 is a diagram illustrating an example of a screen displayed on a display unit in the computing device according to an embodiment of the present invention.
  • the controller 180 recognizes five fingers that touch at least five keys on the keyboard 121, and the first finger of the five fingers in a direction away from each other. Dragging can be recognized.
  • the controller 180 may recognize at least four fingers at least touching four keys on the keyboard 121, and recognize the first dragging of the four fingers in a direction in which the four fingers are far from each other. It may be.
  • the controller 180 may zoom in (enlarge) a specific screen output to the display unit 151 based on the recognized first dragging.
  • the controller 180 may recognize the second dragging of the five fingers in a direction in which the five fingers are close to each other. According to an embodiment, the controller 180 may recognize the second dragging of the four fingers in a direction in which at least four fingers are close to each other.
  • the controller 180 may zoom out (reduce) a specific screen output to the display unit 151 based on the recognized second dragging.
  • the zoom in (magnification) degree of the specific screen output to the display unit 151 is proportional to the extent to which the five fingers are separated from each other, and the zoom out (reduction) degree of the specific screen output to the display unit 151 is the five degree. It can be proportional to the degree to which the two fingers are close to each other.
  • the user may set or input a password using the keyboard 121 provided with the touch sensor. This will be described with reference to FIG. 45.
  • 45 is a diagram illustrating an example of a screen displayed on a display unit in the computing device according to one embodiment of the present invention.
  • the keyboard 121 may have a fingerprint receiving function, and the controller 180 may recognize a fingerprint received through the keyboard 121.
  • the memory 160 may store a program or an application required for fingerprint recognition in advance.
  • the user can register his fingerprint.
  • the user may register a fingerprint of each of at least two fingers of ten fingers.
  • the controller 180 may output the first screen 610 to guide the input of the user password to the display unit 151 after the booting of the computing device 100 is completed.
  • the user may place a finger corresponding to the registered fingerprint on the keyboard 121, and the controller 180 recognizes the fingerprint detected through the keyboard 121, and if the recognized fingerprint matches the registered fingerprint, You can unlock it.
  • the user may set a touch input for touching a key of some of the plurality of keys included in the keyboard 121 as a user password.
  • the controller 180 may output the first screen 610 to guide the input of the user password to the display unit 151 after the booting of the computing device 100 is completed.
  • the user may place his or her finger on a specific key on the keyboard 121 according to the set user password, and the controller 180 may determine whether to unlock the lock based on a touch input through a specific key on the keyboard 121. have.
  • the user may set a touch input for touching a part of a plurality of keys included in the keyboard 121 and a password combining numbers, letters, and symbols as a user input.
  • the controller 180 may output the first screen 610 to guide the input of the user password to the display unit 151 after the booting of the computing device 100 is completed.
  • a user may input the password in a state where his / her finger is placed on a specific key on the keyboard 121 according to the set user password, and the controller 180 may input a touch through the specific key on the keyboard 121 and the password. It may determine whether to unlock based on the.
  • a keyboard with a touch sensor can provide a computing device and a control method thereof with emphasis on user convenience.
  • the present invention described above can be embodied as computer readable codes on a medium in which a program is recorded.
  • the computer-readable medium includes all kinds of recording devices in which data that can be read by a computer system is stored. Examples of computer-readable media include hard disk drives (HDDs), solid state disks (SSDs), silicon disk drives (SDDs), ROMs, RAMs, CD-ROMs, magnetic tapes, floppy disks, optical data storage devices, and the like. This also includes implementations in the form of carrier waves (eg, transmission over the Internet).
  • the computer may include the controller 180 of the terminal. Accordingly, the above detailed description should not be construed as limiting in all aspects and should be considered as illustrative. The scope of the invention should be determined by reasonable interpretation of the appended claims, and all changes within the equivalent scope of the invention are included in the scope of the invention.
  • the present invention relates to a computing device and a control method thereof, and has industrial applications.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Disclosed are a computing apparatus and a method for controlling the same. The computing apparatus according to an embodiment of the present invention comprises: a keyboard having a plurality of keys, at least some of which have touch sensors; a display unit; and a control unit, wherein the control unit at least recognizes, among the plurality of keys, a first finger touching a first key, a second finger touching a second key, and a third finger touching a third key, and controls the display unit so as to display an indicator in a first area on a screen on the basis of the recognition result, and wherein the first key is located on the left of the second key and the third key is located on the right of the second key on the keyboard, and the second key is located collinearly with at least one of the first key and the third key or located above the first key and the third key on the keyboard.

Description

컴퓨팅 장치 및 이의 제어 방법Computing device and control method thereof
본 발명은 컴퓨팅 장치 및 이의 제어 방법에 관한 것이다.The present invention relates to a computing device and a control method thereof.
노트북 또는 넷북과 같은 휴대용 컴퓨팅 장치는 사용자 편의성이 강조되는 방향으로 점차 발전해 나가고 있다. 특히 휴대용 컴퓨팅 장치의 경우 마우스와 같은 부속 입력 장치를 별도로 휴대해야 하는 불편함을 개선하기 위하여, 터치 패드가 구비된 휴대용 컴퓨팅 장치도 일반화되고 있다. 그러나, 터치 패드를 구비할 경우 컴퓨팅 장치의 크기가 그만큼 커질 수 밖에 없고, 터치를 통한 사용자 입력이 터치 패드의 면적에 국한되기 때문에 사용자 편의성이 제한되는 문제점이 있다.Portable computing devices, such as laptops or netbooks, are being developed in a way that emphasizes user convenience. In particular, in the case of a portable computing device, a portable computing device having a touch pad has also been generalized to improve the inconvenience of separately carrying an accessory input device such as a mouse. However, when the touch pad is provided, the size of the computing device is inevitably increased and there is a problem in that user convenience is limited because the user input through the touch is limited to the area of the touch pad.
본 발명은 전술한 문제 및 다른 문제를 해결하는 것을 목적으로 한다.It is an object of the present invention to solve the above and other problems.
본 발명의 일 실시예가 이루고자 하는 기술적 과제는, 터치 센서를 구비한 키보드를 제안함으로써 사용자 편의성이 강조된 컴퓨팅 장치 및 이의 제어 방법을 제공하는 것을 목적으로 한다.An object of the present invention is to provide a computing device with a user convenience and a control method thereof by proposing a keyboard with a touch sensor.
또한, 본 발명의 일 실시예가 이루고자 하는 기술적 과제는, 터치 센서를 구비한 키보드를 이용하여 직관적인 사용자 환경을 제공할 수 있는 컴퓨팅 장치 및 이의 제어 방법을 제공하는 것을 목적으로 한다.Another object of the present invention is to provide a computing device capable of providing an intuitive user environment using a keyboard having a touch sensor and a control method thereof.
본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The technical problems to be achieved in the present invention are not limited to the technical problems mentioned above, and other technical problems not mentioned above will be clearly understood by those skilled in the art from the following description. Could be.
본 발명의 일 실시예에 의한 컴퓨팅 장치는, 복수의 키를 포함하고 상기 복수의 키 중 적어도 하나에 터치 센서가 구비된 키보드와, 디스플레이부와, 제어부를 포함하고, 상기 제어부는, 기 설정된 조건에 따라 상기 키보드 내 제1키를 터치하는 제1 터치 입력을 감지하고, 상기 제1 터치 입력이 감지된 때 상기 디스플레이부에 출력된 화면을 디텍트하고, 상기 디텍트된 화면에 기초하여, 상기 제1키에 대응하는 기능을 실행하고, 상기 기능 실행의 결과를 출력하도록 상기 디스플레이부를 제어한다.A computing device according to an embodiment of the present invention includes a keyboard including a plurality of keys and a touch sensor provided on at least one of the plurality of keys, a display unit, and a controller, wherein the controller is a preset condition Detect a first touch input of touching a first key in the keyboard, detect a screen output on the display unit when the first touch input is detected, and based on the detected screen, The display unit is controlled to execute a function corresponding to the first key and to output a result of the function execution.
본 발명의 일 실시예에 의한 컴퓨팅 장치의 제어 방법은, 기 설정된 조건에 따라, 터치 센서를 포함하는 키보드 내 제1키를 터치하는 제1 터치 입력을 감지하는 단계와, 상기 감지된 제1 터치 입력에 따라, 상기 제1키에 대응하는 기능을 실행하는 단계와, 상기 기능 실행의 결과를 디스플레이부에 출력하는 단계를 포함하고, 상기 제1키에 대응하는 기능을 실행하는 단계는, 상기 제1키에 맵핑된 특정 프로그램을 실행하는 단계, 상기 제1키에 맵핑된 특정 파일을 실행하는 단계, 및 상기 컴퓨팅 장치에서 구현될 수 있는 기능들 중에서 상기 제1키에 맵핑된 특정 기능을 실행하는 단계 중 어느 하나를 포함할 수 있다.According to an embodiment of the present disclosure, a method of controlling a computing device may include detecting a first touch input of touching a first key in a keyboard including a touch sensor according to a preset condition, and detecting the first touch. According to an input, the step of executing a function corresponding to the first key, and outputting a result of the execution of the function to the display, and the step of executing a function corresponding to the first key, Executing a specific program mapped to a first key, executing a specific file mapped to the first key, and executing a specific function mapped to the first key among functions that may be implemented in the computing device It may include any one of the steps.
또한, 본 발명의 일 실시예에 의한 컴퓨팅 장치는, 복수의 키를 포함하고 상기 복수의 키 중 적어도 일부에 터치 센서가 구비된 키보드와, 디스플레이부와, 제어부를 포함하고, 상기 제어부는, 상기 복수의 키 중 제1키를 터치하는 제1 핑거, 제2키를 터치하는 제2 핑거 및 제3키를 터치하는 제3 핑거를 적어도 인식하고, 상기 키보드 상에서 상기 제1키는 상기 제2키의 좌측에 위치하고 상기 제3키는 상기 제2키의 우측에 위치하며, 상기 키보드 상에서 상기 제2키는 상기 제1키 및 상기 제3키 중 적어도 하나와 동일선 상에 위치하거나 상기 제1키 및 상기 제3키보다 상부에 위치하고, 상기 인식 결과에 기초하여, 화면 상의 제1 영역에 인디케이터를 표시하도록 상기 디스플레이부를 제어한다.In addition, the computing device according to an embodiment of the present invention includes a keyboard including a plurality of keys and a touch sensor provided on at least a portion of the plurality of keys, a display unit, and a control unit. Recognizing at least a first finger touching a first key, a second finger touching a second key, and a third finger touching a third key, wherein the first key is the second key on the keyboard. And the third key is located to the right of the second key, and the second key on the keyboard is on the same line as at least one of the first key and the third key, or the first key and The display unit is positioned above the third key and controls the display unit to display an indicator in the first area on the screen based on the recognition result.
본 발명의 일 실시예에 의하면, 터치 센서를 구비한 키보드를 제안함으로써 사용자 편의성이 강조된 컴퓨팅 장치 및 이의 제어 방법을 제공할 수 있다.According to an embodiment of the present invention, by providing a keyboard with a touch sensor, it is possible to provide a computing device with emphasis on user convenience and a control method thereof.
또한, 본 발명의 일 실시예에 의하면, 터치 센서를 구비한 키보드를 이용하여 직관적인 사용자 환경을 제공할 수 있는 컴퓨팅 장치 및 이의 제어 방법을 제공할 수 있다.In addition, according to an embodiment of the present invention, it is possible to provide a computing device and a control method thereof that can provide an intuitive user environment using a keyboard having a touch sensor.
본 발명의 적용 가능성의 추가적인 범위는 이하의 상세한 설명으로부터 명백해질 것이다. 그러나 본 발명의 사상 및 범위 내에서 다양한 변경 및 수정은 당업자에게 명확하게 이해될 수 있으므로, 상세한 설명 및 본 발명의 바람직한 실시 예와 같은 특정 실시 예는 단지 예시로 주어진 것으로 이해되어야 한다.Further scope of the applicability of the present invention will become apparent from the following detailed description. However, various changes and modifications within the spirit and scope of the present invention can be clearly understood by those skilled in the art, and therefore, specific embodiments, such as the detailed description and the preferred embodiments of the present invention, should be understood as given by way of example only.
도 1은 본 발명의 컴퓨팅 장치의 블록 구성도(block diagram)이다.1 is a block diagram of a computing device of the present invention.
도 2는 본 발명과 관련된 컴퓨팅 장치의 외관을 도시한 도면이다.2 illustrates an appearance of a computing device related to the present invention.
도 3은 본 발명의 일 실시예에 의한 컴퓨팅 장치의 제어 방법의 일례를 도시한 흐름도이다.3 is a flowchart illustrating an example of a method of controlling a computing device according to an embodiment of the present invention.
도 4는 본 발명의 일 실시예에 의한 컴퓨팅 장치에서 제1 터치 입력에 따라 디스플레이부에 출력되는 화면의 일례를 설명하기 위한 도면이다.4 is a diagram illustrating an example of a screen output to a display unit according to a first touch input in a computing device according to an embodiment of the present invention.
도 5는 본 발명의 일 실시예에 의한 컴퓨팅 장치의 메모리에 저장된 데이터 베이스의 일례를 도시한 도면이다.5 is a diagram illustrating an example of a database stored in a memory of a computing device according to an embodiment of the present invention.
도 6은 본 발명의 일 실시예에 의한 컴퓨팅 장치의 디스플레이부에 출력되는 GUI의 일례를 설명하기 위한 도면이다.FIG. 6 illustrates an example of a GUI that is output to a display unit of a computing device according to an embodiment of the present disclosure.
도 7은 본 발명의 일 실시예에 의한 컴퓨팅 장치에서 제1 터치 입력에 따라 디스플레이부에 출력되는 화면의 다른 일례를 설명하기 위한 도면이다.FIG. 7 is a diagram for describing another example of a screen output to a display unit according to a first touch input in a computing device according to an embodiment of the present disclosure.
도 8은 본 발명의 일 실시예에 의한 컴퓨팅 장치에서 제1 터치 입력 감지를 위한 기 설정된 조건의 일례를 설명하기 위한 도면이다.FIG. 8 illustrates an example of a preset condition for sensing a first touch input in a computing device according to an embodiment of the present disclosure.
도 9는 본 발명의 일 실시예에 의한 컴퓨팅 장치에서 제1 터치 입력 감지를 위한 기 설정된 조건의 다른 일례를 설명하기 위한 도면이다.FIG. 9 is a diagram for describing another example of a preset condition for sensing a first touch input in a computing device according to an embodiment of the present disclosure.
도 10은 본 발명의 일 실시예에 의한 컴퓨팅 장치에서 제1 터치 입력 감지를 위한 기 설정된 조건의 또 다른 일례를 설명하기 위한 도면이다.FIG. 10 is a diagram for describing another example of a preset condition for sensing a first touch input in a computing device according to an embodiment of the present disclosure.
도 11은 본 발명의 일 실시예에 의한 컴퓨팅 장치의 제어 방법의 다른 일례를 도시한 흐름도이다.11 is a flowchart illustrating another example of a method for controlling a computing device according to an embodiment of the present invention.
도 12는 본 발명의 일 실시예에 의한 컴퓨팅 장치에서 제1 터치 입력에 따라 디스플레이부에 출력되는 화면의 일례를 설명하기 위한 도면이다.FIG. 12 illustrates an example of a screen output to a display unit according to a first touch input in a computing device according to an embodiment of the present disclosure.
도 13은 본 발명의 일 실시예에 의한 컴퓨팅 장치에서 제1 터치 입력에 따라 디스플레이부에 출력되는 화면의 다른 일례를 설명하기 위한 도면이다.FIG. 13 is a diagram for describing another example of a screen output to a display unit according to a first touch input in a computing device according to an embodiment of the present disclosure.
도 14는 본 발명의 일 실시예에 의한 컴퓨팅 장치에서 제1 터치 입력에 따라 디스플레이부에 출력되는 화면의 또 다른 일례를 설명하기 위한 도면이다.14 is a diagram for describing another example of a screen output to a display unit according to a first touch input in a computing device according to an embodiment of the present invention.
도 15는 본 발명의 일 실시예에 의한 컴퓨팅 장치에서 제1 터치 입력에 따라 디스플레이부에 출력되는 화면의 또 다른 일례를 설명하기 위한 도면이다.FIG. 15 is a diagram for describing another example of a screen output to a display unit according to a first touch input in a computing device according to an embodiment of the present disclosure.
도 16은 본 발명의 일 실시예에 의한 컴퓨팅 장치에서 제1 터치 입력에 따라 디스플레이부에 출력되는 화면의 또 다른 일례를 설명하기 위한 도면이다.FIG. 16 illustrates another example of a screen output to a display unit according to a first touch input in a computing device according to an embodiment of the present disclosure.
도 17은 본 발명의 일 실시예에 의한 컴퓨팅 장치에서 제1 터치 입력에 따라 디스플레이부에 출력되는 화면의 일례를 설명하기 위한 도면이다. 17 is a diagram for describing an example of a screen output to a display unit according to a first touch input in a computing device according to an embodiment of the present invention.
도 18은 도 17의 이후에 나타날 수 있는 예시를 설명하기 위한 도면이다.FIG. 18 is a diagram for describing an example that may appear after FIG. 17.
도 19는 본 발명의 일 실시예에 의한 컴퓨팅 장치에서 제1 터치 입력에 따라 디스플레이부에 출력되는 화면의 다른 일례를 설명하기 위한 도면이다. FIG. 19 illustrates another example of a screen output to a display unit according to a first touch input in a computing device according to an embodiment of the present disclosure.
도 20은 도 19 이후에 나타날 수 있는 예시를 설명하기 위한 도면이다.20 is a diagram for describing an example that may appear after FIG. 19.
도 21은 본 발명의 일 실시예에 의한 컴퓨팅 장치에서 제1 터치 입력에 따라 디스플레이부에 출력되는 화면의 또 다른 일례를 설명하기 위한 도면이다.FIG. 21 is a diagram for describing another example of a screen output to a display unit according to a first touch input in a computing device according to an embodiment of the present disclosure.
도 22는 본 발명의 일 실시예에 의한 컴퓨팅 장치의 제어 방법의 일례를 설명하기 위한 흐름도이다.22 is a flowchart illustrating an example of a control method of a computing device according to an embodiment of the present invention.
도 23은 본 발명의 일 실시예에 의한 컴퓨팅 장치의 디스플레이부에 표시되는 화면의 일례를 도시한 도면이다.23 is a diagram illustrating an example of a screen displayed on a display unit of a computing device according to an embodiment of the present invention.
도 24는 본 발명의 일 실시예에 의한 컴퓨팅 장치의 디스플레이부에 표시되는 화면의 다른 일례를 도시한 도면이다.24 illustrates another example of a screen displayed on a display unit of a computing device according to an embodiment of the present invention.
도 25는 본 발명의 일 실시예에 의한 컴퓨팅 장치에서 디스플레이부에 표시되는 화면의 일례를 설명하기 위한 도면이다.25 is a diagram illustrating an example of a screen displayed on a display unit in a computing device according to an embodiment of the present invention.
도 26은 본 발명의 일 실시예에 의한 컴퓨팅 장치의 디스플레이부에 표시되는 화면의 일례를 도시한 도면이다.FIG. 26 illustrates an example of a screen displayed on a display unit of a computing device according to an embodiment of the present disclosure.
도 27은 본 발명의 일 실시예에 의한 컴퓨팅 장치의 디스플레이부에 표시되는 화면의 다른 일례를 도시한 도면이다.27 illustrates another example of a screen displayed on a display unit of a computing device according to an embodiment of the present invention.
도 28은 본 발명의 일 실시예에 의한 컴퓨팅 장치의 디스플레이부에 표시되는 화면의 또 다른 일례를 도시한 도면이다.FIG. 28 is a diagram illustrating still another example of a screen displayed on a display unit of a computing device according to an embodiment of the present invention.
도 29는은 본 발명의 일 실시예에 의한 컴퓨팅 장치의 디스플레이부에 표시되는 화면의 또 다른 일례를 도시한 도면이다.29 is a diagram illustrating still another example of a screen displayed on a display unit of a computing device according to an embodiment of the present invention.
도 30은 본 발명의 일 실시예에 의한 컴퓨팅 장치의 제어 방법의 다른 일례를 설명하기 위한 흐름도이다.30 is a flowchart for explaining another example of a control method of a computing device according to an exemplary embodiment.
도 31은 본 발명의 일 실시예에 의한 컴퓨팅 장치의 디스플레이부에 표시되는 화면의 일례를 도시한 도면이다.FIG. 31 illustrates an example of a screen displayed on a display unit of a computing device according to an embodiment of the present disclosure.
도 32는 본 발명의 일 실시예에 의한 컴퓨팅 장치에서 디스플레이부에 표시되는 화면의 일례를 설명하기 위한 도면이다.32 is a diagram illustrating an example of a screen displayed on a display unit in a computing device according to an embodiment of the present invention.
도 33은 본 발명의 일 실시예에 의한 컴퓨팅 장치의 제어 방법의 또 다른 일례를 설명하기 위한 흐름도이다.33 is a flowchart illustrating still another example of a control method of a computing device according to an embodiment of the present invention.
도 34는 본 발명의 일 실시예에 의한 컴퓨팅 장치의 디스플레이부에 표시되는 화면의 일례를 도시한 도면이다.34 is a diagram illustrating an example of a screen displayed on a display unit of a computing device according to an embodiment of the present invention.
도 35는 본 발명의 일 실시예에 의한 컴퓨팅 장치의 디스플레이부에 표시되는 화면의 다른 일례를 도시한 도면이다.35 illustrates another example of a screen displayed on a display unit of a computing device according to an embodiment of the present invention.
도 36은 본 발명의 일 실시예에 의한 컴퓨팅 장치의 디스플레이부에 표시되는 화면의 또 다른 일례를 도시한 도면이다.36 is a diagram illustrating still another example of a screen displayed on a display unit of a computing device according to an embodiment of the present invention.
도 37은 본 발명의 일 실시예에 의한 컴퓨팅 장치의 디스플레이부에 표시되는 화면의 일례를 도시한 도면이다.37 illustrates an example of a screen displayed on a display unit of a computing device according to an embodiment of the present invention.
도 38은 본 발명의 일 실시예에 의한 컴퓨팅 장치의 디스플레이부에 표시되는 화면의 일례를 도시한 도면이다.38 is a diagram illustrating an example of a screen displayed on a display unit of a computing device according to an embodiment of the present invention.
도 39는 본 발명의 일 실시예에 의한 컴퓨팅 장치의 제어 방법의 또 다른 일례를 설명하기 위한 흐름도이다.39 is a flowchart illustrating still another example of a method for controlling a computing device according to an embodiment of the present invention.
도 40은 본 발명의 일 실시예에 의한 컴퓨팅 장치의 디스플레이부에 표시되는 화면의 일례를 도시한 도면이다.40 is a diagram illustrating an example of a screen displayed on a display unit of a computing device according to one embodiment of the present invention.
도 41은 본 발명의 일 실시예에 의한 컴퓨팅 장치의 디스플레이부에 표시되는 화면의 다른 일례를 도시한 도면이다.FIG. 41 is a diagram illustrating another example of a screen displayed on a display unit of a computing device according to an embodiment of the present invention. FIG.
도 42는 본 발명의 일 실시예에 의한 컴퓨팅 장치의 디스플레이부에 표시되는 화면의 일례를 도시한 도면이다.42 is a diagram illustrating an example of a screen displayed on a display unit of a computing device according to one embodiment of the present invention.
도 43은 본 발명의 일 실시예에 의한 컴퓨팅 장치에서 디스플레이부에 표시되는 화면의 일례를 도시한 도면이다.43 is a diagram illustrating an example of a screen displayed on a display unit in a computing device according to an embodiment of the present invention.
도 44는 본 발명의 일 실시예에 의한 컴퓨팅 장치에서 디스플레이부에 표시되는 화면의 일례를 도시한 도면이다.44 is a diagram illustrating an example of a screen displayed on a display unit in the computing device according to an embodiment of the present invention.
도 45는 본 발명의 일 실시예에 의한 컴퓨팅 장치에서 디스플레이부에 표시되는 화면의 일례를 도시한 도면이다.45 is a diagram illustrating an example of a screen displayed on a display unit in the computing device according to one embodiment of the present invention.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. Hereinafter, embodiments of the present disclosure will be described in detail with reference to the accompanying drawings, and the same or similar components are denoted by the same reference numerals regardless of the reference numerals, and redundant description thereof will be omitted. The suffixes "module" and "unit" for components used in the following description are given or used in consideration of ease of specification, and do not have distinct meanings or roles from each other. In addition, in describing the embodiments disclosed herein, when it is determined that the detailed description of the related known technology may obscure the gist of the embodiments disclosed herein, the detailed description thereof will be omitted. In addition, the accompanying drawings are intended to facilitate understanding of the embodiments disclosed herein, but are not limited to the technical spirit disclosed herein by the accompanying drawings, all changes included in the spirit and scope of the present invention. It should be understood to include equivalents and substitutes.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms including ordinal numbers such as first and second may be used to describe various components, but the components are not limited by the terms. The terms are used only for the purpose of distinguishing one component from another.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.When a component is referred to as being "connected" or "connected" to another component, it may be directly connected to or connected to that other component, but it may be understood that other components may be present in between. Should be. On the other hand, when a component is said to be "directly connected" or "directly connected" to another component, it should be understood that there is no other component in between.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. Singular expressions include plural expressions unless the context clearly indicates otherwise.
본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In this application, the terms "comprises" or "having" are intended to indicate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, and one or more other features. It is to be understood that the present invention does not exclude the possibility of the presence or the addition of numbers, steps, operations, components, components, or a combination thereof.
본 명세서에서 설명되는 컴퓨팅 장치는, 데스크탑 컴퓨터, 노트북 컴퓨터(laptop computer), 울트라북(ultrabook), 넷북(Netbook), 태블릿 PC, 디지털 사이니지 등을 포함하는 것으로서, 사용자 입력부로서 키보드를 포함하는 디스플레이 디바이스를 의미할 수 있다.The computing device described herein includes a desktop computer, a laptop computer, an ultrabook, a netbook, a tablet PC, a digital signage, and the like, and includes a display including a keyboard as a user input unit. It may mean a device.
도 1은 본 발명의 컴퓨팅 장치의 블록 구성도(block diagram)이다.1 is a block diagram of a computing device of the present invention.
컴퓨팅 장치(100)는 통신부(110), 사용자 입력부(120), 외부장치 인터페이스부(130), 센싱부(140), 출력부(150), 메모리(160), 전원 공급부(170) 및 제어부(180) 등을 포함할 수 있다. 다만, 도 1에 도시된 구성요소들은 컴퓨팅 장치를 구현하는데 필수적인 것은 아니어서, 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖는 컴퓨팅 장치(100)가 구현될 수도 있다.The computing device 100 may include a communication unit 110, a user input unit 120, an external device interface unit 130, a sensing unit 140, an output unit 150, a memory 160, a power supply unit 170, and a control unit ( 180) and the like. However, the components shown in FIG. 1 are not essential to the implementation of the computing device, so that the computing device 100 having more or fewer components may be implemented.
보다 구체적으로, 상기 구성요소들 중 통신부(110)는, 컴퓨팅 장치(100)와 유/무선 통신 시스템의 사이, 컴퓨팅 장치(100)와 다른 컴퓨팅 장치의 사이, 또는 컴퓨팅 장치(100)와 외부 서버 사이의 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 또한, 통신부(110)는, 컴퓨팅 장치(100)를 하나 이상의 네트워크에 연결하는 하나 이상의 모듈을 포함할 수 있다.More specifically, the communication unit 110 of the components, between the computing device 100 and a wired / wireless communication system, between the computing device 100 and another computing device, or between the computing device 100 and an external server. It may include one or more modules that enable communication between them. In addition, the communication unit 110 may include one or more modules that connect the computing device 100 to one or more networks.
통신부(110)는 방송 수신부(111), 네트워크 인터페이스부(112) 및 이동 통신부(113) 중 적어도 하나를 포함할 수 있다. The communication unit 110 may include at least one of the broadcast receiving unit 111, the network interface unit 112, and the mobile communication unit 113.
방송 수신부(111)는 방송 채널을 통하여 외부의 방송 관리 서버로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다. 상기 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 적어도 두 개의 방송 채널들에 대한 동시 방송 수신 또는 방송 채널 스위칭을 위해 둘 이상의 상기 방송 수신 모듈이 컴퓨팅 장치(100)에 제공될 수도 있다. The broadcast receiving unit 111 receives a broadcast signal and / or broadcast related information from an external broadcast management server through a broadcast channel. The broadcast channel may include a satellite channel and a terrestrial channel. Two or more of the broadcast reception modules may be provided to the computing device 100 for simultaneous broadcast reception or broadcast channel switching for at least two broadcast channels.
상기 방송 관리 서버는, 방송 신호 및/또는 방송 관련 정보를 생성하여 송신하는 서버 또는 기 생성된 방송 신호 및/또는 방송 관련 정보를 제공받아 단말기에 송신하는 서버를 의미할 수 있다. 상기 방송 신호는, TV 방송 신호, 라디오 방송 신호, 데이터 방송 신호를 포함할 뿐만 아니라, TV 방송 신호 또는 라디오 방송 신호에 데이터 방송 신호가 결합한 형태의 방송 신호도 포함할 수 있다. The broadcast management server may mean a server that generates and transmits a broadcast signal and / or broadcast related information or a server that receives a previously generated broadcast signal and / or broadcast related information and transmits the same to a terminal. The broadcast signal may include not only a TV broadcast signal, a radio broadcast signal, and a data broadcast signal, but also a broadcast signal having a data broadcast signal combined with a TV broadcast signal or a radio broadcast signal.
상기 방송 신호는 디지털 방송 신호의 송수신을 위한 기술표준들(또는 방송방식, 예를 들어, ISO, IEC, DVB, ATSC 등) 중 적어도 하나에 따라 부호화될 수 있으며, 방송 수신부(111)는 상기 기술표준들에서 정한 기술규격에 적합한 방식을 이용하여 상기 디지털 방송 신호를 수신할 수 있다.The broadcast signal may be encoded according to at least one of technical standards (or broadcast methods, for example, ISO, IEC, DVB, ATSC, etc.) for transmitting and receiving digital broadcast signals, and the broadcast receiving unit 111 may The digital broadcast signal may be received using a method suitable for the technical standard set by the standards.
상기 방송 관련 정보는, 방송 채널, 방송 프로그램 또는 방송 서비스 제공자에 관련된 정보를 의미할 수 있다. 상기 방송 관련 정보는, 이동통신망을 통하여도 제공될 수 있다. 이러한 경우 상기 방송 관련 정보는 이동 통신부(113)에 의해 수신될 수도 있다.The broadcast associated information may mean information related to a broadcast channel, a broadcast program, or a broadcast service provider. The broadcast related information may also be provided through a mobile communication network. In this case, the broadcast related information may be received by the mobile communication unit 113.
네트워크 인터페이스부(112)는, 컴퓨팅 장치(100)를 인터넷 망을 포함하는 유/무선 네트워크와 연결하기 위한 인터페이스를 제공한다. 네트워크 인터페이스부(112)는 근거리 무선 통신망(Wireless Area Networks)을 시용하여 다른 컴퓨팅 장치(100), 외부 서버 또는 외부 기기와 통신할 수 있는 근거리 통신부를 포함하는 개념일 수 있다.The network interface unit 112 provides an interface for connecting the computing device 100 to a wired / wireless network including an internet network. The network interface unit 112 may be a concept including a local area communication unit that may communicate with another computing device 100, an external server, or an external device using local area networks.
네트워크 인터페이스부(112)는, 유선 네트워크와의 접속을 위해, 예를 들어 이더넷(Ethernet) 단자 등을 구비할 수 있으며, 무선 네트워크와의 접속을 위해, 예를 WLAN(Wireless LAN), Wi-Fi(Wireless-Fidelity), Wi-Fi(Wireless Fidelity) Direct, DLNA(Digital Living Network Alliance), WiBro(Wireless Broadband), WiMAX(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced), 블루투스(Bluetooth™), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra Wideband), ZigBee, NFC(Near Field Communication), Wireless USB(Wireless Universal Serial Bus) 통신 규격 등이 이용될 수 있다. 네트워크 인터페이스부(112)는, 접속된 네트워크 또는 접속된 네트워크에 링크된 다른 네트워크를 통해, 다른 사용자 또는 다른 전자 기기와 데이터를 송신 또는 수신할 수 있다. The network interface unit 112 may include, for example, an Ethernet terminal for connection with a wired network, and for connection with a wireless network, for example, a wireless LAN (WLAN), a Wi-Fi network. (Wireless-Fidelity), Wi-Fi (Wireless Fidelity) Direct, Digital Living Network Alliance (DLNA), Wireless Broadband (WiBro), World Interoperability for Microwave Access (WiMAX), High Speed Downlink Packet Access (HSDPA), HSUPA (High) Speed Uplink Packet Access (LTE), Long Term Evolution (LTE), Long Term Evolution-Advanced (LTE-A), Bluetooth ™ (Bluetooth ™), Radio Frequency Identification (RFID), Infrared Data Association (IrDA), UWB (Ultra) Wideband, ZigBee, Near Field Communication (NFC), Wireless Universal Serial Bus (USB) communication standards, and the like may be used. The network interface unit 112 may transmit or receive data with another user or another electronic device through the connected network or another network linked to the connected network.
이동 통신부(113)는 이동통신을 위한 기술표준들 또는 통신방식(예를 들어, GSM(Global System for Mobile communication), CDMA(Code Division Multi Access), CDMA2000(Code Division Multi Access 2000), EV-DO(Enhanced Voice-Data Optimized or Enhanced Voice-Data Only), WCDMA(Wideband CDMA), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced) 등)에 따라 구축된 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 상기 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다. The mobile communication unit 113 may include technical standards or communication schemes for mobile communication (eg, Global System for Mobile communication (GSM), Code Division Multi Access (CDMA), Code Division Multi Access 2000 (CDMA2000), and EV-DO). (Enhanced Voice-Data Optimized or Enhanced Voice-Data Only), Wideband CDMA (WCDMA), High Speed Downlink Packet Access (HSDPA), High Speed Uplink Packet Access (HSPA), Long Term Evolution (LTE), Long LTE-A (Long-A) Term Evolution-Advanced) and transmits and receives a wireless signal with at least one of a base station, an external terminal, a server. The wireless signal may include various types of data according to transmission and reception of a voice call signal, a video call call signal, or a text / multimedia message.
WiBro, HSDPA, HSUPA, GSM, CDMA, WCDMA, LTE, LTE-A 등에 의한 무선인터넷 접속은 이동통신망을 통해 이루어진다는 관점에서 본다면, 상기 이동통신망을 통해 무선인터넷 접속을 수행하는 네트워크 인터페이스부(112)는 상기 이동 통신부(113)의 일종으로 이해될 수도 있다.In view of the fact that the wireless Internet access by WiBro, HSDPA, HSUPA, GSM, CDMA, WCDMA, LTE, LTE-A, etc. is made through a mobile communication network, the network interface unit 112 for performing a wireless Internet access through the mobile communication network May be understood as a kind of mobile communication unit 113.
사용자 입력부(120)는 사용자로부터 정보를 입력받기 위한 것으로서, 사용자 입력부(120)를 통해 정보가 입력되면, 제어부(180)는 입력된 정보에 대응되도록 컴퓨팅 장치(100)의 동작을 제어할 수 있다.The user input unit 120 is for receiving information from a user. When information is input through the user input unit 120, the controller 180 may control an operation of the computing device 100 to correspond to the input information. .
사용자 입력부(120)는 기계식 (mechanical) 입력 수단(또는, 메커니컬 키, 예를 들어, 컴퓨팅 장치(100)의 전?후면 또는 측면에 위치하는 버튼, 돔 스위치 (dome switch), 조그 휠, 조그 스위치 등) 및 터치식 입력 수단 중 적어도 하나를 포함할 수 있다. The user input unit 120 may be a mechanical input means (or a mechanical key, eg, a button, a dome switch, a jog wheel, a jog switch, located at the front or rear or side of the computing device 100). Etc.) and touch input means.
사용자 입력부(120)는, 키보드(121)를 포함하며, 이에 더하여 터치 패드(122) 및 마우스(123) 중 적어도 하나를 더 포함할 수도 있다. 또한, 도시하지는 않았으나, 사용자 입력부(120)는, 컴퓨팅 장치(100)의 하우징(124)에 구비된 전?후면 또는 측면에 위치하는 버튼, 돔 스위치 (dome switch), 조그 휠, 조그 스위치 등), 터치 볼(touch ball) 등을 더 포함할 수도 있다. 실시예에 따라, 키보드(121)를 감싸는 하우징(124)의 부분에 터치 센서가 구비된 경우, 하우징(124)도 사용자 입력부(120)의 일종으로 이해될 수도 있다.The user input unit 120 may include a keyboard 121, and may further include at least one of the touch pad 122 and the mouse 123. In addition, although not shown, the user input unit 120 may include buttons, dome switches, jog wheels, jog switches, and the like located on the front and rear or side surfaces of the housing 124 of the computing device 100. It may further include a touch ball (touch ball) and the like. According to an embodiment, when a touch sensor is provided at a portion of the housing 124 surrounding the keyboard 121, the housing 124 may also be understood as a kind of the user input unit 120.
키보드(121)는 복수의 키를 포함하며, 복수의 키 중 적어도 일부 또는 복수의 키 전체에 터치 센서가 구비된다. 키보드(121)는, 일반적인 컴퓨팅 장치에서의 키보드와 마찬가지로 각각의 키가 상부 방향으로 돌출된 채 복수의 키가 결합되어 있는 형태로 구성될 수 있다. 이 경우, 키보드(121)는, 사용자가 각 키를 기 설정된 정도 이상 압력을 가해 누를 때 사용자 입력 신호를 수신할 수도 있고, 사용자가 각 키를 터치할 때 사용자 입력 신호를 수신할 수도 있다. 또한, 키보드(121)는, 복수의 키가 상부로 돌출되어 있지 않고 터치 패드(122)와 같이 플랫한 형태로 구성될 수도 있다. 이 경우, 키보드(121)는, 복수의 키 전체에 터치 센서가 구비되며, 사용자가 각 키를 터치할 때 사용자 입력 신호를 수신할 수 있다.The keyboard 121 includes a plurality of keys, and a touch sensor is provided on at least some of the plurality of keys or all of the plurality of keys. The keyboard 121 may be configured in a form in which a plurality of keys are combined with each key protruding upward, similar to a keyboard in a general computing device. In this case, the keyboard 121 may receive a user input signal when the user presses each key by a predetermined degree or more, or may receive a user input signal when the user touches each key. In addition, the keyboard 121 may be configured to have a flat shape like the touch pad 122 without the plurality of keys protruding upward. In this case, the keyboard 121 may include a touch sensor on all of the plurality of keys, and may receive a user input signal when the user touches each key.
터치 패드(122)는 터치 센서를 구비하며, 디스플레이부(151)를 마주보는 하우징(124)의 일면에 배치될 수 있다. 마우스(123)는 후술할 외부장치 인터페이스부(130)를 통해 컴퓨팅 장치(100)와 연결될 수 있다. 사용자 입력부(120)로서 터치 패드(122)와 마우스(123)는 본 기술분야의 당업자에게 널리 알려진 구성요소이므로 이에 대한 자세한 설명은 생략한다.The touch pad 122 may include a touch sensor and may be disposed on one surface of the housing 124 facing the display unit 151. The mouse 123 may be connected to the computing device 100 through an external device interface unit 130, which will be described later. Since the touch pad 122 and the mouse 123 as the user input unit 120 are components well known to those skilled in the art, a detailed description thereof will be omitted.
외부장치 인터페이스부(130)는 외부 디바이스와 컴퓨팅 장치(100) 간 데이터 통신이 가능하게 하는 인터페이스이다. 외부장치 인터페이스부(130)는, 유/무선 헤드셋 포트(port), 유/무선 데이터 포트(port), 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트(port), 오디오 I/O(Input/Output) 포트(port), 비디오 I/O(Input/Output) 포트(port), 이어폰 포트(port) 중 적어도 하나를 포함할 수 있다. 외부장치 인터페이스부(130)는 외부 메모리, 외부 컴퓨팅 장치, 별도의 사용자 입력부, 이어폰, 카메라, 게임기기 등과 같은 외부 장치와 유/무선으로 접속될 수 있다. 외부장치 인터페이스부(130)는, 연결된 외부 장치를 통하여 외부에서 입력되는 영상, 음성 또는 데이터 신호를 제어부(180)로 전달한다. 또한, 외부장치 인터페이스부(130)는, 제어부(180)에서 처리된 영상, 음성 또는 데이터신호를, 외부 장치로 출력할 수도 있다.The external device interface unit 130 is an interface that enables data communication between the external device and the computing device 100. The external device interface unit 130 may include a wired / wireless headset port, a wired / wireless data port, a memory card port, a port for connecting a device equipped with an identification module, and audio. It may include at least one of an input / output (I / O) port, a video input / output (I / O) port, and an earphone port. The external device interface unit 130 may be connected to an external device such as an external memory, an external computing device, a separate user input unit, an earphone, a camera, a game device, or the like by wire / wireless. The external device interface unit 130 transmits an image, audio, or data signal input from the outside to the controller 180 through a connected external device. In addition, the external device interface unit 130 may output a video, audio or data signal processed by the controller 180 to an external device.
센싱부(140)는 컴퓨팅 장치의 덮개의 개폐 정보, 컴퓨팅 장치 내 정보, 컴퓨팅 장치를 둘러싼 주변 환경 정보 및 사용자 정보 중 적어도 하나를 센싱하고, 이에 대응하는 센싱 신호를 발생시킨다. 제어부(180)는 이러한 센싱 신호에 기초하여, 컴퓨팅 장치(100)의 구동 또는 동작을 제어하거나, 컴퓨팅 장치(100)에 설치된 응용 프로그램과 관련된 데이터 처리, 기능 또는 동작을 수행 할 수 있다.The sensing unit 140 senses at least one of opening and closing information of a cover of the computing device, information in the computing device, surrounding environment information, and user information surrounding the computing device, and generates a sensing signal corresponding thereto. The controller 180 may control driving or operation of the computing device 100 or perform data processing, function, or operation related to an application program installed in the computing device 100 based on the sensing signal.
출력부(150)는 시각, 청각 등과 관련된 출력을 발생시키기 위한 것으로, 디스플레이부(151), 음향 출력부(152) 및 광 출력부(153) 중 적어도 하나를 포함할 수 있다. 실시예에 따라, 디스플레이부(151)는 터치 센서와 상호 레이어 구조를 이루거나 일체형으로 형성됨으로써, 터치 스크린을 구현할 수도 있다. 이러한 터치 스크린은, 컴퓨팅 장치(100)와 사용자 사이의 입력 인터페이스를 제공하는 사용자 입력부(120)로써 기능함과 동시에, 컴퓨팅 장치(100)와 사용자 사이의 출력 인터페이스를 제공할 수 있다.The output unit 150 is used to generate an output related to vision, hearing, and the like, and may include at least one of the display unit 151, the sound output unit 152, and the light output unit 153. According to an exemplary embodiment, the display unit 151 may form a layer structure or an integrated structure with the touch sensor, thereby implementing a touch screen. Such a touch screen may provide an output interface between the computing device 100 and the user while functioning as a user input unit 120 that provides an input interface between the computing device 100 and the user.
디스플레이부(151)는, 제어부(180)에서 처리된 영상 신호, 데이터 신호, GUI 신호, 통신부(110) 또는 외부장치 인터페이스부(130)에서 수신되는 영상 신호, 데이터 신호 등을 각각 R, G, B 신호로 변환하여 구동 신호를 생성한다. 디스플레이부(151)는, PDP, LCD, OLED, 플렉시블 디스플레이 (flexible display), 3차원 디스플레이(3D display) 등이 가능하다.The display unit 151 may display an image signal, a data signal, a GUI signal, an image signal received from the communication unit 110 or the external device interface unit 130, R, G, and the like processed by the controller 180, respectively. The drive signal is generated by converting into a B signal. The display unit 151 may be a PDP, an LCD, an OLED, a flexible display, a 3D display, or the like.
음향 출력부(152)는, 제어부(180)에서 음성 처리된 신호, 통신부(110)로부터 수신된 음성 신호, 메모리(160)에 저장된 음성 신호, 외부장치 인터페이스부(130)를 통해 수신된 음성 신호를 출력할 수 있다. 이러한 음향 출력부(152)에는 리시버(receiver), 스피커(speaker), 버저(buzzer) 등이 포함될 수 있다.The sound output unit 152 may include a signal processed by the controller 180, a voice signal received from the communication unit 110, a voice signal stored in the memory 160, and a voice signal received through the external device interface unit 130. You can output The sound output unit 152 may include a receiver, a speaker, a buzzer, and the like.
메모리(160)는 컴퓨팅 장치(100)의 다양한 기능을 지원하는 데이터를 저장한다. 메모리(160)는 컴퓨팅 장치(100)에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션(application)), 이동 단말기(100)의 동작을 위한 데이터들, 명령어들을 저장할 수 있다.The memory 160 stores data supporting various functions of the computing device 100. The memory 160 may store a plurality of application programs or applications that are driven by the computing device 100, data for operating the mobile terminal 100, and instructions.
메모리(160)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), SSD 타입(Solid State Disk type), SDD 타입(Silicon Disk Drive type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(random access memory; RAM), SRAM(static random access memory), 롬(read-only memory; ROM), EEPROM(electrically erasable programmable read-only memory), PROM(programmable read-only memory), 자기 메모리, 자기 디스크 및 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다.The memory 160 may be a flash memory type, a hard disk type, a solid state disk type, an SSD type, a silicon disk drive type, or a multimedia card micro type. ), Card-type memory (e.g., SD or XD memory), random access memory (RAM), static random access memory (SRAM), read-only memory (ROM), electrically erasable programmable read It may include at least one type of storage medium of -only memory (PROM), programmable read-only memory (PROM), magnetic memory, magnetic disk and optical disk.
전원 공급부(170)는 제어부(180)의 제어에 따라 외부의 전원, 내부의 전원을 인가 받아 각 구성요소들의 동작에 필요한 전원을 공급한다. 전원 공급부(170)는 충전 가능한 배터리를 포함할 수 있다.The power supply unit 170 receives an external power source and an internal power source under the control of the controller 180 to supply power for operation of each component. The power supply unit 170 may include a rechargeable battery.
제어부(180)는, 응용 프로그램과 관련된 동작과 통상적으로 이동 단말기(100)의 전반을 제어한다. 제어부(180)는 중앙처리장치(CPU, 181)와 메인 칩셋(182)을 포함할 수 있다.The controller 180 controls operations related to application programs and the first half of the mobile terminal 100. The controller 180 may include a central processing unit (CPU) 181 and a main chipset 182.
중앙처리장치(181)는 컴퓨팅 장치(100)의 전반적인 동작을 제어한다. 메인 칩셋(182)은 일반적인 컴퓨팅 장치의 메인 보드(main board)에 구비되는 칩셋과 유사한 기능을 수행한다. 보다 상세하게는, 메인 칩셋(182)은, 각 구성 요소들을 연결하고 제어하는 핵심적인 컨트롤러 칩을 의미할 수 있다. 메인 칩셋(182)은, 메모리와 그래픽을 제어하는 노스 브리지(north bridge)와 인터페이스 등 주변 기기를 제어하는 사우스 브리지(south bridge)를 지칭하는 것으로, 각 브리지는 개별적인 소자로 구현될 수도 있고 하나의 모듈로 구현될 수도 있다. 이때, 노스 브리지는, 별도로 구비되는 그래픽 연산 장치(GPU) 또는 그를 포함하는 그래픽 카드를 제어하는 기능을 수행할 수 있으나, 본 명세서에서는 그래픽 카드의 별도 구비 여부에 관계 없이 그래픽에 관련된 제어를 총괄하는 것으로 본다.The central processing unit 181 controls the overall operation of the computing device 100. The main chipset 182 performs a function similar to a chipset provided on a main board of a general computing device. More specifically, the main chipset 182 may mean a core controller chip that connects and controls each component. The main chipset 182 refers to a south bridge that controls peripheral devices such as a north bridge and an interface that controls memory and graphics, and each bridge may be implemented as a separate element or as a single element. It may be implemented as a module. In this case, the north bridge may perform a function of controlling a graphics processing unit (GPU) or a graphics card including the same, which is provided separately. Seen to be.
도 2는 본 발명과 관련된 컴퓨팅 장치의 외관을 도시한 도면이다.2 illustrates an appearance of a computing device related to the present invention.
도 2를 참조하면, 컴퓨팅 장치(100)는 디스플레이부(151), 키보드(121) 및 하우징(124)을 포함한다. 하우징(124)은 케이스라 칭할 수도 있으며, 디스플레이부(151)를 감싸는 부분을 프론트 케이스(124a), 디스플레이부(151)와 마주보는 키보드(121)를 감싸는 부분을 리어 케이스(124b)라 구분할 수도 있다. 본 명세서에서는, 설명의 편의상, 프론트 케이스(124a)와 리어 케이스(124b)를 구분하지 않고 하우징(124)을 언급하는 경우 이는 키보드(121)를 감싸는 리어 케이스(124b)를 칭하는 것으로 가정하여 설명한다. 실시예에 따라, 디스플레이부(151)를 마주보는 하우징(124)의 일면에 터치 패드(122)가 구비될 수 있으나, 이에 한정하는 것은 아니다.Referring to FIG. 2, the computing device 100 includes a display unit 151, a keyboard 121, and a housing 124. The housing 124 may be referred to as a case, and a portion surrounding the display unit 151 may be divided into a front case 124a and a portion surrounding the keyboard 121 facing the display unit 151 as a rear case 124b. have. In the present specification, for convenience of description, when referring to the housing 124 without distinguishing the front case 124a and the rear case 124b, it is assumed that it refers to the rear case 124b surrounding the keyboard 121. . According to an embodiment, the touch pad 122 may be provided on one surface of the housing 124 facing the display unit 151, but is not limited thereto.
실시예에 따라, 하우징(124)은 터치 센서를 포함하여 이루어질 수 있다. 이 경우, 상기 터치 센서는, 하우징(124)에서, 디스플레이부(151)를 마주보는 일면 및 키보드(121)의 주변부에 구비될 수 있다.According to an embodiment, the housing 124 may include a touch sensor. In this case, the touch sensor may be provided at one side of the housing 124 facing the display unit 151 and at the periphery of the keyboard 121.
도 2에서는, 터치 패드(122)를 구비한 노트북 컴퓨터의 형태로 본 발명과 관련된 컴퓨팅 장치(100)를 도시하였으나, 이는 일 예시에 불과하며, 터치 센서가 구비된 키보드(121)를 포함하는 다른 형태의 컴퓨팅 장치(100)도 본 발명의 권리 범위에 속한다.In FIG. 2, the computing device 100 according to the present invention is illustrated in the form of a notebook computer having a touch pad 122, but this is merely an example, and includes another keyboard 121 having a touch sensor. Computing device 100 in a form also falls within the scope of the present invention.
도 3은 본 발명의 일 실시예에 의한 컴퓨팅 장치의 제어 방법의 일례를 도시한 흐름도이다.3 is a flowchart illustrating an example of a method of controlling a computing device according to an embodiment of the present invention.
제어부(180)는, 기 설정된 조건에 따라, 키보드(121) 내 제1키를 터치하는 제1 터치 입력을 감지한다(S201). 상기 제1키는, 키보드(121)에 구비된 복수의 키 중에서, 문자키, 숫자키, 또는 특수키(예를 들어, 상기 문자키 또는 숫자키를 제외한 키로서 "Ctrl 키", "Alt 키", "Esc 키", "Shift 키" 등) 등일 수 있다. The controller 180 detects a first touch input of touching a first key in the keyboard 121 according to a preset condition (S201). The first key is, among a plurality of keys provided on the keyboard 121, a letter key, a numeric key, or a special key (for example, "Ctrl key" and "Alt key as keys other than the letter key or numeric key). "," Esc key "," Shift key ", and the like.
상기 기 설정된 조건이란, 상기 제1키를 기 설정된 시간 이상 터치하는 조건, 키보드(121) 내 제2키를 터치한 상태에서 상기 제1키를 터치하는 조건, 상기 키보드(121) 내 제2키에 기 설정된 정도 이상의 압력이 가해진 상태에서 상기 제1키를 터치하는 조건, 상기 제1키 및 상기 키보드(121) 내 제2키를 동시에 터치하는 조건, 상기 제1키를 터치하기 전에 상기 키보드(121) 내 적어도 두 개의 키를 터치하는 조건, 상기 제1키를 터치하기 전에 상기 키보드(121) 내 최외곽에 위치하는 제2키 및 상기 키보드(121) 내에서 상기 제1키와 상기 제2키의 사이에 위치하는 적어도 하나의 키를 터치하는 조건, 및 터치 패드(122)를 터치하면서 상기 제1키를 터치하는 조건 중 적어도 하나일 수 있다.The preset condition may be a condition of touching the first key for a preset time, a condition of touching the first key while touching a second key of the keyboard 121, and a second key of the keyboard 121. A condition of touching the first key in a state in which a pressure equal to or greater than a preset degree is applied, a condition of simultaneously touching the first key and a second key in the keyboard 121, and before touching the first key. 121) a condition of touching at least two keys in the keyboard, a second key located at the outermost side of the keyboard 121 before touching the first key, and the first key and the second key in the keyboard 121; It may be at least one of a condition of touching at least one key located between the keys, and a condition of touching the first key while touching the touch pad 122.
실시예에 따라, 제어부(180)는, 상기 제1 터치 입력을 감지한 때, 키보드(121)가 한글 입력 모드로 설정되어 있는지 아니면 영문 입력 모드로 설정되어 있는지 여부도 감지할 수 있다.According to an embodiment, when detecting the first touch input, the controller 180 may also detect whether the keyboard 121 is set to a Korean input mode or an English input mode.
제어부(180)는, 상기 제1 터치 입력에 따라, 제1키에 대응하는 기능을 실행한다(S202). 메모리(160)는, 키보드(121) 내 특정 키와 소정 기능의 맵핑 데이터를 미리 저장하고 있을 수 있다. 키보드(121) 내 특정 키에 대응하는 기능은 컴퓨팅 장치(100)의 제작시부터 설정될 수도 있고, 컴퓨팅 장치(100)의 운영체제 또는 펌웨어 업데이트시 설정될 수도 있고, 컴퓨팅 장치(100)의 사용 중 사용자에 의해 설정 또는 변경될 수도 있다. 제어부(180)는, 상기 제1 터치 입력이 감지된 경우, 메모리(160)에 액세스하여 상기 제1키에 대응하는 기능을 디텍트하고, 상기 디텍트된 기능을 실행할 수 있다.The controller 180 executes a function corresponding to the first key according to the first touch input (S202). The memory 160 may store in advance mapping data of a specific key and a predetermined function in the keyboard 121. Functions corresponding to specific keys in the keyboard 121 may be set at the time of manufacture of the computing device 100, may be set at the time of operating system or firmware update of the computing device 100, or the computing device 100 is in use. It may be set or changed by the user. When the first touch input is detected, the controller 180 may access the memory 160 to detect a function corresponding to the first key, and execute the detected function.
제어부(180)는, 상기 기능 실행의 결과를 출력하도록 디스플레이부(151)를 제어한다(S203). 예를 들어, 제어부(180)는, 특정 프로그램의 실행 화면을 디스플레이부(151)에 출력하거나 상기 기능 실행의 결과를 포함하는 GUI를 디스플레이부(151)에 출력할 수 있다.The controller 180 controls the display unit 151 to output a result of executing the function (S203). For example, the controller 180 may output an execution screen of a specific program to the display unit 151 or output a GUI including a result of executing the function to the display unit 151.
이하에서는, 도 3과 관련하여 설명한 컴퓨팅 장치(100)의 제어 방법을 도 4 내지 도 10을 참조하여 보다 자세히 설명하기로 한다.Hereinafter, a method of controlling the computing device 100 described with reference to FIG. 3 will be described in more detail with reference to FIGS. 4 to 10.
도 4는 본 발명의 일 실시예에 의한 컴퓨팅 장치에서 제1 터치 입력에 따라 디스플레이부에 출력되는 화면의 일례를 설명하기 위한 도면이다.4 is a diagram illustrating an example of a screen output to a display unit according to a first touch input in a computing device according to an embodiment of the present invention.
제어부(180)는, 기 설정된 조건에 따라 키보드(121) 내 제1키를 터치하는 제1 터치 입력을 감지한다. 본 실시예에서, 상기 기 설정된 조건이란, 상기 제1키를 기 설정된 시간 터치하는 조건인 것으로 가정한다. 예를 들어, 사용자가 키보드(121) 내 문자키("N키")를 기 설정된 시간 이상 터치한 경우, 제어부(180)는 상기 제1 터치 입력을 감지할 수 있다.The controller 180 detects a first touch input of touching a first key in the keyboard 121 according to a preset condition. In the present embodiment, it is assumed that the preset condition is a condition of touching the first key for a preset time. For example, when a user touches a letter key (“N key”) in the keyboard 121 for a predetermined time or more, the controller 180 may detect the first touch input.
제어부(180)는, 제1 터치 입력이 감지된 경우, 메모리(160)에 액세스하여 "N키"에 대응하는 기능을 디텍트할 수 있다. 메모리(160)는, 키보드(121) 내 특정 키와 소정 기능의 맵핑 데이터를 미리 저장하고 있을 수 있다. When the first touch input is detected, the controller 180 may access the memory 160 and detect a function corresponding to the “N key”. The memory 160 may store in advance mapping data of a specific key and a predetermined function in the keyboard 121.
도 5는 본 발명의 일 실시예에 의한 컴퓨팅 장치의 메모리에 저장된 데이터 베이스의 일례를 도시한 도면이다.5 is a diagram illustrating an example of a database stored in a memory of a computing device according to an embodiment of the present invention.
메모리(160)는, 키보드(121) 내 특정 키와 소정 기능의 맵핑 데이터를 미리 저장하고 있을 수 있다. 예를 들어, 키보드(121)의 특정 키와 대응되는 기능이란, 상기 특정 키에 맵핑된 특정 프로그램의 실행, 상기 특정 키에 맵핑된 특정 파일의 실행 또는 컴퓨팅 장치(100)에서 구현될 수 있는 기능들 중 상기 특정 키에 맵핑된 특정 기능의 실행 중 적어도 하나일 수 있다.The memory 160 may store in advance mapping data of a specific key and a predetermined function in the keyboard 121. For example, a function corresponding to a specific key of the keyboard 121 means execution of a specific program mapped to the specific key, execution of a specific file mapped to the specific key, or a function that may be implemented in the computing device 100. It may be at least one of execution of a specific function mapped to the specific key among these.
일례로, 키보드(121) 내 "N키"에 대응하는 기능이 "인터넷 실행"인 경우, 제어부(180)는, 기 설정된 조건에 따라 상기 "N키"를 터치하는 제1 터치 입력이 감지된 경우 인터넷 사용을 위한 프로그램을 실행할 수 있다. 실시예에 따라, 메모리(160)에 인터넷 사용을 위한 프로그램이 여러 개 존재하는 경우, 제어부(180)는, 상기 여러 프로그램 중 사용자의 사용 횟수가 가장 많은 프로그램을 실행할 수도 있고, 사용자에 의해 선택된 특정 프로그램을 실행할 수도 있다. 다른 일례로, 키보드(121) 내 "W키"에 대응하는 기능이 "문서 작업 프로그램의 실행"인 경우, 제어부(180)는, 기 설정된 조건에 따라 상기 "W키"를 터치하는 제1 터치 입력이 감지된 경우, 문서 작업을 위한 프로그램을 실행할 수 있다. 실시예에 따라, 메모리(160)에 문서 작업을 위한 프로그램이 여러 개 존재하는 경우, 제어부(180)는, 상기 여러 프로그램 중 사용자의 사용 횟수가 가장 많은 프로그램을 실행할 수도 있고, 사용자에 의해 선택된 특정 프로그램을 실행할 수도 있다. For example, when a function corresponding to "N key" in the keyboard 121 is "Internet execution", the controller 180 detects a first touch input of touching the "N key" according to a preset condition. In this case, you can run a program for Internet use. According to an embodiment, when there are a plurality of programs for using the Internet in the memory 160, the controller 180 may execute a program having the highest number of times of use of the user among the various programs, or may be selected by a user. You can also run the program. As another example, when the function corresponding to the "W key" in the keyboard 121 is "execution of the document work program", the controller 180 touches the "W key" according to a preset condition. If an input is detected, you can run a program for working with documents. According to an embodiment, when there are a plurality of programs for working with documents in the memory 160, the controller 180 may execute a program having the highest number of times of use of the user among the various programs, or may be selected by a user. You can also run the program.
도시하지는 않았으나, 실시예에 따라, 키보드(121)의 입력 모드가 한글 입력 모드인지 또는 영문 입력 모드인지에 따라 특정 키와 맵핑되는 기능이 달라질 수도 있다. 예를 들어, 메모리(160)는, 키보드(121) 내 "Q키"에 "인터넷 실행" 기능을 맵핑하여 저장하고 키보드(121) 내 "ㅂ키"에 "문서 작업 프로그램의 실행" 기능을 맵핑하여 저장할 수 있다. 여기서, 상기 "Q키"와 "ㅂ키"는 키보드(121) 내에서 물리적으로 동일한 키에 해당한다고 가정한다. 제어부(180)는, 상기 제1 터치 입력이 감지된 때 키보드(121)의 입력 모드를 감지하고, 키보드(121)가 한글 입력 모드이면 문서 작업 프로그램을 실행하고 키보드(121)가 영문 입력 모드이면 인터넷 사용을 위한 프로그램을 실행할 수 있다.Although not shown, the function mapped to a specific key may vary depending on whether the input mode of the keyboard 121 is a Korean input mode or an English input mode. For example, the memory 160 maps and stores the "Internet execution" function on the "Q key" in the keyboard 121 and maps the "execution of a document work program" function to the "key" in the keyboard 121. Can be stored. Here, it is assumed that the "Q key" and the "ㅂ key" correspond to physically the same key in the keyboard 121. The controller 180 detects an input mode of the keyboard 121 when the first touch input is detected, and executes a document work program if the keyboard 121 is a Korean input mode, and if the keyboard 121 is an English input mode. You can run a program to use the Internet.
실시예에 따라, 사용자가 키보드(121) 내 도움말 메뉴에 선택하는 특정 키를 선택하거나 터치 패드(122) 또는 마우스(123)를 이용하여 도움말 메뉴를 선택하는 경우, 제어부(180)는, 키보드(121) 내 특정 키와 이에 대응하는 기능(예를 들어, 특정 프로그램의 실행, 특정 파일의 실행 또는 컴퓨팅 장치(100)에서 구현 가능한 특정 기능의 실행)을 나열한 목록을 포함하는 GUI를 디스플레이부(151)에 출력할 수도 있다.According to an embodiment, when the user selects a specific key selected for the help menu in the keyboard 121 or selects the help menu using the touch pad 122 or the mouse 123, the controller 180 may use the keyboard ( 121. The display unit 151 includes a GUI including a list of a specific key and corresponding functions (for example, execution of a specific program, execution of a specific file, or execution of a specific function that can be implemented in the computing device 100). You can also print
다시 도 4를 참조하면, 제어부(180)는, 기 설정된 조건에 따라 상기 "N키"를 터치하는 제1 터치 입력이 감지되면, 상기 "N키"에 대응하는 기능(예를 들어, 인터넷 실행)을 실행하고, 기능 실행의 결과인 제1 화면(210)을 디스플레이부(151)에 출력할 수 있다. 상기 제1 화면(210)은, 메모리(160)에 저장된 인터넷 사용을 위한 프로그램 중 기 설정된 또는 사용자에 의해 선택된 특정 프로그램의 실행 화면일 수 있다.Referring back to FIG. 4, when a first touch input of touching the “N key” is detected according to a preset condition, the controller 180 may perform a function corresponding to the “N key” (for example, executing the Internet). ) And output the first screen 210, which is the result of the function execution, to the display unit 151. The first screen 210 may be an execution screen of a specific program selected from a program for use of the Internet stored in the memory 160 or selected by a user.
한편, 본 발명에 의하면, 상기 제1 터치 입력이 감지된 경우, 상기 제1키에 대응하는 기능의 실행 여부를 확인하기 위한 GUI를 디스플레이부(151)에 출력하여 사용자의 의도가 맞는지 확인할 수도 있다. 이를 도 6을 참조하여 설명한다.Meanwhile, according to the present invention, when the first touch input is detected, a GUI for confirming whether the function corresponding to the first key is executed may be output to the display unit 151 to check whether the user's intention is correct. . This will be described with reference to FIG. 6.
도 6은 본 발명의 일 실시예에 의한 컴퓨팅 장치의 디스플레이부에 출력되는 GUI의 일례를 설명하기 위한 도면이다.FIG. 6 illustrates an example of a GUI that is output to a display unit of a computing device according to an embodiment of the present disclosure.
제어부(180)는, 기 설정된 조건에 따라 키보드(121) 내 제1키를 터치하는 제1 터치 입력이 감지된 경우, 상기 제1키에 대응하는 기능의 실행 여부를 확인하기 위한 GUI(220)를 출력하도록 디스플레이부(151)를 제어할 수 있다.When a first touch input of touching a first key in the keyboard 121 is detected according to a preset condition, the controller 180 determines whether to execute a function corresponding to the first key. The display unit 151 may be controlled to output the display.
상기 GUI(220)는, 기 설정된 조건에 따라 사용자에 의해 터치된 제1키에 대한 정보(예를 들어, "N키"), 상기 제1키에 대응하는 기능에 대한 정보(예를 들어, "인터넷 실행") 및 상기 제1키에 대응하는 기능의 실행 여부를 묻는 안내 메시지를 포함할 수 있다. 사용자가 의도치 않게 제1키를 터치한 경우, 사용자의 의도와 다른 오동작을 방지하기 위함이다.The GUI 220 may include information about a first key touched by a user according to a preset condition (for example, "N key"), information about a function corresponding to the first key (for example, "Internet execution") and a guide message asking whether to execute the function corresponding to the first key. This is to prevent a malfunction that is different from the intention of the user when the user unintentionally touches the first key.
제어부(180)는, 상기 GUI(220) 내 확인 메뉴(221)가 선택되면 상기 제1키에 대응하는 기능으로서 인터넷 실행 기능을 수행하고, 상기 GUI(220) 내 취소 메뉴(222)가 선택되면 상기 제1키에 대응하는 기능을 수행하지 않고 상기 GUI(220)를 디스플레이부(151)에서 제거할 수 있다.When the confirmation menu 221 in the GUI 220 is selected, the controller 180 performs an Internet execution function as a function corresponding to the first key, and when the cancel menu 222 in the GUI 220 is selected. The GUI 220 may be removed from the display unit 151 without performing a function corresponding to the first key.
사용자는 디스플레이부(151)에 표시된 아이콘(I)을 상기 GUI(220) 내 원하는 메뉴(확인 메뉴(221) 또는 취소 메뉴(222)) 상에 위치시킴으로써 원하는 메뉴를 선택할 수 있다. 예를 들어, 사용자는, 마우스(123)를 이용하여 아이콘(I)의 위치 이동 및 메뉴 선택 커맨드를 입력할 수도 있고, 터치 패드(122)를 손으로 터치함으로써 아이콘(I)의 위치 이동 및 메뉴 선택 커맨드를 입력할 수도 있고, 터치 센서가 구비된 키보드(121) 또는 하우징(124)을 손으로 터치함으로써 아이콘(I)의 위치 이동 및 메뉴 선택 커맨드를 입력할 수도 있다. The user may select a desired menu by placing the icon I displayed on the display unit 151 on a desired menu (confirmation menu 221 or cancellation menu 222) in the GUI 220. For example, the user may input a position movement and menu selection command of the icon I using the mouse 123, or move the position and the menu of the icon I by touching the touch pad 122 by hand. The selection command may be input or the position movement of the icon I and the menu selection command may be input by touching the keyboard 121 or the housing 124 with the touch sensor by hand.
도 7은 본 발명의 일 실시예에 의한 컴퓨팅 장치에서 제1 터치 입력에 따라 디스플레이부에 출력되는 화면의 다른 일례를 설명하기 위한 도면이다.FIG. 7 is a diagram for describing another example of a screen output to a display unit according to a first touch input in a computing device according to an embodiment of the present disclosure.
제어부(180)는, 기 설정된 조건에 따라 키보드(121) 내 제1키를 터치하는 제1 터치 입력을 감지한다. 본 실시예에서, 상기 기 설정된 조건이란, 상기 제1키를 기 설정된 시간 터치하는 조건인 것으로 가정한다. 예를 들어, 사용자가 키보드(121) 내 문자키("F키")를 기 설정된 시간 이상 터치한 경우, 제어부(180)는 상기 제1 터치 입력을 감지할 수 있다.The controller 180 detects a first touch input of touching a first key in the keyboard 121 according to a preset condition. In the present embodiment, it is assumed that the preset condition is a condition of touching the first key for a preset time. For example, when a user touches a letter key (“F key”) in the keyboard 121 for a predetermined time or more, the controller 180 may detect the first touch input.
제어부(180)는, 제1 터치 입력이 감지된 경우, 메모리(160)에 액세스하여 "F키"에 대응하는 기능을 디텍트할 수 있다. 메모리(160)는, 키보드(121) 내 특정 키와 소정 기능의 맵핑 데이터를 미리 저장하고 있을 수 있다. 메모리(160)에 저장된 키보드(121) 내 특정 키와 소정 기능의 맵핑 데이터의 일례는 도 5와 관련하여 상술한 바와 유사하므로 이에 대한 자세한 설명은 생략한다.When the first touch input is detected, the controller 180 may access the memory 160 and detect a function corresponding to the “F key”. The memory 160 may store in advance mapping data of a specific key and a predetermined function in the keyboard 121. An example of mapping data of a specific key and a predetermined function in the keyboard 121 stored in the memory 160 is similar to that described above with reference to FIG. 5, and thus a detailed description thereof will be omitted.
제어부(180)는, 기 설정된 조건에 따라 상기 "F키"를 터치하는 제1 터치 입력이 감지되면, 상기 "F키"에 대응하는 기능(예를 들어, 시스템 종료)을 실행하고, 기능 실행의 결과인 제2 화면(230)을 디스플레이부(151)에 출력할 수 있다. 실시예에 따라, 제어부(180)는, 기 설정된 조건에 따라 상기 "F키"를 터치하는 제1 터치 입력이 감지된 경우, 시스템 종료를 위한 GUI(231)를 포함하는 제2 화면(230)을 출력한 후 상기 GUI(231)를 통해 사용자로부터 시스템 종료 커맨드가 별도로 입력된 경우 시스템을 종료할 수도 있고, 시스템 종료를 위한 GUI(231)를 포함하는 제2 화면(230)을 출력한 후 소정 시간이 흐른 후 자동으로 시스템을 종료할 수도 있고, 시스템 종료를 위한 GUI(231)의 출력 없이 바로 시스템을 종료할 수도 있다. If a first touch input of touching the “F key” is detected according to a preset condition, the controller 180 executes a function corresponding to the “F key” (for example, system shutdown), and executes a function. The second screen 230 that is the result of the output may be output to the display unit 151. According to an embodiment, when a first touch input of touching the “F key” is detected according to a preset condition, the controller 180 includes a second screen 230 including a GUI 231 for terminating the system. After outputting a system shutdown command is input separately from the user through the GUI 231, the system may be terminated, or after outputting a second screen 230 including a GUI 231 for system shutdown After a time passes, the system may be automatically shut down, or the system may be immediately shut down without outputting the GUI 231 for shutting down the system.
또한, 실시예에 따라, 도 6과 관련하여 상술한 바와 같이, 제2 화면(230)을 디스플레이부(151)에 출력하기 전에 상기 "F키"에 대응하는 기능의 실행 여부를 확인하기 위한 GUI를 디스플레이부(151)에 출력할 수도 있다.In addition, according to an embodiment, as described above with reference to FIG. 6, before outputting the second screen 230 to the display unit 151, a GUI for checking whether to execute the function corresponding to the “F key”. May be output to the display unit 151.
도 8은 본 발명의 일 실시예에 의한 컴퓨팅 장치에서 제1 터치 입력 감지를 위한 기 설정된 조건의 일례를 설명하기 위한 도면이다.FIG. 8 illustrates an example of a preset condition for sensing a first touch input in a computing device according to an embodiment of the present disclosure.
제어부(180)는, 기 설정된 조건에 따라 키보드(121) 내 제1키를 터치하는 제1 터치 입력을 감지한다. 본 실시예에서, 상기 기 설정된 조건이란, 키보드(121) 내 제2키를 터치한 상태에서 상기 제1키를 터치하는 조건 또는 키보드(121) 내 제2키에 기 설정된 정도 이상의 압력이 가해진 상태(제2키가 눌린 상태)에서 상기 제1키를 터치하는 조건일 수 있다. 예를 들어, 사용자가 키보드(121) 내 특수키("Alt 키")를 누른 상태 또는 터치한 상태에서 키보드(121) 내 문자키(예를 들어, "F키")를 터치한 경우, 제어부(180)는 상기 제1 터치 입력을 감지할 수 있다.The controller 180 detects a first touch input of touching a first key in the keyboard 121 according to a preset condition. In the present exemplary embodiment, the preset condition is a condition in which the first key is touched while the second key in the keyboard 121 is touched or a state in which pressure or more than a preset degree is applied to the second key in the keyboard 121. It may be a condition of touching the first key in a state where the second key is pressed. For example, when a user touches a letter key (eg, “F key”) in the keyboard 121 while pressing or touching a special key (“Alt key”) in the keyboard 121, the controller may be used. 180 may detect the first touch input.
또는, 도시하지 않았으나, 본 실시예에서, 상기 기 설정된 조건이란, 터치 패드(122)를 터치하면서 상기 제1키를 터치하는 조건일 수도 있다. 예를 들어, 사용자가 터치 패드(122) 내 임의의 영역을 터치한 상태에서 키보드(122) 내 문자키(예를 들어, "F키")를 터치한 경우, 제어부(180)는 상기 제1 터치 입력을 감지할 수 있다. 특히, 터치 패드(122)를 구비한 노트북 컴퓨터의 경우, 키보드(121)를 사용하는 사용자 손의 일부(특히, 손목과 이어지는 손바닥의 부분)가 터치 패드(122) 상에 올려진 상태로 키보드(121)를 사용하는 것이 일반적일 수 있기 때문이다.Alternatively, although not shown, in the present embodiment, the preset condition may be a condition of touching the first key while touching the touch pad 122. For example, when the user touches a letter key (eg, “F key”) in the keyboard 122 while touching a certain area in the touch pad 122, the controller 180 may control the first key. A touch input can be detected. In particular, in the case of a notebook computer having a touch pad 122, a portion of the user's hand using the keyboard 121 (particularly, the portion of the palm leading from the wrist) is placed on the touch pad 122 with the keyboard ( 121) may be common.
상기 제1 터치 입력이 감지된 이후의 예시는 도 4 내지 도 7과 관련하여 상술한 바와 유사하므로 이에 대한 자세한 설명은 생략한다.Since the example after the first touch input is detected is similar to that described above with reference to FIGS. 4 to 7, a detailed description thereof will be omitted.
도 9는 본 발명의 일 실시예에 의한 컴퓨팅 장치에서 제1 터치 입력 감지를 위한 기 설정된 조건의 다른 일례를 설명하기 위한 도면이다.FIG. 9 is a diagram for describing another example of a preset condition for sensing a first touch input in a computing device according to an embodiment of the present disclosure.
제어부(180)는, 기 설정된 조건에 따라 키보드(121) 내 제1키를 터치하는 제1 터치 입력을 감지한다. 본 실시예에서, 상기 기 설정된 조건이란, 상기 제1키를 터치하기 전에 키보드(121) 내 적어도 두 개의 키를 터치하는 조건일 수 있다. 여기서, 상기 제1키 및 상기 적어도 두 개의 키는 키보드(121) 내에서 연속되어 위치할 수도 있다. 일례로, 상기 제1키 및 상기 적어도 두 개의 키는 키보드(121) 내에서 직선(수직선, 수평선 또는 대각선) 상에 연속되어 위치하거나, 키보드(121) 내에서 임의의 곡선(정형 또는 비정형) 상에 연속되어 위치할 수 있다. 실시예에 따라, 제어부(180)는, 키보드(122) 내에서 연속되어 위치하는 적어도 두 개의 키가 터치된 후 상기 적어도 두 개의 키 중 가장 마지막에 터치된 키에 인접한 특정 키가 기 설정된 정도 이상 터치된 경우 상기 특정 키를 상기 제1키로 인식할 수도 있고, 키보드(122) 내에서 연속되어 위치하는 적어도 세 개의 키가 터치된 경우 상기 적어도 세 개의 키 중 가장 마지막에 터치된 키를 상기 제1키로 인식할 수도 있다. 예를 들어, 사용자가 키보드(121) 내 연속된 세 개의 문자키(예를 들어, "A키", "S키" 및 "D키")를 차례대로 터치한 후 상기 "D키"에 인접한 문자키(예를 들어, "F키")를 터치한 경우, 제어부(180)는 상기 제1 터치 입력을 감지할 수 있다.The controller 180 detects a first touch input of touching a first key in the keyboard 121 according to a preset condition. In the present exemplary embodiment, the preset condition may be a condition of touching at least two keys in the keyboard 121 before touching the first key. Here, the first key and the at least two keys may be continuously located in the keyboard 121. In one example, the first key and the at least two keys are located consecutively on a straight line (vertical line, horizontal line, or diagonal line) in the keyboard 121 or in any curved (structured or atypical) form on the keyboard 121. Can be positioned consecutively. According to an embodiment, the controller 180 may touch at least two keys consecutively positioned in the keyboard 122, and then a specific key adjacent to the last touched key among the at least two keys is greater than or equal to a preset level. When touched, the specific key may be recognized as the first key, and when at least three keys consecutively positioned in the keyboard 122 are touched, the last touched key among the at least three keys is touched. It can also be recognized as a key. For example, a user touches three consecutive letter keys (for example, "A key", "S key", and "D key") in the keyboard 121, and then touches the "D key". When a letter key (for example, "F key") is touched, the controller 180 can detect the first touch input.
상기 제1 터치 입력이 감지된 이후의 예시는 도 4 내지 도 7과 관련하여 상술한 바와 유사하므로 이에 대한 자세한 설명은 생략한다.Since the example after the first touch input is detected is similar to that described above with reference to FIGS. 4 to 7, a detailed description thereof will be omitted.
도 10은 본 발명의 일 실시예에 의한 컴퓨팅 장치에서 제1 터치 입력 감지를 위한 기 설정된 조건의 또 다른 일례를 설명하기 위한 도면이다.FIG. 10 is a diagram for describing another example of a preset condition for sensing a first touch input in a computing device according to an embodiment of the present disclosure.
제어부(180)는, 기 설정된 조건에 따라 키보드(121) 내 제1키를 터치하는 제1 터치 입력을 감지한다. 본 실시예에서, 상기 기 설정된 조건이란, 상기 제1키를 터치하기 전에 키보드(121) 내 최외곽에 위치하는 제2키 및 키보드(121) 내에서 상기 제1키와 상기 제2키의 사이에 위치하는 적어도 하나의 키를 터치하는 조건일 수 있다. 여기서, 상기 제1키, 상기 적어도 하나의 키 및 상기 제2키는 키보드(121) 내에서 연속되어 위치할 수도 있다. The controller 180 detects a first touch input of touching a first key in the keyboard 121 according to a preset condition. In the present exemplary embodiment, the preset condition means a second key located at the outermost side of the keyboard 121 before touching the first key and between the first key and the second key in the keyboard 121. It may be a condition of touching at least one key located at. Here, the first key, the at least one key, and the second key may be continuously located in the keyboard 121.
또는, 본 실시예에서, 상기 기 설정된 조건이란, 상기 제1키를 터치하기 전에, 터치 센서를 포함하는 하우징(124) 및 상기 하우징(124)과 상기 제1키의 사이에 위치하는 적어도 하나의 키를 터치하는 조건일 수도 있다. 여기서, 상기 하우징(124)은 디스플레이부(151)를 마주보며 키보드(121)를 둘러싸고 있는 부분으로서 터치 센서를 구비한 부분을 의미할 수 있다. 또한, 상기 하우징(124)과 상기 제1키의 사이에 위치하는 적어도 하나의 키는 키보드(121)의 최외곽에 위치하는 키를 포함할 수 있다. 또한, 상기 하우징(124)과 상기 제1키의 사이에 위치하는 적어도 하나의 키와 상기 제1키는 키보드(121) 내에서 연속되어 위치할 수도 있다. Alternatively, in the present embodiment, the preset condition is a housing 124 including a touch sensor and at least one positioned between the housing 124 and the first key before touching the first key. It may be a condition of touching a key. Here, the housing 124 may be a portion surrounding the keyboard 121 facing the display unit 151 and having a touch sensor. In addition, the at least one key located between the housing 124 and the first key may include a key located at the outermost portion of the keyboard 121. In addition, at least one key and the first key positioned between the housing 124 and the first key may be continuously located in the keyboard 121.
또는 본 실시예에서, 상기 기 설정된 조건이란, 상기 하우징(124)을 터치한 상태에서 상기 제1키를 터치하는 조건일 수도 있다. Alternatively, in the present embodiment, the preset condition may be a condition of touching the first key while touching the housing 124.
예를 들어, 사용자가 키보드(121)를 둘러싼 하우징(124)의 일 영역을 터치한 상태에서 손을 드래그함으로써 키보드(121) 내 문자키(예를 들어, "F키")를 터치한 경우, 제어부(180)는 상기 제1 터치 입력을 감지할 수 있다.For example, when a user touches a letter key (eg, “F key”) in the keyboard 121 by dragging a hand while touching a region of the housing 124 surrounding the keyboard 121, The controller 180 can detect the first touch input.
한편, 본 발명에 의하면, 상기 제1 터치 입력이 감지된 때 디스플레이부(151)에 출력된 화면에 기초하여, 동일한 제1 터치 입력이 감지되더라도 제어부(180)가 실행하는 기능이 달라질 수도 있다. 이를 도 11 내지 도 21을 참조하여 설명한다.Meanwhile, according to the present invention, based on the screen output to the display unit 151 when the first touch input is detected, even if the same first touch input is detected, the function executed by the controller 180 may vary. This will be described with reference to FIGS. 11 to 21.
도 11은 본 발명의 일 실시예에 의한 컴퓨팅 장치의 제어 방법의 다른 일례를 도시한 흐름도이다.11 is a flowchart illustrating another example of a method for controlling a computing device according to an embodiment of the present invention.
제어부(180)는, 기 설정된 조건에 따라, 키보드(121) 내 제1키를 터치하는 제1 터치 입력을 감지한다(S301). 상기 제1키는, 키보드(121)에 구비된 복수의 키 중에서, 문자키, 숫자키 또는 특수키(예를 들어, Ctrl 키, Alt 키, Esc 키 등)일 수 있다. The controller 180 detects a first touch input of touching a first key in the keyboard 121 according to a preset condition (S301). The first key may be a letter key, numeric key or special key (for example, Ctrl key, Alt key, Esc key, etc.) among a plurality of keys provided in the keyboard 121.
상기 기 설정된 조건이란, 상기 제1키를 기 설정된 시간 이상 터치하는 조건, 키보드(121) 내 제2키를 터치한 상태에서 상기 제1키를 터치하는 조건, 상기 키보드(121) 내 제2키에 기 설정된 정도 이상의 압력이 가해진 상태에서 상기 제1키를 터치하는 조건, 상기 제1키 및 상기 키보드(121) 내 제2키를 동시에 터치하는 조건, 상기 제1키를 터치하기 전에 상기 키보드(121) 내 적어도 두 개의 키를 터치하는 조건, 상기 제1키를 터치하기 전에 상기 키보드(121) 내 최외곽에 위치하는 제2키 및 상기 키보드(121) 내에서 상기 제1키와 상기 제2키의 사이에 위치하는 적어도 하나의 키를 터치하는 조건, 및 터치 패드(122)를 터치하면서 상기 제1키를 터치하는 조건 중 적어도 하나일 수 있다.The preset condition may be a condition of touching the first key for a preset time, a condition of touching the first key while touching a second key of the keyboard 121, and a second key of the keyboard 121. A condition of touching the first key in a state in which a pressure equal to or greater than a preset degree is applied, a condition of simultaneously touching the first key and a second key in the keyboard 121, and before touching the first key. 121) a condition of touching at least two keys in the keyboard, a second key located at the outermost side of the keyboard 121 before touching the first key, and the first key and the second key in the keyboard 121; It may be at least one of a condition of touching at least one key located between the keys, and a condition of touching the first key while touching the touch pad 122.
실시예에 따라, 제어부(180)는, 상기 제1 터치 입력을 감지한 때, 키보드(121)가 한글 입력 모드로 설정되어 있는지 아니면 영문 입력 모드로 설정되어 있는지 여부도 감지할 수 있다.According to an embodiment, when detecting the first touch input, the controller 180 may also detect whether the keyboard 121 is set to a Korean input mode or an English input mode.
제어부(180)는, 상기 제1 터치 입력이 감지된 때 디스플레이부(151)에 출력된 화면을 디텍트한다(S302). 상기 제1 터치 입력이 감지된 때 디스플레이부(151)에 출력된 화면이란, 상기 제1 터치 입력이 감지된 때 실행 중이던 특정 프로그램에 대응하는 화면일 수 있고, 상기 제1 터치 입력이 감지된 때 실행 중이던 특정 프로그램이 없다면 바탕화면(또는 홈 화면)일 수 있다. 여기서, 상기 특정 프로그램이란, 운영체제(OS)나 유틸리티 프로그램 등의 기본 소프트웨어 프로그램과 달리 특정한 업무를 해결하기 위한 목적을 가지고 만들어진 프로그램을 의미할 수 있다. 실시예에 따라, 상기 제1 터치 입력이 감지된 때 실행 중이던 특정 프로그램이 존재하더라도 상기 특정 프로그램의 실행 화면이 최소화된 상태라면 바탕화면(또는 홈 화면)이 상기 제1 터치 입력이 감지된 때 디스플레이부(151)에 출력된 화면일 수 있다.The controller 180 detects the screen output on the display unit 151 when the first touch input is detected (S302). When the first touch input is detected, the screen output to the display unit 151 may be a screen corresponding to a specific program that is being executed when the first touch input is detected, or when the first touch input is detected. If there is no specific program running, it may be the desktop (or home screen). Here, the specific program may mean a program created for the purpose of solving a specific task, unlike a basic software program such as an operating system (OS) or a utility program. According to an embodiment, even if there is a specific program running when the first touch input is detected, if the execution screen of the specific program is minimized, a background screen (or a home screen) is displayed when the first touch input is detected. The screen may be output to the unit 151.
실시예에 따라, 상기 제1 터치 입력이 감지된 때 실행 중이던 특정 프로그램이 복수 개 존재하는 경우, 상기 제1 터치 입력이 감지된 때 디스플레이부(151)에 출력된 화면이란, 상기 복수 개의 특정 프로그램의 실행 화면 중 최소화되지 않고 디스플레이부(151) 화면의 메인 영역에 표시된 특정 프로그램의 실행 화면일 수 있다. 여기서, 디스플레이부(151) 화면의 메인 영역이란, 컴퓨팅 장치(100)의 현재 상태 및 구동중인 프로그램에 대한 정보를 표시하기 위한 작업 표시줄을 제외한 영역을 의미한다. 또한, 실시예에 따라, 상기 복수 개의 특정 프로그램의 실행 화면 중 최소화되지 않고 디스플레이부(151) 화면의 메인 영역에 표시된 특정 프로그램의 실행 화면이 복수 개 존재하는 경우, 상기 제1 터치 입력이 감지된 때 디스플레이부(151)에 출력된 화면이란, 상기 최소화되지 않고 디스플레이부(151) 화면의 메인 영역에 표시된 특정 프로그램의 실행 화면 중에서 가장 처음에 실행된 특정 프로그램, 가장 마지막에 실행된 특정 프로그램, 기 설정된 조건을 만족하는 특정 프로그램 또는 사용자에 의해 선택된 특정 프로그램의 실행 화면일 수 있다.According to an embodiment, when there are a plurality of specific programs being executed when the first touch input is detected, the screens displayed on the display unit 151 when the first touch input is detected are the plurality of specific programs. May be an execution screen of a specific program displayed on a main area of the screen of the display unit 151 without being minimized. Here, the main area of the screen of the display unit 151 refers to an area excluding a task bar for displaying the current state of the computing device 100 and information about a running program. According to an embodiment, when there are a plurality of execution screens of a specific program displayed on the main area of the screen of the display unit 151 without being minimized among the execution screens of the plurality of specific programs, the first touch input is detected. When the screen output to the display unit 151 is not minimized, the specific program executed first, the last program executed most, among the execution screens of the specific program displayed on the main area of the screen of the display unit 151. It may be an execution screen of a specific program satisfying a set condition or a specific program selected by a user.
제어부(180)는, 상기 디텍트된 화면에 기초하여, 상기 제1키에 대응하는 기능을 실행한다(S303). 메모리(160)는, 키보드(121) 내 특정 키와 소정 기능의 맵핑 데이터를 미리 저장하고 있을 수 있다. The controller 180 executes a function corresponding to the first key based on the detected screen (S303). The memory 160 may store in advance mapping data of a specific key and a predetermined function in the keyboard 121.
일례로, 상기 제1키에 대응하는 기능이란, 상기 제1키가 특정 문자에 대응하는 경우, 컴퓨팅 장치(100)의 메모리(160)에 저장된 파일 및 프로그램, 그리고 컴퓨팅 장치(100)에서 구현될 수 있는 기능들 중에서 상기 특정 문자로 시작되는 파일 명, 프로그램 명 및 기능 명 중 적어도 하나를 검색하는 기능일 수 있고, 이러한 검색 기능은 상기 디텍트된 화면에 기초할 수 있다. 예를 들어, 상기 디텍트된 화면이 문서 작업을 위한 프로그램의 실행 화면인 경우, 제어부(180)는, 상기 문서 작업을 위한 프로그램과 관련된 것으로서 상기 특정 문자로 시작되는 파일 명, 프로그램 명 및 기능 명 중 적어도 하나를 검색할 수 있다. 실시예에 따라, 제어부(180)는, 키보드(121)의 입력 모드가 한글 입력 모드로 설정되어 있고 상기 제1키가 한글의 특정 자음에 대응하는 경우, 상기 특정 자음으로 시작되는 파일 명, 프로그램 명 및 기능 명 중 적어도 하나를 검색할 수 있고, 키보드(121)의 입력 모드가 영문 입력 모드로 설정되어 있는 경우, 상기 제1키에 대응하는 알파벳으로 시작되는 파일 명, 프로그램 명 및 기능 명 중 적어도 하나를 검색할 수 있다.For example, a function corresponding to the first key may include a file and a program stored in the memory 160 of the computing device 100 and the computing device 100 when the first key corresponds to a specific character. Among functions that may be searched, at least one of a file name, a program name, and a function name starting with the specific character may be searched, and the search function may be based on the detected screen. For example, when the detected screen is an execution screen of a program for a document task, the controller 180 is a file name, a program name, and a function name starting with the specific character as related to the program for the document task. At least one of the can be searched. According to an embodiment, when the input mode of the keyboard 121 is set to the Hangul input mode and the first key corresponds to a specific consonant of the Korean language, the controller 180 may start a file name or a program starting with the specific consonant. At least one of a name and a function name can be searched, and if the input mode of the keyboard 121 is set to the English input mode, among the file name, program name, and function name starting with an alphabet corresponding to the first key, You can search for at least one.
다른 일례로, 상기 제1키에 대응하는 기능이란, 상기 디텍트된 화면에 대응하는 특정 프로그램과 관련된 특정 기능을 제어하기 위한 GUI의 출력 또는 상기 디텍트된 화면에 대응하는 특정 프로그램과 관련된 특정 기능의 실행일 수 있다.In another example, the function corresponding to the first key is an output of a GUI for controlling a specific function related to a specific program corresponding to the detected screen or a specific function related to the specific program corresponding to the detected screen. Can be the execution of.
또 다른 일례로, 상기 제1키에 대응하는 기능이란, 상기 제1키가 특수키(예를 들어, "Ctrl 키", "Alt 키" 또는 "Shift 키")에 해당하는 경우, 상기 디텍트된 화면에 대응하는 특정 프로그램의 기능과 관련된 단축키의 목록 중에서 상기 제1키를 포함하는 단축키의 목록을 디텍트하는 기능일 수 있다. 여기서, 단축키란, 키보드(121) 내 적어도 두 개의 키가 함께 선택되었을 때 상기 특정 프로그램의 특정 기능이 실행되도록 미리 설정되어 있는 경우 상기 키보드(121) 내 적어도 두 개의 키를 의미할 수 있다. 메모리(160)는, 상기 특정 프로그램의 기능과 관련된 단축키의 목록을 미리 저장하고 있을 수 있다.In another example, the function corresponding to the first key means that the first key corresponds to a special key (for example, a "Ctrl key", an "Alt key", or a "Shift key"). It may be a function of detecting a list of shortcut keys including the first key from a list of shortcut keys related to a function of a specific program corresponding to the displayed screen. Here, the shortcut key may mean at least two keys in the keyboard 121 when at least two keys in the keyboard 121 are set to be executed in advance when a specific function of the specific program is executed. The memory 160 may store a list of shortcut keys related to the function of the specific program in advance.
제어부(180)는, 상기 기능 실행의 결과를 출력하도록 디스플레이부(151)를 제어한다(S304). 예를 들어, 제어부(180)는, 상기 기능 실행의 결과를 포함하는 GUI를 디스플레이부(151)에 출력할 수 있다. The controller 180 controls the display unit 151 to output a result of executing the function (S304). For example, the controller 180 may output a GUI including a result of executing the function to the display unit 151.
이하에서는, 도 11과 관련하여 설명한 컴퓨팅 장치(100)의 제어 방법을 도 12 내지 도 21을 참조하여 보다 자세히 설명하기로 한다.Hereinafter, a method of controlling the computing device 100 described with reference to FIG. 11 will be described in more detail with reference to FIGS. 12 to 21.
도 12는 본 발명의 일 실시예에 의한 컴퓨팅 장치에서 제1 터치 입력에 따라 디스플레이부에 출력되는 화면의 일례를 설명하기 위한 도면이다.FIG. 12 illustrates an example of a screen output to a display unit according to a first touch input in a computing device according to an embodiment of the present disclosure.
제어부(180)는, 기 설정된 조건에 따라 키보드(121) 내 제1키를 터치하는 제1 터치 입력을 감지한다. 상기 기 설정된 조건이란, 상기 제1키를 기 설정된 시간 이상 터치하는 조건, 키보드(121) 내 제2키를 터치한 상태에서 상기 제1키를 터치하는 조건, 상기 키보드(121) 내 제2키에 기 설정된 정도 이상의 압력이 가해진 상태에서 상기 제1키를 터치하는 조건, 상기 제1키 및 상기 키보드(121) 내 제2키를 동시에 터치하는 조건, 상기 제1키를 터치하기 전에 상기 키보드(121) 내 적어도 두 개의 키를 터치하는 조건, 상기 제1키를 터치하기 전에 상기 키보드(121) 내 최외곽에 위치하는 제2키 및 상기 키보드(121) 내에서 상기 제1키와 상기 제2키의 사이에 위치하는 적어도 하나의 키를 터치하는 조건, 및 터치 패드(122)를 터치하면서 상기 제1키를 터치하는 조건 중 적어도 하나일 수 있다. 상기 기 설정된 조건은 도 4, 도 7 내지 도 10과 관련하여 상술한 바와 유사하므로 이에 대한 자세한 설명은 생략한다. 본 실시예에서, 상기 제1키는 특정 문자에 대응하는 문자키인 것으로 가정한다.The controller 180 detects a first touch input of touching a first key in the keyboard 121 according to a preset condition. The preset condition may be a condition of touching the first key for a preset time, a condition of touching the first key while touching a second key of the keyboard 121, and a second key of the keyboard 121. A condition of touching the first key in a state in which a pressure equal to or greater than a preset degree is applied, a condition of simultaneously touching the first key and a second key in the keyboard 121, and before touching the first key. 121) a condition of touching at least two keys in the keyboard, a second key located at the outermost side of the keyboard 121 before touching the first key, and the first key and the second key in the keyboard 121; It may be at least one of a condition of touching at least one key located between the keys, and a condition of touching the first key while touching the touch pad 122. Since the preset condition is similar to that described above with reference to FIGS. 4 and 7 to 10, a detailed description thereof will be omitted. In the present embodiment, it is assumed that the first key is a character key corresponding to a specific character.
제어부(180)는, 상기 제1 터치 입력이 감지된 때 디스플레이부(151)에 출력된 화면을 디텍트한다. 본 실시예에서, 상기 디텍트된 화면은 바탕화면(또는 홈 화면)인 것으로 가정한다.The controller 180 detects a screen output on the display unit 151 when the first touch input is detected. In the present embodiment, it is assumed that the detected screen is a background screen (or a home screen).
제어부(180)는, 상기 디텍트된 화면에 기초하여, 상기 제1키에 대응하는 기능을 실행한다. 즉, 제어부(180)는, 상기 디텍트된 화면에 기초하여, 컴퓨팅 장치(100)의 메모리(160)에 저장된 파일 및 프로그램, 그리고 컴퓨팅 장치(100)에서 구현될 수 있는 기능들 중에서 상기 특정 문자로 시작되는 파일 명, 프로그램 명 및 기능 명 중 적어도 하나를 검색할 수 있다. 상기 디텍트된 화면이 바탕화면인 경우, 검색 대상이 되는 상기 특정 문자로 시작되는 파일 명, 프로그램 명 및 기능 명은 서로 관련성이 없을 수 있다. 실시예에 따라, 제어부(180)는, 키보드(121)의 입력 모드와 상관 없이 상기 제1키에 대응하는 알파벳으로 시작되는 파일 명, 프로그램 명 및 기능 명을 검색할 수도 있고, 키보드(121)의 입력 모드가 한글 입력 모드로 설정되어 있고 상기 제1키가 한글의 특정 자음에 대응하는 경우에는 상기 특정 자음으로 시작되는 파일 명, 프로그램 명 및 기능 명 중 적어도 하나를 검색하고, 키보드(121)의 입력 모드가 영문 입력 모드로 설정되어 있는 경우에는 상기 제1키에 대응하는 알파벳으로 시작되는 파일 명, 프로그램 명 및 기능 명 중 적어도 하나를 검색할 수도 있다. The controller 180 executes a function corresponding to the first key based on the detected screen. That is, the controller 180 based on the detected screen, the specific character from among files and programs stored in the memory 160 of the computing device 100 and functions that may be implemented in the computing device 100. At least one of a file name, a program name, and a function name beginning with the search may be searched. When the detected screen is a background screen, a file name, a program name, and a function name starting with the specific character to be searched may not be related to each other. According to an exemplary embodiment, the controller 180 may search for a file name, a program name, and a function name starting with an alphabet corresponding to the first key, regardless of the input mode of the keyboard 121, or the keyboard 121. If the input mode of is set to the Hangul input mode and the first key corresponds to a specific consonant of the Hangul, at least one of a file name, a program name, and a function name starting with the specific consonant is searched and the keyboard 121 When the input mode is set to the English input mode, at least one of a file name, a program name, and a function name starting with an alphabet corresponding to the first key may be searched for.
또한, 실시예에 따라, 제어부(180)는, 상기 특정 문자로 시작되는 파일 명, 프로그램 명 및 기능 명 중에서 최근(현재로부터 기 설정된 기간 내)에 사용된 이력이 있는 파일 명, 프로그램 명 및 기능 명을 검색할 수도 있다.According to an embodiment, the controller 180 may include a file name, a program name, and a function having a history used recently (within a preset period from the present) among the file name, program name, and function name starting with the specific character. You can also search for people.
제어부(180)는, 상기 기능 실행의 결과를 포함하는 제1 GUI(310)를 출력하도록 디스플레이부(151)를 제어한다. 일례로, 제어부(180)는, 제1 GUI(310) 내에서 상기 검색 결과를 파일 별, 프로그램 별 및 기능 별로 구분하여 출력하도록 디스플레이부(151)를 제어할 수 있다. 다른 일례로, 제어부(180)는, 제1 GUI(310) 내에서 상기 검색 결과를 파일 별, 프로그램 별 및 기능 별로 구분하여 출력하되 가장 최근에 사용된 이력이 있는 파일 명, 프로그램 명 및 기능 명의 순서대로 출력하도록 디스플레이부(151)를 제어할 수 있다. 또 다른 일례로, 제어부(180)는, 제1 GUI(310) 내에서 상기 검색 결과를 파일 별, 프로그램 별 및 기능 별로 구분하여 출력하되, 최근(현재로부터 기 설정된 기간 내)에 사용된 이력이 있는 파일 명, 프로그램 명 및 기능 명은 따로 구분하여 출력하도록 디스플레이부(151)를 제어할 수도 있다.The controller 180 controls the display unit 151 to output the first GUI 310 including the result of the function execution. For example, the controller 180 may control the display unit 151 to separately output the search result by file, program, and function in the first GUI 310. In another example, the controller 180 outputs the search results separately by file, program, and function in the first GUI 310, but includes a file name, a program name, and a function name having a most recently used history. The display unit 151 may be controlled to output in order. In another example, the controller 180 outputs the search results by file, program, and function in the first GUI 310, and the history used in the recent (within a predetermined period from the present) is displayed. The display unit 151 may be controlled to separately output a file name, a program name, and a function name.
사용자는, 제1 GUI(310)에 포함된 파일 명, 프로그램 명 및 기능 명 중 원하는 메뉴를 선택하여 해당 파일, 해당 프로그램 또는 해당 기능을 실행할 수 있다. 예를 들어, 사용자는, 마우스(123)를 이용하여 아이콘(I)의 위치 이동 및 메뉴 선택 커맨드를 입력할 수도 있고, 터치 패드(122)를 손으로 터치함으로써 아이콘(I)의 위치 이동 및 메뉴 선택 커맨드를 입력할 수도 있고, 터치 센서가 구비된 키보드(121) 또는 하우징(124)을 손으로 터치함으로써 아이콘(I)의 위치 이동 및 메뉴 선택 커맨드를 입력할 수도 있다. The user may select a desired menu from among a file name, a program name, and a function name included in the first GUI 310 to execute the file, the program, or the function. For example, the user may input a position movement and menu selection command of the icon I using the mouse 123, or move the position and the menu of the icon I by touching the touch pad 122 by hand. The selection command may be input or the position movement of the icon I and the menu selection command may be input by touching the keyboard 121 or the housing 124 with the touch sensor by hand.
도 13은 본 발명의 일 실시예에 의한 컴퓨팅 장치에서 제1 터치 입력에 따라 디스플레이부에 출력되는 화면의 다른 일례를 설명하기 위한 도면이다. 도 12와 중복되는 내용은 다시 설명하지 않으며, 이하에서는 차이점을 중심으로 설명한다.FIG. 13 is a diagram for describing another example of a screen output to a display unit according to a first touch input in a computing device according to an embodiment of the present disclosure. The content overlapping with FIG. 12 will not be described again, and the following description will focus on differences.
제어부(180)는, 상기 검색된 파일 명 중 적어도 일부에 대응하는 썸네일 이미지(311)를 제1 GUI(310) 상에 출력하도록 디스플레이부(151)를 제어할 수 있다. 예를 들어, 제어부(180)는, 상기 검색된 파일 명 중 이미지 파일 또는 동영상 파일에 대응하는 파일 명이 존재하는 경우, 해당 파일 명 각각에 대응하는 썸네일 이미지(311)가 제1 GUI(310) 상에 표시되도록 할 수 있다. 상기 썸네일 이미지(311)는 제1 GUI(310) 내에서 대응하는 파일 명과 나란히 위치할 수 있다. 상기 검색된 파일 명이 동영상 파일인 경우, 상기 썸네일 이미지(311)는 동영상 파일을 대표하는 대표 이미지를 축소한 것일 수 있다.The controller 180 may control the display unit 151 to output a thumbnail image 311 corresponding to at least some of the searched file names on the first GUI 310. For example, when a file name corresponding to an image file or a video file exists among the searched file names, the controller 180 displays a thumbnail image 311 corresponding to each of the corresponding file names on the first GUI 310. Can be displayed. The thumbnail image 311 may be located in parallel with the corresponding file name in the first GUI 310. When the searched file name is a video file, the thumbnail image 311 may be a reduced size of the representative image representing the video file.
도 14는 본 발명의 일 실시예에 의한 컴퓨팅 장치에서 제1 터치 입력에 따라 디스플레이부에 출력되는 화면의 또 다른 일례를 설명하기 위한 도면이다. 도 12 및 도 13과 중복되는 내용은 다시 설명하지 않으며, 이하에서는 차이점을 중심으로 설명한다.14 is a diagram for describing another example of a screen output to a display unit according to a first touch input in a computing device according to an embodiment of the present invention. 12 and 13 will not be described again, and the following description will focus on differences.
제어부(180)는, 기 설정된 조건에 따라 키보드(121) 내 제1키를 터치하는 제1 터치 입력을 감지한다. 상기 기 설정된 조건은 도 4, 도 7 내지 도 10과 관련하여 상술한 바와 유사하므로 이에 대한 자세한 설명은 생략한다. 본 실시예에서, 상기 제1키는 특정 문자에 대응하는 문자키인 것으로 가정한다.The controller 180 detects a first touch input of touching a first key in the keyboard 121 according to a preset condition. Since the preset condition is similar to that described above with reference to FIGS. 4 and 7 to 10, a detailed description thereof will be omitted. In the present embodiment, it is assumed that the first key is a character key corresponding to a specific character.
제어부(180)는, 상기 제1 터치 입력이 감지된 때 디스플레이부(151)에 출력된 화면을 디텍트한다. 본 실시예에서, 상기 디텍트된 화면은 동영상 또는 음악 감상을 위한 재생 프로그램의 실행 화면이고, 상기 제1 터치 입력이 감지된 때 디스플레이부(151)에는 상기 재생 프로그램의 실행 화면인 제1 화면(320)이 디스플레이되어 있다고 가정한다.The controller 180 detects a screen output on the display unit 151 when the first touch input is detected. In the present embodiment, the detected screen is an execution screen of a playback program for listening to a video or music, and when the first touch input is detected, the display unit 151 displays a first screen which is an execution screen of the playback program. Assume 320 is displayed.
제어부(180)는, 상기 디텍트된 화면에 기초하여, 상기 제1키에 대응하는 기능을 실행한다. 즉, 제어부(180)는, 상기 디텍트된 화면에 기초하여, 컴퓨팅 장치(100)의 메모리(160)에 저장된 파일 및 프로그램, 그리고 컴퓨팅 장치(100)에서 구현될 수 있는 기능들 중에서 상기 특정 문자로 시작되는 파일 명, 프로그램 명 및 기능 명 중 적어도 하나를 검색할 수 있다. 또한, 실시예에 따라, 제어부(180)는, 상기 특정 문자로 시작되는 파일 명, 프로그램 명 및 기능 명 중에서 최근(현재로부터 기 설정된 기간 내)에 사용된 이력이 있는 파일 명, 프로그램 명 및 기능 명을 검색할 수도 있다.The controller 180 executes a function corresponding to the first key based on the detected screen. That is, the controller 180 based on the detected screen, the specific character from among files and programs stored in the memory 160 of the computing device 100 and functions that may be implemented in the computing device 100. At least one of a file name, a program name, and a function name beginning with the search may be searched. According to an embodiment, the controller 180 may include a file name, a program name, and a function having a history used recently (within a preset period from the present) among the file name, program name, and function name starting with the specific character. You can also search for people.
또한, 제어부(180)는, 상기 특정 문자로 시작되는 파일 명, 프로그램 명 및 기능 명 중에서 상기 재생 프로그램과 관련된 것만 검색할 수도 있고, 상기 특정 문자로 시작되는 파일 명, 프로그램 명 및 기능 명을 모두 검색하되 검색 결과를 디스플레이부(151)에 출력할 때 상기 재생 프로그램과 관련된 것이 우선적으로 표시되도록 할 수도 있다.In addition, the controller 180 may search only the file name, program name and function name starting with the specific character related to the playback program, and may search for all of the file name, program name and function name starting with the specific character. When searching, but outputting the search results to the display unit 151, the one related to the playback program may be displayed first.
제어부(180)는, 상기 기능 실행의 결과를 포함하는 제1 GUI(310)를 출력하도록 디스플레이부(151)를 제어한다. 제1GUI(310)는 상기 재생 프로그램의 실행 화면인 제1 화면(320) 상에 표시될 수 있다. 제어부(180)는, 상기 특정 문자로 시작되는 파일 명, 프로그램 명 및 기능 명 중에서 상기 재생 프로그램과 관련된 파일 명, 프로그램 명 및 기능 명 만이 제1 GUI(310)에 표시되도록 할 수도 있고, 검색된 파일 명, 프로그램 명 및 기능 명을 모두 제1 GUI(310)에 표시하되 상기 재생 프로그램과 관련된 파일 명, 프로그램 명 및 기능 명이 우선적으로 제1 GUI(310)에 표시되도록 할 수도 있다. 여기서, 상기 재생 프로그램과 관련된 파일 명, 프로그램 명 및 기능 명이란, 상기 재생 프로그램으로 재생 가능한 파일 명, 상기 재생 프로그램을 통해 재생된 이력이 있는 파일 명, 상기 재생 프로그램과 연동 가능한 프로그램 명, 상기 재생 프로그램을 통해 재생 가능한 파일의 전송 이력이 있는 프로그램 명, 상기 재생 프로그램의 기능들과 관련된 기능 명 등일 수 있다.The controller 180 controls the display unit 151 to output the first GUI 310 including the result of the function execution. The first GUI 310 may be displayed on the first screen 320 which is an execution screen of the playback program. The controller 180 may display only the file name, program name, and function name related to the playback program in the first GUI 310 among the file name, program name, and function name starting with the specific character. A name, a program name, and a function name are all displayed on the first GUI 310, but a file name, a program name, and a function name related to the playback program may be displayed on the first GUI 310 first. Here, a file name, a program name, and a function name associated with the playback program are a file name that can be played back with the playback program, a file name with a history played through the playback program, a program name that can be linked with the playback program, and the playback. The name of a program having a transmission history of a file playable through a program, a function name associated with functions of the play program, and the like.
도 15는 본 발명의 일 실시예에 의한 컴퓨팅 장치에서 제1 터치 입력에 따라 디스플레이부에 출력되는 화면의 또 다른 일례를 설명하기 위한 도면이다. 도 12 내지 도 14와 중복되는 내용은 다시 설명하지 않으며, 이하에서는 차이점을 중심으로 설명한다.FIG. 15 is a diagram for describing another example of a screen output to a display unit according to a first touch input in a computing device according to an embodiment of the present disclosure. 12 and 14 will not be described again, and the following description will focus on differences.
제어부(180)는, 기 설정된 조건에 따라 키보드(121) 내 제1키를 터치하는 제1 터치 입력을 감지한다. 상기 기 설정된 조건은 도 4, 도 7 내지 도 10과 관련하여 상술한 바와 유사하므로 이에 대한 자세한 설명은 생략한다. 본 실시예에서, 상기 제1키는 특정 문자에 대응하는 문자키인 것으로 가정한다.The controller 180 detects a first touch input of touching a first key in the keyboard 121 according to a preset condition. Since the preset condition is similar to that described above with reference to FIGS. 4 and 7 to 10, a detailed description thereof will be omitted. In the present embodiment, it is assumed that the first key is a character key corresponding to a specific character.
제어부(180)는, 상기 제1 터치 입력이 감지된 때 디스플레이부(151)에 출력된 화면을 디텍트한다. 본 실시예에서, 상기 디텍트된 화면은 문서 작업을 위한 문서 작업 프로그램의 실행 화면이고, 상기 제1 터치 입력이 감지된 때 디스플레이부(151)에는 상기 문서 작업 프로그램의 실행 화면인 제2 화면(330)이 디스플레이되어 있다고 가정한다.The controller 180 detects a screen output on the display unit 151 when the first touch input is detected. In the present exemplary embodiment, the detected screen is an execution screen of a document work program for a document work, and when the first touch input is detected, the display unit 151 displays a second screen (executed screen of the document work program). Assume 330 is displayed.
제어부(180)는, 상기 디텍트된 화면에 기초하여, 상기 제1키에 대응하는 기능을 실행한다. 즉, 제어부(180)는, 상기 디텍트된 화면에 기초하여, 컴퓨팅 장치(100)의 메모리(160)에 저장된 파일 및 프로그램, 그리고 컴퓨팅 장치(100)에서 구현될 수 있는 기능들 중에서 상기 특정 문자로 시작되는 파일 명, 프로그램 명 및 기능 명 중 적어도 하나를 검색할 수 있다. The controller 180 executes a function corresponding to the first key based on the detected screen. That is, the controller 180 based on the detected screen, the specific character from among files and programs stored in the memory 160 of the computing device 100 and functions that may be implemented in the computing device 100. At least one of a file name, a program name, and a function name beginning with the search may be searched.
또한, 실시예에 따라, 제어부(180)는, 상기 특정 문자로 시작되는 파일 명, 프로그램 명 및 기능 명 중에서 최근(현재로부터 기 설정된 기간 내)에 사용된 이력이 있는 파일 명, 프로그램 명 및 기능 명을 검색할 수도 있다.According to an embodiment, the controller 180 may include a file name, a program name, and a function having a history used recently (within a preset period from the present) among the file name, program name, and function name starting with the specific character. You can also search for people.
또한, 제어부(180)는, 상기 특정 문자로 시작되는 파일 명, 프로그램 명 및 기능 명 중에서 상기 문서 작업 프로그램과 관련된 것만 검색할 수도 있고, 상기 특정 문자로 시작되는 파일 명, 프로그램 명 및 기능 명을 모두 검색하되 검색 결과를 디스플레이부(151)에 출력할 때 상기 문서 작업 프로그램과 관련된 것이 우선적으로 표시되도록 할 수도 있다.In addition, the controller 180 may search only a file name, a program name, and a function name beginning with the specific character and related to the document work program, and may search for a file name, program name, and function name beginning with the specific character. When all of the documents are searched, the information related to the document work program may be preferentially displayed when the search results are output to the display unit 151.
제어부(180)는, 상기 기능 실행의 결과를 포함하는 제1 GUI(310)를 출력하도록 디스플레이부(151)를 제어한다. 제1GUI(310)는 상기 문서 작업 프로그램의 실행 화면인 제2 화면(330) 상에 표시될 수 있다. 제어부(180)는, 상기 특정 문자로 시작되는 파일 명, 프로그램 명 및 기능 명 중에서 상기 문서 작업 프로그램과 관련된 파일 명, 프로그램 명 및 기능 명 만이 제1 GUI(310)에 표시되도록 할 수도 있고, 검색된 파일 명, 프로그램 명 및 기능 명을 모두 제1 GUI(310)에 표시하되 상기 문서 작업 프로그램과 관련된 파일 명, 프로그램 명 및 기능 명이 우선적으로 제1 GUI(310)에 표시되도록 할 수도 있다. 여기서, 상기 문서 작업 프로그램과 관련된 파일 명, 프로그램 명 및 기능 명이란, 상기 문서 작업 프로그램을 이용하여 작업된 문서의 파일 명, 상기 문서 작업 프로그램을 통하여 열람 가능한 문서의 파일 명, 상기 문서 작업 프로그램과 연동 가능한 프로그램 명, 상기 문서 작업 프로그램을 통하여 열람 가능한 문서 파일의 전송 이력이 있는 프로그램 명, 상기 문서 작업 프로그램의 기능들과 관련된 기능 명 등일 수 있다.The controller 180 controls the display unit 151 to output the first GUI 310 including the result of the function execution. The first GUI 310 may be displayed on the second screen 330 which is an execution screen of the document work program. The controller 180 may display only the file name, program name, and function name related to the document work program among the file name, program name, and function name starting with the specific character to be displayed on the first GUI 310. A file name, a program name, and a function name are all displayed on the first GUI 310, but a file name, a program name, and a function name related to the document work program may be preferentially displayed on the first GUI 310. Here, a file name, a program name, and a function name associated with the document work program may include a file name of a document worked using the document work program, a file name of a document that can be viewed through the document work program, and the document work program. It may be a program name that can be linked, a program name having a transmission history of a document file viewable through the document work program, a function name associated with functions of the document work program, and the like.
도 16은 본 발명의 일 실시예에 의한 컴퓨팅 장치에서 제1 터치 입력에 따라 디스플레이부에 출력되는 화면의 또 다른 일례를 설명하기 위한 도면이다. 도 12 내지 도 15와 중복되는 내용은 다시 설명하지 않으며, 이하에서는 차이점을 중심으로 설명한다.FIG. 16 illustrates another example of a screen output to a display unit according to a first touch input in a computing device according to an embodiment of the present disclosure. The contents overlapping with those of FIGS. 12 to 15 will not be described again, and the following description will focus on differences.
제어부(180)는, 기 설정된 조건에 따라 키보드(121) 내 제1키를 터치하는 제1 터치 입력을 감지한다. 상기 기 설정된 조건은 도 4, 도 7 내지 도 10과 관련하여 상술한 바와 유사하므로 이에 대한 자세한 설명은 생략한다. 본 실시예에서, 상기 제1키는 특정 문자에 대응하는 문자키인 것으로 가정한다.The controller 180 detects a first touch input of touching a first key in the keyboard 121 according to a preset condition. Since the preset condition is similar to that described above with reference to FIGS. 4 and 7 to 10, a detailed description thereof will be omitted. In the present embodiment, it is assumed that the first key is a character key corresponding to a specific character.
제어부(180)는, 상기 제1 터치 입력이 감지된 때 디스플레이부(151)에 출력된 화면을 디텍트한다. 본 실시예에서, 상기 디텍트된 화면은 인터넷 이용을 위한 웹 서비스 프로그램의 실행 화면이고, 상기 제1 터치 입력이 감지된 때 디스플레이부(151)에는 상기 웹 서비스 프로그램의 실행 화면인 제3 화면(340)이 디스플레이되어 있다고 가정한다.The controller 180 detects a screen output on the display unit 151 when the first touch input is detected. In the present embodiment, the detected screen is an execution screen of a web service program for using the Internet, and when the first touch input is detected, the display unit 151 displays a third screen which is an execution screen of the web service program. Assume 340 is displayed.
제어부(180)는, 상기 디텍트된 화면에 기초하여, 상기 제1키에 대응하는 기능을 실행한다. 즉, 제어부(180)는, 상기 디텍트된 화면에 기초하여, 상기 웹 서비스 프로그램과 관련된 파일 명, 프로그램 명, 웹페이지 명, URL 주소, 그리고 컴퓨팅 장치(100)에서 구현될 수 있는 기능들 중에서 상기 특정 문자로 시작되는 파일 명, 프로그램 명, 웹페이지 명, URL 주소 및 기능 명 중 적어도 하나를 검색할 수 있다. 또한, 실시예에 따라, 제어부(180)는, 상기 특정 문자로 시작되는 파일 명, 프로그램 명, 웹페이지 명, URL 주소 및 기능 명 중에서 최근(현재로부터 기 설정된 기간 내)에 사용된 이력이 있는 파일 명, 프로그램 명, 웹페이지 명, URL 주소 및 기능 명을 검색할 수도 있다. 예를 들어, 제어부(180)는, 상기 웹 서비스 프로그램을 통하여 다운로드된 파일 명, 상기 웹 서비스 프로그램을 통하여 다운로드된 프로그램 명, 상기 웹 서비스 프로그램과 연동 가능한 프로그램 명, 상기 웹 서비스 프로그램을 통하여 방문된 이력이 있는 웹페이지 명, 상기 웹 서비스 프로그램을 통하여 방문된 이력이 있는 URL 주소, 상기 웹 서비스 프로그램에 사용자가 즐겨찾기로 추가한 웹페이지 명 또는 URL 주소, 상기 웹 서비스 프로그램의 기능들과 관련된 기능 명 등일 수 있다.The controller 180 executes a function corresponding to the first key based on the detected screen. That is, the controller 180 is based on the detected screen, among the file name, program name, web page name, URL address, and functions that can be implemented in the computing device 100 associated with the web service program. At least one of a file name, a program name, a web page name, a URL address, and a function name starting with the specific character may be searched. In addition, according to an embodiment, the controller 180 may have a history used recently (within a preset period from the present) among file names, program names, web page names, URL addresses, and function names starting with the specific character. You can also search for file names, program names, web page names, URL addresses, and function names. For example, the controller 180 may include a file name downloaded through the web service program, a program name downloaded through the web service program, a program name interoperable with the web service program, and a visited through the web service program. Web page name with history, URL address with history visited through the web service program, Web page name or URL address added by user to the web service program as a favorite, functions related to the functions of the web service program Persons and the like.
또한, 실시예에 따라, 제어부(180)는, 상기 특정 문자로 시작되는 파일 명, 프로그램 명, 웹페이지 명, URL 주소 및 기능 명 중에서 최근(현재로부터 기 설정된 기간 내)에 사용된 이력이 파일 명, 프로그램 명, 웹페이지 명, URL 주소 및 기능 명을 검색할 수도 있다.In addition, according to an embodiment, the controller 180 may store a history of a file name, a program name, a web page name, a URL address, and a function name that have been used recently (within a predetermined period from the present) of the file name beginning with the specific character. You can also search for names, program names, web page names, URL addresses, and function names.
제어부(180)는, 상기 기능 실행의 결과를 포함하는 제1 GUI(310)를 출력하도록 디스플레이부(151)를 제어한다. 제1GUI(310)는 상기 웹 서비스 프로그램의 실행 화면인 제3 화면(340) 상에 표시될 수 있다.The controller 180 controls the display unit 151 to output the first GUI 310 including the result of the function execution. The first GUI 310 may be displayed on the third screen 340 which is an execution screen of the web service program.
도 17은 본 발명의 일 실시예에 의한 컴퓨팅 장치에서 제1 터치 입력에 따라 디스플레이부에 출력되는 화면의 일례를 설명하기 위한 도면이다. 17 is a diagram for describing an example of a screen output to a display unit according to a first touch input in a computing device according to an embodiment of the present invention.
제어부(180)는, 기 설정된 조건에 따라 키보드(121) 내 제1키를 터치하는 제1 터치 입력을 감지한다. 상기 기 설정된 조건은 도 4, 도 7 내지 도 10과 관련하여 상술한 바와 유사하므로 이에 대한 자세한 설명은 생략한다. 본 실시예에서, 상기 제1키는 스페이스 바(space bar)인 것으로 가정한다.The controller 180 detects a first touch input of touching a first key in the keyboard 121 according to a preset condition. Since the preset condition is similar to that described above with reference to FIGS. 4 and 7 to 10, a detailed description thereof will be omitted. In this embodiment, it is assumed that the first key is a space bar.
제어부(180)는, 상기 제1 터치 입력이 감지된 때 디스플레이부(151)에 출력된 화면을 디텍트한다. 본 실시예에서, 상기 디텍트된 화면은 동영상 또는 음악 감상을 위한 재생 프로그램의 실행 화면이고, 상기 제1 터치 입력이 감지된 때 디스플레이부(151)에는 상기 재생 프로그램을 통하여 재생 중인 상기 특정 동영상 파일과 관련된 제4 화면(350)이 디스플레이되어 있다고 가정한다.The controller 180 detects a screen output on the display unit 151 when the first touch input is detected. In the present embodiment, the detected screen is an execution screen of a playback program for listening to a video or music, and when the first touch input is detected, the display unit 151 plays the specific video file being played through the playback program. Assume that a fourth screen 350 associated with is displayed.
제어부(180)는, 상기 디텍트된 화면에 기초하여, 상기 제1키에 대응하는 기능을 실행한다. 상기 제1키에 대응하는 기능이란, 상기 재생 프로그램과 관련된 특정 기능을 제어하기 위한 GUI의 출력 또는 상기 재생 프로그램과 관련된 특정 기능의 실행일 수 있다. 예를 들어, 제어부(180)는, 상기 디텍트된 화면에 기초하여, 상기 재생 프로그램의 재생 관련 기능을 제어하기 위한 제2 GUI(360)를 출력하도록 디스플레이부(151)를 제어하고, 이에 따라 디스플레이부(151)에 제2 GUI(360)가 디스플레이된다. 제2 GUI(360)는 상기 재생 프로그램의 실행 화면인 제4 화면(350) 상에 표시될 수 있다.The controller 180 executes a function corresponding to the first key based on the detected screen. The function corresponding to the first key may be an output of a GUI for controlling a specific function related to the playback program or execution of a specific function related to the playback program. For example, the controller 180 controls the display unit 151 to output a second GUI 360 for controlling a play related function of the play program based on the detected screen, and accordingly, The second GUI 360 is displayed on the display unit 151. The second GUI 360 may be displayed on the fourth screen 350 which is an execution screen of the playback program.
제2 GUI(360)는, 상기 특정 파일의 재생 지점을 조절하기 위한 프로그래스 바(361a), 상기 프로그래스 바(361a) 상에서 상기 특정 파일의 재생 지점을 지시하는 인디케이터(361b), 상기 특정 파일의 재생 여부를 선택하기 위한 재생 메뉴(362), 상기 특정 파일의 재생 중지를 선택하기 위한 중지 메뉴(363), 재생 목록에서 상기 특정 파일의 바로 이전에 존재하는 파일의 재생을 선택하기 위한 이전파일 재생 메뉴(364) 및 재생 목록에서 상기 특정 파일의 바로 다음에 존재하는 파일의 재생을 선택하기 위한 다음파일 재생 메뉴(365) 등을 포함할 수 있다.The second GUI 360 may include a progress bar 361a for adjusting a playback point of the specific file, an indicator 361b indicating a playback point of the specific file on the progress bar 361a, and the specific file. A playback menu 362 for selecting whether or not to play back, a pause menu 363 for selecting to stop playing the specific file, and a previous file for selecting playback of a file immediately preceding the specific file in a playlist The play menu 364 and the next file play menu 365 for selecting a play of the file immediately following the specific file in the play list may be included.
도 18은 도 17의 이후에 나타날 수 있는 예시를 설명하기 위한 도면이다.FIG. 18 is a diagram for describing an example that may appear after FIG. 17.
제어부(180)는, 프로그래스 바(361a) 및 인디케이터(361b)를 포함하는 제2 GUI(360)가 디스플레이부(151)에 출력된 때, 키보드(121) 내 제1키를 터치한 상태에서 좌측 또는 우측으로 드래그하는 제2 터치 입력을 감지할 수 있다.When the second GUI 360 including the progress bar 361a and the indicator 361b is output to the display unit 151, the controller 180 touches the first key in the keyboard 121. A second touch input of dragging left or right may be sensed.
제어부(180)는, 상기 제2 터치 입력에 따라, 상기 인디케이터(361b)가 상기 프로그래스 바(361a) 상에서 좌측 또는 우측으로 이동하도록 디스플레이부(151)를 제어할 수 있다. 디스플레이부(151)에는, 상기 제2 터치 입력에 따라 상기 프로그래스 바(361a) 상에서 이동된 인디케이터(361b)의 위치에 대응하는 재생 화면이 출력될 것이다. 이로써, 사용자는 수평 방향으로 긴 스페이스 바를 좌우로 터치하는 직관적인 동작을 취함으로써 상기 특정 프로그램의 재생 지점을 선택할 수 있으므로, 사용자 편의성이 강조된다.The controller 180 may control the display unit 151 to move the indicator 361b to the left or right on the progress bar 361a according to the second touch input. The display unit 151 may output a playback screen corresponding to the position of the indicator 361b moved on the progress bar 361a according to the second touch input. In this way, the user can select a playback point of the specific program by taking an intuitive operation of touching the long space bar from side to side in the horizontal direction, thereby enhancing user convenience.
도 19는 본 발명의 일 실시예에 의한 컴퓨팅 장치에서 제1 터치 입력에 따라 디스플레이부에 출력되는 화면의 다른 일례를 설명하기 위한 도면이다. FIG. 19 illustrates another example of a screen output to a display unit according to a first touch input in a computing device according to an embodiment of the present disclosure.
제어부(180)는, 기 설정된 조건에 따라 키보드(121) 내 제1키를 터치하는 제1 터치 입력을 감지한다. 상기 기 설정된 조건은 도 4, 도 7 내지 도 10과 관련하여 상술한 바와 유사하므로 이에 대한 자세한 설명은 생략한다. 본 실시예에서, 상기 제1키는 스페이스 바(space bar)인 것으로 가정한다.The controller 180 detects a first touch input of touching a first key in the keyboard 121 according to a preset condition. Since the preset condition is similar to that described above with reference to FIGS. 4 and 7 to 10, a detailed description thereof will be omitted. In this embodiment, it is assumed that the first key is a space bar.
제어부(180)는, 상기 제1 터치 입력이 감지된 때 디스플레이부(151)에 출력된 화면을 디텍트한다. 본 실시예에서, 상기 디텍트된 화면은 인터넷 이용을 위한 웹 서비스 프로그램의 실행 화면이고, 상기 제1 터치 입력이 감지된 때 디스플레이부(151)에는 상기 웹 서비스 프로그램의 실행 화면인 제5 화면(370)이 디스플레이되어 있다고 가정한다.The controller 180 detects a screen output on the display unit 151 when the first touch input is detected. In the present embodiment, the detected screen is an execution screen of a web service program for using the Internet, and when the first touch input is detected, the display unit 151 displays a fifth screen which is an execution screen of the web service program. Assume 370 is displayed.
제어부(180)는, 상기 디텍트된 화면에 기초하여, 상기 제1키에 대응하는 기능을 실행한다. 상기 제1키에 대응하는 기능이란, 상기 웹 서비스 프로그램과 관련된 특정 기능을 제어하기 위한 GUI의 출력 또는 상기 웹 서비스 프로그램과 관련된 특정 기능의 실행일 수 있다. 예를 들어, 제어부(180)는, 상기 디텍트된 화면에 기초하여, 상기 웹 서비스 프로그램을 통해 접속된 이력이 있는 웹 페이지에 대응하는 이미지들을 포함하는 제3 GUI(380)를 출력하도록 디스플레이부(151)를 제어하고, 이에 따라 디스플레이부(151)에 제3 GUI(380)가 디스플레이된다. 제3 GUI(380)는 상기 웹 서비스 프로그램의 실행 화면인 제5 화면(370) 상에 표시될 수 있다.The controller 180 executes a function corresponding to the first key based on the detected screen. The function corresponding to the first key may be an output of a GUI for controlling a specific function related to the web service program or execution of a specific function related to the web service program. For example, the controller 180 may output a third GUI 380 including images corresponding to a web page having a history of access through the web service program based on the detected screen. 151 is controlled, and accordingly, the third GUI 380 is displayed on the display unit 151. The third GUI 380 may be displayed on the fifth screen 370 which is an execution screen of the web service program.
제3 GUI(380)에는, 현재로부터 기 설정된 기간 내에 상기 웹 서비스 프로그램을 통해 접속된 이력이 있는 웹 페이지에 대응하는 이미지들(381)이 포함된다. 경우에 따라 상기 이미지들(381)이 디스플레이부(151)에 한 번에 출력되기 어려운 경우에는 제3 GUI(380)에 포함될 이미지들이 더 존재함을 나타내는 화살표(382)가 제3 GUI(380)에 포함되어 출력될 수도 있다. 예를 들어, 제3 GUI(380)에 세 개의 이미지(381a, 381b, 381c)가 포함되어 있는 경우 가장 우측에 위치한 이미지(381c)가 가장 최근에 방문한 웹 페이지에 대응할 수 있다. 실시예에 따라, 제3 GUI(380)가 디스플레이부(151)에 출력된 때 가장 최근에 방문한 웹 페이지에 대응하는 이미지(381c)를 지시하도록 인디케이터(383)가 표시될 수도 있다. 일례로, 상기 인디케이터(383)는 이미지(381c)의 테두리를 하이라이트하는 형태일 수 있다.The third GUI 380 includes images 381 corresponding to a web page having a history of access through the web service program within a preset period from the present. In some cases, when the images 381 are difficult to be output to the display unit 151 at one time, an arrow 382 indicating that there are more images to be included in the third GUI 380 is displayed in the third GUI 380. It may be included in the output. For example, when the third GUI 380 includes three images 381a, 381b, and 381c, the rightmost image 381c may correspond to the most recently visited web page. According to an exemplary embodiment, when the third GUI 380 is output to the display unit 151, the indicator 383 may be displayed to indicate an image 381c corresponding to the most recently visited web page. For example, the indicator 383 may be in the form of highlighting the edge of the image 381c.
도 20은 도 19 이후에 나타날 수 있는 예시를 설명하기 위한 도면이다.20 is a diagram for describing an example that may appear after FIG. 19.
제어부(180)는, 제3 GUI(380)가 디스플레이부(151)에 출력된 때, 키보드(121) 내 제1키를 터치한 상태에서 좌측 또는 우측으로 드래그하는 제2 터치 입력을 감지할 수 있다.When the third GUI 380 is output to the display unit 151, the controller 180 may detect a second touch input of dragging left or right while touching the first key in the keyboard 121. have.
일례로, 제어부(180)는, 키보드(121) 내 제1키를 터치한 상태에서 좌측으로 드래그하는 제2 터치 입력이 감지된 경우, 상기 인디케이터(383)가 이미지(381c)와 좌측으로 인접한 이미지(381b)를 지시하도록 디스플레이부(151)를 제어할 수 있다. 그 후, 제어부(180)는, 키보드(121) 내 제1키를 터치한 상태에서 우측으로 드래그하는 제2 터치 입력이 감지된 경우, 상기 인디케이터(383)가 이미지(381b)와 우측으로 인접한 이미지(381c)를 다시 가리키도록 디스플레이부(151)를 제어할 수 있다. 이로써, 사용자는 수평 방향으로 긴 스페이스 바를 좌우로 터치하는 직관적인 동작을 취함으로써 최근 접속된 이력이 있는 웹 페이지들을 브라우징할 수 있으므로, 사용자 편의성이 강조된다.For example, when the second touch input of dragging to the left while detecting the first key in the keyboard 121 is detected, the controller 180 is an image adjacent to the image 381c to the left of the image 381c. The display unit 151 may be controlled to indicate 381b. Thereafter, when the second touch input of dragging the right side while touching the first key in the keyboard 121 is detected, the controller 180 is an image adjacent to the image 381b to the right. The display unit 151 may be controlled to point 381c again. In this way, the user can browse the web pages with the recently accessed history by taking an intuitive operation of touching the long space bar from side to side in the horizontal direction, thereby enhancing user convenience.
실시예에 따라, 사용자가 제3 GUI(380) 내 임의의 이미지(381)를 선택하거나 상기 인디케이터(383)가 지시하는 임의의 이미지(381)를 선택하면, 선택된 이미지(381)에 대응하는 웹 페이지의 화면이 디스플레이부(151)에 출력될 수 있다.According to an embodiment, when the user selects any image 381 in the third GUI 380 or any image 381 indicated by the indicator 383, the web corresponding to the selected image 381 is selected. The screen of the page may be output to the display unit 151.
도 21은 본 발명의 일 실시예에 의한 컴퓨팅 장치에서 제1 터치 입력에 따라 디스플레이부에 출력되는 화면의 또 다른 일례를 설명하기 위한 도면이다. FIG. 21 is a diagram for describing another example of a screen output to a display unit according to a first touch input in a computing device according to an embodiment of the present disclosure.
제어부(180)는, 기 설정된 조건에 따라 키보드(121) 내 제1키를 터치하는 제1 터치 입력을 감지한다. 상기 기 설정된 조건은 도 4, 도 7 내지 도 10과 관련하여 상술한 바와 유사하므로 이에 대한 자세한 설명은 생략한다. 본 실시예에서, 상기 제1키는 특수키(예를 들어, "Ctrl 키", "Alt 키" 또는 "Shift 키" 등) 중 "Ctrl 키"인 것으로 가정한다.The controller 180 detects a first touch input of touching a first key in the keyboard 121 according to a preset condition. Since the preset condition is similar to that described above with reference to FIGS. 4 and 7 to 10, a detailed description thereof will be omitted. In the present embodiment, it is assumed that the first key is a "Ctrl key" of a special key (for example, "Ctrl key", "Alt key", "Shift key", etc.).
제어부(180)는, 상기 제1 터치 입력이 감지된 때 디스플레이부(151)에 출력된 화면을 디텍트한다. 본 실시예에서, 상기 디텍트된 화면은 문서 작업을 위한 문서 작업 프로그램의 실행 화면이고, 상기 제1 터치 입력이 감지된 때 디스플레이부(151)에는 상기 문서 작업 프로그램의 실행 화면인 제6 화면(390) 화면이 디스플레이되어 있다고 가정한다.The controller 180 detects a screen output on the display unit 151 when the first touch input is detected. In the present embodiment, the detected screen is an execution screen of a document work program for a document work, and when the first touch input is detected, the display unit 151 displays a sixth screen (executed screen of the document work program). Assume that the screen is displayed.
제어부(180)는, 상기 디텍트된 화면에 기초하여, 상기 제1키에 대응하는 기능을 실행한다. 즉, 제어부(180)는, 상기 디텍트된 화면에 기초하여, 상기 디텍트된 화면에 대응하는 문서 작업 프로그램의 기능과 관련된 단축키의 목록 중에서 상기 제1키를 포함하는 단축키의 목록을 디텍트할 수 있다. 여기서, 단축키란, 키보드(121) 내 적어도 두 개의 키가 함께 선택되었을 때 상기 특정 프로그램의 특정 기능이 실행되도록 미리 설정되어 있는 경우 상기 키보드(121) 내 적어도 두 개의 키를 의미할 수 있다. 메모리(160)는, 상기 특정 프로그램의 기능과 관련된 단축키의 목록을 미리 저장하고 있을 수 있다.The controller 180 executes a function corresponding to the first key based on the detected screen. That is, the controller 180 may detect a list of shortcut keys including the first key from a list of shortcut keys associated with a function of a document work program corresponding to the detected screen, based on the detected screen. Can be. Here, the shortcut key may mean at least two keys in the keyboard 121 when at least two keys in the keyboard 121 are set to be executed in advance when a specific function of the specific program is executed. The memory 160 may store a list of shortcut keys related to the function of the specific program in advance.
제어부(180)는, 상기 기능 실행의 결과를 포함하는 제4 GUI(391)를 디스플레이부(151)에 출력할 수 있다. 제4 GUI(391)는 상기 문서 작업 프로그램의 실행 화면인 제6 화면(390) 상에 표시될 수 있다.The controller 180 may output the fourth GUI 391 including the result of executing the function to the display unit 151. The fourth GUI 391 may be displayed on the sixth screen 390 which is an execution screen of the document work program.
본 발명의 일 실시예에 의하면, 사용자는, 터치 센서가 구비된 키보드(121)를 마우스처럼 활용할 수 있다. 이를 도 22 내지 도 29를 참조하여 설명한다.According to an embodiment of the present invention, the user may use the keyboard 121 provided with the touch sensor as a mouse. This will be described with reference to FIGS. 22 to 29.
도 22는 본 발명의 일 실시예에 의한 컴퓨팅 장치의 제어 방법의 일례를 설명하기 위한 흐름도이다.22 is a flowchart illustrating an example of a control method of a computing device according to an embodiment of the present invention.
제어부(180)는, 키보드(121)에 포함된 복수의 키 중에서 제1키를 터치하는 제1 핑거(finger), 제2키를 터치하는 제2 핑거 및 제3키를 터치하는 제3 핑거를 적어도 인식한다(S401). 사용자는 마우스(123)를 사용하는 것과 유사하게 키보드(121) 상에 손을 올려놓는 자세를 취하면 된다.The controller 180 may include a first finger touching a first key, a second finger touching a second key, and a third finger touching a third key among a plurality of keys included in the keyboard 121. At least it is recognized (S401). The user may be in a position to put his hand on the keyboard 121 similar to using the mouse 123.
키보드(121) 상에서 제1키는 제2키의 좌측에 위치하고, 제3키는 제2키의 우측에 위치한다. 또한, 키보드(121) 상에서 제2키는 제1키 및 제3키 중 적어도 하나와 동일선 상에 위치하거나, 제1키 및 제3키보다 상부에 위치할 수 있다 또한, 제2키는, 키보드(121)에 포함된 복수의 키 중 터치 입력이 감지된 키들 중에서 최상부에 위치할 수 있다. 또한, 키보드(121) 상에서 제1키와 제3키는 제2키와 각각 인접하여 위치할 수 있다. 여기서, 키보드(121) 상에서 두 개의 키가 인접한다는 의미는, 두 개의 키가 키보드(121) 상에서 일직선, 사선 또는 대각선 상으로 인접하여 위치한다는 의미일 수 있다. 상기 제1 핑거 내지 제3 핑거는 키보드(121)를 사용하는 사용자의 손가락에 대응한다. 실시예에 따라, 하나의 손가락이 인접한 두 개의 키를 동시에 터치하는 경우, 제1키, 제2키 및 제3키 중 적어도 하나는 인접한 두 개의 키를 의미할 수도 있다.On the keyboard 121, the first key is located to the left of the second key, and the third key is located to the right of the second key. In addition, the second key on the keyboard 121 may be located on the same line as at least one of the first key and the third key, or may be positioned above the first key and the third key. Among the plurality of keys included in 121, a touch input may be positioned at the top of the detected keys. In addition, the first key and the third key on the keyboard 121 may be located adjacent to the second key, respectively. Here, the meaning that two keys are adjacent to each other on the keyboard 121 may mean that the two keys are adjacent to each other in a straight line, diagonal line, or diagonal line on the keyboard 121. The first to third fingers correspond to the fingers of a user who uses the keyboard 121. According to an embodiment, when one finger touches two adjacent keys simultaneously, at least one of the first key, the second key, and the third key may mean two adjacent keys.
제어부(180)는, 제1키, 제2키 및 제3키를 각각 터치하는 터치 입력이 감지된 경우, 상기 제1키를 터치하는 제1 핑거를 인식하고, 상기 제2키를 터치하는 제2 핑거를 인식하고 상기 제3키를 터치하는 제3 핑거를 인식할 수 있다. 제어부(180)는 제1키 내지 제3키 이외의 다른 키에서도 터치 입력을 감지할 수 있으나, 제1 핑거 내지 제3 핑거의 인식은 상기 제1키 내지 제3키를 통해서만 이루어질 수 있다.The controller 180 recognizes a first finger touching the first key and touches the second key when a touch input of touching the first key, the second key, and the third key is detected. A second finger may be recognized and a third finger touching the third key may be recognized. The controller 180 may detect a touch input even with keys other than the first to third keys, but recognition of the first to third fingers may be performed only through the first to third keys.
제어부(180)는, 제1 핑거, 제2 핑거 및 제3 핑거의 인식 결과에 기초하여, 화면 상의 제1 영역에 제1 인디케이터를 표시하도록 디스플레이부(151)를 제어한다(S402). The controller 180 controls the display unit 151 to display the first indicator in the first area on the screen based on the recognition result of the first finger, the second finger, and the third finger (S402).
메모리(160)는, 키보드(121) 상의 적어도 일부 영역과 관련된 제1 좌표값 데이터, 디스플레이부(151)의 화면의 전체 영역과 관련된 제2 좌표값 데이터, 및 상기 제1 좌표값 데이터와 상기 제2 좌표값 데이터의 맵핑 데이터를 저장하고 있을 수 있다.The memory 160 may include first coordinate value data related to at least a partial area on the keyboard 121, second coordinate value data related to an entire area of the screen of the display unit 151, and the first coordinate value data and the first coordinate value data. 2 may store mapping data of coordinate data.
제1 인디케이터는, 제1 핑거, 제2 핑거 및 제3 핑거가 인식된 때 디스플레이부(151)의 화면 상의 기 설정된 제1 영역에 표시될 수도 있고, 키보드(121) 상에서 제1키, 제2키 및 제3키 중 적어도 하나와 관련된 제1 좌표값 데이터 및 상기 맵핑 데이터에 기초하여 디스플레이부(151)의 화면 상의 제1 영역에 표시될 수도 있다.The first indicator may be displayed on the preset first area on the screen of the display unit 151 when the first finger, the second finger and the third finger are recognized, and the first key and the second indicator on the keyboard 121. The display apparatus may be displayed on the first area of the screen of the display unit 151 based on the first coordinate value data associated with at least one of the key and the third key and the mapping data.
제어부(180)는, 키보드(121) 상에서 제1 핑거, 제2 피거 및 제3 핑거의 드래깅(dragging)을 인식한다(S403). 예를 들어, 제어부(180)는, 제1키에서 터치 입력이 감지되고, 제1키 및 제1키와 인접한 키에서 동시에 터치 입력이 감지되고, 상기 제1키와 인접한 키에서 터치 입력이 감지된 경우, 상기 제1 핑거의 드래깅을 인식할 수 있다. 이와 마찬가지로, 제어부(180)는, 제2 핑거 및 제3 핑거의 드래깅을 인식할 수 있다. 메모리(160)는 핑거의 드래깅을 인식하는데 필요한 프로그램 또는 어플리케이션을 미리 저장하고 있을 수 있다.The controller 180 recognizes dragging of the first finger, the second pigger, and the third finger on the keyboard 121 (S403). For example, the controller 180 detects a touch input on a first key, simultaneously detects a touch input on a first key and a key adjacent to the first key, and detects a touch input on a key adjacent to the first key. In this case, dragging of the first finger may be recognized. Similarly, the controller 180 can recognize dragging of the second finger and the third finger. The memory 160 may previously store a program or an application necessary for recognizing dragging of the finger.
제어부(180)는, 상기 드래깅에 의한, 제1 핑거, 제2 핑거 및 제3 핑거 중 적어도 하나와 관련된 제1 좌표값 데이터의 변화량을 계산한다(S404). 예를 들어, 제어부(180)는, 제1 핑거, 제2 핑거 및 제3 핑거의 드래깅 전에 키보드(121) 상에서의 제1 핑거의 제1 좌표값 데이터와, 제1 핑거, 제2 핑거 및 제3 핑거의 드래깅 후에 키보드(121) 상에서의 제1 핑거의 제1 좌표값 데이터를 이용하여, 제1 핑거와 관련된 제1 좌표값 데이터의 변화량을 계산할 수 있다.The controller 180 calculates a change amount of first coordinate value data associated with at least one of the first finger, the second finger, and the third finger by the dragging (S404). For example, the controller 180 may include first coordinate value data, a first finger, a second finger, and a first coordinate value data of the first finger on the keyboard 121 before dragging the first finger, the second finger, and the third finger. After dragging the three fingers, the change amount of the first coordinate value data associated with the first finger may be calculated using the first coordinate value data of the first finger on the keyboard 121.
제어부(180)는, 계산된 변화량에 기초하여, 제1 인디케이터를 상기 제1 영역에서 화면 상의 제2 영역으로 이동시켜 표시하도록 디스플레이부(151)를 제어할 수 있다(S405). 예를 들어, 제어부(180)는, 메모리(160)에 저장된 제1 좌표값 데이터와 제2 좌표값 데이터의 맵핑 데이터 및 상기 계산된 변화량에 기초하여, 제1 인디케이터를 상기 제1 영역에서 화면 상의 제2 영역으로 이동시키도록 디스플레이부(151)를 제어할 수 있다. 또는, 제어부(180)는, 제1 핑거, 제2 핑거 및 제3 핑거의 드래깅의 방향 및 상기 계산된 변화량에 기초하여, 제1 인디케이터를 상기 제1 영역에서 화면 상의 제2 영역으로 이동시키도록 디스플레이부(151)를 제어할 수 있다.The controller 180 may control the display unit 151 to move and display the first indicator from the first area to the second area on the screen based on the calculated change amount (S405). For example, the controller 180 may display the first indicator on the screen in the first area based on the mapping data of the first coordinate value data and the second coordinate value data stored in the memory 160 and the calculated change amount. The display unit 151 may be controlled to move to the second area. Alternatively, the controller 180 may move the first indicator from the first area to the second area on the screen based on the dragging direction of the first finger, the second finger, and the third finger and the calculated change amount. The display unit 151 may be controlled.
도 23은 본 발명의 일 실시예에 의한 컴퓨팅 장치의 디스플레이부에 표시되는 화면의 일례를 도시한 도면이다.23 is a diagram illustrating an example of a screen displayed on a display unit of a computing device according to an embodiment of the present invention.
도 23의 (a)를 참조하면, 제어부(180)는, 키보드(121)에 포함된 복수의 키 중에서 제1키를 터치하는 제1 핑거, 제2키를 터치하는 제2 핑거 및 제3키를 터치하는 제3 핑거를 적어도 인식한다.Referring to FIG. 23A, the controller 180 may include a first finger touching a first key, a second finger touching a second key, and a third key among a plurality of keys included in the keyboard 121. Recognize at least the third finger that touches.
터치 입력이 수신되는 키보드(121)를 확대하여 도시한 도 23의 (b)를 참조하면, 제어부(180)는, 제1키인 "T키"를 터치하는 제1 핑거를 인식하고, 제2키인 "Y키" 및 "U키"를 터치하는 제2 핑거를 인식하고, 제3키인 "J키"를 터치하는 제3 핑거를 인식할 수 있다. 제2 핑거가 인접한 두 개의 키를 터치하고 있기 때문에, 제2키는 인접한 두 개의 키인 "Y키" 및 "U키"에 대응될 수 있다. 제어부(180)는, 제1키, 제2키 및 제3키(예를 들어, "T키", "Y키", "U키" 및 "J키") 이외의 키들, 터치 패드(122) 및/또는 하우징(124)을 통해서도 터치 입력을 감지할 수 있으나, 도 22와 관련하여 상술한 조건을 만족하는 제1키, 제2키 및 제3키 이외의 부분에서 감지되는 터치 입력은 무시(ignore)할 수도 있다.Referring to FIG. 23B, which shows an enlarged view of the keyboard 121 in which a touch input is received, the controller 180 recognizes a first finger that touches the “T key”, which is the first key, and recognizes the second key. A second finger touching "Y key" and "U key" may be recognized, and a third finger touching "J key" which is a third key may be recognized. Since the second finger is touching two adjacent keys, the second key may correspond to the two adjacent keys "Y key" and "U key". The controller 180 may include keys other than the first key, the second key, and the third key (for example, “T key”, “Y key”, “U key”, and “J key”), and the touch pad 122. ) And / or the touch input may be sensed through the housing 124, but the touch input detected at a portion other than the first key, the second key, and the third key satisfying the conditions described above with reference to FIG. 22 is ignored. (ignore)
제1 핑거, 제2 핑거 및 제3 핑거가 인식된 경우, 제어부(180)는, 마우스(123)에 의한 사용자 입력이 있는 경우와 유사하게, 제1 인디케이터(I1)를 출력하도록 디스플레이부(151)를 제어할 수 있다. 제1 인디케이터(I1)는, 화면 상의 기 설정된 제1 영역에 디스플레이될 수 있다. 일례로, 상기 제1 영역은 디스플레이부(151)의 화면 상의 중앙 영역일 수 있다.When the first finger, the second finger, and the third finger are recognized, the controller 180 outputs the first indicator I1 similarly to the case where there is a user input by the mouse 123. ) Can be controlled. The first indicator I1 may be displayed on the preset first area on the screen. For example, the first area may be a center area on the screen of the display unit 151.
도 24는 본 발명의 일 실시예에 의한 컴퓨팅 장치의 디스플레이부에 표시되는 화면의 다른 일례를 도시한 도면이다.24 illustrates another example of a screen displayed on a display unit of a computing device according to an embodiment of the present invention.
제어부(180)는, 키보드(121)에 포함된 복수의 키 중에서 제1키를 터치하는 제1 핑거, 제2키를 터치하는 제2 핑거 및 제3키를 터치하는 제3 핑거를 적어도 인식하고, 인식 결과에 기초하여 제1 인디케이터(I1)를 화면 상의 제1 영역에 표시하도록 디스플레이부(151)를 제어한다.The controller 180 recognizes at least a first finger touching a first key, a second finger touching a second key, and a third finger touching a third key among a plurality of keys included in the keyboard 121, The display unit 151 is controlled to display the first indicator I1 in the first area on the screen based on the recognition result.
제어부(180)는, 키보드(121) 상에서 제1키, 제2키 및 제3키 중 적어도 하나와 관련된 제1 좌표값 데이터를 검출하고, 상기 검출된 제1 좌표값 데이터 및 메모리(160)에 저장된 제1 좌표값 데이터와 제2 좌표값 데이터의 맵핑 데이터에 기초하여, 제1 인디케이터(I1)를 화면 상의 제1 영역에 표시하도록 디스플레이부(151)를 제어할 수 있다. 상기 제1 영역은, 키보드(121) 상에서 상기 검출된 제1 좌표값 데이터와 맵핑되는 디스플레이부(151)의 화면 상의 제2 좌표값 데이터와 대응되는 영역일 수 있다. 즉, 사용자가 키보드(121)의 좌측 상부 영역에 손을 위치시킨 경우, 제1 인디케이터(I1)는 디스플레이부(151)의 화면 상의 좌측 상부 영역에 표시될 수 있다.The controller 180 detects first coordinate value data associated with at least one of a first key, a second key, and a third key on the keyboard 121, and detects the first coordinate value data and the memory 160. The display unit 151 may be controlled to display the first indicator I1 in the first area on the screen based on the stored mapping data of the first coordinate value data and the second coordinate value data. The first area may be an area corresponding to the second coordinate value data on the screen of the display unit 151 mapped to the detected first coordinate value data on the keyboard 121. That is, when the user places his hand in the upper left area of the keyboard 121, the first indicator I1 may be displayed in the upper left area on the screen of the display unit 151.
본 발명의 실시예에 의하면, 사용자가 키보드(121) 상에서 손을 이동시키는 경우, 디스플레이부(151)의 화면 상의 제1 인디케이터(I1)가 이에 따라 이동될 수 있다. 이를 도 25를 참조하여 설명한다.According to the exemplary embodiment of the present invention, when the user moves the hand on the keyboard 121, the first indicator I1 on the screen of the display unit 151 may be moved accordingly. This will be described with reference to FIG. 25.
도 25는 본 발명의 일 실시예에 의한 컴퓨팅 장치에서 디스플레이부에 표시되는 화면의 일례를 설명하기 위한 도면이다.25 is a diagram illustrating an example of a screen displayed on a display unit in a computing device according to an embodiment of the present invention.
도 25의 (a)를 참조하면, 제어부(180)는, 키보드(121)에 포함된 복수의 키 중에서 제1키를 터치하는 제1 핑거, 제2키를 터치하는 제2 핑거 및 제3키를 터치하는 제3 핑거를 적어도 인식하고, 인식 결과에 기초하여 제1 인디케이터(I1)를 화면 상의 제1 영역에 표시하도록 디스플레이부(151)를 제어한다.Referring to FIG. 25A, the controller 180 may include a first finger touching a first key, a second finger touching a second key, and a third key among a plurality of keys included in the keyboard 121. The display unit 151 is controlled to recognize at least the third finger touching and display the first indicator I1 in the first area on the screen based on the recognition result.
제어부(180)는, 키보드(121) 상에서 제1 핑거, 제2 피거 및 제3 핑거의 드래깅(dragging)을 인식하고, 인식 결과에 기초하여, 도 25의 (b)에 도시된 바와 같이 제1 인디케이터(I1)를 화면 상의 제1 영역에서 제2 영역으로 이동시키도록 디스플레이부(151)를 제어할 수 있다.The controller 180 recognizes dragging of the first finger, the second pigger, and the third finger on the keyboard 121, and based on the recognition result, the first controller as shown in FIG. 25B. The display unit 151 may be controlled to move the indicator I1 from the first area on the screen to the second area.
제어부(180)는, 상기 드래깅에 의한, 제1 핑거, 제2 핑거 및 제3 핑거 중 적어도 하나와 관련된 제1 좌표값 데이터의 변화량을 계산할 수 있다. 제1 핑거, 제2 핑거 및 제3 핑거 중 적어도 두 개의 핑거 각각의 제1 좌표값 데이터의 변화량은 서로 동일할 수도 있고 서로 상이할 수도 있다. 예를 들어, 제어부(180)는, 제1 핑거, 제2 핑거 및 제3 핑거의 드래깅 전에 키보드(121) 상에서의 제1 핑거의 제1 좌표값 데이터와, 제1 핑거, 제2 핑거 및 제3 핑거의 드래깅 후에 키보드(121) 상에서의 제1 핑거의 제1 좌표값 데이터를 이용하여, 제1 핑거와 관련된 제1 좌표값 데이터의 변화량을 계산할 수 있다.The controller 180 may calculate a change amount of first coordinate value data associated with at least one of the first finger, the second finger, and the third finger by the dragging. The amount of change in the first coordinate value data of each of the at least two fingers of the first, second and third fingers may be the same as or different from each other. For example, the controller 180 may include first coordinate value data, a first finger, a second finger, and a first coordinate value data of the first finger on the keyboard 121 before dragging the first finger, the second finger, and the third finger. After dragging the three fingers, the change amount of the first coordinate value data associated with the first finger may be calculated using the first coordinate value data of the first finger on the keyboard 121.
제어부(180)는, 메모리(160)에 저장된 제1 좌표값 데이터와 제2 좌표값 데이터의 맵핑 데이터 및 상기 계산된 변화량에 기초하여, 제1 인디케이터(I1)를 상기 제1 영역에서 화면 상의 제2 영역으로 이동시키도록 디스플레이부(151)를 제어할 수 있다. 또는, 제어부(180)는, 제1 핑거, 제2 핑거 및 제3 핑거의 드래깅의 방향 및 상기 계산된 변화량에 기초하여, 제1 인디케이터(I1)를 상기 제1 영역에서 화면 상의 제2 영역으로 이동시키도록 디스플레이부(151)를 제어할 수 있다.The controller 180 may display the first indicator I1 on the screen in the first area based on the mapping data of the first coordinate value data and the second coordinate value data stored in the memory 160 and the calculated change amount. The display unit 151 may be controlled to move to two areas. Alternatively, the controller 180 may move the first indicator I1 from the first area to the second area on the screen based on the dragging direction of the first finger, the second finger, and the third finger and the calculated change amount. The display unit 151 may be controlled to move.
일례로, 상기 제1 좌표값 데이터의 변화량 계산의 대상이 되는 핑거가 키보드(121) 상에서 이동한 거리는, 제1 인디케이터(I1)가 디스플레이부(151)의 화면 상의 제1 영역에서 제2 영역으로 이동한 거리보다 짧을 수도 있다.For example, the distance that the finger, which is the target of the change amount of the first coordinate value data, moved on the keyboard 121 is changed from the first area on the screen of the display unit 151 to the second area by the first indicator I1. It may be shorter than the distance traveled.
한편, 본 발명의 일 실시예에 의하면, 사용자는 키보드(121) 상에 손을 위치시킨 상태에서 검지 손가락으로 키보드(121)를 탭(tap) 함으로써 소정의 사용자 명령을 입력할 수 있다. 이를 도 26 내지 도 29를 참조하여 설명한다. 도 26 내지 도 29는 도 23 및 도 24와 관련하여 상술한 바와 같이 핑거의 인식 및 제1 인디케이터(I1)의 표시가 이루어지고 도 25와 관련하여 상술한 바와 같이 핑거의 드래깅 인식 및 제1 인디케이터의 이동이 이루어진 후의 예시일 수 있다. 또한, 일례로, 도 26 및 도 27은 마우스(123)의 왼쪽 버튼을 클릭했을 때와 유사한 예시를 도시한 것이고 도 28 및 도 29는 마우스(123)의 오른쪽 버튼을 클릭했을 때와 유사한 예시를 도시한 것이다.Meanwhile, according to an exemplary embodiment of the present invention, the user may input a predetermined user command by tapping the keyboard 121 with the index finger while the hand is positioned on the keyboard 121. This will be described with reference to FIGS. 26 to 29. 26 to 29 show recognition of the finger and display of the first indicator I1 as described above with reference to FIGS. 23 and 24, and dragging recognition and the first indicator of the finger as described above with reference to FIG. 25. It may be an example after the movement of. Also, as an example, FIGS. 26 and 27 show examples similar to when the left button of the mouse 123 is clicked, and FIGS. 28 and 29 show examples similar to when the right button of the mouse 123 is clicked. It is shown.
도 26은 본 발명의 일 실시예에 의한 컴퓨팅 장치의 디스플레이부에 표시되는 화면의 일례를 도시한 도면이다.FIG. 26 illustrates an example of a screen displayed on a display unit of a computing device according to an embodiment of the present disclosure.
제어부(180)는, 제1 핑거, 제2 핑거 및 제3 핑거의 드래깅에 의해 제1 핑거가 위치하게 되는 키보드(121) 상의 제1 영역에서, 제1 핑거가 상기 키보드(121) 상의 제1 영역을 1회 탭하는 제1 터치 입력을 감지한다. 그리고, 제어부(180)는, 상기 감지된 제1 터치 입력에 따라, 제1 핑거, 제2 핑거 및 제3 핑거의 드래깅에 의해 제1 인디케이터(I1)가 위치하는 디스플레이부(151)의 화면 상의 제2 영역과 대응되는 특정 기능을 실행할 수 있다. 일례로, 특정 기능의 실행이란, 디스플레이부(151)의 화면에서 작업 표시줄을 제외한 영역에 특정 프로그램의 실행 화면이 디스플레이되어 있고 제1 인디케이터(I1)가 상기 특정 프로그램의 실행 화면에서 특정 기능의 메뉴 옵션 상에 위치해 있는 경우 상기 특정 기능의 실행을 의미할 수도 있고, 제1 인디케이터(I1)가 디스플레이부(151)의 화면에서 작업 표시줄 영역에 포함된 특정 기능의 메뉴 옵션 상에 위치해 있는 경우 상기 특정 기능의 실행을 의미할 수도 있고, 제1 인디케이터(I1)가 디스플레이부(151)의 바탕 화면에 표시된 특정 파일에 대응하는 메뉴 아이콘 상에 위치해 있는 경우 상기 메뉴 아이콘을 하이라이트하는 기능을 의미할 수도 있다. The controller 180 may include a first finger on the keyboard 121 in a first area on the keyboard 121 where the first finger is positioned by dragging the first, second, and third fingers. A first touch input of tapping an area once is detected. In addition, the controller 180 may display the screen on the screen of the display unit 151 on which the first indicator I1 is located by dragging the first finger, the second finger, and the third finger according to the detected first touch input. The specific function corresponding to the second area may be executed. For example, the execution of a specific function means that an execution screen of a specific program is displayed on an area of the screen of the display unit 151 except for a task bar, and the first indicator I1 is displayed on the execution screen of the specific program. When located on a menu option may mean execution of the specific function, or when the first indicator I1 is located on a menu option of a specific function included in the task bar area on the screen of the display unit 151. It may mean execution of the specific function, or when the first indicator I1 is located on a menu icon corresponding to a specific file displayed on the desktop of the display unit 151, it may mean a function of highlighting the menu icon. It may be.
예를 들어, 도 26의 (a)를 참조하면, 사용자는 키보드(121) 상에서 손을 이동시켜서 제1 인디케이터(I1)를 바탕 화면(410) 상의 "시작" 메뉴 옵션(211)에 위치시킨 후 검지 손가락(제1 핑거)으로 키보드(121)를 1회 탭 할 수 있다. 제어부(180)는, 제1 핑거, 제2 핑거 및 제3 핑거의 드래깅에 의해 제1 핑거가 위치하게 되는 키보드(121) 상의 제1 영역에서, 제1 핑거가 상기 키보드(121) 상의 제1 영역을 1회 탭하는 제1 터치 입력을 감지한다. For example, referring to FIG. 26A, the user moves his hand on the keyboard 121 to place the first indicator I1 at the “Start” menu option 211 on the desktop 410. The keyboard 121 can be tapped once with the index finger (first finger). The controller 180 may include a first finger on the keyboard 121 in a first area on the keyboard 121 where the first finger is positioned by dragging the first, second, and third fingers. A first touch input of tapping an area once is detected.
그리고, 도 26의 (b)에 도시된 바와 같이, 제1 핑거, 제2 핑거 및 제3 핑거의 드래깅에 의해 제1 인디케이터(I1)가 위치하는 디스플레이부(151)의 바탕 화면(410) 상의 "시작" 메뉴 옵션(411)에 대응하는 기능을 실행할 수 있다. 제어부(180)는, "시작" 메뉴 옵션(411)에 대응하는 기능의 실행 결과인 GUI(412)를 디스플레이하도록 디스플레이부(151)를 제어할 수 있다.And, as shown in (b) of FIG. 26, on the desktop 410 of the display unit 151 on which the first indicator (I1) is located by dragging the first finger, the second finger and the third finger. A function corresponding to the "start" menu option 411 may be executed. The controller 180 may control the display unit 151 to display the GUI 412 that is a result of executing the function corresponding to the “start” menu option 411.
도 27은 본 발명의 일 실시예에 의한 컴퓨팅 장치의 디스플레이부에 표시되는 화면의 다른 일례를 도시한 도면이다.27 illustrates another example of a screen displayed on a display unit of a computing device according to an embodiment of the present invention.
제어부(180)는, 제1 핑거, 제2 핑거 및 제3 핑거의 드래깅에 의해 제1 핑거가 위치하게 되는 키보드(121) 상의 제1 영역에서, 제1 핑거가 상기 키보드(121) 상의 제1 영역을 기 설정된 시간 내에 2회 탭하는 제2 터치 입력을 감지한다. 그리고, 제어부(180)는, 상기 감지된 제2 터치 입력에 따라, 제1 핑거, 제2 핑거 및 제3 핑거의 드래깅에 의해 제1 인디케이터(I1)가 위치하는 디스플레이부(151)의 화면 상의 제2 영역과 대응되는 특정 기능을 실행할 수 있다. 일례로, 특정 기능의 실행이란, 제1 인디케이터(I1)가 디스플레이부(151)의 바탕 화면에 표시된 특정 파일 상에 위치해 있는 경우 상기 특정 파일의 실행을 의미할 수도 있고, 디스플레이부(151)의 화면에서 작업 표시줄을 제외한 영역에 문서 작업 프로그램의 실행 화면이 디스플레이되어 있고 제1 인디케이터(I1)가 상기 문서 작업 프로그램의 실행 화면에 포함된 텍스트 상에 위치해 있는 경우 제1 인디케이터(I1)가 위치하는 텍스트의 일부를 하이라이트하는 기능을 의미할 수도 있다.The controller 180 may include a first finger on the keyboard 121 in a first area on the keyboard 121 where the first finger is positioned by dragging the first, second, and third fingers. A second touch input of tapping the area twice within a preset time is sensed. In addition, the controller 180 may display a screen on the screen of the display unit 151 in which the first indicator I1 is located by dragging the first finger, the second finger, and the third finger according to the detected second touch input. The specific function corresponding to the second area may be executed. For example, execution of a specific function may mean execution of the specific file when the first indicator I1 is located on a specific file displayed on the desktop of the display unit 151, or the execution of the display unit 151. When the execution screen of the document work program is displayed in an area except the task bar on the screen and the first indicator I1 is located on the text included in the execution screen of the document work program, the first indicator I1 is positioned. This may mean a function of highlighting a part of the text.
예를 들어, 도 27의 (a)를 참조하면, 사용자는 키보드(121) 상에서 손을 이동시켜서 제1 인디케이터(I1)를 바탕 화면(410) 상의 특정 파일에 대응하는 메뉴 아이콘(421)에 위치시킨 후 검지 손가락(제1 핑거)으로 키보드(121)를 빠르게 2회 탭 할 수 있다. 제어부(180)는, 제1 핑거, 제2 핑거 및 제3 핑거의 드래깅에 의해 제1 핑거가 위치하게 되는 키보드(121) 상의 제1 영역에서, 제1 핑거가 상기 키보드(121) 상의 제1 영역을 기 설정된 시간 내에 2회 탭 하는 제2 터치 입력을 감지한다.For example, referring to FIG. 27A, the user moves his or her hand on the keyboard 121 to position the first indicator I1 on the menu icon 421 corresponding to a specific file on the desktop 410. After tapping, the keyboard 121 can be quickly tapped twice with the index finger (first finger). The controller 180 may include a first finger on the keyboard 121 in a first area on the keyboard 121 where the first finger is positioned by dragging the first, second, and third fingers. A second touch input of tapping the area twice within a preset time is sensed.
그리고, 도 27의 (b)에 도시된 바와 같이, 제1 핑거, 제2 핑거 및 제3 핑거의 드래깅에 의해 제1 인디케이터(I1)가 위치하는 디스플레이부(151)의 바탕 화면(410) 상의 메뉴 아이콘(421)에 대응하는 특정 파일을 실행할 수 있다. 제어부(180)는, 상기 특정 파일의 실행 결과에 대응하는 화면(422)을 디스플레이하도록 디스플레이부(151)를 제어할 수 있다.And, as shown in (b) of FIG. 27, on the desktop 410 of the display unit 151 on which the first indicator (I1) is located by dragging the first, second and third fingers. The specific file corresponding to the menu icon 421 may be executed. The controller 180 may control the display unit 151 to display the screen 422 corresponding to the execution result of the specific file.
도 28은 본 발명의 일 실시예에 의한 컴퓨팅 장치의 디스플레이부에 표시되는 화면의 또 다른 일례를 도시한 도면이다.FIG. 28 is a diagram illustrating still another example of a screen displayed on a display unit of a computing device according to an embodiment of the present invention.
제어부(180)는, 제1 핑거, 제2 핑거 및 제3 핑거의 드래깅에 의해 제2 핑거가 위치하게 되는 키보드(121) 상의 제2 영역에서, 제2 핑거가 상기 키보드(121) 상의 제2 영역을 1회 탭하는 제3 터치 입력을 감지한다. 제어부(180)는, 상기 제3 터치 입력이 감지된 때 디스플레이부(151)에 출력된 화면을 감지하고, 상기 감지된 화면에 기초하여 상기 제3 터치 입력에 대응되는 특정 기능을 실행할 수 있다. 일례로, 특정 기능의 실행이란, 제1 인디케이터(I1)가 디스플레이부(151)의 바탕 화면의 빈 공간에 위치한 경우 상기 바탕 화면과 관련된 기능의 목록을 포함하는 GUI의 출력을 의미할 수도 있고, 제1 인디케이터(I1)가 디스플레이부(151)의 바탕 화면에 표시된 특정 파일 상에 위치해 있는 경우 상기 특정 파일과 관련된 기능의 목록을 포함하는 GUI의 출력을 의미할 수도 있고, 디스플레이부(151)의 화면에서 작업 표시줄을 제외한 영역에 특정 프로그램의 실행 화면이 디스플레이되어 있고 제1 인디케이터(I1)가 상기 특정 프로그램의 실행 화면에 위치한 경우 상기 특정 프로그램과 관련된 기능의 목록을 포함하는 GUI의 출력을 의미할 수도 있다.The controller 180 may include a second finger on the keyboard 121 in a second area on the keyboard 121 where the second finger is located by dragging the first finger, the second finger, and the third finger. A third touch input of tapping the area once is detected. The controller 180 may detect a screen output on the display unit 151 when the third touch input is detected, and execute a specific function corresponding to the third touch input based on the detected screen. For example, execution of a specific function may mean an output of a GUI including a list of functions related to the desktop when the first indicator I1 is located in an empty space of the desktop of the display unit 151, When the first indicator I1 is located on a specific file displayed on the desktop of the display unit 151, the first indicator I1 may mean an output of a GUI including a list of functions related to the specific file. When an execution screen of a specific program is displayed in an area except the task bar on the screen and the first indicator I1 is located on the execution screen of the specific program, it means an output of a GUI including a list of functions related to the specific program. You may.
예를 들어, 도 28의 (a)를 참조하면, 사용자는 키보드(121) 상에서 손을 이동시켜서 제1 인디케이터(I1)를 바탕 화면(410)의 빈 공간에 위치시킨 후 중지 손가락(제2 핑거)으로 키보드(121)를 1회 탭 할 수 있다. 제어부(180)는, 제1 핑거, 제2 핑거 및 제3 핑거의 드래깅에 의해 제2 핑거가 위치하게 되는 키보드(121) 상의 제2 영역에서, 제2 핑거가 상기 키보드(121) 상의 제2 영역을 1회 탭하는 제3 터치 입력을 감지한다.For example, referring to FIG. 28A, the user moves his hand on the keyboard 121 to place the first indicator I1 in an empty space of the desktop 410 and then stops (second finger). Can tap the keyboard 121 once. The controller 180 may include a second finger on the keyboard 121 in a second area on the keyboard 121 where the second finger is located by dragging the first finger, the second finger, and the third finger. A third touch input of tapping the area once is detected.
상기 제3 터치 입력이 감지된 때, 제어부(180)는, 디스플레이부(151)에 출력된 화면이 바탕 화면(410)임을 감지하고, 도 28의 (b)에 도시된 바와 같이, 제1 핑거, 제2 핑거 및 제3 핑거의 드래깅에 의해 제1 인디케이터(I1)가 위치하는 디스플레이부(151)의 바탕 화면(410)의 빈 공간에, 바탕 화면(410)과 관련된 기능의 목록을 포함하는 GUI(431)를 출력하도록 디스플레이부(151)를 제어할 수 있다.When the third touch input is detected, the controller 180 detects that the screen output on the display unit 151 is the desktop screen 410, and as shown in FIG. 28B, the first finger And a list of functions related to the desktop 410 in an empty space of the desktop 410 of the display unit 151 where the first indicator I1 is located by dragging the second finger and the third finger. The display unit 151 may be controlled to output the GUI 431.
도 29는 본 발명의 일 실시예에 의한 컴퓨팅 장치의 디스플레이부에 표시되는 화면의 또 다른 일례를 도시한 도면이다. 도 28과 관련하여 상술한 것과 중복되는 내용은 다시 설명하지 않는다.29 is a diagram illustrating still another example of a screen displayed on a display unit of a computing device according to an embodiment of the present invention. Contents overlapping with those described above with reference to FIG. 28 will not be described again.
도 29의 (a)를 참조하면, 사용자는 키보드(121) 상에서 손을 이동시켜서 제1 인디케이터(I1)를 디스플레이부(151)의 화면 상의 소정 영역에 위치시킨 후 중지 손가락(제2 핑거)으로 키보드(121)를 1회 탭 할 수 있다. 제어부(180)는, 제1 핑거, 제2 핑거 및 제3 핑거의 드래깅에 의해 제2 핑거가 위치하게 되는 키보드(121) 상의 제2 영역에서, 제2 핑거가 상기 키보드(121) 상의 제2 영역을 1회 탭하는 제3 터치 입력을 감지한다.Referring to FIG. 29A, the user moves his or her hand on the keyboard 121 to place the first indicator I1 in a predetermined area on the screen of the display unit 151 and then with the middle finger (second finger). The keyboard 121 can be tapped once. The controller 180 may include a second finger on the keyboard 121 in a second area on the keyboard 121 where the second finger is located by dragging the first finger, the second finger, and the third finger. A third touch input of tapping the area once is detected.
상기 제3 터치 입력이 감지된 때, 제어부(180)는, 디스플레이부(151)에 출력된 화면이 특정 프로그램의 실행 화면(440)임을 감지하고, 도 29의 (b)에 도시된 바와 같이, 제1 핑거, 제2 핑거 및 제3 핑거의 드래깅에 의해 제1 인디케이터(I1)가 위치하는 디스플레이부(151)의 소정 영역에, 상기 특정 프로그램과 관련된 기능의 목록을 포함하는 GUI(441)를 출력하도록 디스플레이부(151)를 제어할 수 있다.When the third touch input is detected, the controller 180 detects that the screen output on the display unit 151 is the execution screen 440 of a specific program, and as shown in FIG. 29B, In a predetermined area of the display unit 151 where the first indicator I1 is located by dragging the first finger, the second finger, and the third finger, a GUI 441 including a list of functions related to the specific program is provided. The display unit 151 may be controlled to output.
한편, 본 발명의 일 실시예에 의하면, 사용자는, 터치 센서가 구비된 키보드(121)를 터치 패드(122)처럼 활용할 수 있다. 이를 도 30 내지 도 32를 참조하여 설명한다.Meanwhile, according to one embodiment of the present invention, the user may use the keyboard 121 provided with the touch sensor as the touch pad 122. This will be described with reference to FIGS. 30 to 32.
도 30은 본 발명의 일 실시예에 의한 컴퓨팅 장치의 제어 방법의 다른 일례를 설명하기 위한 흐름도이다.30 is a flowchart for explaining another example of a control method of a computing device according to an exemplary embodiment.
제어부(180)는, 키보드(121)에 포함된 복수의 키 중에서 제1키를 터치하는 제1 핑거를 인식한다(S501). 사용자는 터치 패드(122)를 사용하는 것과 유사하게 키보드(121) 상에 하나의 손가락을 올려놓는 자세를 취하면 된다. 상기 제1키는 키보드(121)에 포함된 복수의 키 중 임의의 키일 수 있다. 실시예에 따라, 하나의 손가락이 인접한 두 개의 키를 동시에 터치하는 경우, 상기 제1키는 인접한 두 개의 키를 의미할 수도 있다. 제어부(180)는 제1키를 터치하는 터치 입력이 감지된 경우, 상기 제1키를 터치하는 제1 핑거를 인식할 수 있다. The controller 180 recognizes a first finger touching a first key among a plurality of keys included in the keyboard 121 (S501). The user may take a posture of placing one finger on the keyboard 121 similarly to using the touch pad 122. The first key may be any key among a plurality of keys included in the keyboard 121. According to an embodiment, when one finger touches two adjacent keys simultaneously, the first key may mean two adjacent keys. If a touch input of touching the first key is detected, the controller 180 may recognize a first finger touching the first key.
제어부(180)는, 제1 핑거의 인식 결과에 기초하여, 화면 상의 제1 영역에 제2 인디케이터를 표시하도록 디스플레이부(151)를 제어한다(S502). The controller 180 controls the display unit 151 to display the second indicator in the first area on the screen based on the recognition result of the first finger (S502).
메모리(160)는, 키보드(121) 상의 적어도 일부 영역과 관련된 제1 좌표값 데이터, 디스플레이부(151)의 화면의 전체 영역과 관련된 제2 좌표값 데이터, 및 상기 제1 좌표값 데이터와 상기 제2 좌표값 데이터의 맵핑 데이터를 저장하고 있을 수 있다.The memory 160 may include first coordinate value data related to at least a partial area on the keyboard 121, second coordinate value data related to an entire area of the screen of the display unit 151, and the first coordinate value data and the first coordinate value data. 2 may store mapping data of coordinate data.
제2 인디케이터는, 제1 핑거가 인식된 때 디스플레이부(151)의 화면 상의 기 설정된 제1 영역에 표시될 수도 있고, 키보드(121) 상에서 상기 제1키와 관련된 제1 좌표값 데이터 및 상기 맵핑 데이터에 기초하여 디스플레이부(151)의 화면 상의 제1 영역에 표시될 수도 있다.The second indicator may be displayed on the preset first area on the screen of the display unit 151 when the first finger is recognized, and the first coordinate value data and the mapping associated with the first key on the keyboard 121. It may be displayed in the first area on the screen of the display unit 151 based on the data.
제어부(180)는, 키보드(121) 상에서 제1 핑거의 드래깅을 인식한다(S503). 예를 들어, 제어부(180)는, 제1키에서 터치 입력이 감지되고, 제1키 및 제1키와 인접한 키에서 동시에 터치 입력이 감지되고, 상기 제1키와 인접한 키에서 터치 입력이 감지된 경우, 상기 제1 핑거의 드래깅을 인식할 수 있다. 메모리(160)는 핑거의 드래깅을 인식하는데 필요한 프로그램 또는 어플리케이션을 미리 저장하고 있을 수 있다.The controller 180 recognizes dragging of the first finger on the keyboard 121 (S503). For example, the controller 180 detects a touch input on a first key, simultaneously detects a touch input on a first key and a key adjacent to the first key, and detects a touch input on a key adjacent to the first key. In this case, dragging of the first finger may be recognized. The memory 160 may previously store a program or an application necessary for recognizing dragging of the finger.
제어부(180)는, 상기 드래깅에 의한, 제1 핑거와 관련된 제1 좌표값 데이터의 변화량을 계산한다(S504). 예를 들어, 제어부(180)는, 제1 핑거의 드래깅 전에 키보드(121) 상에서의 제1 핑거의 제1 좌표값 데이터와 제1 핑거의 드래깅 후에 키보드(121) 상에서의 제1 핑거의 제1 좌표값 데이터를 이용하여, 제1 핑거와 관련된 제1 좌표값 데이터의 변화량을 계산할 수 있다.The controller 180 calculates an amount of change of the first coordinate value data related to the first finger by the dragging (S504). For example, the controller 180 may include the first coordinate value data of the first finger on the keyboard 121 before dragging the first finger and the first of the first finger on the keyboard 121 after dragging the first finger. By using the coordinate value data, a change amount of the first coordinate value data related to the first finger may be calculated.
제어부(180)는, 계산된 변화량에 기초하여, 제2 인디케이터를 상기 제1 영역에서 화면 상의 제2 영역으로 이동시켜 표시하도록 디스플레이부(151)를 제어할 수 있다(S505). 예를 들어, 메모리(160)에 저장된 제1 좌표값 데이터와 제2 좌표값 데이터의 맵핑 데이터 및 상기 계산된 변화량에 기초하여, 제2 인디케이터를 상기 제1 영역에서 화면 상의 제2 영역으로 이동시키도록 디스플레이부(151)를 제어할 수 있다. 또는, 제어부(180)는, 제1 핑거의 드래깅의 방향 및 상기 계산된 변화량에 기초하여, 제2 인디케이터를 상기 제1 영역에서 화면 상의 제2 영역으로 이동시키도록 디스플레이부(151)를 제어할 수 있다. The controller 180 may control the display unit 151 to move and display the second indicator from the first area to the second area on the screen based on the calculated change amount (S505). For example, based on the mapping data of the first coordinate value data and the second coordinate value data stored in the memory 160 and the calculated change amount, the second indicator is moved from the first area to the second area on the screen. The display unit 151 may be controlled. Alternatively, the controller 180 may control the display unit 151 to move the second indicator from the first area to the second area on the screen based on the dragging direction of the first finger and the calculated change amount. Can be.
도 31은 본 발명의 일 실시예에 의한 컴퓨팅 장치의 디스플레이부에 표시되는 화면의 일례를 도시한 도면이다.FIG. 31 illustrates an example of a screen displayed on a display unit of a computing device according to an embodiment of the present disclosure.
제어부(180)는, 키보드(121)에 포함된 복수의 키 중에서 제1키를 터치하는 제1 핑거를 인식한다. 그리고, 제어부(180)는, 터치 패드(122)에 의한 사용자 입력이 있는 경우와 유사하게, 제2 인디케이터(I2)를 출력하도록 디스플레이부(151)를 제어할 수 있다. The controller 180 recognizes a first finger touching a first key among a plurality of keys included in the keyboard 121. The controller 180 may control the display unit 151 to output the second indicator I2 similarly to the case where the user input by the touch pad 122 is performed.
제2 인디케이터(I2)는, 화면 상의 기 설정된 제1 영역에 디스플레이될 수 있다. 일례로, 상기 제1 영역은 디스플레이부(151)의 화면 상의 중앙 영역일 수 있다. The second indicator I2 may be displayed on the preset first area on the screen. For example, the first area may be a center area on the screen of the display unit 151.
또는, 도시하지는 않았으나, 제어부(180)는, 키보드(121) 상에서 제1키와 관련된 제1 좌표값 데이터를 검출하고, 상기 검출된 제1 좌표값 데이터 및 메모리(160)에 저장된 제1 좌표값 데이터와 제2 좌표값 데이터의 맵핑 데이터에 기초하여, 제2 인디케이터(I2)를 화면 상의 제1 영역에 표시하도록 디스플레이부(151)를 제어할 수도 있다. 상기 제1 영역은, 키보드(121) 상에서 상기 검출된 제1 좌표값 데이터와 맵핑되는 디스플레이부(151)의 화면 상의 제2 좌표값 데이터와 대응되는 영역일 수 있다. 즉, 사용자가 키보드(121)의 좌측 상부 영역에 손가락을 위치시킨 경우, 제2 인디케이터(I2)는 디스플레이부(151)의 화면 상의 좌측 상부 영역에 표시될 수 있다.Alternatively, although not illustrated, the controller 180 detects first coordinate value data related to the first key on the keyboard 121, and detects the detected first coordinate value data and the first coordinate value stored in the memory 160. The display unit 151 may be controlled to display the second indicator I2 in the first area on the screen based on the mapping data of the data and the second coordinate value data. The first area may be an area corresponding to the second coordinate value data on the screen of the display unit 151 mapped to the detected first coordinate value data on the keyboard 121. That is, when the user places a finger on the upper left area of the keyboard 121, the second indicator I2 may be displayed on the upper left area of the screen of the display unit 151.
제2 인디케이터(I2)는 제1 인디케이터(I1)와 모양, 크기, 색깔 및 투명도 중 적어도 하나가 상이할 수 있다.At least one of the shape, size, color, and transparency of the second indicator I2 may be different from that of the first indicator I1.
본 발명의 실시예에 의하면, 사용자가 키보드(121) 상에서 손가락을 이동시키는 경우, 디스플레이부(151)의 화면 상의 제2 인디케이터(I2)가 이를 따라 이동될 수 있다. 이를 도 32를 참조하여 설명한다.According to the exemplary embodiment of the present invention, when the user moves a finger on the keyboard 121, the second indicator I2 on the screen of the display unit 151 may be moved accordingly. This will be described with reference to FIG. 32.
도 32는 본 발명의 일 실시예에 의한 컴퓨팅 장치에서 디스플레이부에 표시되는 화면의 일례를 설명하기 위한 도면이다.32 is a diagram illustrating an example of a screen displayed on a display unit in a computing device according to an embodiment of the present invention.
도 32의 (a)를 참조하면, 제어부(180)는, 키보드(121)에 포함된 복수의 키 중에서 제1키를 터치하는 제1 핑거를 인식하고, 인식 결과에 기초하여 제2 인디케이터(I2)를 화면 상의 제1 영역에 표시하도록 디스플레이부(151)를 제어한다.Referring to FIG. 32A, the controller 180 recognizes a first finger touching a first key among a plurality of keys included in the keyboard 121 and based on the recognition result, the second indicator I2. ) Is displayed on the screen to control the display unit 151.
제어부(180)는, 키보드(121) 상에서 제1 핑거의 드래깅을 인식하고, 인식 결과에 기초하여, 도 32의 (b)에 도시된 바와 같이 제2 인디케이터(I2)를 화면 상의 제1 영역에서 제2 영역으로 이동시키도록 디스플레이부(151)를 제어할 수 있다.The controller 180 recognizes the dragging of the first finger on the keyboard 121, and based on the recognition result, the controller 180 displays the second indicator I2 in the first area on the screen as shown in FIG. 32B. The display unit 151 may be controlled to move to the second area.
제어부(180)는, 상기 드래깅에 의한, 제1 핑거와 관련된 제1 좌표값 데이터의 변화량을 계산할 수 있다. 예를 들어, 제어부(180)는, 제1 핑거의 드래깅 전에 키보드(121) 상에서의 제1 핑거의 제1 좌표값 데이터와 제1 핑거의 드래깅 후에 키보드(121) 상에서의 제1 핑거의 제1 좌표값 데이터를 이용하여, 제1 핑거와 관련된 제1 좌표값 데이터의 변화량을 계산할 수 있다.The controller 180 may calculate a change amount of first coordinate value data related to the first finger by the dragging. For example, the controller 180 may include the first coordinate value data of the first finger on the keyboard 121 before dragging the first finger and the first of the first finger on the keyboard 121 after dragging the first finger. By using the coordinate value data, a change amount of the first coordinate value data related to the first finger may be calculated.
제어부(180)는, 메모리(160)에 저장된 제1 좌표값 데이터와 제2 좌표값 데이터의 맵핑 데이터 및 상기 계산된 변화량에 기초하여, 제2 인디케이터(I2)를 상기 제1 영역에서 화면 상의 제2 영역으로 이동시키도록 디스플레이부(151)를 제어할 수 있다. 또는, 제어부(180)는, 제1 핑거의 드래깅의 방향 및 및 상기 계산된 변화량에 기초하여, 제2 인디케이터(I2)를 상기 제1 영역에서 화면 상의 제2 영역으로 이동시키도록 디스플레이부(151)를 제어할 수 있다.The controller 180 may display the second indicator I2 on the screen in the first area based on the mapping data of the first coordinate value data and the second coordinate value data stored in the memory 160 and the calculated change amount. The display unit 151 may be controlled to move to two areas. Alternatively, the controller 180 may move the second indicator I2 from the first area to the second area on the screen based on the dragging direction of the first finger and the calculated change amount. ) Can be controlled.
일례로, 제1 핑거가 키보드(121) 상에서 이동한 거리는, 제2 인디케이터(I2)가 디스플레이부(151)의 화면 상의 제1 영역에서 제2 영역으로 이동한 거리보다 짧을 수도 있다. For example, the distance that the first finger moves on the keyboard 121 may be shorter than the distance that the second indicator I2 moves from the first area on the screen of the display unit 151 to the second area.
본 실시예에 의하면, 사용자는 키보드(121) 상에 손가락을 위치시킨 상태에서 제1 핑거로 키보드(121)를 탭 함으로써 소정의 사용자 명령을 입력할 수 있다. 이는 도 26 및 도 27과 관련하여 상술한 바와 유사하므로 이에 대한 자세한 설명은 생략한다.According to the present exemplary embodiment, the user may input a predetermined user command by tapping the keyboard 121 with the first finger while the finger is positioned on the keyboard 121. Since this is similar to that described above with reference to FIGS. 26 and 27, a detailed description thereof will be omitted.
한편, 본 발명의 일 실시예에 의하면, 사용자는, 터치 센서가 구비된 키보드(121)를 이용하여 디스플레이부(151)의 화면을 가상적으로 분할하거나 화면을 스크롤할 수도 있다. 이를 도 33 내지 도 38을 참조하여 설명한다.Meanwhile, according to an exemplary embodiment of the present invention, the user may virtually divide the screen of the display unit 151 or scroll the screen using the keyboard 121 provided with the touch sensor. This will be described with reference to FIGS. 33 to 38.
도 33은 본 발명의 일 실시예에 의한 컴퓨팅 장치의 제어 방법의 또 다른 일례를 설명하기 위한 흐름도이다.33 is a flowchart illustrating still another example of a control method of a computing device according to an embodiment of the present invention.
제어부(180)는, 키보드(121)에 포함된 복수의 키 중에서 제1키를 터치하는 제1 핑거 및 제2키를 터치하는 제2 핑거를 인식한다(S601). The controller 180 recognizes a first finger touching a first key and a second finger touching a second key among a plurality of keys included in the keyboard 121 (S601).
제1키와 제2키는 키보드(121) 상에서 서로 인접하여 위치할 수 있고, 제1키는 제2키와 동일선 상에 위치하거나 제2키보다 하부에 위치할 수 있다. 여기서, 키보드(121) 상에서 두 개의 키가 인접한다는 의미는, 두 개의 키가 키보드(121) 상에서 일직선, 사선 또는 대각선 상으로 인접하여 위치한다는 의미일 수 있다. 실시예에 따라, 하나의 손가락이 인접한 두 개의 키를 동시에 터치하는 경우, 제1키 및 제2키 중 적어도 하나는 인접한 두 개의 키를 의미할 수도 있다.The first key and the second key may be located adjacent to each other on the keyboard 121, and the first key may be located on the same line as the second key or be lower than the second key. Here, the meaning that two keys are adjacent to each other on the keyboard 121 may mean that the two keys are adjacent to each other in a straight line, diagonal line, or diagonal line on the keyboard 121. According to an embodiment, when one finger simultaneously touches two adjacent keys, at least one of the first key and the second key may mean two adjacent keys.
제어부(180)는, 제1키 및 제2키를 각각 터치하는 터치 입력이 감지된 경우, 상기 제1키를 터치하는 제1 핑거를 인식하고, 상기 제2키를 터치하는 제2 핑거를 인식할 수 있다. The controller 180 recognizes a first finger that touches the first key and recognizes a second finger that touches the second key when a touch input of touching the first key and the second key, respectively, is detected. can do.
메모리(160)는, 키보드(121) 상의 적어도 일부 영역과 관련된 제1 좌표값 데이터, 디스플레이부(151)의 화면의 전체 영역과 관련된 제2 좌표값 데이터, 및 상기 제1 좌표값 데이터와 상기 제2 좌표값 데이터의 맵핑 데이터를 저장하고 있을 수 있다.The memory 160 may include first coordinate value data related to at least a partial area on the keyboard 121, second coordinate value data related to an entire area of the screen of the display unit 151, and the first coordinate value data and the first coordinate value data. 2 may store mapping data of coordinate data.
제어부(180)는, 키보드(121) 상에서 제1 핑거 및 제2 핑거의 드래깅을 인식한다(S602). 예를 들어, 제어부(180)는, 제1키에서 터치 입력이 감지되고, 제1키 및 제1키와 인접한 키에서 동시에 터치 입력이 감지되고, 상기 제1키와 인접한 키에서 터치 입력이 감지된 경우, 상기 제1 핑거의 드래깅을 인식할 수 있다. 이와 마찬가지로, 제어부(180)는, 제2 핑거의 드래깅을 인식할 수 있다. 메모리(160)는 핑거의 드래깅을 인식하는데 필요한 프로그램 또는 어플리케이션을 미리 저장하고 있을 수 있다.The controller 180 recognizes dragging of the first finger and the second finger on the keyboard 121 (S602). For example, the controller 180 detects a touch input on a first key, simultaneously detects a touch input on a first key and a key adjacent to the first key, and detects a touch input on a key adjacent to the first key. In this case, dragging of the first finger may be recognized. Similarly, the controller 180 can recognize dragging of the second finger. The memory 160 may previously store a program or an application necessary for recognizing dragging of the finger.
제1 실시예에서, 제어부(180)는, 키보드(121) 상에서 제1키 및 제2키의 하부 방향으로 상기 제1 핑거 및 제2 핑거의 드래깅을 인식할 수 있다. In the first embodiment, the controller 180 may recognize dragging of the first finger and the second finger in the downward direction of the first key and the second key on the keyboard 121.
제2 실시예에서, 제어부(180)는, 키보드(121) 상에서 제1키 및 제2키의 우측 또는 좌측 방향으로 상기 제1 핑거 및 제2 핑거의 드래깅을 인식할 수 있다.In the second embodiment, the controller 180 may recognize dragging of the first finger and the second finger in a right or left direction of the first key and the second key on the keyboard 121.
제3 실시예에서, 키보드(121) 상에서 제1키 및 제2키의 상/하부 또는 좌/우측 방향으로 상기 제1 핑거 및 제2 핑거의 드래깅을 인식할 수 있다.In the third embodiment, dragging of the first finger and the second finger may be recognized in the up / down direction or the left / right direction of the first and second keys on the keyboard 121.
제어부(180)는, 드래깅의 인식 결과에 기초하여, 컴퓨팅 장치(100)에서 구현 가능한 기능들 중 특정 기능을 실행할 수 있다(S603).The controller 180 may execute a specific function among functions that may be implemented in the computing device 100 based on the recognition result of the dragging (S603).
상기 제1 실시예에서, 상기 제1 핑거 및 제2 핑거의 드래깅에 의해 상기 제1 핑거 및 제2 핑거가 마지막으로 각각 터치한 키가 키보드(121) 상에서 최외곽(예를 들어, 하부 에지)에 위치하는 키인 경우, 제어부(180)는, 상기 드래깅의 인식 결과에 기초하여, 디스플레이부(151)의 화면을 제1 영역 및 상기 제1 영역의 우측에 위치하는 제2 영역으로 분할할 수 있다. 여기서, 제어부(180)는, 제1키 및 제2키 중 적어도 하나와 관련된 제1 좌표값 데이터를 검출하고, 메모리(160)에 저장된 제1 좌표값 데이터와 제2 좌표값 데이터의 맵핑 데이터를 이용하여 상기 검출된 제1 좌표값 데이터에 대응하는 제2 좌표값 데이터를 검출하고, 상기 검출된 제2 좌표값 데이터가, 상기 제1 영역과 제2 영역의 경계선의 일부와 대응되도록 디스플레이부(151)의 화면을 분할할 수도 있다.In the first embodiment, the last touched key of the first finger and the second finger by dragging the first finger and the second finger, respectively, is the outermost (eg, the lower edge) on the keyboard 121. In the case of a key located at, the controller 180 may divide the screen of the display unit 151 into a first area and a second area located to the right of the first area based on the dragging recognition result. . Here, the controller 180 detects first coordinate value data associated with at least one of the first key and the second key, and maps the mapping data of the first coordinate value data and the second coordinate value data stored in the memory 160. By using the display unit to detect second coordinate value data corresponding to the detected first coordinate value data, wherein the detected second coordinate value data corresponds to a part of a boundary between the first area and the second area. The screen of 151 may be divided.
상기 제2 실시예에서, 상기 제1 핑거 및 제2 핑거의 드래깅에 의해 상기 제1 핑거 및 제2 핑거가 마지막으로 각각 터치한 키가 키보드(121) 상에서 최외곽(예를 들어, 좌측 에지 또는 우측 에지)에 위치하는 키인 경우, 제어부(180)는, 상기 드래깅의 인식 결과에 기초하여, 디스플레이부(151)의 화면을 제1 영역 및 상기 제1 영역의 하부에 위치하는 제2 영역으로 분할할 수 있다. 여기서, 제어부(180)는, 제1키 및 제2키 중 적어도 하나와 관련된 제1 좌표값 데이터를 검출하고, 메모리(160)에 저장된 제1 좌표값 데이터와 제2 좌표값 데이터의 맵핑 데이터를 이용하여 상기 검출된 제1 좌표값 데이터에 대응하는 제2 좌표값 데이터를 검출하고, 상기 검출된 제2 좌표값 데이터가, 상기 제1 영역과 제2 영역의 경계선의 일부와 대응되도록 디스플레이부(151)의 화면을 분할할 수도 있다.In the second embodiment, the last touched key of the first finger and the second finger by dragging the first finger and the second finger, respectively, is the outermost (eg, left edge or In the case of a key located at the right edge), the controller 180 divides the screen of the display unit 151 into a first area and a second area located below the first area based on a result of the dragging recognition. can do. Here, the controller 180 detects first coordinate value data associated with at least one of the first key and the second key, and maps the mapping data of the first coordinate value data and the second coordinate value data stored in the memory 160. By using the display unit to detect second coordinate value data corresponding to the detected first coordinate value data, wherein the detected second coordinate value data corresponds to a part of a boundary between the first area and the second area. The screen of 151 may be divided.
상기 제3 실시예에서, 상기 제1 핑거 및 제2 핑거의 드래깅에 의해 상기 제1 핑거 및 제2 핑거가 마지막으로 각각 터치한 키가 키보드(121) 상에서 최외곽에 위치하는 키가 아닌 경우, 제어부(180)는, 상기 드래깅의 인식 결과에 기초하여, 디스플레이부(151)의 화면을 상/하부로 스크롤하거나 좌/우측 방향을 스크롤할 수 있다.In the third embodiment, when the first touched by the first finger and the second finger by the dragging of the first finger and the second finger, respectively, is not the outermost key on the keyboard 121, The controller 180 may scroll the screen of the display unit 151 up / down or scroll the left / right directions based on the recognition result of the dragging.
본 실시예에 의하면, 사용자는 키보드(121) 상에서 직관적으로 손을 이동시킴으로써 원하는 사용자 명령을 입력할 수 있는 이점이 있다.According to the present embodiment, the user has an advantage of inputting a desired user command by intuitively moving his or her hand on the keyboard 121.
도 34는 본 발명의 일 실시예에 의한 컴퓨팅 장치의 디스플레이부에 표시되는 화면의 일례를 도시한 도면이다.34 is a diagram illustrating an example of a screen displayed on a display unit of a computing device according to an embodiment of the present invention.
도 34의 (a)를 참조하면, 제어부(180)는 키보드(121)에 포함된 복수의 키 중에서 제1키를 터치하는 제1 핑거 및 제2키를 터치하는 제2 핑거를 인식한다. 제1키 및 제2키는 키보드(121) 상에서 서로 인접하여 위치할 수 있다. 또한, 제1키 및 제2키는 키보드(121) 상에서 상부에 치우쳐서 위치할 수 있다.Referring to FIG. 34A, the controller 180 recognizes a first finger touching a first key and a second finger touching a second key among a plurality of keys included in the keyboard 121. The first key and the second key may be located adjacent to each other on the keyboard 121. In addition, the first key and the second key may be located on the keyboard 121 to the upper side.
제어부(180)는, 키보드(121) 상에서 제1키 및 제2키의 하부 방향으로 상기 제1 핑거 및 제2 핑거의 드래깅을 인식할 수 있다. 여기서, 상기 제1 핑거 및 제2 핑거의 드래깅에 의해 상기 제1 핑거 및 제2 핑거가 마지막으로 각각 터치한 키가 키보드(121) 상에서 최외곽(예를 들어, 하부 에지)에 위치하는 키인 것으로 가정한다.The controller 180 may recognize dragging of the first finger and the second finger in the downward direction of the first key and the second key on the keyboard 121. Here, the last touched key of the first finger and the second finger by dragging the first finger and the second finger is a key located at the outermost part (eg, the lower edge) on the keyboard 121. Assume
도 34의 (b)를 참조하면, 제어부(180)는, 상기 드래깅의 인식 결과에 기초하여, 디스플레이부(151)의 화면을 제1 영역(611) 및 상기 제1 영역(611)의 우측에 위치하는 제2 영역(612)으로 분할할 수 있다. 일례로, 제어부(180)는, 상기 제1 핑거 및 제2 핑거의 드래깅이 인식된 경우 제1 영역(611) 및 상기 제1 영역(611)의 우측에 위치하는 제2 영역(612) 각각의 가로폭이 동일하도록 디스플레이부(151)의 화면을 분할할 수 있다. 다른 일례로, 제어부(180)는, 상기 제1 핑거 및 제2 핑거의 드래깅이 인식된 경우, 제1키 및 제2키 중 적어도 하나와 관련된 제1 좌표값 데이터를 검출하고, 메모리(160)에 저장된 제1 좌표값 데이터와 제2 좌표값 데이터의 맵핑 데이터를 이용하여 상기 검출된 제1 좌표값 데이터에 대응하는 제2 좌표값 데이터를 검출하고, 상기 검출된 제2 좌표값 데이터가, 상기 제1 영역(611)과 제2 영역(612)의 경계선의 일부와 대응되도록 디스플레이부(151)의 화면을 분할할 수 있다.Referring to FIG. 34B, the controller 180 displays the screen of the display unit 151 on the right side of the first area 611 and the first area 611 based on the dragging recognition result. It may be divided into the second region 612 located. For example, when the dragging of the first finger and the second finger is recognized, the controller 180 may recognize each of the first area 611 and the second area 612 located on the right side of the first area 611. The screen of the display unit 151 may be divided to have the same width. As another example, when the dragging of the first finger and the second finger is recognized, the controller 180 detects first coordinate value data associated with at least one of the first key and the second key, and the memory 160. Second coordinate value data corresponding to the detected first coordinate value data is detected using mapping data of the first coordinate value data and the second coordinate value data stored in the second coordinate value data, and the detected second coordinate value data is The screen of the display unit 151 may be divided to correspond to a part of a boundary line between the first area 611 and the second area 612.
도 35는 본 발명의 일 실시예에 의한 컴퓨팅 장치의 디스플레이부에 표시되는 화면의 다른 일례를 도시한 도면이다. 도 34와 관련하여 상술한 것과 중복되는 내용은 다시 설명하지 않는다.35 illustrates another example of a screen displayed on a display unit of a computing device according to an embodiment of the present invention. Duplicates to those described above with reference to FIG. 34 will not be described again.
제어부(180)는, 상기 드래깅의 인식 결과에 기초하여, 디스플레이부(151)의 화면을 제1 영역(611) 및 상기 제1 영역(611)의 우측에 위치하는 제2 영역(612)으로 분할할 수 있다. 여기서, 제어부(180)는, 상기 제1 핑거 및 제2 핑거의 드래깅이 인식된 경우, 제1키 및 제2키 중 적어도 하나와 관련된 제1 좌표값 데이터를 검출하고, 메모리(160)에 저장된 제1 좌표값 데이터와 제2 좌표값 데이터의 맵핑 데이터를 이용하여 상기 검출된 제1 좌표값 데이터에 대응하는 제2 좌표값 데이터를 검출하고, 상기 검출된 제2 좌표값 데이터가, 상기 제1 영역(611)과 제2 영역(612)의 경계선의 일부와 대응되도록 디스플레이부(151)의 화면을 분할할 수 있다. 즉, 사용자가 키보드(121)의 좌측에 손가락을 위치시킨 후 하부 방향으로 드래그한 경우, 디스플레이부(151)의 제1 영역(611)과 제2 영역(612)의 경계선이 전체 화면에서 좌측에 위치할 수 있다.The controller 180 divides the screen of the display unit 151 into a first area 611 and a second area 612 located on the right side of the first area 611 based on the recognition result of the dragging. can do. Here, when dragging of the first finger and the second finger is recognized, the controller 180 detects first coordinate value data associated with at least one of the first key and the second key, and stores the first coordinate value data in the memory 160. The second coordinate value data corresponding to the detected first coordinate value data is detected using mapping data of the first coordinate value data and the second coordinate value data, and the detected second coordinate value data is the first coordinate value. The screen of the display unit 151 may be divided to correspond to a part of the boundary line between the area 611 and the second area 612. That is, when the user places a finger on the left side of the keyboard 121 and drags it downward, the boundary line between the first area 611 and the second area 612 of the display unit 151 is located on the left side of the entire screen. Can be located.
도 36은 본 발명의 일 실시예에 의한 컴퓨팅 장치의 디스플레이부에 표시되는 화면의 또 다른 일례를 도시한 도면이다.36 is a diagram illustrating still another example of a screen displayed on a display unit of a computing device according to an embodiment of the present invention.
도 36의 (a)를 참조하면, 제어부(180)는 키보드(121)에 포함된 복수의 키 중에서 제1키를 터치하는 제1 핑거 및 제2키를 터치하는 제2 핑거를 인식한다. 제1키 및 제2키는 키보드(121) 상에서 서로 인접하여 위치할 수 있다. 또한, 제1키 및 제2키는 키보드(121) 상에서 좌측 또는 우측에 치우쳐서 위치할 수 있다.Referring to FIG. 36A, the controller 180 recognizes a first finger touching a first key and a second finger touching a second key among a plurality of keys included in the keyboard 121. The first key and the second key may be located adjacent to each other on the keyboard 121. In addition, the first key and the second key may be located on the keyboard 121 to the left or right side.
제어부(180)는, 키보드(121) 상에서 제1키 및 제2키의 우측 또는 좌측 방향으로 상기 제1 핑거 및 제2 핑거의 드래깅을 인식할 수 있다. 여기서, 상기 제1 핑거 및 제2 핑거의 드래깅에 의해 상기 제1 핑거 및 제2 핑거가 마지막으로 각각 터치한 키가 키보드(121) 상에서 최외곽(예를 들어, 우측 에지 또는 좌측 에지)에 위치하는 키인 것으로 가정한다.The controller 180 may recognize dragging of the first finger and the second finger in a right or left direction of the first key and the second key on the keyboard 121. Here, the last touched key of the first finger and the second finger by dragging the first finger and the second finger, respectively, is located at the outermost (eg, right edge or left edge) on the keyboard 121. Assume that it is a key.
도 36의 (b)를 참조하면, 제어부(180)는, 상기 드래깅의 인식 결과에 기초하여, 디스플레이부(151)의 화면을 제1 영역(611) 및 상기 제1 영역(611)의 하부에 위치하는 제2 영역(612)으로 분할할 수 있다. 일례로, 제어부(180)는, 상기 제1 핑거 및 제2 핑거의 드래깅이 인식된 경우 제1 영역(611) 및 상기 제1 영역(611)의 하부에 위치하는 제2 영역(612) 각각의 세로폭이 동일하도록 디스플레이부(151)의 화면을 분할할 수 있다. 다른 일례로, 제어부(180)는, 상기 제1 핑거 및 제2 핑거의 드래깅이 인식된 경우, 제1키 및 제2키 중 적어도 하나와 관련된 제1 좌표값 데이터를 검출하고, 메모리(160)에 저장된 제1 좌표값 데이터와 제2 좌표값 데이터의 맵핑 데이터를 이용하여 상기 검출된 제1 좌표값 데이터에 대응하는 제2 좌표값 데이터를 검출하고, 상기 검출된 제2 좌표값 데이터가, 상기 제1 영역(611)과 제2 영역(612)의 경계선의 일부와 대응되도록 디스플레이부(151)의 화면을 분할할 수 있다.Referring to FIG. 36B, the controller 180 may display the screen of the display unit 151 under the first area 611 and the first area 611 based on the dragging recognition result. It may be divided into the second region 612 located. For example, when the dragging of the first finger and the second finger is recognized, the controller 180 may recognize each of the first area 611 and the second area 612 located below the first area 611. The screen of the display unit 151 may be divided to have the same vertical width. As another example, when the dragging of the first finger and the second finger is recognized, the controller 180 detects first coordinate value data associated with at least one of the first key and the second key, and the memory 160. Second coordinate value data corresponding to the detected first coordinate value data is detected using mapping data of the first coordinate value data and the second coordinate value data stored in the second coordinate value data, and the detected second coordinate value data is The screen of the display unit 151 may be divided to correspond to a part of a boundary line between the first area 611 and the second area 612.
도 37은 본 발명의 일 실시예에 의한 컴퓨팅 장치의 디스플레이부에 표시되는 화면의 일례를 도시한 도면이다.37 illustrates an example of a screen displayed on a display unit of a computing device according to an embodiment of the present invention.
도 37의 (a)를 참조하면, 디스플레이부(151)에는 특정 프로그램의 실행 화면(620)이 출력되어 있다. 상기 실행 화면(620)의 우측에는 스크롤 바(621) 및 상기 스크롤 바(621) 상에 위치하는 인디케이터(622)가 표시된다. 상기 인디케이터(622)는, 실행 화면(620)을 통해 표시될 수 있는 전체 페이지 중에서 현재 실행 화면(620)에 표시된 페이지의 부분이 어디인지를 나타낼 수 있다.Referring to FIG. 37A, an execution screen 620 of a specific program is output to the display unit 151. The scroll bar 621 and the indicator 622 positioned on the scroll bar 621 are displayed on the right side of the execution screen 620. The indicator 622 may indicate where a portion of the page displayed on the current execution screen 620 is displayed among all pages that may be displayed through the execution screen 620.
제어부(180)는 키보드(121)에 포함된 복수의 키 중에서 제1키를 터치하는 제1 핑거 및 제2키를 터치하는 제2 핑거를 인식한다. 제1키 및 제2키는 키보드(121) 상에서 서로 인접하여 위치할 수 있다.The controller 180 recognizes a first finger touching a first key and a second finger touching a second key among a plurality of keys included in the keyboard 121. The first key and the second key may be located adjacent to each other on the keyboard 121.
제어부(180)는, 키보드(121) 상에서 제1키 및 제2키의 하부 또는 상부 방향으로 상기 제1 핑거 및 제2 핑거의 드래깅을 인식할 수 있다. 여기서, 상기 제1 핑거 및 제2 핑거의 드래깅에 의해 상기 제1 핑거 및 제2 핑거가 마지막으로 각각 터치한 키가 키보드(121) 상에서 최외곽(예를 들어, 하부 에지 또는 상부 에지)에 위치하는 키가 아닌 것으로 가정한다.The controller 180 may recognize dragging of the first finger and the second finger in the lower or upper direction of the first key and the second key on the keyboard 121. Here, the last touched key of the first finger and the second finger by dragging the first finger and the second finger, respectively, is located at the outermost portion (eg, the lower edge or the upper edge) on the keyboard 121. Assume that this is not a key.
도 37의 (b)를 참조하면, 제어부(180)는, 상기 드래깅의 인식 결과에 기초하여, 디스플레이부(151)의 화면을 하부 또는 상부(미도시) 방향으로 스크롤할 수 있다. 디스플레이부(151)에 출력된 실행 화면(620)을 참조하면, 상기 드래깅의 인식 결과에 기초하여, 스크롤 바(621) 상에서 인디케이터(622)의 위치가 상부에서 하부로 이동한 것을 확인할 수 있다.Referring to FIG. 37B, the controller 180 may scroll the screen of the display unit 151 in a lower or upper direction (not shown) based on the recognition result of the dragging. Referring to the execution screen 620 output to the display unit 151, it may be confirmed that the position of the indicator 622 is moved from the top to the bottom on the scroll bar 621 based on the recognition result of the dragging.
도 38은 본 발명의 일 실시예에 의한 컴퓨팅 장치의 디스플레이부에 표시되는 화면의 일례를 도시한 도면이다.38 is a diagram illustrating an example of a screen displayed on a display unit of a computing device according to an embodiment of the present invention.
도 38의 (a)를 참조하면, 디스플레이부(151)에는 특정 프로그램의 실행 화면(620)이 출력되어 있다. 상기 실행 화면(620)의 하부에는 스크롤 바(621) 및 상기 스크롤 바(621) 상에 위치하는 인디케이터(622)가 표시된다. 상기 인디케이터(622)는, 실행 화면(620)을 통해 표시될 수 있는 전체 페이지 중에서 현재 실행 화면(620)에 표시된 페이지의 부분이 어디인지를 나타낼 수 있다.Referring to FIG. 38A, an execution screen 620 of a specific program is output to the display unit 151. A scroll bar 621 and an indicator 622 positioned on the scroll bar 621 are displayed below the execution screen 620. The indicator 622 may indicate where a portion of the page displayed on the current execution screen 620 is displayed among all pages that may be displayed through the execution screen 620.
제어부(180)는 키보드(121)에 포함된 복수의 키 중에서 제1키를 터치하는 제1 핑거 및 제2키를 터치하는 제2 핑거를 인식한다. 제1키 및 제2키는 키보드(121) 상에서 서로 인접하여 위치할 수 있다.The controller 180 recognizes a first finger touching a first key and a second finger touching a second key among a plurality of keys included in the keyboard 121. The first key and the second key may be located adjacent to each other on the keyboard 121.
제어부(180)는, 키보드(121) 상에서 제1키 및 제2키의 우측 또는 좌측 방향으로 상기 제1 핑거 및 제2 핑거의 드래깅을 인식할 수 있다. 여기서, 상기 제1 핑거 및 제2 핑거의 드래깅에 의해 상기 제1 핑거 및 제2 핑거가 마지막으로 각각 터치한 키가 키보드(121) 상에서 최외곽(예를 들어, 우측 에지 또는 좌측 에지)에 위치하는 키가 아닌 것으로 가정한다.The controller 180 may recognize dragging of the first finger and the second finger in a right or left direction of the first key and the second key on the keyboard 121. Here, the last touched key of the first finger and the second finger by dragging the first finger and the second finger, respectively, is located at the outermost (eg, right edge or left edge) on the keyboard 121. Assume that this is not a key.
도 38의 (b)를 참조하면, 제어부(180)는, 상기 드래깅의 인식 결과에 기초하여, 디스플레이부(151)의 화면을 우측 또는 좌측(미도시) 방향으로 스크롤할 수 있다. 디스플레이부(151)에 출력된 실행 화면(620)을 참조하면, 상기 드래깅의 인식 결과에 기초하여, 스크롤 바(621) 상에서 인디케이터(622)의 위치가 좌측에서 우측으로 이동한 것을 확인할 수 있다.Referring to FIG. 38B, the controller 180 may scroll the screen of the display unit 151 in the right or left direction (not shown) based on the recognition result of the dragging. Referring to the execution screen 620 output to the display unit 151, it may be confirmed that the position of the indicator 622 is moved from left to right on the scroll bar 621 based on the recognition result of the dragging.
도 39는 본 발명의 일 실시예에 의한 컴퓨팅 장치의 제어 방법의 또 다른 일례를 설명하기 위한 흐름도이다.39 is a flowchart illustrating still another example of a method for controlling a computing device according to an embodiment of the present invention.
제어부(180)는, 키보드(121)에 복수의 키 중에서 제1키를 터치하는 제1 핑거 및 제2키를 터치하는 제2 핑거를 인식한다(S701). 제1키와 제2키는 키보드(121) 상에서 서로 이격되어 위치하고, 제1키는 특수키(예를 들어, "Shift 키", "Ctrl 키", "Alt 키" 등)일 수 있다.The controller 180 recognizes, on the keyboard 121, a first finger touching a first key and a second finger touching a second key (S701). The first key and the second key are spaced apart from each other on the keyboard 121, and the first key may be a special key (eg, a "Shift key", a "Ctrl key", an "Alt key", etc.).
제어부(180)는, 제1키 및 제2키를 각각 터치하는 터치 입력이 감지된 경우, 상기 제1키를 터치하는 제1 핑거를 인식하고, 상기 제2키를 터치하는 제2 핑거를 인식할 수 있다. The controller 180 recognizes a first finger that touches the first key and recognizes a second finger that touches the second key when a touch input of touching the first key and the second key, respectively, is detected. can do.
메모리(160)는, 키보드(121) 상의 적어도 일부 영역과 관련된 제1 좌표값 데이터, 디스플레이부(151)의 화면의 전체 영역과 관련된 제2 좌표값 데이터, 및 상기 제1 좌표값 데이터와 상기 제2 좌표값 데이터의 맵핑 데이터를 저장하고 있을 수 있다.The memory 160 may include first coordinate value data related to at least a partial area on the keyboard 121, second coordinate value data related to an entire area of the screen of the display unit 151, and the first coordinate value data and the first coordinate value data. 2 may store mapping data of coordinate data.
제어부(180)는, 키보드(121) 상에서 제2 핑거의 드래깅을 인식한다(S702). 제어부(180)는, 제1 핑거가 제1키를 터치한 상태에서, 제2 핑거의 드래깅을 인식할 수 있다. The controller 180 recognizes dragging of the second finger on the keyboard 121 (S702). The controller 180 may recognize dragging of the second finger while the first finger touches the first key.
제어부(180)는, 드래깅의 인식 결과에 기초하여, 컴퓨팅 장치(100)에서 구현 가능한 기능들 중 특정 기능을 실행할 수 있다(S703).The controller 180 may execute a specific function among functions that may be implemented in the computing device 100 based on the recognition result of the dragging (S703).
제1 실시예에서, 제어부(180)는, 제2 핑거의 드래깅에 대응하는 궤적을 화면에 표시하도록 디스플레이부(151)를 제어할 수 있다. 예를 들어, 제어부(180)는, 제2 핑거의 드래깅 전 키보드(121) 상에서 제2 핑거와 관련된 제1 좌표값 데이터를 검출하고, 제2 핑거의 드래깅에 따른 제1 좌표값 데이터의 변화량을 계산하고, 메모리(160)에 저장된 제1 좌표값 데이터와 제2 좌표값 데이터의 맵핑 데이터 및 상기 계산된 변화량에 기초하여, 제2 핑거의 드래깅에 대응하는 궤적을 디스플레이부(151)에 출력할 수 있다.In the first embodiment, the controller 180 may control the display unit 151 to display a trajectory corresponding to the dragging of the second finger on the screen. For example, the controller 180 detects first coordinate value data related to the second finger on the keyboard 121 before dragging the second finger, and changes the amount of change of the first coordinate value data according to dragging of the second finger. Calculates and outputs a trace corresponding to the dragging of the second finger to the display unit 151 based on the mapping data of the first coordinate value data and the second coordinate value data stored in the memory 160 and the calculated change amount. Can be.
제2 실시예에서, 제어부(180)는, 제2 핑거의 드래깅에 대응하는 궤적을 디스플레이부(151)에 출력하고, 디스플레이부(151)에 표시된 궤적에 기초하여 필기 인식을 수행하고, 상기 필기 인식의 결과에 기초하여 상기 궤적을 문자, 숫자 또는 기호로 변환하여 디스플레이부(151)에 출력할 수 있다. 메모리(160)에는 필기 인식에 필요한 프로그램 또는 어플리케이션을 미리 저장하고 있을 수 있다.In the second embodiment, the controller 180 outputs a trajectory corresponding to the dragging of the second finger to the display unit 151, performs handwriting recognition based on the trajectory displayed on the display unit 151, and performs the handwriting. Based on the recognition result, the trajectory may be converted into a letter, a number, or a symbol and output to the display unit 151. The memory 160 may store a program or an application required for handwriting recognition in advance.
제3 실시예에서, 제어부(180)는, 제2 핑거의 드래깅에 기초하여, 디스플레이부(151)의 화면에 표시된 텍스트의 일부를 하이라이트하여 표시하도록 디스플레이부(151)를 제어할 수 있다. 예를 들어, 제어부(180)는, 제2 핑거의 드래깅 전 키보드(121) 상에서 제2 핑거와 관련된 제1 좌표값 데이터를 검출하고, 제2 핑거의 드래깅에 따른 제1 좌표값 데이터의 변화량을 계산하고, 메모리(160)에 저장된 제1 좌표값 데이터와 제2 좌표값 데이터의 맵핑 데이터 및 상기 계산된 변화량에 기초하여, 상기 텍스트의 일부를 하이라이트하도록 디스플레이부(151)를 제어할 수 있다. 실시에에 따라, 제어부(180)는, 제2 핑거의 드래깅에 의해 상기 제2 핑거가 터치한 키의 개수를 감지하고, 상기 텍스트에 포함된 문자(문자, 숫자, 기호 모드 포함) 중에서 상기 감지된 키의 개수와 동일한 개수의 문자(문자, 숫자, 기호 모드 포함)를 하이라이트하여 표시하도록 디스플레이부(151)를 제어할 수 있다.In the third embodiment, the controller 180 may control the display unit 151 to highlight and display a part of the text displayed on the screen of the display unit 151 based on the dragging of the second finger. For example, the controller 180 detects first coordinate value data related to the second finger on the keyboard 121 before dragging the second finger, and changes the amount of change of the first coordinate value data according to dragging of the second finger. The display unit 151 may be controlled to highlight a portion of the text based on the mapping data of the first coordinate value data and the second coordinate value data stored in the memory 160 and the calculated change amount. According to an embodiment, the controller 180 detects the number of keys touched by the second finger by dragging the second finger, and detects the number of characters (including letters, numbers, and symbol modes) included in the text. The display unit 151 may be controlled to highlight and display the same number of characters (including letters, numbers, and symbol modes) as the number of keys.
도 40은 본 발명의 일 실시예에 의한 컴퓨팅 장치의 디스플레이부에 표시되는 화면의 일례를 도시한 도면이다.40 is a diagram illustrating an example of a screen displayed on a display unit of a computing device according to one embodiment of the present invention.
도 40의 (a)를 참조하면, 제어부(180)는, 키보드(121)에 복수의 키 중에서 제1키를 터치하는 제1 핑거 및 제2키를 터치하는 제2 핑거를 인식한다. 제1키와 제2키는 키보드(121) 상에서 서로 이격되어 위치하고, 제1키는 특수키(예를 들어, "Shift 키", "Ctrl 키", "Alt 키" 등)일 수 있다. 일례로, 디스플레이부(151)에는, 그림판 프로그램의 실행 화면(710)이 출력되어 있을 수 있다.Referring to FIG. 40A, the controller 180 recognizes, on the keyboard 121, a first finger touching a first key and a second finger touching a second key. The first key and the second key are spaced apart from each other on the keyboard 121, and the first key may be a special key (eg, a "Shift key", a "Ctrl key", an "Alt key", etc.). For example, the execution screen 710 of the paint program may be output to the display unit 151.
그리고, 제어부(180)는, 제1 핑거가 제1키를 터치한 상태에서, 제2 핑거의 드래깅을 인식한다.The controller 180 recognizes dragging of the second finger while the first finger touches the first key.
도 40의 (b)를 참조하면, 제어부(180)는, 제2 핑거의 드래깅에 대응하는 궤적(711)을 상기 실행 화면(710)에 표시하도록 디스플레이부(151)를 제어할 수 있다. 예를 들어, 제어부(180)는, 제2 핑거의 드래깅 전 키보드(121) 상에서 제2 핑거와 관련된 제1 좌표값 데이터를 검출하고, 제2 핑거의 드래깅에 따른 제1 좌표값 데이터의 변화량을 계산하고, 메모리(160)에 저장된 제1 좌표값 데이터와 제2 좌표값 데이터의 맵핑 데이터 및 상기 계산된 변화량에 기초하여, 제2 핑거의 드래깅에 대응하는 궤적(711)을 디스플레이부(151)에 출력할 수 있다.Referring to FIG. 40B, the controller 180 may control the display unit 151 to display the trajectory 711 corresponding to the dragging of the second finger on the execution screen 710. For example, the controller 180 detects first coordinate value data related to the second finger on the keyboard 121 before dragging the second finger, and changes the amount of change of the first coordinate value data according to dragging of the second finger. The display unit 151 calculates a trace 711 corresponding to the dragging of the second finger based on the mapping data of the first coordinate value data and the second coordinate value data stored in the memory 160 and the calculated change amount. Can be output to
도 41은 본 발명의 일 실시예에 의한 컴퓨팅 장치의 디스플레이부에 표시되는 화면의 다른 일례를 도시한 도면이다.FIG. 41 is a diagram illustrating another example of a screen displayed on a display unit of a computing device according to an embodiment of the present invention. FIG.
도 41의 (a)를 참조하면, 제어부(180)는, 키보드(121)에 복수의 키 중에서 제1키를 터치하는 제1 핑거 및 제2키를 터치하는 제2 핑거를 인식한다. 제1키와 제2키는 키보드(121) 상에서 서로 이격되어 위치하고, 제1키는 특수키(예를 들어, "Shift 키", "Ctrl 키", "Alt 키" 등)일 수 있다. 일례로, 디스플레이부(151)에는, 문서 작업 프로그램의 실행 화면(720)이 출력되어 있을 수 있다.Referring to FIG. 41A, the controller 180 recognizes, on the keyboard 121, a first finger touching a first key and a second finger touching a second key. The first key and the second key are spaced apart from each other on the keyboard 121, and the first key may be a special key (eg, a "Shift key", a "Ctrl key", an "Alt key", etc.). For example, the execution screen 720 of the document work program may be output to the display unit 151.
그리고, 제어부(180)는, 제1 핑거가 제1키를 터치한 상태에서, 제2 핑거의 드래깅을 인식한다.The controller 180 recognizes dragging of the second finger while the first finger touches the first key.
도 41의 (b)를 참조하면, 제어부(180)는, 제2 핑거의 드래깅에 대응하는 궤적(721)을 상기 실행 화면(720)에 표시하도록 디스플레이부(151)를 제어할 수 있다.Referring to FIG. 41B, the controller 180 may control the display unit 151 to display the trajectory 721 corresponding to the dragging of the second finger on the execution screen 720.
그리고, 도 41의 (c)를 참조하면, 제어부(180)는, 상기 실행 화면(720)에 표시된 궤적(721)에 기초하여 필기 인식을 수행하고, 상기 필기 인식의 결과에 기초하여, 상기 궤적(721)을 문자, 숫자 또는 기호로 변환하여 출력하도록 디스플레이부(151)를 제어할 수 있다.41 (c), the controller 180 performs handwriting recognition based on the trajectory 721 displayed on the execution screen 720, and based on the result of the handwriting recognition, the trajectory. The display unit 151 may be controlled to convert 721 into letters, numbers, or symbols and output the converted characters.
도 42는 본 발명의 일 실시예에 의한 컴퓨팅 장치의 디스플레이부에 표시되는 화면의 일례를 도시한 도면이다.42 is a diagram illustrating an example of a screen displayed on a display unit of a computing device according to one embodiment of the present invention.
도 42의 (a)를 참조하면, 제어부(180)는, 키보드(121)에 복수의 키 중에서 제1키를 터치하는 제1 핑거 및 제2키를 터치하는 제2 핑거를 인식한다. 제1키와 제2키는 키보드(121) 상에서 서로 이격되어 위치하고, 제1키는 특수키(예를 들어, "Shift 키", "Ctrl 키", "Alt 키" 등)일 수 있다. 일례로, 디스플레이부(151)에는, 문서 작업 프로그램의 실행 화면(730)이 출력되어 있고, 상기 실행 화면(730)에는 텍스트(731)가 포함되어 있는 것으로 가정한다.Referring to FIG. 42A, the controller 180 recognizes, on the keyboard 121, a first finger touching a first key and a second finger touching a second key. The first key and the second key are spaced apart from each other on the keyboard 121, and the first key may be a special key (eg, a "Shift key", a "Ctrl key", an "Alt key", etc.). For example, it is assumed that the execution screen 730 of the document work program is output to the display unit 151, and the text 731 is included in the execution screen 730.
그리고, 제어부(180)는, 제1 핑거가 제1키를 터치한 상태에서, 제2 핑거의 드래깅을 인식한다.The controller 180 recognizes dragging of the second finger while the first finger touches the first key.
도 42의 (b)를 참조하면, 제어부(180)는, 제2 핑거의 드래깅에 기초하여, 디스플레이부(151)의 실행 화면에 표시된 텍스트의 일부(732)를 하이라이트하여 표시하도록 디스플레이부(151)를 제어할 수 있다.Referring to FIG. 42B, the controller 180 displays the portion 732 of the text displayed on the execution screen of the display unit 151 by highlighting the display unit 151 based on the dragging of the second finger. ) Can be controlled.
예를 들어, 제어부(180)는, 제1 핑거가 제1키를 터치한 상태에서 제2 핑거의 드래깅이 인식된 경우, 제2 핑거의 드래깅 전 키보드(121) 상에서 제2 핑거와 관련된 제1 좌표값 데이터를 검출하고, 제2 핑거의 드래깅에 따른 제1 좌표값 데이터의 변화량을 계산하고, 메모리(160)에 저장된 제1 좌표값 데이터와 제2 좌표값 데이터의 맵핑 데이터 및 상기 계산된 변화량에 기초하여, 상기 텍스트(731)의 일부를 하이라이트하도록 디스플레이부(151)를 제어할 수 있다.For example, when the dragging of the second finger is recognized while the first finger touches the first key, the controller 180 may include a first associated with the second finger on the keyboard 121 before dragging the second finger. Detect coordinate value data, calculate a change amount of the first coordinate value data according to the dragging of the second finger, map data of the first coordinate value data and the second coordinate value data stored in the memory 160, and the calculated change amount Based on the above, the display unit 151 may be controlled to highlight a portion of the text 731.
또한, 실시예에 따라, 제어부(180)는, 제2 핑거의 드래깅에 의해 상기 제2 핑거가 터치한 키의 개수를 감지하고, 상기 텍스트(731)에 포함된 문자(문자, 숫자, 기호 모드 포함) 중에서 상기 감지된 키의 개수와 동일한 개수의 문자(문자, 숫자, 기호 모드 포함)를 하이라이트하여 표시하도록 디스플레이부(151)를 제어할 수도 있다.In addition, according to an embodiment, the controller 180 detects the number of keys touched by the second finger by dragging the second finger, and includes a character (letter, number, symbol mode) included in the text 731. The display unit 151 may be controlled to highlight and display the same number of characters (including letters, numbers, and symbol modes) among the detected keys.
한편, 본 발명의 일 실시예에 의하면, 사용자는, 터치 센서가 구비된 키보드(121)를 이용하여 디스플레이부(151)에 출력된 화면의 페이지를 넘기거나, 디스플레이부(151)에 출력된 화면을 줌인/줌아웃 할 수 있다. 이를 도 43 및 도 44를 참조하여 설명한다.On the other hand, according to an embodiment of the present invention, the user, using the keyboard 121 with a touch sensor to turn over the page of the screen output to the display unit 151, or the screen output to the display unit 151 You can zoom in and out. This will be described with reference to FIGS. 43 and 44.
도 43은 본 발명의 일 실시예에 의한 컴퓨팅 장치에서 디스플레이부에 표시되는 화면의 일례를 도시한 도면이다.43 is a diagram illustrating an example of a screen displayed on a display unit in a computing device according to an embodiment of the present invention.
도 43의 (a)를 참조하면, 제어부(180)는, 키보드(121)에 복수의 키 중에서 제1키를 터치하는 제1 핑거를 인식한다. 이 경우, 제어부(180)는, 제1키를 기 설정된 이상 터치하는 제1 핑거를 인식하거나, 제1키에 기 설정된 정도 이상의 압력을 가한 상태에서 제1키를 터치하는 제1 핑거를 인식할 수 있다.Referring to FIG. 43A, the controller 180 recognizes a first finger touching a first key among a plurality of keys on the keyboard 121. In this case, the controller 180 may recognize the first finger that touches the first key more than a preset value, or recognize the first finger that touches the first key while applying a pressure equal to or greater than a preset degree to the first key. Can be.
그리고, 제어부(180)는, 키보드(121) 상에서 제1 핑거의 드래깅을 인식한다.The controller 180 recognizes dragging of the first finger on the keyboard 121.
도 43의 (b)를 참조하면, 제어부(180)는, 제1 핑거의 드래깅의 인식 결과에 기초하여, 디스플레이부(151)에 출력된 화면의 페이지를 넘길 수 있다. 일례로, 제어부(180)는, 제1키의 우측 방향으로 제1 핑거의 드래깅을 인식한 경우, 디스플레이부(151)에 출력된 화면을 현재 페이지에서 다음 페이지로 넘길 수 있고, 제1키의 좌측 방향으로 제1 핑거의 드래깅을 인식한 경우, 디스플레이부(151)에 출력된 화면을 현재 페이지에서 이전 페이지로 넘길 수 있다.Referring to FIG. 43B, the controller 180 may turn over the page of the screen output to the display unit 151 based on the recognition result of dragging the first finger. For example, when the controller 180 recognizes dragging the first finger in the right direction of the first key, the controller 180 can turn the screen output on the display unit 151 from the current page to the next page. When the dragging of the first finger is recognized in the left direction, the screen output to the display unit 151 may be turned from the current page to the previous page.
도 44는 본 발명의 일 실시예에 의한 컴퓨팅 장치에서 디스플레이부에 표시되는 화면의 일례를 도시한 도면이다.44 is a diagram illustrating an example of a screen displayed on a display unit in the computing device according to an embodiment of the present invention.
도 44의 (a)를 참조하면, 제어부(180)는, 키보드(121) 상에서 다섯 개의 키를 적어도 터치하는 다섯 개의 핑거를 인식하고, 다섯 개의 핑거가 서로 멀어지는 방향으로 상기 다섯 개의 핑거의 제1 드래깅을 인식할 수 있다. 실시예에 따라, 제어부(180)는, 키보드(121) 상에서 네 개의 키를 적어도 터치하는 적어도 네 개의 핑거를 인식하고, 네 개의 핑거가 서로 멀어지는 방향으로 상기 네 개의 핑거의 제1 드래깅을 인식할 수도 있다.Referring to FIG. 44A, the controller 180 recognizes five fingers that touch at least five keys on the keyboard 121, and the first finger of the five fingers in a direction away from each other. Dragging can be recognized. According to an embodiment, the controller 180 may recognize at least four fingers at least touching four keys on the keyboard 121, and recognize the first dragging of the four fingers in a direction in which the four fingers are far from each other. It may be.
도 44의 (b)를 참조하면, 제어부(180)는, 상기 인식된 제1 드래깅에 기초하여, 디스플레이부(151)에 출력된 특정 화면을 줌 인(확대)할 수 있다.Referring to FIG. 44B, the controller 180 may zoom in (enlarge) a specific screen output to the display unit 151 based on the recognized first dragging.
그리고, 도 44의 (b)에서, 제어부(180)는, 다섯 개의 핑거가 서로 가까워지는 방향으로 상기 다섯 개의 핑거의 제2 드래깅을 인식할 수 있다. 실시예에 따라, 제어부(180)는, 적어도 네 개의 핑거가 서로 가까워지는 방향으로 상기 네 개의 핑거의 제2 드래깅을 인식할 수도 있다.In addition, in FIG. 44B, the controller 180 may recognize the second dragging of the five fingers in a direction in which the five fingers are close to each other. According to an embodiment, the controller 180 may recognize the second dragging of the four fingers in a direction in which at least four fingers are close to each other.
도 44의 (c)를 참조하면, 제어부(180)는, 상기 인식된 제2 드래깅에 기초하여, 디스플레이부(151)에 출력된 특정 화면을 줌 아웃(축소)할 수 있다.Referring to FIG. 44C, the controller 180 may zoom out (reduce) a specific screen output to the display unit 151 based on the recognized second dragging.
디스플레이부(151)에 출력된 특정 화면의 줌 인(확대) 정도는 상기 다섯 개의 핑거가 서로 멀어지는 정도에 비례하며, 디스플레이부(151)에 출력된 특정 화면의 줌 아웃(축소) 정도는 상기 다섯 개의 핑거가 서로 가까워지는 정도에 비례할 수 있다.The zoom in (magnification) degree of the specific screen output to the display unit 151 is proportional to the extent to which the five fingers are separated from each other, and the zoom out (reduction) degree of the specific screen output to the display unit 151 is the five degree. It can be proportional to the degree to which the two fingers are close to each other.
한편, 본 발명의 일 실시예에 의하면, 사용자는, 터치 센서가 구비된 키보드(121)를 이용하여 암호를 설정하거나 입력할 수 있다. 이를 도 45를 참조하여 설명한다.Meanwhile, according to an embodiment of the present invention, the user may set or input a password using the keyboard 121 provided with the touch sensor. This will be described with reference to FIG. 45.
도 45는 본 발명의 일 실시예에 의한 컴퓨팅 장치에서 디스플레이부에 표시되는 화면의 일례를 도시한 도면이다.45 is a diagram illustrating an example of a screen displayed on a display unit in the computing device according to one embodiment of the present invention.
일례로, 키보드(121)는 지문을 수신 기능을 구비하고, 제어부(180)는, 키보드(121)를 통해 수신된 지문을 인식할 수 있다. 메모리(160)는 지문 인식에 필요한 프로그램 또는 어플리케이션을 미리 저장하고 있을 수 있다. 사용자는, 자신의 지문을 등록할 수 있다. 실시예에 따라, 사용자는, 열 손가락 중 적어도 두 개의 손가락 각각의 지문을 등록할 수도 있다. 제어부(180)는, 컴퓨팅 장치(100)의 부팅이 완료된 후 사용자 암호의 입력을 안내하는 제1 화면(610)을 디스플레이부(151)에 출력할 수 있다. 사용자는 등록된 지문에 대응하는 손가락을 키보드(121) 상에 위치시킬 수 있고, 제어부(180)는, 키보드(121)를 통해 감지된 지문을 인식하고, 인식된 지문이 등록된 지문과 일치하면 잠금을 해제할 수 있다.For example, the keyboard 121 may have a fingerprint receiving function, and the controller 180 may recognize a fingerprint received through the keyboard 121. The memory 160 may store a program or an application required for fingerprint recognition in advance. The user can register his fingerprint. According to an embodiment, the user may register a fingerprint of each of at least two fingers of ten fingers. The controller 180 may output the first screen 610 to guide the input of the user password to the display unit 151 after the booting of the computing device 100 is completed. The user may place a finger corresponding to the registered fingerprint on the keyboard 121, and the controller 180 recognizes the fingerprint detected through the keyboard 121, and if the recognized fingerprint matches the registered fingerprint, You can unlock it.
다른 일례로, 사용자는, 키보드(121)에 포함된 복수의 키 중 일부의 키를 터치하는 터치 입력을 사용자 암호로 설정해둘 수 있다. 제어부(180)는, 컴퓨팅 장치(100)의 부팅이 완료된 후 사용자 암호의 입력을 안내하는 제1 화면(610)을 디스플레이부(151)에 출력할 수 있다. 사용자는 설정된 사용자 암호에 따라 키보드(121) 상의 특정 키에 자신의 손가락을 위치시킬 수 있고, 제어부(180)는, 키보드(121) 상의 특정 키를 통한 터치 입력에 기초하여 잠금 해제 여부를 결정할 수 있다.As another example, the user may set a touch input for touching a key of some of the plurality of keys included in the keyboard 121 as a user password. The controller 180 may output the first screen 610 to guide the input of the user password to the display unit 151 after the booting of the computing device 100 is completed. The user may place his or her finger on a specific key on the keyboard 121 according to the set user password, and the controller 180 may determine whether to unlock the lock based on a touch input through a specific key on the keyboard 121. have.
또 다른 일례로, 사용자는, 키보드(121)에 포함된 복수의 키 중 일부의 키를 터치하는 터치 입력과 숫자, 문자 및 기호를 조합한 패스워드를 사용자 입력으로 설정해둘 수 있다. 제어부(180)는, 컴퓨팅 장치(100)의 부팅이 완료된 후 사용자 암호의 입력을 안내하는 제1 화면(610)을 디스플레이부(151)에 출력할 수 있다. 사용자는 설정된 사용자 암호에 따라 키보드(121) 상의 특정 키에 자신의 손가락을 위치시킨 상태에서 상기 패스워드를 입력할 수 있고, 제어부(180)는 키보드(121) 상의 특정 키를 통한 터치 입력 및 상기 패스워드에 기초하여 잠금 해제 여부를 결정할 수 있다.As another example, the user may set a touch input for touching a part of a plurality of keys included in the keyboard 121 and a password combining numbers, letters, and symbols as a user input. The controller 180 may output the first screen 610 to guide the input of the user password to the display unit 151 after the booting of the computing device 100 is completed. A user may input the password in a state where his / her finger is placed on a specific key on the keyboard 121 according to the set user password, and the controller 180 may input a touch through the specific key on the keyboard 121 and the password. It may determine whether to unlock based on the.
상술한 실시예들에 의하면, 터치 센서를 구비한 키보드를 제안함으로써 사용자 편의성이 강조된 컴퓨팅 장치 및 이의 제어 방법을 제공할 수 있다.According to the embodiments described above, by providing a keyboard with a touch sensor can provide a computing device and a control method thereof with emphasis on user convenience.
전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한, 상기 컴퓨터는 단말기의 제어부(180)를 포함할 수도 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.The present invention described above can be embodied as computer readable codes on a medium in which a program is recorded. The computer-readable medium includes all kinds of recording devices in which data that can be read by a computer system is stored. Examples of computer-readable media include hard disk drives (HDDs), solid state disks (SSDs), silicon disk drives (SDDs), ROMs, RAMs, CD-ROMs, magnetic tapes, floppy disks, optical data storage devices, and the like. This also includes implementations in the form of carrier waves (eg, transmission over the Internet). In addition, the computer may include the controller 180 of the terminal. Accordingly, the above detailed description should not be construed as limiting in all aspects and should be considered as illustrative. The scope of the invention should be determined by reasonable interpretation of the appended claims, and all changes within the equivalent scope of the invention are included in the scope of the invention.
본 발명은 컴퓨팅 장치 및 이의 제어 방법에 관한 것으로 산업상 이용가능성이 있다.TECHNICAL FIELD The present invention relates to a computing device and a control method thereof, and has industrial applications.

Claims (20)

  1. 복수의 키를 포함하고 상기 복수의 키 중 적어도 하나에 터치 센서가 구비된 키보드;A keyboard including a plurality of keys and provided with a touch sensor on at least one of the plurality of keys;
    디스플레이부; 및A display unit; And
    제어부;를 포함하고,A control unit;
    상기 제어부는,The control unit,
    기 설정된 조건에 따라 상기 키보드 내 제1키를 터치하는 제1 터치 입력을 감지하고, Detect a first touch input of touching a first key in the keyboard according to a preset condition;
    상기 제1 터치 입력이 감지된 때 상기 디스플레이부에 출력된 화면을 디텍트하고,Detects a screen output on the display unit when the first touch input is detected;
    상기 디텍트된 화면에 기초하여, 상기 제1키에 대응하는 기능을 실행하고, Based on the detected screen, executes a function corresponding to the first key,
    상기 기능 실행의 결과를 출력하도록 상기 디스플레이부를 제어하는, 컴퓨팅 장치.And control the display unit to output a result of the function execution.
  2. 제 1 항에 있어서,The method of claim 1,
    상기 기 설정된 조건이란, 상기 제1키를 기 설정된 시간 이상 터치하는 조건, 상기 키보드 내 제2키를 터치한 상태에서 상기 제1키를 터치하는 조건, 상기 키보드 내 제2키에 기 설정된 정도 이상의 압력이 가해진 상태에서 상기 제1키를 터치하는 조건, 상기 제1키 및 상기 키보드 내 제2키를 동시에 터치하는 조건, 상기 제1키를 터치하기 전에 상기 키보드 내 적어도 두 개의 키를 터치하는 조건, 및 상기 제1키를 터치하기 전에 상기 키보드 내 최외곽에 위치하는 제2키 및 상기 키보드 내에서 상기 제1키와 상기 제2키의 사이에 위치하는 적어도 하나의 키를 터치하는 조건 중 적어도 하나를 포함하는, 컴퓨팅 장치. The preset condition may be a condition of touching the first key for a predetermined time or more, a condition of touching the first key in a state of touching a second key of the keyboard, or more than a preset level of the second key of the keyboard. A condition of touching the first key under pressure, a condition of simultaneously touching the first key and a second key in the keyboard, a condition of touching at least two keys in the keyboard before touching the first key At least one of a second key located at the outermost side of the keyboard and at least one key located between the first key and the second key in the keyboard before touching the first key. A computing device comprising one.
  3. 제 1 항에 있어서,The method of claim 1,
    상기 제1키가 특정 문자에 대응하는 경우, 상기 제어부는, If the first key corresponds to a specific character, the control unit,
    상기 컴퓨팅 장치의 메모리에 저장된 파일 및 프로그램, 그리고 상기 컴퓨팅 장치에서 구현될 수 있는 기능들 중에서, 상기 특정 문자로 시작되는 파일 명, 프로그램 명 및 기능 명 중 적어도 하나를 검색하고, Search for at least one of a file name, a program name, and a function name starting with the specific character among files and programs stored in a memory of the computing device, and functions that can be implemented in the computing device,
    상기 검색 결과를 포함하는 GUI를 출력하도록 상기 디스플레이부를 제어하는, 컴퓨팅 장치.And control the display unit to output a GUI including the search result.
  4. 제 3 항에 있어서,The method of claim 3, wherein
    상기 검색된 파일 명, 프로그램 명 및 기능 명은, 상기 디텍트된 화면에 대응하는 프로그램과 관련된, 컴퓨팅 장치.And the retrieved file name, program name, and function name are associated with a program corresponding to the detected screen.
  5. 제 3 항에 있어서,The method of claim 3, wherein
    상기 제어부는, 상기 GUI 내에서 상기 검색 결과를 파일 별, 프로그램 별 및 기능 별로 적어도 구분하여 출력하도록 상기 디스플레이부를 제어하는, 컴퓨팅 장치.The control unit controls the display unit to output the search results in the GUI, at least classified by file, program and function.
  6. 제 3 항에 있어서,The method of claim 3, wherein
    상기 키보드가 한글 입력 모드로 설정되어 있고 상기 제1키가 한글의 특정 자음에 대응하는 경우,If the keyboard is set to the Hangul input mode and the first key corresponds to a specific consonant of the Hangul,
    상기 제어부는, 상기 특정 자음으로 시작되는 파일 명, 프로그램 명 및 기능 명 중 적어도 하나를 검색하는, 컴퓨팅 장치.And the control unit searches for at least one of a file name, a program name, and a function name starting with the specific consonant.
  7. 제 3 항에 있어서,The method of claim 3, wherein
    상기 제어부는,The control unit,
    상기 검색된 파일 명 중 적어도 일부 각각에 대응하는 썸네일 이미지를 상기 GUI 상에 출력하도록 상기 디스플레이부를 제어하는, 컴퓨팅 장치.And control the display unit to output a thumbnail image corresponding to each of at least some of the retrieved file names on the GUI.
  8. 제 1 항에 있어서,The method of claim 1,
    상기 제1키가 스페이스 바(space bar)이고, 상기 디텍트된 화면이 동영상 또는 음악 재생을 위한 제1 프로그램에 대응하는 경우,When the first key is a space bar and the detected screen corresponds to a first program for playing a video or music,
    상기 제어부는, 상기 제1 터치 입력이 감지되면, 상기 제1 프로그램의 재생 관련 기능을 제어하기 위한 프로그래스 바를 포함하는 GUI를 출력하도록 상기 디스플레이부를 제어하는, 컴퓨팅 장치.The controller controls the display unit to output a GUI including a progress bar for controlling a playback related function of the first program when the first touch input is detected.
  9. 제 8 항에 있어서,The method of claim 8,
    상기 제어부는,The control unit,
    상기 프로그래스 바가 상기 디스플레이부에 출력된 때, 상기 제1키를 터치한 상태에서 좌측 또는 우측으로 드래그하는 제2 터치 입력을 감지하고,When the progress bar is output to the display unit, a second touch input for dragging left or right while touching the first key is detected.
    상기 감지된 제2 터치 입력에 따라, 상기 GUI에 포함된, 상기 동영상 또는 음악의 재생 지점을 지시하는 인디케이터가 상기 프로그래스 바 상에서 좌측 또는 우측으로 이동하도록 상기 디스플레이부를 제어하는, 컴퓨팅 장치.And the display unit controls the display unit to move to the left or right on the progress bar an indicator indicating a playback point of the video or music included in the GUI according to the detected second touch input.
  10. 제 1 항에 있어서,The method of claim 1,
    상기 제1키가 스페이스 바(space bar)이고, 상기 디텍트된 화면이 인터넷 사용을 위한 제2 프로그램에 대응하는 경우,If the first key is a space bar and the detected screen corresponds to a second program for internet use,
    상기 제어부는, 상기 제1 터치 입력이 감지되면, 상기 제2 프로그램을 통해 접속된 이력이 있는 웹 페이지에 대응하는 이미지들을 포함하는 GUI를 출력하도록 상기 디스플레이부를 제어하는, 컴퓨팅 장치.The control unit, when the first touch input is detected, controls the display unit to output a GUI including images corresponding to a web page having a history connected through the second program.
  11. 제 1 항에 있어서,The method of claim 1,
    상기 제1키가 Ctrl 키, Alt 키 또는 Shift 키 중 어느 하나이고, 상기 디텍트된 화면이 제3 프로그램에 대응하는 경우,If the first key is any one of a Ctrl key, an Alt key, or a Shift key, and the detected screen corresponds to a third program,
    상기 제어부는, 상기 제1 터치 입력이 감지되면, 상기 제3 프로그램의 기능과 관련된 단축키의 목록 중에서 상기 제1키를 포함하는 단축키의 목록을 출력하도록 상기 디스플레이부를 제어하고,When the first touch input is detected, the controller controls the display unit to output a list of shortcut keys including the first key from a list of shortcut keys associated with a function of the third program.
    상기 단축키란, 상기 키보드 내 적어도 두 개의 키가 함께 선택되었을 때 상기 제3 프로그램의 특정 기능이 실행되도록 미리 설정되어 있는 경우 상기 키보드 내 적어도 두 개의 키를 의미하는, 컴퓨팅 장치.The shortcut key means at least two keys in the keyboard when a predetermined function of the third program is preset to be executed when at least two keys in the keyboard are selected together.
  12. 컴퓨팅 장치의 제어 방법에 있어서,In the control method of a computing device,
    기 설정된 조건에 따라, 터치 센서를 포함하는 키보드 내 제1키를 터치하는 제1 터치 입력을 감지하는 단계;Detecting a first touch input of touching a first key in a keyboard including a touch sensor according to a preset condition;
    상기 감지된 제1 터치 입력에 따라, 상기 제1키에 대응하는 기능을 실행하는 단계; 및Executing a function corresponding to the first key according to the sensed first touch input; And
    상기 기능 실행의 결과를 디스플레이부에 출력하는 단계;를 포함하고,Outputting a result of executing the function to a display unit;
    상기 제1키에 대응하는 기능을 실행하는 단계는,Executing a function corresponding to the first key may include:
    상기 제1키에 맵핑된 특정 프로그램을 실행하는 단계, 상기 제1키에 맵핑된 특정 파일을 실행하는 단계, 및 상기 컴퓨팅 장치에서 구현 가능한 기능들 중에서 상기 제1키에 맵핑된 특정 기능을 실행하는 단계 중 어느 하나를 포함하는, 컴퓨팅 장치의 제어 방법.Executing a specific program mapped to the first key, executing a specific file mapped to the first key, and executing a specific function mapped to the first key among functions that can be implemented in the computing device And any one of the steps.
  13. 제 12 항에 있어서,The method of claim 12,
    상기 기 설정된 조건이란, 상기 제1키를 기 설정된 시간 이상 터치하는 조건, 상기 키보드 내 제2키를 터치한 상태에서 상기 제1키를 터치하는 조건, 상기 키보드 내 제2키에 기 설정된 정도 이상의 압력이 가해진 상태에서 상기 제1키를 터치하는 조건, 상기 제1키 및 상기 키보드 내 제2키를 동시에 터치하는 조건, 상기 제1키를 터치하기 전에 상기 키보드 내 적어도 두 개의 키를 터치하는 조건, 및 상기 제1키를 터치하기 전에 상기 키보드 내 최외곽에 위치하는 제2키 및 상기 키보드 내에서 상기 제1키와 상기 제2키의 사이에 위치하는 적어도 하나의 키를 터치하는 조건 중 적어도 하나를 포함하는, 컴퓨팅 장치의 제어 방법.The preset condition may be a condition of touching the first key for a predetermined time or more, a condition of touching the first key in a state of touching a second key of the keyboard, or more than a preset level of the second key of the keyboard. A condition of touching the first key under pressure, a condition of simultaneously touching the first key and a second key in the keyboard, a condition of touching at least two keys in the keyboard before touching the first key At least one of a second key located at the outermost side of the keyboard and at least one key located between the first key and the second key in the keyboard before touching the first key. A method of controlling a computing device, comprising one.
  14. 제 12 항에 있어서,The method of claim 12,
    상기 제1키에 대응하는 기능을 실행하기 전에, 상기 제1키에 대응하는 기능의 실행 여부를 확인하기 위한 GUI를 디스플레이부에 출력하는 단계;를 더 포함하는 컴퓨팅 장치의 제어 방법.And outputting a GUI for confirming whether to execute the function corresponding to the first key to a display unit before executing the function corresponding to the first key.
  15. 복수의 키를 포함하고 상기 복수의 키 중 적어도 일부에 터치 센서가 구비된 키보드;A keyboard including a plurality of keys and provided with a touch sensor on at least some of the plurality of keys;
    디스플레이부; 및A display unit; And
    제어부;를 포함하고,A control unit;
    상기 제어부는, 상기 복수의 키 중 제1키를 터치하는 제1 핑거, 제2키를 터치하는 제2 핑거 및 제3키를 터치하는 제3 핑거를 적어도 인식하고, 상기 키보드 상에서 상기 제1키는 상기 제2키의 좌측에 위치하고 상기 제3키는 상기 제2키의 우측에 위치하며, 상기 키보드 상에서 상기 제2키는 상기 제1키 및 상기 제3키 중 적어도 하나와 동일선 상에 위치하거나 상기 제1키 및 상기 제3키보다 상부에 위치하고,The controller recognizes at least a first finger that touches a first key, a second finger that touches a second key, and a third finger that touches a third key, and recognizes the first key on the keyboard. Is located on the left side of the second key and the third key is located on the right side of the second key, and the second key on the keyboard is on the same line as at least one of the first key and the third key, or Located above the first key and the third key,
    상기 인식 결과에 기초하여, 화면 상의 제1 영역에 인디케이터를 표시하도록 상기 디스플레이부를 제어하는, 컴퓨팅 장치.And control the display unit to display an indicator in a first area on a screen based on the recognition result.
  16. 제 15 항에 있어서,The method of claim 15,
    상기 키보드 상에서, 상기 제1키 및 상기 제3키는 상기 제2키와 인접하여 위치하는, 컴퓨팅 장치.On the keyboard, the first key and the third key are located adjacent to the second key.
  17. 제 15 항에 있어서,The method of claim 15,
    상기 키보드 상의 적어도 일부 영역과 관련된 제1 좌표값 데이터, 상기 디스플레이부의 화면의 전체 영역과 관련된 제2 좌표값 데이터 및 상기 제1 좌표값 데이터와 상기 제2 좌표값 데이터의 맵핑 데이터를 저장하는 메모리;를 더 포함하는 컴퓨팅 장치.A memory configured to store first coordinate value data related to at least a partial area on the keyboard, second coordinate value data related to an entire area of a screen of the display unit, and mapping data of the first coordinate value data and the second coordinate value data; Computing device further comprising.
  18. 제 17 항에 있어서,The method of claim 17,
    상기 제어부는,The control unit,
    상기 키보드 상에서 상기 제1 핑거, 상기 제2 핑거 및 상기 제3 핑거의 드래깅(dragging)을 인식하고,Recognize dragging of the first finger, the second finger and the third finger on the keyboard;
    상기 드래깅에 의해, 상기 제1 핑거, 상기 제2 핑거 및 상기 제3 핑거 중 적어도 하나와 관련된 제1 좌표값 데이터의 변화량을 계산하고, Calculating the amount of change of first coordinate value data associated with at least one of the first finger, the second finger, and the third finger by the dragging,
    상기 제1 좌표값 데이터와 상기 제2 좌표값 데이터의 맵핑 데이터 및 상기 계산된 변화량에 기초하여, 상기 인디케이터를 상기 제1 영역에서 상기 화면 상의 제2 영역으로 이동시켜 표시하도록 상기 디스플레이부를 제어하는, 컴퓨팅 장치.Controlling the display unit to display the indicator by moving the indicator from the first area to a second area on the screen based on the mapping data of the first coordinate value data and the second coordinate value data and the calculated change amount; Computing device.
  19. 제 18 항에 있어서,The method of claim 18,
    상기 제어부는,The control unit,
    상기 제1 핑거, 상기 제2 핑거 및 상기 제3 핑거의 드래깅에 의해 상기 제1 핑거가 위치하게 되는 상기 키보드 상의 제1 영역에서, 상기 제1 핑거가 상기 제1 영역을 기 설정된 시간 내에 2회 탭하는 제1 터치 입력을 감지하고,In a first region on the keyboard where the first finger is located by dragging the first finger, the second finger, and the third finger, the first finger twice within the predetermined time within the preset time. Detect the first touch input to tap,
    상기 감지된 제1 터치 입력에 따라, 상기 인디케이터가 위치하는 상기 디스플레이부의 화면 상의 제2 영역과 대응되는 특정 기능을 실행하는, 컴퓨팅 장치.And executes a specific function corresponding to a second area on a screen of the display unit in which the indicator is located according to the detected first touch input.
  20. 제 18 항에 있어서,The method of claim 18,
    상기 제어부는,The control unit,
    상기 제1 핑거, 상기 제2 핑거 및 상기 제3 핑거의 드래깅에 의해 상기 제2 핑거가 위치하게 되는 상기 키보드 상의 제2 영역에서, 상기 제2 핑거가 상기 제2 영역을 1회 탭하는 제2 터치 입력을 감지하고,A second region in which the second finger taps the second region once in a second region on the keyboard where the second finger is positioned by dragging the first finger, the second finger, and the third finger; Detect touch input,
    상기 제2 터치 입력이 감지된 때, 상기 디스플레이부에 출력된 화면을 감지하고,When the second touch input is detected, detects the screen output to the display unit,
    상기 감지된 화면에 기초하여, 상기 제2 터치 입력에 대응되는 특정 기능을 실행하는, 컴퓨팅 장치.And executing a specific function corresponding to the second touch input based on the sensed screen.
PCT/KR2014/010748 2014-06-19 2014-11-10 Computing apparatus and method for controlling same WO2015194712A1 (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR1020140074707A KR20150145402A (en) 2014-06-19 2014-06-19 Computing apparatus and method for controlling the same
KR10-2014-0074707 2014-06-19
KR10-2014-0086640 2014-07-10
KR1020140086640A KR20160006932A (en) 2014-07-10 2014-07-10 Computing apparatus and method for controlling the same

Publications (1)

Publication Number Publication Date
WO2015194712A1 true WO2015194712A1 (en) 2015-12-23

Family

ID=54935679

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2014/010748 WO2015194712A1 (en) 2014-06-19 2014-11-10 Computing apparatus and method for controlling same

Country Status (1)

Country Link
WO (1) WO2015194712A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070091070A1 (en) * 2005-10-20 2007-04-26 Microsoft Corporation Keyboard with integrated key and touchpad
US20070200823A1 (en) * 2006-02-09 2007-08-30 Bytheway Jared G Cursor velocity being made proportional to displacement in a capacitance-sensitive input device
US20100148995A1 (en) * 2008-12-12 2010-06-17 John Greer Elias Touch Sensitive Mechanical Keyboard
WO2011046270A1 (en) * 2009-10-12 2011-04-21 라오넥스(주) Multi-touch type input controlling system
US20140078063A1 (en) * 2012-09-18 2014-03-20 Microsoft Corporation Gesture-initiated keyboard functions

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070091070A1 (en) * 2005-10-20 2007-04-26 Microsoft Corporation Keyboard with integrated key and touchpad
US20070200823A1 (en) * 2006-02-09 2007-08-30 Bytheway Jared G Cursor velocity being made proportional to displacement in a capacitance-sensitive input device
US20100148995A1 (en) * 2008-12-12 2010-06-17 John Greer Elias Touch Sensitive Mechanical Keyboard
WO2011046270A1 (en) * 2009-10-12 2011-04-21 라오넥스(주) Multi-touch type input controlling system
US20140078063A1 (en) * 2012-09-18 2014-03-20 Microsoft Corporation Gesture-initiated keyboard functions

Similar Documents

Publication Publication Date Title
WO2015199453A1 (en) Foldable electronic apparatus and interfacing method thereof
WO2014010998A1 (en) Method for transmitting and receiving data between memo layer and application and electronic device using the same
WO2018034402A1 (en) Mobile terminal and method for controlling the same
WO2015167165A1 (en) Method and electronic device for managing display objects
WO2015102284A1 (en) User terminal apparatus and control method thereof
WO2016137167A1 (en) Terminal
WO2016018062A1 (en) Method and device for providing content
WO2015178714A1 (en) Foldable device and method of controlling the same
WO2015119484A1 (en) User terminal device and displaying method thereof
WO2015060621A1 (en) Method and device for transmitting data, and method and device for receiving data
WO2014011000A1 (en) Method and apparatus for controlling application by handwriting image recognition
WO2014088375A1 (en) Display device and method of controlling the same
WO2016085173A1 (en) Device and method of providing handwritten content in the same
WO2013162200A1 (en) Method and terminal for displaying a plurality of pages, method and terminal for displaying a plurality of applications being executed on terminal, and method of executing a plurality of applications
WO2013022223A2 (en) Method for controlling electronic apparatus based on voice recognition and motion recognition, and electronic apparatus applying the same
WO2016032045A1 (en) Mobile terminal and controlling method thereof
WO2013022218A2 (en) Electronic apparatus and method for providing user interface thereof
WO2012043932A1 (en) Keyboard control device and method therefor
WO2014129864A1 (en) An apparatus for providing a cursor in electronic devices and a method thereof
WO2015199381A1 (en) Mobile terminal and method for controlling the same
WO2016108407A1 (en) Annotation providing method and device
WO2016039498A1 (en) Mobile terminal and method of controlling same
WO2017034180A1 (en) System for providing application list and method therefor
WO2018101534A1 (en) Method for converting electronic document and system for performing same
WO2017026570A1 (en) Mobile terminal and control method therefor

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14895458

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14895458

Country of ref document: EP

Kind code of ref document: A1