WO2016117811A1 - Electronic device and method for controlling electronic device - Google Patents

Electronic device and method for controlling electronic device Download PDF

Info

Publication number
WO2016117811A1
WO2016117811A1 PCT/KR2015/012088 KR2015012088W WO2016117811A1 WO 2016117811 A1 WO2016117811 A1 WO 2016117811A1 KR 2015012088 W KR2015012088 W KR 2015012088W WO 2016117811 A1 WO2016117811 A1 WO 2016117811A1
Authority
WO
WIPO (PCT)
Prior art keywords
screen
electronic device
user input
displayed
input
Prior art date
Application number
PCT/KR2015/012088
Other languages
French (fr)
Korean (ko)
Inventor
장궈리앙
천리에신
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from CN201510025705.3A external-priority patent/CN104571832A/en
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Priority to US15/533,230 priority Critical patent/US20170344254A1/en
Publication of WO2016117811A1 publication Critical patent/WO2016117811A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures

Definitions

  • the disclosed embodiments relate to an electronic device and a method of controlling the electronic device, and more particularly, to a method of controlling an electronic device including a plurality of screens.
  • the user is accustomed to carrying the electronic devices and controlling the electronic device with one hand.
  • the screen size of the electronic device gradually increases, it is not easy for a user to control the electronic device with one hand. Therefore, there is a need for a method in which a user can conveniently control the electronic device with one hand.
  • An electronic device control method receives a user input via a second screen whose user interface is updated independently of the first screen, and is performed on the electronic device based on the received user input to perform on the first screen. By controlling the operation displayed on the screen, the user can conveniently control the electronic device with one hand.
  • the electronic device and the method for controlling the electronic device according to the disclosed embodiment allow the user to conveniently control the electronic device with one hand.
  • FIG. 1 is a diagram illustrating an example of an electronic device according to an embodiment of the present disclosure.
  • 2A-2C are flowcharts illustrating a method of controlling an electronic device according to an embodiment of the present disclosure.
  • FIG. 3 is a diagram for describing a method of controlling an electronic device, according to an exemplary embodiment.
  • FIG. 4 is a diagram for describing mapping a user input to an operation performed by an electronic device and displayed on a first screen according to an embodiment of the present disclosure.
  • FIG. 5 is a diagram for describing an example of changing a parameter related to a second screen of an electronic device according to an embodiment of the present disclosure.
  • FIG. 6 is a diagram illustrating an example of dividing a second screen of an electronic device into a plurality of areas according to an exemplary embodiment.
  • FIG. 7 is a diagram illustrating an example of a keyboard displayed on a second screen according to an embodiment of the present disclosure.
  • FIG. 8 is a diagram for describing a method of distinguishing and displaying a user input received through a second screen according to an exemplary embodiment on a first screen.
  • FIG. 9 is a diagram for describing a method of releasing a locked state of an electronic device, according to an exemplary embodiment.
  • 10A to 10C are diagrams for describing a method of releasing a locked state of an electronic device, according to an exemplary embodiment.
  • FIG. 11 is a block diagram illustrating a configuration of an electronic device according to an embodiment of the present disclosure.
  • 12 to 14 are block diagrams illustrating a configuration of an electronic device according to another disclosed embodiment.
  • 15 to 17 are flowcharts illustrating a control method of an electronic device according to another disclosed embodiment.
  • a method of controlling an electronic device is performed by an electronic device based on a user input and receiving a user input through a second screen on which a user interface is updated independently of the first screen. 1 may include controlling an operation displayed on the screen.
  • a method of performing a mapping operation corresponding to a user input based on a mapping result and a step of pre-mapping an operation performed on an electronic device and displayed on a first screen and a mapping result may be performed.
  • the method may further include displaying on a screen.
  • the user input may include one of an input of dragging on the second screen, an input of single tapping, an input of double tapping, and a touch and hold input.
  • the controlling of the operation displayed on the first screen may include displaying a predetermined operation on the first screen based on a user input, and displaying the first screen and the first screen according to the displayed operation. Controlling the user interface of the two screens.
  • Receiving a user input includes touching a key of a keyboard displayed on a second screen, and controlling the operation displayed on the first screen.
  • the method may include displaying, on the first screen, an operation determined based on a value corresponding to the touched key.
  • the method according to an embodiment of the present invention may further include changing a display format of the keyboard according to a user setting.
  • the method may be configured to adaptively set at least one of a location, a length, and a width of an area for receiving a user input through a second screen according to a user. It may further comprise the step.
  • the method may further include dividing the second screen into a plurality of areas and performing different operations according to user input received through the divided areas.
  • the method according to an embodiment of the present invention further includes updating a user interface of the first screen and the second screen based on state information of the first screen and the second screen, and including the state information. May include at least one of information related to a locked state of the electronic device, a selected application, and a running application.
  • the method according to an embodiment of the present disclosure may further include unlocking the electronic device based on a preset user input received through the second screen.
  • an electronic device may include a display unit including a first screen and a second screen whose user interface is updated independently of the first screen, a user input unit receiving a user input through the second screen, and
  • the controller may include a controller to control an operation performed on the first screen and displayed on the first screen based on a user input.
  • the controller may pre-map an operation performed on the first screen and a user input and is displayed on the first screen based on the mapping result. can do.
  • the user input may include one of an input of dragging on the second screen, an input of single tapping, an input of double tapping, and a touch and hold input.
  • the controller may display a predetermined operation on the first screen based on a user input, and control the user interface of the first screen and the second screen according to the displayed operation.
  • the user input includes an input of touching a key of a keyboard displayed on a second screen, and the controller is configured to perform an operation determined based on a value corresponding to the touched key on the first screen. Can be displayed on.
  • the control unit may change the display format of the keyboard according to the user setting.
  • the controller may adaptively set at least one of a position, a length, and a width of an area for receiving a user input through a second screen according to the user.
  • the second screen according to an embodiment of the present invention may be divided into a plurality of areas, and the controller may perform different operations according to a user input received through the divided areas.
  • the control unit updates the user interface of the first screen and the second screen based on the state information of the first screen and the second screen, and the state information includes a locked state of the electronic device and a selected application. , And information related to the running application.
  • ... unit means a unit for processing at least one function or operation, which may be implemented in hardware or software or a combination of hardware and software.
  • touch input refers to a gesture that a user makes on a touch screen to control an electronic device.
  • the touch input may include a single tap, a double tap, a touch and hold, a drag, and the like.
  • a “single tap” refers to an action in which a user immediately touches the screen using a finger or a touch tool (eg, an electronic pen) and immediately lifts off the screen without moving.
  • Double tap refers to an action in which a user touches the screen twice using a finger or a touch tool (eg, an electronic pen).
  • drag refers to an operation in which a user touches a finger or a touch tool on the screen and then moves the finger or the touch tool to another position on the screen while maintaining the touch.
  • Touch & hold refers to an operation in which a user holds a touch input for more than a threshold time (eg, 2 seconds) after touching a screen using a finger or a touch tool (eg, an electronic pen). For example, this means that the time difference between the touch-in time point and the touch-out time point is greater than or equal to a threshold time (eg, 2 seconds).
  • a threshold time eg, 2 seconds
  • the feedback signal may be provided visually, acoustically, or tactilely when the touch input is maintained for a threshold time or more.
  • the threshold time may be changed according to an embodiment.
  • FIG. 1 is a diagram illustrating an example of an electronic device according to an embodiment of the present disclosure.
  • the electronic device 100 may be implemented in various forms.
  • the electronic device 100 may be a mobile phone, a smart phone, a PC, a tablet PC, a personal digital assistant (PDA), a smart TV, a laptop, a media player, an MP3 player, a portable multimedia player (PMP), Digital cameras, kiosks, navigation, global positioning system (GPS) devices, e-book terminals, digital broadcasting terminals, and other mobile or non-mobile computing devices, but are not limited thereto.
  • the electronic device 100 may be a wearable device such as a watch, glasses, a hair band, and a ring having a communication function and a data processing function, but is not limited thereto.
  • an electronic device 100 may include a first screen 110 and a second screen 120.
  • the first screen 110 and the second screen 120 may be configured as one curved screen or a plurality of independent screens, but are not limited thereto.
  • the second screen 120 may be located at both sides of the electronic device 100, but is not limited thereto.
  • the second screen 120 may be updated independently of the first screen 110 and the user interface.
  • the first screen 110 may display an overall operation performed on the electronic device 100, and the second screen 120 may be performed by the electronic device 100 to display the first screen 110.
  • a user interface for controlling the displayed operation can be displayed.
  • the electronic device 100 receives a user input through the second screen 120, and controls an operation performed on the electronic device 100 and displayed on the first screen 110 based on the received user input. can do.
  • the electronic device 100 may pre-map an operation performed by the electronic device and displayed on the first screen 110 with respect to each user input received through the second screen 120.
  • the electronic device 100 may receive a user input including various touch inputs through the second screen 120. Then, an operation corresponding to the user input based on the mapping result may be performed by the electronic device 100 and displayed on the first screen 110.
  • 2A-2C are flow diagrams illustrating a method of operating an electronic device in accordance with one disclosed embodiment.
  • the electronic device 100 may receive a user input through the second screen 120.
  • the user input may be a touch input including a drag, a single tap, a double tap, and a touch and hold, but is not limited thereto.
  • the electronic device 100 may control an operation performed on the electronic device and displayed on the first screen 110 based on a user input.
  • an operation corresponding to the user input may be performed by the electronic device 100 and displayed on the first screen 110.
  • an operation of dragging the page downward may be performed by the electronic device 100 and displayed on the first screen 110.
  • the electronic device 100 may pre-map each user input received through the second screen 120 to an operation performed by the electronic device and displayed on the first screen 110.
  • a mapping relationship between a user input and an operation performed by the electronic device 100 and displayed on the first screen 110 may be stored in a memory during a manufacturing process of the electronic device 100.
  • the mapping relationship may be changed according to a user's setting. The mapping between the user input and the operation performed by the electronic device 100 and performed on the first screen 110 will be described later with reference to FIG. 4.
  • the electronic device 100 displays a predetermined operation on the first screen 110 based on a user input received through the second screen 120, and according to the displayed operation, the first screen 110 and The user interface of the second screen 120 may be updated.
  • the electronic device 100 may receive a user input through the second screen 120.
  • the electronic device 100 may determine a mapping relationship between a user input received through the second screen 120 and an operation performed on the electronic device 100 and displayed on the first screen 110. Accordingly, an operation corresponding to the user input may be displayed on the first screen 110. Since the descriptions of step S220 and step S222 have been described in detail with reference to FIG. 2A, overlapping contents are omitted.
  • the electronic device 100 may update the user interface of at least one of the first screen 110 and the second screen 120 according to the operation displayed on the first screen 110. For example, when a single tap input is received from the second screen 120, an operation of executing a particular application may be performed by the electronic device 100 and displayed on the first screen 110. In this case, when the executed application requests text input, the electronic device 100 may display a keyboard capable of receiving the text input on the second screen 120.
  • the electronic device 100 may update the user interface of the first screen 110 and the second screen 120 based on the state information as well as the user input.
  • the electronic device 100 may receive a user input through the second screen 120 (step S230), and may check state information of the first screen 110 and the second screen 120. (Step S232).
  • the state information of the first screen 110 may include information related to whether the electronic device 100 is in a locked state, a page displayed on the first screen, a selected page, a selected application, and a running application.
  • an initial value may be set to "-1", and an initial value "-1" may mean that there is no currently running application.
  • the electronic device 100 may update the serial number of the running application as new state information.
  • an initial value may be set to “Yes”.
  • the electronic device 100 may update state information related to the locked state.
  • certain software screens eg, home screens, lock screens, or application screens
  • the electronic device 100 may include a plurality of pages.
  • a plurality of application lists may be displayed on each page, or a running application may be displayed.
  • the state information of the first screen 110 may include the number of the page currently displayed on the first screen 110. And, even if the same user input is received, the electronic device 100 may perform different operations according to the number of pages currently displayed.
  • the status information of the second screen 120 may include information about whether the second screen 120 is in use by a particular item, the type of item displayed on the second screen 120 and the number of pages of the item. Can be.
  • the item may be a setting menu, a keyboard, and a predetermined application that can be used by the user on the second screen 120, but is not limited thereto.
  • the status information regarding the type of the item may be a serial number corresponding to the keyboard.
  • the keyboard may be displayed in a plurality of pages on the second screen 120, and the page number of the currently displayed keyboard may constitute status information.
  • the electronic device 100 may display a user interface of the first screen 110 and the second screen 120 based on state information and user input of the first screen 110 and the second screen 120. Can be updated.
  • the electronic device 100 may execute the selected application based on state information and user input regarding the selected application.
  • the electronic device 100 may be changed to a locked state.
  • the operation performed based on the state information and the user input is not limited to the above example.
  • FIG. 3 is a diagram for describing a method of controlling an electronic device, according to an exemplary embodiment.
  • dragging the page downward is performed by the electronic device 100 to display on the first screen 110. Can be.
  • the second screen 120 returns to a higher menu or receives a user input for exiting the currently displayed page. Can be displayed.
  • FIG. 4 is a diagram for describing a mapping relationship between a user input and an operation performed by an electronic device and displayed on a first screen, according to an exemplary embodiment.
  • the user input 410 received through the second screen 120 may be a touch input including drag, single tap, double tap, and touch and hold, but is not limited thereto.
  • an operation 420 performed by the electronic device 100 according to a user input and displayed on the first screen 110 may be mapped as illustrated in FIG. 3, but is not limited thereto.
  • an input of dragging on the second screen 120 may correspond to a drag operation performed by the electronic device 100 and displayed on the first screen 110.
  • the dragging operation in the same direction may be performed by the electronic device 100 and displayed on the first screen.
  • the single tap input from the second screen 120 may correspond to an operation of selecting a specific application or executing the selected application from among a plurality of applications displayed on the first screen 110.
  • an input of double tapping on the second screen 120 may correspond to an operation of returning to an upper menu on the first screen 110 or terminating an application currently running.
  • the electronic device 100 may divide the second screen 120 into a plurality of regions.
  • different operations may be performed by the electronic device 100 and displayed on the first screen 100.
  • the touch and hold input in the center area may correspond to an operation of changing the electronic device 100 to a locked state.
  • the touch and hold inputs in the up, down, left, and right areas of the second screen 120 may correspond to dragging up, down, left, and right, respectively.
  • mapping relationship is only one embodiment, and other operations may be performed according to the embodiment.
  • FIG. 5 is a diagram for describing an example of changing a parameter related to a second screen according to an exemplary embodiment.
  • the electronic device 100 may change a parameter related to the second screen 120 according to a user setting.
  • the parameters related to the second screen 120 may include On / Off of the “one hand control function” as shown in FIG. 5.
  • the “one hand control function” is a function of controlling an operation performed by the electronic device 100 and displayed on the first screen 110 based on a user input received through the second screen 120. It may refer to, but other terms may be used according to the embodiment. Hereinafter, for convenience of explanation, it will be referred to as a one-handed control function.
  • the electronic device 100 may set at least one of a location, a length, and a width of an area for receiving a user input through the second screen 120 according to a user's hand. Can be. For example, when the size of the user's hand is small, at least one of the length and width of the area for receiving the user input through the second screen 120 may be changed smaller than the current setting.
  • the electronic device 100 may set a location of an area for receiving a user input through the second screen 120 according to the holding state of the user.
  • the electronic device 100 may recognize a repetitive gripping habit of the user and adaptively set an area for receiving a user input through the second screen 120 based on the recognized gripping habit.
  • the electronic device 100 may change a display format of a keyboard displayed on the second screen 120.
  • the electronic device 100 may change the keyboard displayed on the second screen 120 into a format such as 2x5 or 3x3 according to a user's setting.
  • a keyboard displayed on the second screen 120 will be described later with reference to FIG. 7.
  • the electronic device 100 may change a mapping relationship between a user input and an operation performed by the electronic device 100 and displayed on the first screen according to a user's convenience.
  • a setting menu of a parameter related to the second screen 120 may be displayed on the first screen 110 as shown in FIG. 5, but according to an embodiment, may be displayed on the second screen 120. Can be.
  • the setting menu is a drop-down menu. , May be displayed in the form of an icon. However, it is not limited to this.
  • FIG. 6 is a diagram illustrating an example of dividing a second screen of an electronic device into a plurality of areas according to an exemplary embodiment.
  • the second screen 120 may be divided into a plurality of areas.
  • the second screen 120 may be divided into areas A 601, B 602, C 603, D 604, and E 605.
  • the present invention is not limited thereto.
  • the electronic device 100 may differently set an operation performed by the electronic device 100 and displayed on the first screen 110 according to an area for receiving a user input. For example, as shown in FIG. 4, when a touch & hold input is received through the E region 605, an operation of changing the electronic device 100 to the lock mode is performed by the electronic device 100 to perform the operation. 1 may be displayed on the screen 110. In addition, when a touch and hold input is received through one of A 601, B 602, C 603, and D 604, the currently selected application is executed or the page is dragged in a specific direction. The operation may be performed by the electronic device 100 and displayed on the first screen 110. However, an operation performed by the electronic device 100 according to a user input and displayed on the first screen 110 is not limited to the above-described example.
  • FIG. 7 is a diagram illustrating an example of a keyboard displayed on a second screen according to an embodiment of the present disclosure.
  • the electronic device 100 may display a keyboard 700 on the second screen 120 that receives a user input.
  • the electronic device 100 may divide the number and the English alphabet into a plurality of pages on the second screen 120 and display the divided pages.
  • the first page of keyboard 700 displayed on second screen 120 may include numbers 701 displayed in 2 ⁇ 5 format.
  • the second page may display a left portion 702 of the keyboard 700
  • the third page may display a center portion 703 of the keyboard 700
  • the fourth page may display a right portion 704 of the keyboard 700.
  • the portion of the keyboard 700 displayed on each page is not limited to the above-described example and may be changed according to a user setting. For example, when the display format of the keyboard is set to 3 ⁇ 3, the shape and the number of pages displayed on the second screen 120 may be different from those shown in FIG. 7.
  • the electronic device 100 may change a page of the currently displayed keyboard. For example, when the first page 701 of the current keyboard is displayed, when a user input of dragging to the right through the second screen 120 is received, the electronic device 100 displays the second page 702 of the keyboard. It may be displayed on the second screen 120.
  • the user input for changing the page of the keyboard may vary, and is not limited to the above-described example.
  • FIG. 8 is a diagram for describing a method of distinguishing and displaying a user input received through a second screen 120 on a first screen according to an exemplary embodiment.
  • the electronic device 100 is performed on the electronic device based on a user input of touching a key of the keyboard 800 to perform the first screen ( The operation displayed on 110 may be controlled. In this case, the electronic device 100 may display the touched key on the first screen 110 so that the key touched through the second screen 120 may be identified.
  • the electronic device 100 may display the keys currently displayed on the second screen 120 on the first screen 110 and display the touched keys as highlights on the first screen 110. have.
  • the method of displaying the highlight may include a method of displaying the numbers in bold or different colors, but is not limited thereto.
  • the electronic device 100 may adjust the transparency of the keys displayed on the first screen 110 according to the user's convenience.
  • the electronic device 100 may display the touched key on the first screen 110 in a pop-up form.
  • the key displayed in the pop-up form may be displayed in the center area of the first screen 110 or in the edge area of the first screen 110, but is not limited thereto.
  • the electronic device 100 may display a menu on the second screen 120 that may cancel the input of the key.
  • a menu for canceling input of a key may be displayed on the second screen 120 together with the keyboard 800, but is not limited thereto.
  • FIG. 9 is a diagram for describing a method of releasing a locked state of an electronic device, according to an exemplary embodiment.
  • the electronic device 100 may include a button 130 on one side thereof.
  • the position of the button 130 is not limited to one side of the electronic device 100 and may be the top or bottom of the electronic device 100.
  • the first screen 110 and the second screen 120 may be in an inactive state.
  • the electronic device 100 may activate the second screen 120.
  • a lock pattern or a password may be used to release the lock state of the electronic device 100, but is not limited thereto.
  • the electronic device 100 may display at least one item selectable by the user on the second screen 120.
  • an item displayed on the second screen 120 may include a keyboard that may be used to unlock the electronic device 100.
  • a keyboard may be selected to unlock the electronic device 100.
  • the locked state of the electronic device 100 may be released.
  • 10A to 10C illustrate an example in which a lock pattern is used in an electronic device according to an embodiment of the present disclosure.
  • the lock pattern 1000 illustrated in FIG. 10A may be used to unlock the electronic device 100.
  • the lock pattern 1000 may be determined according to a user's setting in a 3 ⁇ 3 dot array. Further, in some embodiments, the lock pattern may be set in a 4x4 or 5x5 dot array, but is not limited thereto.
  • the second screen 120 is relatively smaller in size than the first screen 110, a space for receiving a user input is narrow. Therefore, when the lock pattern 1000 is used, it is not easy to receive an input for drawing the lock pattern 1000 set by the user through the second screen 120.
  • the electronic device 100 may map the lock pattern 1000 to the numeric array.
  • the locked state of the electronic device 100 may be released.
  • the 3 ⁇ 3 dot array in which the lock pattern is set may be mapped to the numbers 1010 of 1 to 9, as shown in FIG. 10B.
  • the mapping relationship 1000 and 1010 of each dot and number is not limited to the above-described example, and may be mapped differently according to an embodiment.
  • the lock pattern 1000 illustrated in FIG. 10A is mapped to the numeric array 1010 illustrated in FIG. 10B, the lock pattern 1000 illustrated in FIG. 10A may correspond to the numeric array illustrated as “23547”.
  • 10C is a diagram illustrating an example in which a locked state of an electronic device is released as numbers corresponding to the lock pattern are touched.
  • the electronic device 100 may display the lock pattern 1030 set by the user. It can be recognized as input. As a result, the locked state of the electronic device 100 may be released.
  • 11 and 12 are block diagrams illustrating a configuration of an electronic device according to an embodiment of the present disclosure.
  • the electronic device 100 may include a display 1110, a user input unit 1120, and a controller 1130. However, not all illustrated components are essential components. The electronic device 100 may be implemented by more components than the illustrated components, or the electronic device 100 may be implemented by fewer components.
  • the electronic device 100 may include a communication unit 1140 and a sensing unit, in addition to the display 1110, the user input unit 1120, and the control unit 1130.
  • the unit 1150 may further include an A / V input unit 1160 and a memory 1170.
  • the output unit 1115 is for outputting an audio signal, a video signal, or a vibration signal, and the output unit 1115 may include a display unit 1110, an audio output unit 1111, and a vibration motor 1112. It is not limited to this.
  • the display 1110 displays information processed by the device 100.
  • the display 1110 may include a first screen 110 and a second screen 120.
  • the first screen 110 and the second screen 120 may consist of one curved screen or a plurality of independent screens, but is not limited thereto.
  • the second screen 120 may be updated with a user interface independent of the first screen 110.
  • the first screen 110 may display an overall operation performed on the electronic device 100, and the second screen 120 may be performed on the electronic device 100 to display on the first screen 110.
  • a user interface for controlling the operation may be displayed.
  • the display 1110 may be used as an input device in addition to the output device.
  • the display 1110 may include a liquid crystal display, a thin film transistor-liquid crystal display, an organic light-emitting diode, a flexible display, and a three-dimensional display. 3D display, an electrophoretic display.
  • the electronic device 100 may include two or more display units 1110.
  • the sound output unit 1111 outputs audio data received from the communication unit 1140 or stored in the memory 1170. In addition, the sound output unit 1111 outputs a sound signal related to a function (for example, a call signal reception sound, a message reception sound, and a notification sound) performed by the electronic device 100.
  • the sound output unit 1111 may include a speaker, a buzzer, and the like.
  • the vibration motor 1112 may output a vibration signal.
  • the vibration motor 1112 may output a vibration signal corresponding to an output of audio data or video data (eg, a call signal reception sound, a message reception sound, and the like).
  • the vibration motor 1112 may output a vibration signal when a touch is input to the touch screen.
  • the user input unit 1120 means a means for a user to input data for controlling the electronic device 100.
  • the user input unit 1120 may include a key pad, a dome switch, a touch pad (contact capacitive type, pressure resistive layer type, infrared sensing type, surface ultrasonic conduction type, and integral type). Tension measurement method, piezo effect method, etc.), jog wheel, jog switch, etc., but is not limited thereto.
  • the user input unit 1120 may include a touch screen.
  • the user input unit 1120 may receive a user input for controlling the first screen 110 through the second screen 120.
  • the user input may be one of various touch inputs including a drag, a single tap, a double tap, and a touch and hold input on the second screen 120.
  • the user input may include an action of clicking the button 130 of the electronic device 100, but is not limited thereto.
  • the controller 1130 generally controls the overall operation of the electronic device 100.
  • the controller 1130 may execute programs stored in the memory 1170, thereby outputting the output unit 1115, the user input unit 1120, the communication unit 1140, the sensing unit 1150, and the A / V input unit 1160. ) Can be controlled overall.
  • the controller 1130 may control an operation performed on the electronic device 100 and displayed on the first screen 110 based on a user input received through the second screen 120.
  • the controller 1130 may previously map an operation performed by the electronic device 100 and displayed on the first screen 110. Based on the mapping result, an operation corresponding to a user input may be performed by the controller 1130 and displayed on the first screen 110.
  • an operation determined based on a value corresponding to the touched key is performed by the controller 1130 to perform a first screen 110. Can be displayed on the screen.
  • the controller 1130 may change the display format of the keyboard displayed on the second screen 120 according to a user setting. For example, the controller 1130 may set the keyboard in a format of 3x3 or 2x5 according to the user's convenience, but is not limited thereto.
  • controller 1130 may display an operation corresponding to the user input on the first screen 110 and control the user interface of the first screen 110 and the second screen 120 according to the displayed operation. Can be.
  • the communication unit 1140 may include one or more components for performing communication between the electronic device 100 and an external device or the electronic device 100 and a server.
  • the communication unit 1140 may include a short range communication unit 1141, a mobile communication unit 1142, and a broadcast receiving unit 1143.
  • the short-range wireless communication unit 1141 may include a Bluetooth communication unit, a Near Field Communication unit, a WLAN (Wi-Fi) communication unit, a Zigbee communication unit, an Infrared Data Association (IrDA) communication unit, It may include a Wi-Fi Direct communication unit, an ultra wideband communication unit, an Ant + communication unit, and the like, but is not limited thereto.
  • the mobile communication unit 1142 transmits and receives a radio signal with at least one of a base station, an external terminal, and a server on a mobile communication network.
  • the wireless signal may include various types of data according to transmission and reception of a voice call signal, a video call call signal, or a text / multimedia message.
  • the broadcast receiving unit 1143 receives a broadcast signal and / or broadcast related information from the outside through a broadcast channel.
  • the broadcast channel may include a satellite channel and a terrestrial channel.
  • the electronic device 100 may not include the broadcast receiving unit 1143.
  • the sensing unit 1150 may detect a state of the electronic device 100 or a state around the electronic device 100 and transmit the detected information to the controller 1130.
  • the sensing unit 1150 may include a geomagnetic sensor 1151, an acceleration sensor 1152, a temperature / humidity sensor 1153, an infrared sensor 1154, a gyroscope sensor 1155, and a position sensor. (Eg, GPS) 1156, barometric pressure sensor 1157, proximity sensor 1158, and RGB sensor 1illuminance sensor 1159, but are not limited thereto. Functions of the respective sensors can be intuitively deduced by those skilled in the art from the names thereof, and thus detailed descriptions thereof are omitted.
  • the A / V input unit 1160 is for inputting an audio signal or a video signal, and the A / V input unit 1160 may include a camera 1161 and a microphone 1162.
  • the camera 1161 may obtain an image frame such as a still image or a moving image through an image sensor in a video call mode or a photographing mode.
  • the image captured by the image sensor may be processed by the controller 1130 or an additional image processor (not shown).
  • the image frame processed by the camera 1161 may be stored in the memory 1170 or transmitted to the outside through the communication unit 1140. Two or more cameras 1161 may be provided according to the configuration aspect of the electronic device 100.
  • the microphone 1162 receives an external sound signal and processes the external sound signal into electrical voice data.
  • the microphone 1162 may receive an acoustic signal from an external device or speaker.
  • the microphone 1162 may use various noise removing algorithms for removing noise generated in the process of receiving an external sound signal.
  • the memory 1170 may store a program for processing and controlling the controller 1130.
  • data input / output eg, an application, content, an image file, a text file, etc.
  • data input / output eg, an application, content, an image file, a text file, etc.
  • the memory 1170 may include a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (eg, SD or XD memory, etc.), Random Access Memory (RAM) Static Random Access Memory (SRAM), Read-Only Memory (ROM), Electrically Erasable Programmable Read-Only Memory (EEPROM), Programmable Read-Only Memory (PROM), Magnetic Memory, Magnetic It may include a storage medium of at least one type of disk, optical disk.
  • the electronic device 100 may operate a web storage or a cloud server that performs a storage function of the memory 1170 on the Internet.
  • Programs stored in the memory 1170 may be classified into a plurality of modules according to their functions.
  • the UI module 1171 may provide a specialized UI, GUI, or the like that is linked to the electronic device 100 for each application.
  • the touch screen module 1172 may detect a touch gesture on the user's touch screen, and may transmit information about the touch gesture to the controller 1130.
  • the touch screen module 1172 may be configured as separate hardware including a controller.
  • Various sensors may be provided inside or near the touch screen to detect a touch or proximity touch of the touch screen.
  • An example of a sensor for sensing a touch of a touch screen is a tactile sensor.
  • the tactile sensor refers to a sensor that senses the contact of a specific object to the extent that a person feels or more.
  • the tactile sensor may sense various information such as the roughness of the contact surface, the rigidity of the contact object, the temperature of the contact point, and the like.
  • an example of a sensor for sensing a touch of a touch screen is a proximity sensor.
  • the proximity sensor refers to a sensor that detects the presence or absence of an object approaching a predetermined detection surface or an object present in the vicinity without using a mechanical contact by using an electromagnetic force or infrared rays.
  • Examples of the proximity sensor include a transmission photoelectric sensor, a direct reflection photoelectric sensor, a mirror reflection photoelectric sensor, a high frequency oscillation proximity sensor, a capacitive proximity sensor, a magnetic proximity sensor, and an infrared proximity sensor.
  • the user's touch gesture may include tap, touch and hold, double tap, drag, pan, flick, drag and drop, and swipe.
  • the notification module 1173 may generate a signal for notifying occurrence of an event of the electronic device 100. Examples of events occurring in the electronic device 100 include call signal reception, message reception, key signal input, schedule notification, and the like.
  • the notification module 1173 may output the notification signal in the form of a video signal through the display 1110, may output the notification signal in the form of an audio signal through the sound output unit 1111, and the vibration motor 1112. Through the notification signal may be output in the form of a vibration signal.
  • Speech to Text (STT) module 1174 may generate a transcript corresponding to the multimedia content by converting the voice included in the multimedia content into text.
  • the transcript may be mapped to the play time information of the multimedia content.
  • 13 and 14 are block diagrams illustrating a configuration of an electronic device according to another disclosed embodiment.
  • the electronic device 100a may include a second screen sensing module 1310, a screen display control module 1320, a second screen display control module 1330, and a first screen display control module 1350. It may include.
  • the control unit 1130 illustrated in FIGS. 11 and 12 may include the second screen sensing module 1310, the screen display control module 1320, and the second screen display control module illustrated in FIG. 13. 1330, and a first screen display control module 1350.
  • the second screen detection module 1310 may detect a user input through the second screen 120.
  • the screen display control module 1320 may store a mapping relationship between a user input received through the second screen 120 and an operation performed by the electronic device 100 and displayed on the first screen 110. . In addition, the screen display control module 1320 may convert a user input sensed by the second screen sensing module 1310 into an operation performed by the electronic device 100 and displayed on the first screen 110. have.
  • the screen display control module 1320 may transmit an operation performed by the electronic device 100 and displayed on the first screen 110 to the first screen display control module 1340.
  • the screen display control module 1320 may update state information of the electronic device 100 and transmit the updated state information to the first screen display control module 1340 and the second screen display control module 1330. have.
  • the second screen display control module 1330 may update the user interface of the second screen 120 based on the received state information.
  • the first screen display control module 1340 may perform an operation received from the screen display control module 1320 and update the user interface of the first screen 110 based on the received state information.
  • the electronic device 100b may further include a one-handed control setting module 1300 and a first screen sensing module 1340, as shown in FIG. 14.
  • the one-handed control setting module 1300 may set and store parameters related to the second screen 120. For example, the one hand control setting module 1300 may set at least one of a position, a length, and a width of an area for receiving a user input through the second screen 120. In addition, the one-handed control setting module 1300 may set a mapping relationship between a user input received through the second screen 120 and an operation performed by the electronic device 100 and displayed on the first screen 110. Can be.
  • the first screen detection module 1340 may detect a user input received from the first screen 110 and transmit the detected user input to the screen display control module 1320.
  • the user input may be one of drag, single tap, double tap, and touch and hold input, but is not limited thereto.
  • the screen display control module 1320 may transmit the user input transmitted from the first screen detection module 1340 to the first screen display control module 1350.
  • an operation corresponding to a user input may be performed by the first screen display control module 1350 and displayed on the first screen 110.
  • 15 is a flowchart illustrating an example in which a user input of dragging is received in an electronic device according to another exemplary embodiment of the present disclosure.
  • the electronic device 100a may receive a drag input through the second screen 120.
  • the electronic device 100a may check whether there is an item displayed on the second screen 120.
  • the item displayed on the second screen 120 may include a keyboard and a setting menu of the electronic device 100a, but is not limited thereto.
  • the electronic device 100a may check the type of the item and status information regarding the page of the displayed item.
  • the status information regarding the item type may be a serial number corresponding to the keyboard.
  • the page of the keyboard currently displayed on the second screen 120 is the second page 702
  • the status information regarding the page of the displayed item may be “2”.
  • the electronic device 100a may update the user interface of the second screen 120 based on the confirmed state information and the received user input.
  • the electronic device 100a may check whether the running application is displayed on the first screen 110.
  • an operation corresponding to the user input may be performed by the electronic device 100a and displayed on the first screen 110. For example, when a user input of dragging downward is received, dragging downward with respect to the running application may be performed by the electronic device 100a and displayed on the first screen 110.
  • the electronic device 100a may check whether there is a currently selected page.
  • the electronic device 100a may select one of a plurality of applications located in the selected page based on the user input.
  • the electronic device 100a may update state information related to the selected application.
  • each of the plurality of applications located on a specific page may include a unique serial number. Accordingly, when a specific application is selected based on the user input, the electronic device 100a may update the serial number of the selected application as status information. In addition, the electronic device 100a may display the selected application as a highlight.
  • the electronic device 100a may change the page displayed on the first screen 110 based on the user input. For example, when a user input of dragging to the left is received, the electronic device 100 may display a page located on the right side of the currently displayed page on the first screen 110. The electronic device 100a may update state information related to the selected page.
  • 16 is a flowchart illustrating an example in which a tap input is received in an electronic device according to another disclosed embodiment.
  • the electronic device 100a may receive a single tap or double tap input through the second screen 120.
  • the electronic device 100a may check whether the running application is displayed on the first screen 110.
  • step S1630 If there is a running application (step S1630), when a single tap input is received, an operation corresponding to the single tap input with respect to the running application is performed by the electronic device 100a to be displayed on the first screen 110. Can be. When the double tap input is received, the electronic device 100a terminates the running application or returns to the previous page of the running application by the electronic device 100a to display on the first screen 110. Can be.
  • the electronic device 100a may check whether there is a selected page.
  • step S1650 when a single tap input is received, an application selected based on the status information and the user input may be executed by the electronic device 100a and displayed on the first screen 110.
  • the electronic device 100a may deselect the page and update state information related to the selected page. In addition, the electronic device 100a may update the user interface of the first screen 110.
  • step S1660 when a single tap input is received, the electronic device 100a may select a page currently displayed on the first screen 110 and update status information related to the selected page. . When the double tap input is received, the electronic device 100a may not perform any operation.
  • 17 is a flowchart illustrating an example in which a touch and hold input is received in an electronic device according to another disclosed embodiment.
  • the electronic device 100a may receive a “touch and hold in the center area” input through the second screen 120.
  • the electronic device 100a may also receive the received user input.
  • the operation performed by the device 100 may be switched to an operation displayed on the first screen 110.
  • the “touch & hold in the center area” input received through the second screen 120 may be The operation may be changed to change the electronic device 100a to a locked state.
  • the electronic device 100a may change the electronic device 100a to a locked state and update the user interface of the first screen 110.
  • the disclosed embodiments can be embodied in the form of program instructions that can be executed by various computer means and recorded on a computer readable medium.
  • the computer readable medium may include program instructions, data files, data structures, etc. alone or in combination.
  • Program instructions recorded on the media may be those specially designed and constructed for the purposes of the present invention, or they may be of the kind well-known and available to those having skill in the computer software arts.
  • Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tape, optical media such as CD-ROMs, DVDs, and magnetic disks, such as floppy disks.
  • Examples of program instructions include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like.

Abstract

A method for controlling an electronic device and an electronic device are disclosed. The disclosed method for controlling an electronic device, according to one embodiment, may comprise the steps of: receiving a user's input by means of a second screen on which a user interface is updated independent of a first screen; and controlling an action, which is performed in an electronic device and displayed on the first screen, on the basis of the user's input.

Description

전자 디바이스 및 전자 디바이스의 제어 방법Electronic device and control method of electronic device
개시된 실시예들은 전자 디바이스 및 전자 디바이스의 제어 방법에 관한 것으로서, 보다 상세하게는, 복수의 스크린을 포함하는 전자 디바이스를 제어하는 방법에 관한 것이다.The disclosed embodiments relate to an electronic device and a method of controlling the electronic device, and more particularly, to a method of controlling an electronic device including a plurality of screens.
전자 디바이스는 사람들의 생활 및 업무에서 필수적인 디바이스가 되었다. 특히, 스마트폰(smartphone), 태블릿 PC를 포함하는 모바일 전자 디바이스들은, 사용자에 의해 가장 빈번하게 사용된다. Electronic devices have become essential devices in people's lives and tasks. In particular, mobile electronic devices, including smartphones and tablet PCs, are most frequently used by users.
사용자는 전자 디바이스들을 들고 다니면서, 한 손으로 전자 디바이스를 제어하는 것에 익숙해져 있다. 그러나, 점차 전자 디바이스의 화면의 크기가 커지면서, 사용자가 한 손으로 전자 디바이스를 제어하는 것이 용이하지 않게 되었다. 따라서, 사용자가 한 손으로 편리하게 전자 디바이스를 제어할 수 있는 방법이 요구된다. The user is accustomed to carrying the electronic devices and controlling the electronic device with one hand. However, as the screen size of the electronic device gradually increases, it is not easy for a user to control the electronic device with one hand. Therefore, there is a need for a method in which a user can conveniently control the electronic device with one hand.
전자 디바이스의 화면의 크기가 커지면서, 사용자가 한 손으로 전자 디바이스를 편리하게 제어할 수 있는 방법이 요구된다.As the size of the screen of the electronic device increases, a method for allowing a user to conveniently control the electronic device with one hand is required.
개시된 실시예에 따른 전자 디바이스 제어 방법은, 사용자 인터페이스가 제 1 스크린과 독립적으로 업데이트되는 제 2 스크린을 통해 사용자 입력을 수신하고, 수신된 사용자 입력에 기초하여, 전자 디바이스에서 수행되어 제 1 스크린 상에 디스플레이되는 동작을 제어함으로써, 사용자가 한 손으로 전자 디바이스를 편리하게 제어할 수 있도록 한다. An electronic device control method according to the disclosed embodiment receives a user input via a second screen whose user interface is updated independently of the first screen, and is performed on the electronic device based on the received user input to perform on the first screen. By controlling the operation displayed on the screen, the user can conveniently control the electronic device with one hand.
개시된 실시예에 따른 전자 디바이스 및 전자 디바이스의 제어 방법은, 사용자가 한 손으로 편리하게 전자 디바이스를 제어할 수 있도록 한다.The electronic device and the method for controlling the electronic device according to the disclosed embodiment allow the user to conveniently control the electronic device with one hand.
도 1은 개시된 일 실시예에 따른 전자 디바이스의 일 예를 나타내는 도면이다.1 is a diagram illustrating an example of an electronic device according to an embodiment of the present disclosure.
도 2a 내지 도 2c는 개시된 일 실시예에 따른 전자 디바이스의 제어 방법을 나타내는 흐름도이다.2A-2C are flowcharts illustrating a method of controlling an electronic device according to an embodiment of the present disclosure.
도 3은 개시된 일 실시예에 따른 전자 디바이스의 제어 방법을 설명하기 위한 도면이다.3 is a diagram for describing a method of controlling an electronic device, according to an exemplary embodiment.
도 4는 개시된 일 실시예에 따른 사용자 입력을 전자 디바이스에 의해 수행되어 제 1 스크린 상에 디스플레이되는 동작에 매핑시키는 것을 설명하기 위한 도면이다. 4 is a diagram for describing mapping a user input to an operation performed by an electronic device and displayed on a first screen according to an embodiment of the present disclosure.
도 5는 개시된 일 실시예에 따른 전자 디바이스의 제 2 스크린에 관련된 파라미터를 변경하는 일 예를 설명하기 위한 도면이다.FIG. 5 is a diagram for describing an example of changing a parameter related to a second screen of an electronic device according to an embodiment of the present disclosure.
도 6은 개시된 일 실시예에 따른 전자 디바이스의 제 2 스크린을 복수의 영역으로 분할하는 일 예를 설명하기 위한 도면이다. FIG. 6 is a diagram illustrating an example of dividing a second screen of an electronic device into a plurality of areas according to an exemplary embodiment.
도 7은 개시된 일 실시예에 따른 제 2 스크린 상에 디스플레이되는 키보드의 일 예를 나타내는 도면이다.7 is a diagram illustrating an example of a keyboard displayed on a second screen according to an embodiment of the present disclosure.
도 8은 개시된 일 실시예에 따른 제 2 스크린을 통해 수신된 사용자 입력을 제 1 스크린 상에 구별되게 표시하는 방법을 설명하기 위한 도면이다. FIG. 8 is a diagram for describing a method of distinguishing and displaying a user input received through a second screen according to an exemplary embodiment on a first screen.
도 9는 개시된 일 실시예에 따른 전자 디바이스의 잠금 상태를 해제하는 방법을 설명하기 위한 도면이다.9 is a diagram for describing a method of releasing a locked state of an electronic device, according to an exemplary embodiment.
도 10a 내지 도 10c는 일 실시예에 따른 전자 디바이스의 잠금 상태를 해제하는 방법을 설명하기 위한 도면이다. 10A to 10C are diagrams for describing a method of releasing a locked state of an electronic device, according to an exemplary embodiment.
도 11은 개시된 일 실시예에 따른 전자 디바이스의 구성을 나타내는 블록도이다. 11 is a block diagram illustrating a configuration of an electronic device according to an embodiment of the present disclosure.
도 12 내지 도 14는 개시된 다른 실시예에 따른 전자 디바이스의 구성을 나타내는 블록도이다.12 to 14 are block diagrams illustrating a configuration of an electronic device according to another disclosed embodiment.
도 15 내지 도 17은 개시된 다른 실시예에 따른 전자 디바이스의 제어 방법을 나타내는 흐름도이다.15 to 17 are flowcharts illustrating a control method of an electronic device according to another disclosed embodiment.
본 발명의 일 실시예에 따른 전자 디바이스 제어 방법은, 사용자 인터페이스가 제 1 스크린과 독립적으로 업데이트되는 제 2 스크린을 통해 사용자 입력을 수신하는 단계 및 사용자 입력에 기초하여, 전자 디바이스에서 수행되어 상기 제 1 스크린 상에 디스플레이되는 동작을 제어하는 단계를 포함할 수 있다.According to an embodiment of the present disclosure, a method of controlling an electronic device is performed by an electronic device based on a user input and receiving a user input through a second screen on which a user interface is updated independently of the first screen. 1 may include controlling an operation displayed on the screen.
본 발명의 일 실시예에 따른 방법은, 전자 디바이스에서 수행되어 제 1 스크린 상에 디스플레이되는 동작과 사용자 입력을 미리 매핑시키는 단계 및 매핑 결과에 기초하여, 사용자 입력에 대응되는 매핑된 동작을 제 1 스크린 상에 디스플레이하는 단계를 더 포함할 수 있다.According to an embodiment of the present invention, a method of performing a mapping operation corresponding to a user input based on a mapping result and a step of pre-mapping an operation performed on an electronic device and displayed on a first screen and a mapping result may be performed. The method may further include displaying on a screen.
본 발명의 일 실시예에 따른 사용자 입력은, 제 2 스크린 상에서 드래그하는 입력, 싱글 탭하는 입력, 더블 탭하는 입력, 터치&홀드 입력 중 하나를 포함할 수 있다.The user input according to an embodiment of the present invention may include one of an input of dragging on the second screen, an input of single tapping, an input of double tapping, and a touch and hold input.
본 발명의 일 실시예에 따른 제 1 스크린 상에 디스플레이되는 동작을 제어하는 단계는, 사용자 입력에 기초하여 기설정된 동작을 제 1 스크린 상에 디스플레이하는 단계 및 디스플레이되는 동작에 따라 제 1 스크린 및 제 2 스크린의 사용자 인터페이스를 제어하는 단계를 포함할 수 있다.The controlling of the operation displayed on the first screen according to an embodiment of the present disclosure may include displaying a predetermined operation on the first screen based on a user input, and displaying the first screen and the first screen according to the displayed operation. Controlling the user interface of the two screens.
본 발명의 일 실시예에 따른 사용자 입력을 수신하는 단계는, 제 2 스크린 상에 디스플레이되는 키보드의 키(key)를 터치하는 단계를 포함하고, 제 1 스크린 상에 디스플레이되는 동작을 제어하는 단계는, 터치된 키에 대응되는 값에 기초하여 결정된 동작을 제 1 스크린 상에 디스플레이하는 단계를 포함할 수 있다.Receiving a user input according to an embodiment of the present invention includes touching a key of a keyboard displayed on a second screen, and controlling the operation displayed on the first screen. The method may include displaying, on the first screen, an operation determined based on a value corresponding to the touched key.
본 발명의 일 실시예에 따른 방법은, 사용자 설정에 따라 키보드의 디스플레이 포맷(display format)을 변경하는 단계를 더 포함할 수 있다.The method according to an embodiment of the present invention may further include changing a display format of the keyboard according to a user setting.
본 발명의 일 실시예에 따른 방법은, 사용자에 따라, 제 2 스크린을 통해 사용자 입력을 수신하는 영역의 위치(location), 길이(length), 및 폭(width) 중 적어도 하나를 적응적으로 설정하는 단계를 더 포함할 수 있다.According to an embodiment of the present invention, the method may be configured to adaptively set at least one of a location, a length, and a width of an area for receiving a user input through a second screen according to a user. It may further comprise the step.
본 발명의 일 실시예에 따른 방법은, 제 2 스크린을 복수의 영역으로 분할하고, 분할된 영역을 통해 수신된 사용자 입력에 따라 서로 다른 동작을 수행하는 단계를 더 포함할 수 있다.The method may further include dividing the second screen into a plurality of areas and performing different operations according to user input received through the divided areas.
본 발명의 일 실시예에 따른 방법은, 제 1 스크린 및 제 2 스크린의 상태 정보(state information)에 기초하여, 제 1 스크린 및 제 2 스크린의 사용자 인터페이스를 업데이트하는 단계를 더 포함하고, 상태 정보는, 전자 디바이스의 잠금 상태, 선택된 어플리케이션, 및 실행중인 어플리케이션에 관련된 정보 중 적어도 하나를 포함할 수 있다.The method according to an embodiment of the present invention further includes updating a user interface of the first screen and the second screen based on state information of the first screen and the second screen, and including the state information. May include at least one of information related to a locked state of the electronic device, a selected application, and a running application.
본 발명의 일 실시예에 따른 방법은, 제 2 스크린을 통해 수신되는 기설정된 사용자 입력에 기초하여 전자 디바이스의 잠금 상태를 해제하는 단계를 더 포함할 수 있다.The method according to an embodiment of the present disclosure may further include unlocking the electronic device based on a preset user input received through the second screen.
본 발명의 일 실시예에 따른 전자 디바이스는, 제 1 스크린 및 사용자 인터페이스가 제 1 스크린과 독립적으로 업데이트되는 제 2 스크린을 포함하는 디스플레이부, 제 2 스크린을 통해 사용자 입력을 수신하는 사용자 입력부, 및 사용자 입력에 기초하여, 전자 디바이스에서 수행되어 제 1 스크린 상에 디스플레이되는 동작을 제어하는 제어부를 포함할 수 있다. According to an embodiment of the present disclosure, an electronic device may include a display unit including a first screen and a second screen whose user interface is updated independently of the first screen, a user input unit receiving a user input through the second screen, and The controller may include a controller to control an operation performed on the first screen and displayed on the first screen based on a user input.
본 발명의 일 실시예에 따른 제어부는, 전자 디바이스에서 수행되어 제 1 스크린 상에 디스플레이되는 동작과 사용자 입력을 미리 매핑시키고, 매핑 결과에 기초하여 사용자 입력에 대응되는 동작을 제 1 스크린 상에 디스플레이할 수 있다.According to an embodiment of the present disclosure, the controller may pre-map an operation performed on the first screen and a user input and is displayed on the first screen based on the mapping result. can do.
본 발명의 일 실시예에 따른 사용자 입력은, 제 2 스크린 상에서 드래그하는 입력, 싱글 탭하는 입력, 더블 탭하는 입력, 터치&홀드 입력 중 하나를 포함할 수 있다.The user input according to an embodiment of the present invention may include one of an input of dragging on the second screen, an input of single tapping, an input of double tapping, and a touch and hold input.
본 발명의 일 실시예에 따른 제어부는, 사용자 입력에 기초하여 기설정된 동작을 제 1 스크린 상에 디스플레이하고, 디스플레이되는 동작에 따라 제 1 스크린 및 제 2 스크린의 사용자 인터페이스를 제어할 수 있다.The controller according to an embodiment of the present invention may display a predetermined operation on the first screen based on a user input, and control the user interface of the first screen and the second screen according to the displayed operation.
본 발명의 일 실시예에 따른 사용자 입력은, 제 2 스크린 상에 디스플레이되는 키보드의 키를 터치하는 입력을 포함하고, 제어부는, 터치된 키에 대응되는 값에 기초하여 결정된 동작을 제 1 스크린 상에 디스플레이할 수 있다. The user input according to an embodiment of the present invention includes an input of touching a key of a keyboard displayed on a second screen, and the controller is configured to perform an operation determined based on a value corresponding to the touched key on the first screen. Can be displayed on.
본 발명의 일 실시예에 따른 제어부는, 사용자 설정에 따라 키보드의 디스플레이 포맷을 변경할 수 있다. The control unit according to an embodiment of the present invention may change the display format of the keyboard according to the user setting.
본 발명의 일 실시예에 따른 제어부는, 사용자에 따라, 제 2 스크린을 통해 사용자 입력을 수신하는 영역의 위치, 길이, 및 폭 중 적어도 하나를 적응적으로 설정할 수 있다.According to an embodiment of the present disclosure, the controller may adaptively set at least one of a position, a length, and a width of an area for receiving a user input through a second screen according to the user.
본 발명의 일 실시예에 따른 제 2 스크린은 복수의 영역으로 분할될 수 있고, 제어부는, 분할된 영역을 통해 수신된 사용자 입력에 따라 서로 다른 동작을 수행할 수 있다.The second screen according to an embodiment of the present invention may be divided into a plurality of areas, and the controller may perform different operations according to a user input received through the divided areas.
본 발명의 일 실시예에 따른 제어부는, 제 1 스크린 및 제 2 스크린의 상태 정보에 기초하여 제 1 스크린 및 제 2 스크린의 사용자 인터페이스를 업데이트하고, 상태 정보는, 전자 디바이스의 잠금 상태, 선택된 어플리케이션, 및 실행중인 어플리케이션에 관련된 정보 중 적어도 하나를 포함할 수 있다.The control unit according to an embodiment of the present invention updates the user interface of the first screen and the second screen based on the state information of the first screen and the second screen, and the state information includes a locked state of the electronic device and a selected application. , And information related to the running application.
본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 발명에 대해 구체적으로 설명하기로 한다.Terms used herein will be briefly described and the present invention will be described in detail.
본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다. The terms used in the present invention have been selected as widely used general terms as possible in consideration of the functions in the present invention, but this may vary according to the intention or precedent of the person skilled in the art, the emergence of new technologies and the like. In addition, in certain cases, there is also a term arbitrarily selected by the applicant, in which case the meaning will be described in detail in the description of the invention. Therefore, the terms used in the present invention should be defined based on the meanings of the terms and the contents throughout the present invention, rather than the names of the simple terms.
명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. When any part of the specification is to "include" any component, this means that it may further include other components, except to exclude other components unless otherwise stated.
또한, 명세서에 기재된 "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.In addition, the terms "... unit", "module", etc. described in the specification mean a unit for processing at least one function or operation, which may be implemented in hardware or software or a combination of hardware and software. .
명세서 전체에서 "터치 입력"이란 사용자가 전자 디바이스를 제어하기 위해 터치 스크린에 행하는 제스처 등을 의미한다. 예를 들어, 터치 입력은, 싱글 탭, 더블 탭, 터치&홀드, 드래그, 등을 포함할 수 있다. Throughout the specification, "touch input" refers to a gesture that a user makes on a touch screen to control an electronic device. For example, the touch input may include a single tap, a double tap, a touch and hold, a drag, and the like.
“싱글 탭(single tap)”은 사용자가 손가락 또는 터치 도구(예컨대, 전자 펜)을 이용하여 스크린을 터치한 후 움직이지 않은 채 스크린에서 즉시 들어올리는 동작을 나타낸다. A “single tap” refers to an action in which a user immediately touches the screen using a finger or a touch tool (eg, an electronic pen) and immediately lifts off the screen without moving.
“더블 탭(double tap)”은 사용자가 손가락이나 터치 도구(예컨대, 전자펜)을 이용하여 스크린을 두 번 터치하는 동작을 나타낸다. “Double tap” refers to an action in which a user touches the screen twice using a finger or a touch tool (eg, an electronic pen).
“드래그(drag)”는 사용자가 손가락이나 터치 도구를 화면에 터치한 후 터치를 유지한 상태에서 손가락이나 터치 도구를 화면 내의 다른 위치로 이동시키는 동작을 의미한다. The term “drag” refers to an operation in which a user touches a finger or a touch tool on the screen and then moves the finger or the touch tool to another position on the screen while maintaining the touch.
"터치&홀드(touch & hold)"는 사용자가 손가락이나 터치 도구(예컨대, 전자 펜)를 이용하여 스크린을 터치한 후 임계 시간(예컨대, 2초) 이상 터치 입력을 유지하는 동작을 나타낸다. 예를 들어, 터치-인 시점과 터치-아웃 시점 간의 시간 차이가 임계 시간(예컨대, 2초) 이상인 경우를 의미한다. 터치 입력이 탭인지 터치&홀드인지를 사용자에게 인식시키도록 하기 위하여 터치 입력이 임계 시간 이상 유지되면 시각적 또는 청각적 또는 촉각적으로 피드백 신호를 제공할 수도 있다. 또한, 상기 임계 시간은 실시예에 따라서 변경될 수 있다. "Touch & hold" refers to an operation in which a user holds a touch input for more than a threshold time (eg, 2 seconds) after touching a screen using a finger or a touch tool (eg, an electronic pen). For example, this means that the time difference between the touch-in time point and the touch-out time point is greater than or equal to a threshold time (eg, 2 seconds). In order to allow the user to recognize whether the touch input is a tap or a touch and hold, the feedback signal may be provided visually, acoustically, or tactilely when the touch input is maintained for a threshold time or more. In addition, the threshold time may be changed according to an embodiment.
이하에서는 첨부한 도면을 참고하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art may easily implement the present invention. As those skilled in the art would realize, the described embodiments may be modified in various different ways, all without departing from the spirit or scope of the present invention. In the drawings, parts irrelevant to the description are omitted in order to clearly describe the present invention, and like reference numerals designate like parts throughout the specification.
도 1은 개시된 일 실시예에 따른 전자 디바이스의 일 예를 나타내는 도면이다. 1 is a diagram illustrating an example of an electronic device according to an embodiment of the present disclosure.
개시된 실시예에 따른 전자 디바이스(100)는 다양한 형태로 구현될 수 있다. 예를 들어, 전자 디바이스(100)는, 휴대폰, 스마트폰(smart phone), PC, 태블릿 PC, PDA(Personal Digital Assistants), 스마트 TV, 랩탑, 미디어 플레이어, MP3 플레이어, PMP(Portable Multimedia Player), 디지털 카메라, 키오스크, 내비게이션(navigation), GPS(Global Positioning System) 장치, 전자책 단말기, 디지털 방송용 단말기, 및 기타 모바일 또는 비모바일 컴퓨팅 장치일 수 있으나, 이에 한정되지 않는다. 또한, 전자 디바이스(100)는 통신 기능 및 데이터 프로세싱 기능을 구비한 시계, 안경, 헤어 밴드 및 반지 등의 웨어러블 디바이스일 수 있으나, 이에 한정되지 않는다. The electronic device 100 according to the disclosed embodiment may be implemented in various forms. For example, the electronic device 100 may be a mobile phone, a smart phone, a PC, a tablet PC, a personal digital assistant (PDA), a smart TV, a laptop, a media player, an MP3 player, a portable multimedia player (PMP), Digital cameras, kiosks, navigation, global positioning system (GPS) devices, e-book terminals, digital broadcasting terminals, and other mobile or non-mobile computing devices, but are not limited thereto. The electronic device 100 may be a wearable device such as a watch, glasses, a hair band, and a ring having a communication function and a data processing function, but is not limited thereto.
도 1을 참조하면, 일 실시예에 따른 전자 디바이스(100)는 제 1 스크린(110) 및 제 2 스크린(120)을 포함할 수 있다. Referring to FIG. 1, an electronic device 100 according to an embodiment may include a first screen 110 and a second screen 120.
도 1에 도시된 바와 같이, 제 1 스크린(110) 및 제 2 스크린(120)이 하나의 곡면 스크린(curved screen)으로 구성되거나, 또는 독립된 복수의 스크린으로 구성될 수 있으나, 이에 한정되지 않는다. 또한, 제 2 스크린(120)은, 도 1에 도시된 바와 같이, 전자 디바이스(100)의 양 측면에 위치할 수 있으나, 이에 한정되지 않는다.As shown in FIG. 1, the first screen 110 and the second screen 120 may be configured as one curved screen or a plurality of independent screens, but are not limited thereto. In addition, as illustrated in FIG. 1, the second screen 120 may be located at both sides of the electronic device 100, but is not limited thereto.
제 2 스크린(120)은 제 1 스크린(110)과 사용자 인터페이스가 독립적으로 업데이트될 수 있다. 예를 들어, 제 1 스크린(110)은 전자 디바이스(100)에서 수행되는 전반적인 동작을 표시할 수 있고, 제 2 스크린(120)은 전자 디바이스(100)에 의해 수행되어 제 1 스크린(110)에 디스플레이되는 동작을 제어하기 위한 사용자 인터페이스를 표시할 수 있다. The second screen 120 may be updated independently of the first screen 110 and the user interface. For example, the first screen 110 may display an overall operation performed on the electronic device 100, and the second screen 120 may be performed by the electronic device 100 to display the first screen 110. A user interface for controlling the displayed operation can be displayed.
전자 디바이스(100)는, 제 2 스크린(120)을 통해 사용자 입력을 수신하고, 수신된 사용자 입력에 기초하여, 전자 디바이스(100)에서 수행되어 제 1 스크린(110) 상에 디스플레이되는 동작을 제어할 수 있다. The electronic device 100 receives a user input through the second screen 120, and controls an operation performed on the electronic device 100 and displayed on the first screen 110 based on the received user input. can do.
예를 들어, 전자 디바이스(100)는, 제 2 스크린(120)을 통해 수신되는 사용자 입력 각각에 대하여, 전자 디바이스에서 수행되어 제 1 스크린(110) 상에 디스플레이되는 동작을 미리 매핑시킬 수 있다. 그리고, 전자 디바이스(100)는, 제 2 스크린(120)을 통해 다양한 터치 입력을 포함하는 사용자 입력을 수신할 수 있다. 그러면, 매핑 결과에 기초하여 사용자 입력에 대응되는 동작이 전자 디바이스(100)에 의해 수행되어, 제 1 스크린(110) 상에 디스플레이될 수 있다. For example, the electronic device 100 may pre-map an operation performed by the electronic device and displayed on the first screen 110 with respect to each user input received through the second screen 120. The electronic device 100 may receive a user input including various touch inputs through the second screen 120. Then, an operation corresponding to the user input based on the mapping result may be performed by the electronic device 100 and displayed on the first screen 110.
도 2a 내지 도 2c는 개시된 일 실시예예 따른 전자 디바이스의 동작 방법을 나타내는 흐름도이다.2A-2C are flow diagrams illustrating a method of operating an electronic device in accordance with one disclosed embodiment.
도 2a를 참조하면, 단계 S210에서, 전자 디바이스(100)는, 제 2 스크린(120)을 통해 사용자 입력을 수신할 수 있다. 이때, 사용자 입력은, 드래그, 싱글 탭, 더블 탭, 터치&홀드를 포함하는 터치 입력일 수 있으나, 이에 한정되지 않는다. Referring to FIG. 2A, in operation S210, the electronic device 100 may receive a user input through the second screen 120. In this case, the user input may be a touch input including a drag, a single tap, a double tap, and a touch and hold, but is not limited thereto.
단계 S212에서, 전자 디바이스(100)는, 사용자 입력에 기초하여 전자 디바이스에서 수행되어 제 1 스크린(110) 상에 디스플레이되는 동작을 제어할 수 있다. In operation S212, the electronic device 100 may control an operation performed on the electronic device and displayed on the first screen 110 based on a user input.
제 2 스크린(120)을 통해 사용자 입력이 수신되면, 사용자 입력에 대응되는 동작이 전자 디바이스(100)에 의해 수행되어 제 1 스크린(110) 상에 디스플레이될 수 있다. 예를 들어, 제 2 스크린(120)을 통해 아래쪽으로 드래그하는 입력이 수신되면, 페이지를 아래쪽으로 드래그하는 동작이 전자 디바이스(100)에 의해 수행되어 제 1 스크린(110) 상에 디스플레이될 수 있다.When a user input is received through the second screen 120, an operation corresponding to the user input may be performed by the electronic device 100 and displayed on the first screen 110. For example, when an input of dragging downward through the second screen 120 is received, an operation of dragging the page downward may be performed by the electronic device 100 and displayed on the first screen 110. .
이때, 전자 디바이스(100)는, 제 2 스크린(120)을 통해 수신되는 사용자 입력 각각을 전자 디바이스에서 수행되어 제 1 스크린(110) 상에 디스플레이되는 동작에 미리 매핑시킬 수 있다. 그리고, 사용자 입력과 전자 디바이스(100)에 의해 수행되어 제 1 스크린(110) 상에 디스플레이되는 동작 사이의 매핑 관계는, 전자 디바이스(100)의 제조 과정에서 메모리에 저장될 수 있다. 또한, 실시예에 따라, 매핑 관계는, 사용자의 설정에 따라 변경될 수 있다. 사용자 입력과 전자 디바이스(100)에 의해 수행되어 제 1 스크린(110) 상에서 수행되는 동작 사이의 매핑에 대해서는, 도 4를 참조하여 후술하기로 한다. In this case, the electronic device 100 may pre-map each user input received through the second screen 120 to an operation performed by the electronic device and displayed on the first screen 110. In addition, a mapping relationship between a user input and an operation performed by the electronic device 100 and displayed on the first screen 110 may be stored in a memory during a manufacturing process of the electronic device 100. In addition, according to an embodiment, the mapping relationship may be changed according to a user's setting. The mapping between the user input and the operation performed by the electronic device 100 and performed on the first screen 110 will be described later with reference to FIG. 4.
또한, 전자 디바이스(100)는 제 2 스크린(120)을 통해 수신된 사용자 입력에 기초하여 제 1 스크린(110) 상에 기설정된 동작을 디스플레이하고, 디스플레이되는 동작에 따라 제 1 스크린(110) 및 제 2 스크린(120)의 사용자 인터페이스를 업데이트할 수 있다. In addition, the electronic device 100 displays a predetermined operation on the first screen 110 based on a user input received through the second screen 120, and according to the displayed operation, the first screen 110 and The user interface of the second screen 120 may be updated.
도 2b를 참조하면, 단계 S220에서, 전자 디바이스(100)는 제 2 스크린(120)을 통해 사용자 입력을 수신할 수 있다. Referring to FIG. 2B, in operation S220, the electronic device 100 may receive a user input through the second screen 120.
그리고, 단계 S222에서, 전자 디바이스(100)는, 제 2 스크린(120)을 통해 수신된 사용자 입력 및 전자 디바이스(100)에서 수행되어 제 1 스크린(110) 상에 디스플레이되는 동작 사이의 매핑 관계에 따라, 사용자 입력에 대응되는 동작을 제 1 스크린(110) 상에 디스플레이할 수 있다. 단계 S220 및 단계 S222에 대한 설명은 도 2a에서 상세하게 설명하였으므로, 중복되는 내용은 생략한다. In operation S222, the electronic device 100 may determine a mapping relationship between a user input received through the second screen 120 and an operation performed on the electronic device 100 and displayed on the first screen 110. Accordingly, an operation corresponding to the user input may be displayed on the first screen 110. Since the descriptions of step S220 and step S222 have been described in detail with reference to FIG. 2A, overlapping contents are omitted.
단계 S224에서, 전자 디바이스(100)는, 제 1 스크린(110) 상에 디스플레이되는 동작에 따라, 제 1 스크린(110)과 제 2 스크린(120) 중 적어도 하나의 사용자 인터페이스를 업데이트할 수 있다. 예를 들어, 제 2 스크린(120)으로부터 싱글 탭 입력이 수신될 때, 특정 어플리케이션을 실행하는 동작이 전자 디바이스(100)에 의해 수행되어, 제 1 스크린(110) 상에 디스플레이될수 있다. 이때, 실행된 어플리케이션이 텍스트 입력을 요구하는 경우, 전자 디바이스(100)는 텍스트 입력을 수신할 수 있는 키보드를 제 2 스크린(120) 상에 디스플레이할 수 있다.In operation S224, the electronic device 100 may update the user interface of at least one of the first screen 110 and the second screen 120 according to the operation displayed on the first screen 110. For example, when a single tap input is received from the second screen 120, an operation of executing a particular application may be performed by the electronic device 100 and displayed on the first screen 110. In this case, when the executed application requests text input, the electronic device 100 may display a keyboard capable of receiving the text input on the second screen 120.
또한, 전자 디바이스(100)은, 사용자 입력뿐만 아니라 상태 정보에 기초하여, 제 1 스크린(110) 및 제 2 스크린(120)의 사용자 인터페이스를 업데이트할 수 있다.In addition, the electronic device 100 may update the user interface of the first screen 110 and the second screen 120 based on the state information as well as the user input.
도 2c를 참조하면, 전자 디바이스(100)는 제 2 스크린(120)을 통해 사용자 입력을 수신하고(단계 S230), 제 1 스크린(110) 및 제 2 스크린(120)의 상태 정보를 확인할 수 있다(단계 S232). Referring to FIG. 2C, the electronic device 100 may receive a user input through the second screen 120 (step S230), and may check state information of the first screen 110 and the second screen 120. (Step S232).
제 1 스크린(110)의 상태 정보는, 전자디바이스(100)가 잠금 상태에 있는지 여부, 제 1 스크린 상에 표시되는 페이지, 선택된 페이지, 선택된 어플리케이션, 실행중인 어플리케이션에 관련된 정보를 포함할 수 있다. The state information of the first screen 110 may include information related to whether the electronic device 100 is in a locked state, a page displayed on the first screen, a selected page, a selected application, and a running application.
예를 들어, 실행중인 어플리케이션에 관련된 상태 정보의 경우, 초기 값이 "-1"로 설정될 수 있고, 초기 값 "-1"은 현재 실행중인 어플리케이션이 없다는 것을 의미할 수 있다. 이때, 사용자 입력에 따라 특정 어플리케이션이 실행되면, 전자 디바이스(100)는 실행중인 어플리케이션의 일련번호(serial number)를 새로운 상태 정보로서 업데이트할 수 있다. For example, in the case of state information related to a running application, an initial value may be set to "-1", and an initial value "-1" may mean that there is no currently running application. In this case, when a specific application is executed according to a user input, the electronic device 100 may update the serial number of the running application as new state information.
또한, 전자 디바이스(100)의 잠금 상태에 관련된 상태 정보의 경우, 초기 값이 “예”로 설정될 수 있다. 그리고, 사용자 입력에 따라 전자 디바이스(100)의 잠금 상태가 해제되면, 전자 디바이스(100)는 잠금 상태에 관련된 상태 정보를 업데이트할 수 있다.In addition, in the case of state information related to the locked state of the electronic device 100, an initial value may be set to “Yes”. When the locked state of the electronic device 100 is released according to a user input, the electronic device 100 may update state information related to the locked state.
또한, 전자 디바이스(100)의 소정의 소프트웨어 스크린(예를 들어, 홈 스크린, 락 스크린 또는 어플리케이션 스크린)은 복수의 페이지들을 포함할 수 있다. 각 페이지 상에는 복수의 어플리케이션 리스트가 표시되거나, 또는 실행중인 어플리케이션이 표시될 수 있다. 이에 따라, 제 1 스크린(110)의 상태 정보는, 현재 제 1 스크린(110) 상에 디스플레이되는 페이지의 번호를 포함할 수 있다. 그리고, 전자 디바이스(100)는, 동일한 사용자 입력이 수신되더라도, 현재 표시되는 페이지의 번호에 따라 서로 다른 동작을 수행할 수 있다.In addition, certain software screens (eg, home screens, lock screens, or application screens) of the electronic device 100 may include a plurality of pages. A plurality of application lists may be displayed on each page, or a running application may be displayed. Accordingly, the state information of the first screen 110 may include the number of the page currently displayed on the first screen 110. And, even if the same user input is received, the electronic device 100 may perform different operations according to the number of pages currently displayed.
제 2 스크린(120)의 상태 정보는, 제 2 스크린(120)이 특정 아이템에 의해 사용 중인지 여부, 제 2 스크린(120) 상에 디스플레이된 아이템의 종류 및 아이템의 페이지 수에 관한 정보를 포함할 수 있다. 이때, 아이템은, 제 2 스크린(120)에서 사용자가 이용할 수 있는 설정 메뉴, 키보드, 소정의 어플리케이션이 될 수 있으나, 이에 한정되지 않는다.The status information of the second screen 120 may include information about whether the second screen 120 is in use by a particular item, the type of item displayed on the second screen 120 and the number of pages of the item. Can be. In this case, the item may be a setting menu, a keyboard, and a predetermined application that can be used by the user on the second screen 120, but is not limited thereto.
예를 들어, 제 2 스크린(120) 상에 키보드가 디스플레이되는 경우, 아이템의 종류에 관한 상태 정보는 키보드에 대응되는 일련번호일 수 있다. 또한, 공간의 제약에 따라, 키보드는 제 2 스크린(120) 상에 복수의 페이지로 나누어 디스플레이될 수 있는데, 현재 디스플레이되는 키보드의 페이지 번호가 상태 정보를 구성할 수 있다.For example, when the keyboard is displayed on the second screen 120, the status information regarding the type of the item may be a serial number corresponding to the keyboard. In addition, depending on space constraints, the keyboard may be displayed in a plurality of pages on the second screen 120, and the page number of the currently displayed keyboard may constitute status information.
단계 S234에서, 전자 디바이스(100)는, 제 1 스크린(110) 및 제 2 스크린(120)의 상태 정보와 사용자 입력에 기초하여, 제 1 스크린(110) 및 제 2 스크린(120)의 사용자 인터페이스를 업데이트할 수 있다. In operation S234, the electronic device 100 may display a user interface of the first screen 110 and the second screen 120 based on state information and user input of the first screen 110 and the second screen 120. Can be updated.
예를 들어, 선택된 어플리케이션이 있고 제 2 스크린(120)을 통해 싱글 탭 입력이 수신되면, 전자 디바이스(100)는 선택된 어플리케이션에 관한 상태 정보 및 사용자 입력에 기초하여, 선택된 어플리케이션을 실행할 수 있다. 또한, 선택된 어플리케이션이 없고 제 2 스크린(120)을 통해 싱글 탭 입력이 수신되면, 전자 디바이스(100)는 잠금 상태로 변경될 수 있다. 그러나, 상태 정보 및 사용자 입력에 기초하여 수행되는 동작은 전술한 예에 한정되지 않는다.For example, if there is a selected application and a single tap input is received through the second screen 120, the electronic device 100 may execute the selected application based on state information and user input regarding the selected application. In addition, when no application is selected and a single tap input is received through the second screen 120, the electronic device 100 may be changed to a locked state. However, the operation performed based on the state information and the user input is not limited to the above example.
도 3은 개시된 일 실시예에 따른 전자 디바이스의 제어 방법을 설명하기 위한 도면이다. 3 is a diagram for describing a method of controlling an electronic device, according to an exemplary embodiment.
전술한 바와 같이, 제 2 스크린(120)을 통해 아래쪽으로 드래그하는 사용자 입력이 수신됨에 따라, 페이지를 아래쪽으로 드래그하는 동작이 전자 디바이스(100)에 의해 수행되어 제 1 스크린(110) 상에 디스플레이될 수 있다. As described above, as a user input of dragging downward through the second screen 120 is received, dragging the page downward is performed by the electronic device 100 to display on the first screen 110. Can be.
예를 들어, 도 3에 도시된 바와 같이, 페이지를 아래쪽으로 드래그하는 동작이 전자 디바이스(100)에 의해 수행되어 제 1 스크린(110) 상에 디스플레이됨에 따라, 제 1 스크린(110) 상에 디스플레이된 페이지(page)가 스크롤(scroll)될 수 있다. For example, as shown in FIG. 3, as the dragging page downward is performed by the electronic device 100 and displayed on the first screen 110, the display on the first screen 110 is displayed. Pages may be scrolled.
예를 들어, 텍스트(text)를 포함하는 페이지가 스크롤되어 제일 하단의 텍스트가 디스플레이되면, 제 2 스크린(120)은 상위 메뉴로 돌아가거나, 현재 디스플레이된 페이지를 종료하는 입력을 수신하기 위한 사용자 인터페이스를 디스플레이할 수 있다. For example, when a page containing text is scrolled and the bottommost text is displayed, the second screen 120 returns to a higher menu or receives a user input for exiting the currently displayed page. Can be displayed.
도 4는 개시된 일 실시예에 따른 사용자 입력과 전자 디바이스에 의해 수행되어 제 1 스크린 상에 디스플레이되는 동작 사이의 매핑 관계를 설명하기 위한 도면이다. 4 is a diagram for describing a mapping relationship between a user input and an operation performed by an electronic device and displayed on a first screen, according to an exemplary embodiment.
전술한 바와 같이, 제 2 스크린(120)을 통해 수신되는 사용자 입력(410)은, 드래그, 싱글 탭, 더블 탭, 터치&홀드를 포함하는 터치 입력일 수 있으나, 이에 한정되지 않는다. 또한, 사용자 입력에 따라 전자 디바이스(100)에 의해 수행되어 제 1 스크린(110) 상에 디스플레이되는 동작(420)은, 도 3에 도시된 바와 같이 매핑될 수 있으나, 이에 한정되지 않는다. As described above, the user input 410 received through the second screen 120 may be a touch input including drag, single tap, double tap, and touch and hold, but is not limited thereto. In addition, an operation 420 performed by the electronic device 100 according to a user input and displayed on the first screen 110 may be mapped as illustrated in FIG. 3, but is not limited thereto.
도 4를 참조하면, 제 2 스크린(120) 상에서 드래그하는 입력은, 전자 디바이스(100)에 의해 수행되어 제 1 스크린(110)에 디스플레이되는 드래그 동작에 대응될 수 있다. 예를 들어, 제 2 스크린(120)을 통해 특정 방향으로 드래그하는 입력이 수신되면, 동일한 방향으로 드래그하는 동작이 전자 디바이스(100)에 의해 수행되어, 제 1 스크린 상에 디스플레이될 수 있다. Referring to FIG. 4, an input of dragging on the second screen 120 may correspond to a drag operation performed by the electronic device 100 and displayed on the first screen 110. For example, when an input for dragging in a specific direction is received through the second screen 120, the dragging operation in the same direction may be performed by the electronic device 100 and displayed on the first screen.
또한, 제 2 스크린(120)으로부터 싱글 탭하는 입력은, 제 1 스크린(110) 상에 표시되는 복수의 어플리케이션 중에서 특정 어플리케이션을 선택하거나 선택된 어플리케이션을 실행하는 동작에 대응될 수 있다. In addition, the single tap input from the second screen 120 may correspond to an operation of selecting a specific application or executing the selected application from among a plurality of applications displayed on the first screen 110.
또한, 제 2 스크린(120) 상에서 더블 탭하는 입력은, 제 1 스크린(110) 상에서 상위 메뉴로 돌아가거나 현재 실행중인 어플리케이션을 종료하는 동작에 대응될 수 있다. In addition, an input of double tapping on the second screen 120 may correspond to an operation of returning to an upper menu on the first screen 110 or terminating an application currently running.
또한, 전자 디바이스(100)는, 제 2 스크린(120)을 복수의 영역으로 분할할 수 있다. 그리고, 각 영역에서의 사용자 입력에 따라, 서로 다른 동작이 전자 디바이스(100)에 의해 수행되어 제 1 스크린(100) 상에 디스플레이될 수 있다. 예를 들어, 중심 영역에서의 터치&홀드 입력은, 전자 디바이스(100)을 잠금 상태로 변경하는 동작에 대응될 수 있다. 제 2 스크린(120)의 상, 하, 좌, 우 영역에서의 터치&홀드 입력은, 상, 하, 좌, 우로 드래그하는 동작에 각각 대응될 수 있다. In addition, the electronic device 100 may divide the second screen 120 into a plurality of regions. In addition, according to a user input in each area, different operations may be performed by the electronic device 100 and displayed on the first screen 100. For example, the touch and hold input in the center area may correspond to an operation of changing the electronic device 100 to a locked state. The touch and hold inputs in the up, down, left, and right areas of the second screen 120 may correspond to dragging up, down, left, and right, respectively.
그러나, 전술한 매핑 관계는, 일 실시예에 불과하며, 실시예에 따라 다른 동작이 수행될 수 있다. However, the aforementioned mapping relationship is only one embodiment, and other operations may be performed according to the embodiment.
도 5는 개시된 일 실시예에 따른 제 2 스크린에 관련된 파라미터를 변경하는 일 예를 설명하기 위한 도면이다.5 is a diagram for describing an example of changing a parameter related to a second screen according to an exemplary embodiment.
전자 디바이스(100)는, 제 2 스크린(120)에 관련된 파라미터를 사용자 설정에 따라 변경할 수 있다. The electronic device 100 may change a parameter related to the second screen 120 according to a user setting.
제 2 스크린(120)에 관련된 파라미터는, 도 5에 도시된 바와 같이, “한 손 제어(one hand control) 기능”의 온/오프(On/Off)를 포함할 수 있다. 이때, “한 손 제어 기능”은, 제 2 스크린(120)을 통해 수신된 사용자 입력에 기초하여, 전자 디바이스(100)에 의해 수행되어 제 1 스크린(110) 상에 디스플레이되는 동작을 제어하는 기능을 지칭할 수 있으나, 실시예에 따라 다른 용어가 사용될 수 있다. 이하에서는, 설명의 편의상, 한 손 제어 기능으로 칭하기로 한다. The parameters related to the second screen 120 may include On / Off of the “one hand control function” as shown in FIG. 5. In this case, the “one hand control function” is a function of controlling an operation performed by the electronic device 100 and displayed on the first screen 110 based on a user input received through the second screen 120. It may refer to, but other terms may be used according to the embodiment. Hereinafter, for convenience of explanation, it will be referred to as a one-handed control function.
또한, 전자 디바이스(100)는, 사용자의 손에 따라, 제 2 스크린(120)을 통해 사용자 입력을 수신하는 영역의 위치(location), 길이(length), 및 폭(width) 중 적어도 하나를 설정할 수 있다. 예를 들어, 사용자의 손의 크기가 작은 경우, 제 2 스크린(120)을 통해 사용자 입력을 수신하는 영역의 길이와 폭 중 적어도 하나를 현재 설정보다 작게 변경할 수 있다. 또는, 전자 디바이스(100)는, 사용자의 파지 상태에 따라, 제 2 스크린(120)을 통해 사용자 입력을 수신하는 영역의 위치를 설정할 수 있다. In addition, the electronic device 100 may set at least one of a location, a length, and a width of an area for receiving a user input through the second screen 120 according to a user's hand. Can be. For example, when the size of the user's hand is small, at least one of the length and width of the area for receiving the user input through the second screen 120 may be changed smaller than the current setting. Alternatively, the electronic device 100 may set a location of an area for receiving a user input through the second screen 120 according to the holding state of the user.
또한, 전자 디바이스(100)는, 사용자의 반복적인 파지 습관을 인식하고, 인식된 파지 습관에 기초하여, 제 2 스크린(120)을 통해 사용자 입력을 수신하는 영역을 적응적으로 설정할 수 있다. In addition, the electronic device 100 may recognize a repetitive gripping habit of the user and adaptively set an area for receiving a user input through the second screen 120 based on the recognized gripping habit.
전자 디바이스(100)는, 제 2 스크린(120)에 디스플레이되는 키보드의 디스플레이 포맷(display format)을 변경할 수 있다. 예를 들어, 전자 디바이스(100)는, 사용자의 설정에 따라, 제 2 스크린(120)에 디스플레이되는 키보드를 2x5, 3x3 등의 포맷으로 변경할 수 있다. 제 2 스크린(120)에 디스플레이되는 키보드에 대해서는, 도 7을 참조하여 후술하기로 한다.The electronic device 100 may change a display format of a keyboard displayed on the second screen 120. For example, the electronic device 100 may change the keyboard displayed on the second screen 120 into a format such as 2x5 or 3x3 according to a user's setting. A keyboard displayed on the second screen 120 will be described later with reference to FIG. 7.
또한, 전술한 바와 같이, 전자 디바이스(100)는, 사용자의 편의에 따라 사용자 입력과 전자 디바이스(100)에 의해 수행되어 제 1 스크린 상에 디스플레이되는 동작 사이의 매핑 관계를 변경할 수 있다.In addition, as described above, the electronic device 100 may change a mapping relationship between a user input and an operation performed by the electronic device 100 and displayed on the first screen according to a user's convenience.
제 2 스크린(120)에 관련된 파라미터의 설정 메뉴는, 도 5에 도시된 바와 같이, 제 1 스크린(110) 상에 디스플레이될 수 있으나, 실시예에 따라, 제 2 스크린(120) 상에 디스플레이될 수 있다. A setting menu of a parameter related to the second screen 120 may be displayed on the first screen 110 as shown in FIG. 5, but according to an embodiment, may be displayed on the second screen 120. Can be.
또한, 제 2 스크린(120)은 제 1 스크린(110)에 비해 상대적으로 크기가 작으므로, 설정 메뉴가 제 2 스크린(120) 상에 디스플레이되는 경우, 설정 메뉴는 드롭 다운(drop-down) 메뉴, 아이콘 형태로 표시될 수 있다. 그러나, 이에 한정되지 않는다.In addition, since the second screen 120 is relatively smaller than the first screen 110, when the setting menu is displayed on the second screen 120, the setting menu is a drop-down menu. , May be displayed in the form of an icon. However, it is not limited to this.
도 6은 개시된 일 실시예에 따른 전자 디바이스의 제 2 스크린을 복수의 영역으로 분할하는 일 예를 설명하기 위한 도면이다.FIG. 6 is a diagram illustrating an example of dividing a second screen of an electronic device into a plurality of areas according to an exemplary embodiment.
도 6을 참조하면, 제 2 스크린(120)은 복수의 영역으로 분할될 수 있다. 예를 들어, 도 6에 도시된 바와 같이, 제 2 스크린(120)은, A(601), B(602), C(603), D(604), 및 E(605) 영역으로 분할될 수 있으나, 이에 한정되지 않는다. Referring to FIG. 6, the second screen 120 may be divided into a plurality of areas. For example, as shown in FIG. 6, the second screen 120 may be divided into areas A 601, B 602, C 603, D 604, and E 605. However, the present invention is not limited thereto.
그리고, 전자 디바이스(100)는, 사용자 입력을 수신하는 영역에 따라, 전자 디바이스(100)에 의해 수행되어 제 1 스크린(110) 상에 디스플레이되는 동작을 다르게 설정할 수 있다. 예를 들어, 도 4에 도시된 바와 같이, E 영역(605)을 통해 터치&홀드 입력이 수신되면, 전자 디바이스(100)를 잠금 모드로 변경하는 동작이 전자 디바이스(100)에 의해 수행되어 제 1 스크린(110) 상에 디스플레이될 수 있다. 또한, A(601), B(602), C(603), 및 D(604) 중 하나의 영역을 통해 터치&홀드 입력이 수신되면, 현재 선택된 어플리케이션을 실행하거나, 페이지를 특정 방향으로 드래그하는 동작이 전자 디바이스(100)에 의해 수행되어 제 1 스크린(110) 상에 디스플레이될 수 있다. 그러나, 사용자 입력에 따라 전자 디바이스(100)에 의해 수행되어 제 1 스크린(110) 상에 디스플레이되는 동작은, 전술한 예에 한정되지 않는다. The electronic device 100 may differently set an operation performed by the electronic device 100 and displayed on the first screen 110 according to an area for receiving a user input. For example, as shown in FIG. 4, when a touch & hold input is received through the E region 605, an operation of changing the electronic device 100 to the lock mode is performed by the electronic device 100 to perform the operation. 1 may be displayed on the screen 110. In addition, when a touch and hold input is received through one of A 601, B 602, C 603, and D 604, the currently selected application is executed or the page is dragged in a specific direction. The operation may be performed by the electronic device 100 and displayed on the first screen 110. However, an operation performed by the electronic device 100 according to a user input and displayed on the first screen 110 is not limited to the above-described example.
도 7은 개시된 일 실시예에 따른 제 2 스크린 상에 디스플레이되는 키보드의 일 예를 나타내는 도면이다.7 is a diagram illustrating an example of a keyboard displayed on a second screen according to an embodiment of the present disclosure.
전자 디바이스(100)는 사용자 입력을 수신하는 키보드(700)를 제 2 스크린(120) 상에 디스플레이할 수 있다. 이때, 전자 디바이스(100)는, 제 2 스크린(120) 상에 숫자, 영어 알파벳을 복수의 페이지로 나누어 표시할 수 있다. 예를 들어, 도 7에 도시된 바와 같이, 제 2 스크린(120) 상에 디스플레이되는 키보드(700)의 첫 번째 페이지는 2x5 포맷으로 디스플레이된 숫자들(701)을 포함할 수 있다. 또한, 두 번째 페이지는 키보드(700)의 왼쪽 부분(702), 세 번째 페이지는 키보드(700)의 가운데 부분(703), 네번째 페이지는 키보드(700)의 오른쪽 부분(704)이 디스플레이될 수 있다. 이때, 각 페이지에 디스플레이되는 키보드(700)의 부분은, 전술한 예에 한정되지 않으며, 사용자 설정에 따라 변경될 수 있다. 예를 들어, 키보드의 디스플레이 포맷이 3x3으로 설정된 경우, 제 2 스크린(120) 상에 디스플레이되는 키보드의 형태 및 페이지 수는 도 7에 도시된 것과 달라질 수 있다. The electronic device 100 may display a keyboard 700 on the second screen 120 that receives a user input. In this case, the electronic device 100 may divide the number and the English alphabet into a plurality of pages on the second screen 120 and display the divided pages. For example, as shown in FIG. 7, the first page of keyboard 700 displayed on second screen 120 may include numbers 701 displayed in 2 × 5 format. Also, the second page may display a left portion 702 of the keyboard 700, the third page may display a center portion 703 of the keyboard 700, and the fourth page may display a right portion 704 of the keyboard 700. . In this case, the portion of the keyboard 700 displayed on each page is not limited to the above-described example and may be changed according to a user setting. For example, when the display format of the keyboard is set to 3 × 3, the shape and the number of pages displayed on the second screen 120 may be different from those shown in FIG. 7.
또한, 제 2 스크린(120) 상에 디스플레이된 키보드를 드래그하는 입력이 수신되면, 전자 디바이스(100)는 현재 디스플레이되는 키보드의 페이지를 변경할 수 있다. 예를 들어, 현재 키보드의 첫 번째 페이지(701)가 디스플레이되는 경우, 제 2 스크린(120)을 통해 오른쪽으로 드래그하는 사용자 입력이 수신되면, 전자 디바이스(100)는 키보드의 두번째 페이지(702)를 제 2 스크린(120) 상에 디스플레이할 수 있다. 그러나, 실시예에 따라, 키보드의 페이지를 변경하기 위한 사용자 입력은 달라질 수 있으며, 전술한 예에 한정되지 않는다.In addition, when an input for dragging the keyboard displayed on the second screen 120 is received, the electronic device 100 may change a page of the currently displayed keyboard. For example, when the first page 701 of the current keyboard is displayed, when a user input of dragging to the right through the second screen 120 is received, the electronic device 100 displays the second page 702 of the keyboard. It may be displayed on the second screen 120. However, depending on the embodiment, the user input for changing the page of the keyboard may vary, and is not limited to the above-described example.
도 8은 개시된 일 실시예에 따른 제 2 스크린(120)을 통해 수신된 사용자 입력을 제 1 스크린 상에 구별되게 표시하는 방법을 설명하기 위한 도면이다.FIG. 8 is a diagram for describing a method of distinguishing and displaying a user input received through a second screen 120 on a first screen according to an exemplary embodiment.
제 2 스크린(120) 상에 키보드(800)가 디스플레이되는 경우, 전자 디바이스(100)는 키보드(800)의 키(key)를 터치하는 사용자 입력에 기초하여, 전자 디바이스에서 수행되어 제 1 스크린(110) 상에 디스플레이되는 동작을 제어할 수 있다. 이때, 전자 디바이스(100)는, 제 2 스크린(120)을 통해 터치된 키를 확인할 수 있도록, 터치된 키를 제 1 스크린(110) 상에 구별되게 표시할 수 있다.When the keyboard 800 is displayed on the second screen 120, the electronic device 100 is performed on the electronic device based on a user input of touching a key of the keyboard 800 to perform the first screen ( The operation displayed on 110 may be controlled. In this case, the electronic device 100 may display the touched key on the first screen 110 so that the key touched through the second screen 120 may be identified.
예를 들어, 전자 디바이스(100)는, 현재 제 2 스크린(120) 상에 디스플레이된 키들을 제 1 스크린(110)에 디스플레이하고, 터치된 키를 제 1 스크린(110) 상에서 하이라이트로 표시할 수 있다. 이때, 하이라이트로 표시하는 방법은, 숫자를 굵게 표시하거나, 색상을 다르게 표시하는 방법을 포함할 수 있으나, 이에 한정되지 않는다. 또한, 전자 디바이스(100)는, 사용자의 편의에 따라, 제 1 스크린(110) 상에 디스플레이되는 키들의 투명도를 조절할 수 있다. For example, the electronic device 100 may display the keys currently displayed on the second screen 120 on the first screen 110 and display the touched keys as highlights on the first screen 110. have. In this case, the method of displaying the highlight may include a method of displaying the numbers in bold or different colors, but is not limited thereto. In addition, the electronic device 100 may adjust the transparency of the keys displayed on the first screen 110 according to the user's convenience.
또한, 전자 디바이스(100)는, 실시예에 따라, 터치되는 키를 제 1 스크린(110) 상에 팝업(pop-up) 형태로 디스플레이할 수 있다. 팝업 형태로 표시되는 키는, 제 1 스크린(110)의 중심 영역에 디스플레이되거나, 또는 제 1 스크린(110)의 에지(edge) 영역에 디스플레이될 수 있으나, 이에 한정되지 않는다.In addition, according to an embodiment, the electronic device 100 may display the touched key on the first screen 110 in a pop-up form. The key displayed in the pop-up form may be displayed in the center area of the first screen 110 or in the edge area of the first screen 110, but is not limited thereto.
또한, 전자 디바이스(100)는, 사용자가 의도하지 않은 키가 터치되는 경우, 키의 입력을 취소할 수 있는 메뉴를 제 2 스크린(120) 상에 디스플레이할 수 있다. 예를 들어, 키의 입력을 취소할 수 있는 메뉴는, 키보드(800)와 함께 제 2 스크린(120) 상에 디스플레이될 수 있으나, 이에 한정되지 않는다.In addition, when a key not intended by the user is touched, the electronic device 100 may display a menu on the second screen 120 that may cancel the input of the key. For example, a menu for canceling input of a key may be displayed on the second screen 120 together with the keyboard 800, but is not limited thereto.
도 9는 개시된 일 실시예에 따른 전자 디바이스의 잠금 상태를 해제하는 방법을 설명하기 위한 도면이다.9 is a diagram for describing a method of releasing a locked state of an electronic device, according to an exemplary embodiment.
도 9를 참조하면, 전자 디바이스(100)는, 일 측면에 버튼(130)을 포함할 수 있다. 그러나, 버튼(130)의 위치는, 전자 디바이스(100)의 일 측면에 한정되지 않으며, 전자 디바이스(100)의 상단 또는 하단이 될 수도 있다. Referring to FIG. 9, the electronic device 100 may include a button 130 on one side thereof. However, the position of the button 130 is not limited to one side of the electronic device 100 and may be the top or bottom of the electronic device 100.
전자 디바이스(100)가 잠금 상태에 있을 때, 제 1 스크린(110) 및 제 2 스크린(120)은 비활성화 상태일 수 있다. 이때, 버튼(130)이 클릭됨에 따라, 전자 디바이스(100)는 제 2 스크린(120)을 활성화시킬 수 있다. 그리고, 전자 디바이스(100)의 잠금 상태를 해제하기 위해, 잠금 패턴 또는 패스워드가 사용될 수 있으나, 이에 한정되지 않는다.When the electronic device 100 is in the locked state, the first screen 110 and the second screen 120 may be in an inactive state. At this time, as the button 130 is clicked, the electronic device 100 may activate the second screen 120. In addition, a lock pattern or a password may be used to release the lock state of the electronic device 100, but is not limited thereto.
제 2 스크린(120)이 활성화되면, 전자 디바이스(100)는 사용자가 선택할 수 있는 적어도 하나의 아이템을 제 2 스크린(120) 상에 디스플레이할 수 있다. 도 9를 참조하면, 제 2 스크린(120) 상에 디스플레이되는 아이템은 전자 디바이스(100)의 잠금 상태를 해제하기 위해 사용될 수 있는 키보드를 포함할 수 있다. When the second screen 120 is activated, the electronic device 100 may display at least one item selectable by the user on the second screen 120. Referring to FIG. 9, an item displayed on the second screen 120 may include a keyboard that may be used to unlock the electronic device 100.
예를 들어, 패스워드가 사용되는 경우, 전자 디바이스(100)의 잠금 상태를 해제하기 위해, 키보드가 선택될 수 있다. 그리고, 키보드에서 패스워드에 대응되는 키가 터치됨에 따라, 전자 디바이스(100)의 잠금 상태가 해제될 수 있다.For example, if a password is used, a keyboard may be selected to unlock the electronic device 100. As the key corresponding to the password is touched on the keyboard, the locked state of the electronic device 100 may be released.
도 10a 내지 도 10c는 개시된 일 실시예예 따른 전자 디바이스에서 잠금 패턴이 사용되는 일 예를 나타낸다.10A to 10C illustrate an example in which a lock pattern is used in an electronic device according to an embodiment of the present disclosure.
예를 들어, 전자 디바이스(100)의 잠금 상태를 해제하기 위해, 도 10a에 도시된 잠금 패턴(1000)이 사용될 수 있다. 이때, 잠금 패턴(1000)은, 도 10a에 도시된 바와 같이, 3x3의 도트(dot) 배열에서 사용자의 설정에 따라 결정될 수 있다. 또한, 실시예에 따라, 4x4 또는 5x5의 도트 배열에서 잠금 패턴이 설정될 수도 있으나, 이에 한정되지 않는다.For example, to unlock the electronic device 100, the lock pattern 1000 illustrated in FIG. 10A may be used. In this case, as shown in FIG. 10A, the lock pattern 1000 may be determined according to a user's setting in a 3 × 3 dot array. Further, in some embodiments, the lock pattern may be set in a 4x4 or 5x5 dot array, but is not limited thereto.
일반적으로, 제 2 스크린(120)은 제 1 스크린(110)에 비해 상대적으로 크기가 작기 때문에, 사용자 입력을 수신할 수 있는 공간이 좁다. 따라서, 잠금 패턴(1000)이 사용되는 경우, 제 2 스크린(120)을 통해 사용자가 설정한 잠금 패턴(1000)을 그리는 입력을 수신하는 것이 용이하지 않다. In general, since the second screen 120 is relatively smaller in size than the first screen 110, a space for receiving a user input is narrow. Therefore, when the lock pattern 1000 is used, it is not easy to receive an input for drawing the lock pattern 1000 set by the user through the second screen 120.
이에 따라, 전자 디바이스(100)는, 잠금 패턴(1000)을 숫자 배열에 매핑시킬 수 있다. 그리고, 제 2 스크린(120) 상에 디스플레이되는 키보드에서 잠금 패턴에 대응되는 숫자들이 터치되면, 전자 디바이스(100)의 잠금 상태가 해제될 수 있다.Accordingly, the electronic device 100 may map the lock pattern 1000 to the numeric array. When the numbers corresponding to the lock pattern are touched on the keyboard displayed on the second screen 120, the locked state of the electronic device 100 may be released.
예를 들어, 잠금 패턴이 설정되는 3x3의 도트 배열은, 도 10b에 도시된 바와 같이, 1 내지 9의 숫자들(1010)에 매핑될 수 있다. 그러나, 각각의 도트와 숫자들의 매핑 관계(1000, 1010)는 전술한 예에 한정되지 않으며, 실시예에 따라 다르게 매핑될 수 있다. 도 10a에 도시된 잠금 패턴(1000)이 도 10b에 도시된 숫자 배열(1010)에 매핑되면, 도 10a에 도시된 잠금 패턴(1000)은 "23547"의 숫자 배열에 대응될 수 있다. For example, the 3 × 3 dot array in which the lock pattern is set may be mapped to the numbers 1010 of 1 to 9, as shown in FIG. 10B. However, the mapping relationship 1000 and 1010 of each dot and number is not limited to the above-described example, and may be mapped differently according to an embodiment. When the lock pattern 1000 illustrated in FIG. 10A is mapped to the numeric array 1010 illustrated in FIG. 10B, the lock pattern 1000 illustrated in FIG. 10A may correspond to the numeric array illustrated as “23547”.
도 10c는 잠금 패턴에 대응되는 숫자들이 터치됨에 따라, 전자 디바이스의 잠금 상태가 해제되는 일 예를 나타내는 도면이다.10C is a diagram illustrating an example in which a locked state of an electronic device is released as numbers corresponding to the lock pattern are touched.
도 10c에 도시된 바와 같이, 제 2 스크린(120) 상에 디스플레이된 키보드(1020)에서 "23547"의 순서로 숫자들이 터치되면, 전자 디바이스(100)는 사용자가 설정한 잠금 패턴(1030)이 입력된 것으로 인식할 수 있다. 그리고, 이에 따라, 전자 디바이스(100)의 잠금 상태가 해제될 수 있다. As illustrated in FIG. 10C, when numbers are touched in the order of “23547” on the keyboard 1020 displayed on the second screen 120, the electronic device 100 may display the lock pattern 1030 set by the user. It can be recognized as input. As a result, the locked state of the electronic device 100 may be released.
도 11 및 도 12는 개시된 일 실시예에 따른 전자 디바이스의 구성을 나타내는 블록도이다.11 and 12 are block diagrams illustrating a configuration of an electronic device according to an embodiment of the present disclosure.
도 11에 도시된 바와 같이, 개시된 일 실시예에 따른 전자 디바이스(100)는, 디스플레이부(1110), 사용자 입력부(1120), 및 제어부(1130)를 포함할 수 있다. 그러나, 도시된 구성요소 모두가 필수 구성요소인 것은 아니다. 도시된 구성요소보다 많은 구성요소에 의해 전자 디바이스(100)가 구현될 수도 있고, 그보다 적은 구성요소에 의해 전자 디바이스(100)가 구현될 수도 있다.As illustrated in FIG. 11, the electronic device 100 according to an exemplary embodiment may include a display 1110, a user input unit 1120, and a controller 1130. However, not all illustrated components are essential components. The electronic device 100 may be implemented by more components than the illustrated components, or the electronic device 100 may be implemented by fewer components.
예를 들어, 도 12에 도시된 바와 같이, 개시된 일 실시예에 따른 전자 디바이스(100)는, 디스플레이부(1110), 사용자 입력부(1120), 및 제어부(1130) 이외에, 통신부(1140), 센싱부(1150), A/V 입력부(1160), 및 메모리(1170)를 더 포함할 수 있다.For example, as illustrated in FIG. 12, the electronic device 100 according to an exemplary embodiment may include a communication unit 1140 and a sensing unit, in addition to the display 1110, the user input unit 1120, and the control unit 1130. The unit 1150 may further include an A / V input unit 1160 and a memory 1170.
이하, 상기 구성요소들에 대해 차례로 살펴본다. Hereinafter, the components will be described in order.
출력부(1115)는, 오디오 신호 또는 비디오 신호 또는 진동 신호의 출력을 위한 것으로, 출력부(1115)는 디스플레이부(1110), 음향 출력부(1111), 진동 모터(1112)를 포함할 수 있으나, 이에 한정되지 않는다.The output unit 1115 is for outputting an audio signal, a video signal, or a vibration signal, and the output unit 1115 may include a display unit 1110, an audio output unit 1111, and a vibration motor 1112. It is not limited to this.
디스플레이부(1110)는 디바이스(100)에서 처리되는 정보를 표시한다.The display 1110 displays information processed by the device 100.
또한, 디스플레이부(1110)는, 제 1 스크린(110) 및 제 2 스크린(120)을 포함할 수 있다. 제 1 스크린(110) 및 제 2 스크린(120)은, 하나의 곡면 스크린으로 구성되거나, 또는 독립된 복수의 스크린으로 구성될 수 있으나, 이에 한정되지 않는다. In addition, the display 1110 may include a first screen 110 and a second screen 120. The first screen 110 and the second screen 120 may consist of one curved screen or a plurality of independent screens, but is not limited thereto.
제 2 스크린(120)은 제 1 스크린(110)과 독립적으로 사용자 인터페이스가 업데이트될 수 있다. 예를 들어, 제 1 스크린(110)은 전자 디바이스(100)에서 수행되는 전반적인 동작을 디스플레이할 수 있고, 제 2 스크린(120)은 전자 디바이스(100)에서 수행되어 제 1 스크린(110)에 디스플레이되는 동작을 제어하기 위한 사용자 인터페이스를 디스플레이할 수 있다.The second screen 120 may be updated with a user interface independent of the first screen 110. For example, the first screen 110 may display an overall operation performed on the electronic device 100, and the second screen 120 may be performed on the electronic device 100 to display on the first screen 110. A user interface for controlling the operation may be displayed.
또한, 디스플레이부(1110)와 터치패드가 레이어 구조를 이루어 터치 스크린으로 구성되는 경우, 디스플레이부(1110)는 출력 장치 이외에 입력 장치로도 사용될 수 있다. 디스플레이부(1110)는 액정 디스플레이(liquid crystal display), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display), 유기 발광 다이오드(organic light-emitting diode), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전기영동 디스플레이(electrophoretic display) 중에서 적어도 하나를 포함할 수 있다. 그리고, 전자 디바이스(100)의 구현 형태에 따라, 전자 디바이스(100)는 디스플레이부(1110)를 2개 이상 포함할 수도 있다. In addition, when the display 1110 and the touch pad form a layer structure to form a touch screen, the display 1110 may be used as an input device in addition to the output device. The display 1110 may include a liquid crystal display, a thin film transistor-liquid crystal display, an organic light-emitting diode, a flexible display, and a three-dimensional display. 3D display, an electrophoretic display. In addition, according to the implementation form of the electronic device 100, the electronic device 100 may include two or more display units 1110.
음향 출력부(1111)는 통신부(1140)로부터 수신되거나 메모리(1170)에 저장된 오디오 데이터를 출력한다. 또한, 음향 출력부(1111)는 전자 디바이스(100)에서 수행되는 기능(예를 들어, 호신호 수신음, 메시지 수신음, 알림음)과 관련된 음향 신호를 출력한다. 음향 출력부(1111)는 스피커(speaker), 버저(Buzzer) 등을 포함할 수 있다.The sound output unit 1111 outputs audio data received from the communication unit 1140 or stored in the memory 1170. In addition, the sound output unit 1111 outputs a sound signal related to a function (for example, a call signal reception sound, a message reception sound, and a notification sound) performed by the electronic device 100. The sound output unit 1111 may include a speaker, a buzzer, and the like.
진동 모터(1112)는 진동 신호를 출력할 수 있다. 예를 들어, 진동 모터(1112)는, 오디오 데이터 또는 비디오 데이터(예컨대, 호신호 수신음, 메시지 수신음 등)의 출력에 대응하는 진동 신호를 출력할 수 있다. 또한, 진동 모터(1112)는, 터치 스크린에 터치가 입력되는 경우 진동 신호를 출력할 수도 있다.The vibration motor 1112 may output a vibration signal. For example, the vibration motor 1112 may output a vibration signal corresponding to an output of audio data or video data (eg, a call signal reception sound, a message reception sound, and the like). In addition, the vibration motor 1112 may output a vibration signal when a touch is input to the touch screen.
사용자 입력부(1120)는, 사용자가 전자 디바이스(100)를 제어하기 위한 데이터를 입력하는 수단을 의미한다. 예를 들어, 사용자 입력부(1120)는 키 패드(key pad), 돔 스위치 (dome switch), 터치 패드(접촉식 정전 용량 방식, 압력식 저항막 방식, 적외선 감지 방식, 표면 초음파 전도 방식, 적분식 장력 측정 방식, 피에조 효과 방식 등), 조그 휠, 조그 스위치 등이 될 수 있으나 이에 한정되는 것은 아니다. 또한, 사용자 입력부(1120)는, 터치 스크린을 포함할 수 있다. The user input unit 1120 means a means for a user to input data for controlling the electronic device 100. For example, the user input unit 1120 may include a key pad, a dome switch, a touch pad (contact capacitive type, pressure resistive layer type, infrared sensing type, surface ultrasonic conduction type, and integral type). Tension measurement method, piezo effect method, etc.), jog wheel, jog switch, etc., but is not limited thereto. In addition, the user input unit 1120 may include a touch screen.
사용자 입력부(1120)는, 제 2 스크린(120)을 통해 제 1 스크린(110)을 제어하기 위한 사용자 입력을 수신할 수 있다. 예를 들어, 사용자 입력은, 제 2 스크린(120) 상에서 드래그, 싱글 탭, 더블 탭, 및 터치&홀드 입력을 포함하는 다양한 터치 입력 중 하나일 수 있다. 또한, 사용자 입력은 전자 디바이스(100)의 버튼(130)을 클릭하는 행위를 포함할 수 있으나, 이에 한정되지 않는다. The user input unit 1120 may receive a user input for controlling the first screen 110 through the second screen 120. For example, the user input may be one of various touch inputs including a drag, a single tap, a double tap, and a touch and hold input on the second screen 120. In addition, the user input may include an action of clicking the button 130 of the electronic device 100, but is not limited thereto.
제어부(1130)는, 통상적으로 전자 디바이스(100)의 전반적인 동작을 제어한다. 예를 들어, 제어부(1130)는, 메모리(1170)에 저장된 프로그램들을 실행함으로써, 출력부(1115), 사용자 입력부(1120), 통신부(1140), 센싱부(1150), A/V 입력부(1160) 등을 전반적으로 제어할 수 있다. The controller 1130 generally controls the overall operation of the electronic device 100. For example, the controller 1130 may execute programs stored in the memory 1170, thereby outputting the output unit 1115, the user input unit 1120, the communication unit 1140, the sensing unit 1150, and the A / V input unit 1160. ) Can be controlled overall.
또한, 제어부(1130)는, 제 2 스크린(120)을 통해 수신되는 사용자 입력에 기초하여, 전자 디바이스(100)에서 수행되어 제 1 스크린(110) 상에 디스플레이되는 동작을 제어할 수 있다. 예를 들어, 제어부(1130)는 사용자 입력과 전자 디바이스(100)에 의해 수행되어 제 1 스크린(110) 상에 디스플레이되는 동작을 미리 매핑시킬 수 있다. 그리고, 매핑 결과에 기초하여, 사용자 입력에 대응되는 동작이 제어부(1130)에 의해 수행되어 제 1 스크린(110) 상에 디스플레이될 수 있다. 또한, 제 2 스크린(120) 상에 디스플레이되는 키보드의 키를 터치하는 입력이 수신되는 경우, 터치된 키에 대응되는 값에 기초하여 결정된 동작이 제어부(1130)에 의해 수행되어 제 1 스크린(110) 상에 디스플레이될 수 있다. 그리고, 제어부(1130)는, 사용자 설정에 따라 제 2 스크린(120) 상에 디스플레이되는 키보드의 디스플레이 포맷을 변경할 수 있다. 예를 들어, 제어부(1130)는, 사용자의 편의에 따라, 키보드를 3x3, 2x5의 포맷으로 설정할 수 있으나, 이에 한정되지 않는다.In addition, the controller 1130 may control an operation performed on the electronic device 100 and displayed on the first screen 110 based on a user input received through the second screen 120. For example, the controller 1130 may previously map an operation performed by the electronic device 100 and displayed on the first screen 110. Based on the mapping result, an operation corresponding to a user input may be performed by the controller 1130 and displayed on the first screen 110. In addition, when an input for touching a key of a keyboard displayed on the second screen 120 is received, an operation determined based on a value corresponding to the touched key is performed by the controller 1130 to perform a first screen 110. Can be displayed on the screen. The controller 1130 may change the display format of the keyboard displayed on the second screen 120 according to a user setting. For example, the controller 1130 may set the keyboard in a format of 3x3 or 2x5 according to the user's convenience, but is not limited thereto.
또한, 제어부(1130)는, 제 1 스크린(110) 상에 사용자 입력에 대응되는 동작을 디스플레이하고, 디스플레이되는 동작에 따라 제 1 스크린(110) 및 제 2 스크린(120)의 사용자 인터페이스를 제어할 수 있다. In addition, the controller 1130 may display an operation corresponding to the user input on the first screen 110 and control the user interface of the first screen 110 and the second screen 120 according to the displayed operation. Can be.
통신부(1140)는, 전자 디바이스(100)와 외부 디바이스 또는 전자 디바이스(100)와 서버간의 통신을 수행하기 위한 하나 이상의 구성요소를 포함할 수 있다. 예를 들어, 통신부(1140)는, 근거리 통신부(1141), 이동 통신부(1142), 방송 수신부(1143)를 포함할 수 있다.The communication unit 1140 may include one or more components for performing communication between the electronic device 100 and an external device or the electronic device 100 and a server. For example, the communication unit 1140 may include a short range communication unit 1141, a mobile communication unit 1142, and a broadcast receiving unit 1143.
근거리 통신부(short-range wireless communication unit)(1141)는, 블루투스 통신부, 근거리 무선 통신부(Near Field Communication unit), WLAN(와이파이) 통신부, 지그비(Zigbee) 통신부, 적외선(IrDA, infrared Data Association) 통신부, WFD(Wi-Fi Direct) 통신부, UWB(ultra wideband) 통신부, Ant+ 통신부 등을 포함할 수 있으나, 이에 한정되는 것은 아니다. The short-range wireless communication unit 1141 may include a Bluetooth communication unit, a Near Field Communication unit, a WLAN (Wi-Fi) communication unit, a Zigbee communication unit, an Infrared Data Association (IrDA) communication unit, It may include a Wi-Fi Direct communication unit, an ultra wideband communication unit, an Ant + communication unit, and the like, but is not limited thereto.
이동 통신부(1142)는, 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다. 여기에서, 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다.The mobile communication unit 1142 transmits and receives a radio signal with at least one of a base station, an external terminal, and a server on a mobile communication network. Here, the wireless signal may include various types of data according to transmission and reception of a voice call signal, a video call call signal, or a text / multimedia message.
방송 수신부(1143)는, 방송 채널을 통하여 외부로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다. 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 실시예에 따라, 전자 디바이스(100)가 방송 수신부(1143)를 포함하지 않을 수도 있다.The broadcast receiving unit 1143 receives a broadcast signal and / or broadcast related information from the outside through a broadcast channel. The broadcast channel may include a satellite channel and a terrestrial channel. According to an embodiment, the electronic device 100 may not include the broadcast receiving unit 1143.
센싱부(1150)는, 전자 디바이스(100)의 상태 또는 전자 디바이스(100) 주변의 상태를 감지하고, 감지된 정보를 제어부(1130)로 전달할 수 있다. The sensing unit 1150 may detect a state of the electronic device 100 or a state around the electronic device 100 and transmit the detected information to the controller 1130.
센싱부(1150)는, 지자기 센서(Magnetic sensor)(1151), 가속도 센서(Acceleration sensor)(1152), 온/습도 센서(1153), 적외선 센서(1154), 자이로스코프 센서(1155), 위치 센서(예컨대, GPS)(1156), 기압 센서(1157), 근접 센서(1158), 및 RGB 센서(illuminance sensor)(1159) 중 적어도 하나를 포함할 수 있으나, 이에 한정되는 것은 아니다. 각 센서들의 기능은 그 명칭으로부터 당업자가 직관적으로 추론할 수 있으므로, 구체적인 설명은 생략한다.The sensing unit 1150 may include a geomagnetic sensor 1151, an acceleration sensor 1152, a temperature / humidity sensor 1153, an infrared sensor 1154, a gyroscope sensor 1155, and a position sensor. (Eg, GPS) 1156, barometric pressure sensor 1157, proximity sensor 1158, and RGB sensor 1illuminance sensor 1159, but are not limited thereto. Functions of the respective sensors can be intuitively deduced by those skilled in the art from the names thereof, and thus detailed descriptions thereof are omitted.
A/V(Audio/Video) 입력부(1160)는 오디오 신호 또는 비디오 신호 입력을 위한 것으로, A/V 입력부(1160)는 카메라(1161)와 마이크로폰(1162) 등을 포함할 수 있다. 카메라(1161)는 화상 통화 모드 또는 촬영 모드에서 이미지 센서를 통해 정지영상 또는 동영상 등의 화상 프레임을 얻을 수 있다. 이미지 센서를 통해 캡쳐된 이미지는 제어부(1130) 또는 별도의 이미지 처리부(미도시)를 통해 처리될 수 있다. The A / V input unit 1160 is for inputting an audio signal or a video signal, and the A / V input unit 1160 may include a camera 1161 and a microphone 1162. The camera 1161 may obtain an image frame such as a still image or a moving image through an image sensor in a video call mode or a photographing mode. The image captured by the image sensor may be processed by the controller 1130 or an additional image processor (not shown).
카메라(1161)에서 처리된 화상 프레임은 메모리(1170)에 저장되거나 통신부(1140)를 통하여 외부로 전송될 수 있다. 카메라(1161)는 전자 디바이스(100)의 구성 태양에 따라 2개 이상이 구비될 수도 있다.The image frame processed by the camera 1161 may be stored in the memory 1170 or transmitted to the outside through the communication unit 1140. Two or more cameras 1161 may be provided according to the configuration aspect of the electronic device 100.
마이크로폰(1162)은, 외부의 음향 신호를 입력 받아 전기적인 음성 데이터로 처리한다. 예를 들어, 마이크로폰(1162)은 외부 디바이스 또는 화자로부터 음향 신호를 수신할 수 있다. 마이크로폰(1162)은 외부의 음향 신호를 입력 받는 과정에서 발생 되는 잡음(noise)를 제거하기 위한 다양한 잡음 제거 알고리즘을 이용할 수 있다. The microphone 1162 receives an external sound signal and processes the external sound signal into electrical voice data. For example, the microphone 1162 may receive an acoustic signal from an external device or speaker. The microphone 1162 may use various noise removing algorithms for removing noise generated in the process of receiving an external sound signal.
메모리(1170)는, 제어부(1130)의 처리 및 제어를 위한 프로그램을 저장할 수 잇다. 또한, 입/출력되는 데이터들(예컨대, 어플리케이션, 컨텐트, 이미지 파일, 텍스트 파일 등)을 저장할 수 있다.The memory 1170 may store a program for processing and controlling the controller 1130. In addition, data input / output (eg, an application, content, an image file, a text file, etc.) may be stored.
메모리(1170)는, 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(RAM, Random Access Memory) SRAM(Static Random Access Memory), 롬(ROM, Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 또한, 전자 디바이스(100)는, 인터넷(internet)상에서 메모리(1170)의 저장 기능을 수행하는 웹 스토리지(web storage) 또는 클라우드 서버를 운영할 수도 있다.The memory 1170 may include a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (eg, SD or XD memory, etc.), Random Access Memory (RAM) Static Random Access Memory (SRAM), Read-Only Memory (ROM), Electrically Erasable Programmable Read-Only Memory (EEPROM), Programmable Read-Only Memory (PROM), Magnetic Memory, Magnetic It may include a storage medium of at least one type of disk, optical disk. In addition, the electronic device 100 may operate a web storage or a cloud server that performs a storage function of the memory 1170 on the Internet.
메모리(1170)에 저장된 프로그램들은 그 기능에 따라 복수의 모듈로 분류할 수 있는데, 예를 들어, UI 모듈(1171), 터치 스크린 모듈(1172), 알림 모듈(1173), STT(Speak to Text) 모듈(1174) 등으로 분류될 수 있다. Programs stored in the memory 1170 may be classified into a plurality of modules according to their functions. For example, the UI module 1171, the touch screen module 1172, the notification module 1173, and the STT (Speak to Text) Module 1174 or the like.
UI 모듈(1171)은, 어플리케이션 별로 전자 디바이스(100)와 연동되는 특화된 UI, GUI 등을 제공할 수 있다. 터치 스크린 모듈(1172)은 사용자의 터치 스크린 상의 터치 제스처를 감지하고, 터치 제스처에 관한 정보를 제어부(1130)로 전달할 수 있다. 터치 스크린 모듈(1172)은 컨트롤러를 포함하는 별도의 하드웨어로 구성될 수도 있다.The UI module 1171 may provide a specialized UI, GUI, or the like that is linked to the electronic device 100 for each application. The touch screen module 1172 may detect a touch gesture on the user's touch screen, and may transmit information about the touch gesture to the controller 1130. The touch screen module 1172 may be configured as separate hardware including a controller.
터치 스크린의 터치 또는 근접 터치를 감지하기 위해 터치 스크린의 내부 또는 근처에 다양한 센서가 구비될 수 있다. 터치 스크린의 터치를 감지하기 위한 센서의 일례로 촉각 센서가 있다. 촉각 센서는 사람이 느끼는 정도로 또는 그 이상으로 특정 물체의 접촉을 감지하는 센서를 말한다. 촉각 센서는 접촉면의 거칠기, 접촉 물체의 단단함, 접촉 지점의 온도 등의 다양한 정보를 감지할 수 있다.Various sensors may be provided inside or near the touch screen to detect a touch or proximity touch of the touch screen. An example of a sensor for sensing a touch of a touch screen is a tactile sensor. The tactile sensor refers to a sensor that senses the contact of a specific object to the extent that a person feels or more. The tactile sensor may sense various information such as the roughness of the contact surface, the rigidity of the contact object, the temperature of the contact point, and the like.
또한, 터치 스크린의 터치를 감지하기 위한 센서의 일례로 근접 센서가 있다.In addition, an example of a sensor for sensing a touch of a touch screen is a proximity sensor.
근접 센서는 소정의 검출면에 접근하는 물체, 혹은 근방에 존재하는 물체의 유무를 전자계의 힘 또는 적외선을 이용하여 기계적 접촉이 없이 검출하는 센서를 말한다. 근접 센서의 예로는 투과형 광전 센서, 직접 반사형 광전 센서, 미러 반사형 광전 센서, 고주파 발진형 근접 센서, 정전용량형 근접 센서, 자기형 근접 센서, 적외선 근접 센서 등이 있다. 사용자의 터치 제스처에는 탭, 터치&홀드, 더블 탭, 드래그, 패닝, 플릭, 드래그 앤드 드롭, 스와이프 등이 있을 수 있다.The proximity sensor refers to a sensor that detects the presence or absence of an object approaching a predetermined detection surface or an object present in the vicinity without using a mechanical contact by using an electromagnetic force or infrared rays. Examples of the proximity sensor include a transmission photoelectric sensor, a direct reflection photoelectric sensor, a mirror reflection photoelectric sensor, a high frequency oscillation proximity sensor, a capacitive proximity sensor, a magnetic proximity sensor, and an infrared proximity sensor. The user's touch gesture may include tap, touch and hold, double tap, drag, pan, flick, drag and drop, and swipe.
알림 모듈(1173)은 전자 디바이스(100)의 이벤트 발생을 알리기 위한 신호를 발생할 수 있다. 전자 디바이스(100)에서 발생되는 이벤트의 예로는 호 신호 수신, 메시지 수신, 키 신호 입력, 일정 알림 등이 있다. 알림 모듈(1173)은 디스플레이부(1110)를 통해 비디오 신호 형태로 알림 신호를 출력할 수도 있고, 음향 출력부(1111)를 통해 오디오 신호 형태로 알림 신호를 출력할 수도 있고, 진동 모터(1112)를 통해 진동 신호 형태로 알림 신호를 출력할 수도 있다. The notification module 1173 may generate a signal for notifying occurrence of an event of the electronic device 100. Examples of events occurring in the electronic device 100 include call signal reception, message reception, key signal input, schedule notification, and the like. The notification module 1173 may output the notification signal in the form of a video signal through the display 1110, may output the notification signal in the form of an audio signal through the sound output unit 1111, and the vibration motor 1112. Through the notification signal may be output in the form of a vibration signal.
STT(Speech to Text) 모듈(1174)은, 멀티미디어 컨텐트에 포함된 보이스를 텍스트로 변환함으로써, 멀티미디어 컨텐트에 대응하는 트랜스크립트를 생성할 수 있다. 이때, 트랜스크립트는 멀티미디어 컨텐트의 재생 시간 정보와 매핑될 수 있다.Speech to Text (STT) module 1174 may generate a transcript corresponding to the multimedia content by converting the voice included in the multimedia content into text. In this case, the transcript may be mapped to the play time information of the multimedia content.
도 13 및 도 14는 개시된 다른 실시예에 따른 전자 디바이스의 구성을 나타내는 블록도이다.13 and 14 are block diagrams illustrating a configuration of an electronic device according to another disclosed embodiment.
개시된 다른 실시예에 따른 전자 디바이스(100a)는, 제 2 스크린 감지 모듈(1310), 스크린 디스플레이 제어 모듈(1320), 제 2 스크린 디스플레이 제어 모듈(1330), 및 제 1 스크린 디스플레이 제어 모듈(1350)을 포함할 수 있다. 그리고, 실시예에 따라, 도 11 및 도 12에 도시된 제어부(1130)는, 도 13에 도시된 제 2 스크린 감지 모듈(1310), 스크린 디스플레이 제어 모듈(1320), 제 2 스크린 디스플레이 제어 모듈(1330), 및 제 1 스크린 디스플레이 제어 모듈(1350)을 포함할 수 있다. According to another disclosed embodiment, the electronic device 100a may include a second screen sensing module 1310, a screen display control module 1320, a second screen display control module 1330, and a first screen display control module 1350. It may include. According to an embodiment, the control unit 1130 illustrated in FIGS. 11 and 12 may include the second screen sensing module 1310, the screen display control module 1320, and the second screen display control module illustrated in FIG. 13. 1330, and a first screen display control module 1350.
제 2 스크린 감지 모듈(1310)은, 제 2 스크린(120)을 통해 사용자 입력을 감지할 수 있다. The second screen detection module 1310 may detect a user input through the second screen 120.
스크린 디스플레이 제어 모듈(1320)은, 제 2 스크린(120)을 통해 수신되는 사용자 입력과 전자 디바이스(100)에 의해 수행되어 제 1 스크린(110) 상에 디스플레이되는 동작 사이의 매핑 관계를 저장할 수 있다. 또한, 스크린 디스플레이 제어 모듈(1320)은, 제 2 스크린 감지 모듈(1310)에 의해 감지되는 사용자 입력을 전자 디바이스(100)에 의해 수행되어 제 1 스크린(110) 상에 디스플레이되는 동작으로 전환할 수 있다. The screen display control module 1320 may store a mapping relationship between a user input received through the second screen 120 and an operation performed by the electronic device 100 and displayed on the first screen 110. . In addition, the screen display control module 1320 may convert a user input sensed by the second screen sensing module 1310 into an operation performed by the electronic device 100 and displayed on the first screen 110. have.
또한, 스크린 디스플레이 제어 모듈(1320)은, 전자 디바이스(100)에 의해 수행되어 제 1 스크린(110) 상에 디스플레이되는 동작을 제 1 스크린 디스플레이 제어 모듈(1340)로 전송할 수 있다. 그리고, 스크린 디스플레이 제어 모듈(1320)은, 전자 디바이스(100)의 상태 정보를 업데이트하고, 업데이트된 상태 정보를 제 1 스크린 디스플레이 제어 모듈(1340) 및 제 2 스크린 디스플레이 제어 모듈(1330)로 전송할 수 있다.In addition, the screen display control module 1320 may transmit an operation performed by the electronic device 100 and displayed on the first screen 110 to the first screen display control module 1340. The screen display control module 1320 may update state information of the electronic device 100 and transmit the updated state information to the first screen display control module 1340 and the second screen display control module 1330. have.
제 2 스크린 디스플레이 제어 모듈(1330)은, 수신된 상태 정보에 기초하여 제 2 스크린(120)의 사용자 인터페이스를 업데이트할 수 있다. The second screen display control module 1330 may update the user interface of the second screen 120 based on the received state information.
제 1 스크린 디스플레이 제어 모듈(1340)은, 스크린 디스플레이 제어 모듈(1320)로부터 수신된 동작을 수행하고, 수신된 상태 정보에 기초하여 제 1 스크린(110)의 사용자 인터페이스를 업데이트할 수 있다. The first screen display control module 1340 may perform an operation received from the screen display control module 1320 and update the user interface of the first screen 110 based on the received state information.
그러나, 실시예에 따라, 전자 디바이스(100b)는, 도 14에 도시된 바와 같이, 한 손 제어 설정 모듈(1300) 및 제 1 스크린 감지 모듈(1340)을 더 포함할 수 있다.However, according to an embodiment, the electronic device 100b may further include a one-handed control setting module 1300 and a first screen sensing module 1340, as shown in FIG. 14.
한손 제어 설정 모듈(1300)은, 제 2 스크린(120)에 관련된 파라미터들을 설정하고 저장할 수 있다. 예를 들어, 한 손 제어 설정 모듈(1300)은, 제 2 스크린(120)을 통해 사용자 입력을 수신하는 영역의 위치, 길이, 및 폭 중 적어도 하나를 설정할 수 있다. 또한, 한손 제어 설정 모듈(1300)은, 제 2 스크린(120)을 통해 수신되는 사용자 입력과 전자 디바이스(100)에 의해 수행되어 제 1 스크린(110) 상에 디스플레이되는 동작 사이의 매핑 관계를 설정할 수 있다. The one-handed control setting module 1300 may set and store parameters related to the second screen 120. For example, the one hand control setting module 1300 may set at least one of a position, a length, and a width of an area for receiving a user input through the second screen 120. In addition, the one-handed control setting module 1300 may set a mapping relationship between a user input received through the second screen 120 and an operation performed by the electronic device 100 and displayed on the first screen 110. Can be.
제 1 스크린 감지 모듈(1340)은, 제 1 스크린(110)로부터 수신된 사용자 입력을 감지하고, 감지된 사용자 입력을 스크린 디스플레이 제어 모듈(1320)로 전송할 수 있다. 이때, 사용자 입력은 드래그, 싱글 탭, 더블 탭, 터치&홀드 입력 중 하나일 수 있으나, 이에 한정되지 않는다. 그러면, 스크린 디스플레이 제어 모듈(1320)은, 제 1 스크린 감지 모듈(1340)로부터 전송된 사용자 입력을 제 1 스크린 디스플레이 제어 모듈(1350)로 전송할 수 있다. 그리고, 사용자 입력에 대응되는 동작이 제 1 스크린 디스플레이 제어 모듈(1350)에 의해 수행되어, 제 1 스크린(110) 상에 디스플레이될 수 있다. The first screen detection module 1340 may detect a user input received from the first screen 110 and transmit the detected user input to the screen display control module 1320. In this case, the user input may be one of drag, single tap, double tap, and touch and hold input, but is not limited thereto. Then, the screen display control module 1320 may transmit the user input transmitted from the first screen detection module 1340 to the first screen display control module 1350. In addition, an operation corresponding to a user input may be performed by the first screen display control module 1350 and displayed on the first screen 110.
도 15는 개시된 다른 실시예에 따른 전자 디바이스에서 드래그하는 사용자 입력이 수신되는 일 예를 나타내는 흐름도이다.15 is a flowchart illustrating an example in which a user input of dragging is received in an electronic device according to another exemplary embodiment of the present disclosure.
단계 S1510에서, 전자 디바이스(100a)는, 제 2 스크린(120)을 통해 드래그 입력을 수신할 수 있다. In operation S1510, the electronic device 100a may receive a drag input through the second screen 120.
단계 S1520에서, 전자 디바이스(100a)는, 제 2 스크린(120) 상에 디스플레이된 아이템이 있는지 확인할 수 있다. 제 2 스크린(120) 상에 디스플레이된 아이템은 키보드, 전자 디바이스(100a)의 설정 메뉴를 포함할 수 있으나, 이에 한정되지 않는다. In operation S1520, the electronic device 100a may check whether there is an item displayed on the second screen 120. The item displayed on the second screen 120 may include a keyboard and a setting menu of the electronic device 100a, but is not limited thereto.
제 2 스크린(120) 상에 디스플레이된 아이템이 있으면(단계 S1530), 전자 디바이스(100a)는 아이템의 종류 및 디스플레이된 아이템의 페이지에 관한 상태 정보를 확인할 수 있다. If there is an item displayed on the second screen 120 (step S1530), the electronic device 100a may check the type of the item and status information regarding the page of the displayed item.
예를 들어, 제 2 스크린(120) 상에 디스플레이된 아이템이 키보드인 경우, 아이템 종류에 관한 상태 정보는 키보드에 대응되는 일련번호일 수 있다. 또한, 제 2 스크린(120) 상에 현재 디스플레이된 키보드의 페이지가 두 번째 페이지(702)인 경우, 디스플레이된 아이템의 페이지에 관한 상태 정보는 "2"가 될 수 있다. For example, when the item displayed on the second screen 120 is a keyboard, the status information regarding the item type may be a serial number corresponding to the keyboard. In addition, when the page of the keyboard currently displayed on the second screen 120 is the second page 702, the status information regarding the page of the displayed item may be “2”.
그리고, 전자 디바이스(100a)는, 확인된 상태 정보 및 수신된 사용자 입력에 기초하여 제 2 스크린(120)의 사용자 인터페이스를 업데이트할 수 있다.The electronic device 100a may update the user interface of the second screen 120 based on the confirmed state information and the received user input.
그러나, 제 2 스크린(120) 상에 디스플레이된 아이템이 없으면(단계 1540), 전자 디바이스(100a)는 실행중인 어플리케이션이 제 1 스크린(110)에 디스플레이 되어있는지 확인할 수 있다. However, if there is no item displayed on the second screen 120 (step 1540), the electronic device 100a may check whether the running application is displayed on the first screen 110.
실행중인 어플리케이션이 있다면(단계 S1550), 사용자 입력에 대응되는 동작이 전자 디바이스(100a)에 의해 수행되어 제 1 스크린(110) 상에 디스플레이될 수 있다. 예를 들어, 아래쪽으로 드래그하는 사용자 입력이 수신된 경우, 실행중인 어플리케이션에 대하여 아래쪽으로 드래그하는 동작이 전자 디바이스(100a)에 의해 수행되어 제 1 스크린(110) 상에 디스플레이될 수 있다. If there is an application being executed (step S1550), an operation corresponding to the user input may be performed by the electronic device 100a and displayed on the first screen 110. For example, when a user input of dragging downward is received, dragging downward with respect to the running application may be performed by the electronic device 100a and displayed on the first screen 110.
그러나, 실행중인 어플리케이션이 없다면(단계 S1560), 전자 디바이스(100a)는 현재 선택된 페이지가 있는지 확인할 수 있다. However, if there is no application running (step S1560), the electronic device 100a may check whether there is a currently selected page.
선택된 페이지가 있으면(단계 S1570), 전자 디바이스(100a)는 사용자 입력에 기초하여, 선택된 페이지에 위치하는 복수의 어플리케이션 중 하나를 선택할 수 있다. 그리고, 전자 디바이스(100a)는 선택된 어플리케이션에 관련된 상태 정보를 업데이트할 수 있다. If there is a selected page (step S1570), the electronic device 100a may select one of a plurality of applications located in the selected page based on the user input. The electronic device 100a may update state information related to the selected application.
예를 들어, 특정 페이지에 위치하는 복수의 어플리케이션 각각은 고유의 일련번호를 포함할 수 있다. 이에 따라, 사용자 입력에 기초하여 특정 어플리케이션이 선택되면, 전자 디바이스(100a)는 선택된 어플리케이션의 일련번호를 상태 정보로서 업데이트할 수 있다. 그리고, 전자 디바이스(100a)는 선택된 어플리케이션을 하이라이트로 표시할 수 있다. For example, each of the plurality of applications located on a specific page may include a unique serial number. Accordingly, when a specific application is selected based on the user input, the electronic device 100a may update the serial number of the selected application as status information. In addition, the electronic device 100a may display the selected application as a highlight.
그러나, 선택된 페이지가 없으면(단계 S1580), 전자 디바이스(100a)는 사용자 입력에 기초하여 제 1 스크린(110) 상에 디스플레이되는 페이지를 변경할 수 있다. 예를 들어, 왼쪽으로 드래그하는 사용자 입력이 수신되면, 전자 디바이스(100)는 현재 디스플레이되는 페이지의 오른쪽에 위치하는 페이지를 제 1 스크린(110) 상에 디스플레이할 수 있다. 그리고, 전자 디바이스(100a)는 선택된 페이지에 관련된 상태 정보를 업데이트할 수 있다. However, if there is no selected page (step S1580), the electronic device 100a may change the page displayed on the first screen 110 based on the user input. For example, when a user input of dragging to the left is received, the electronic device 100 may display a page located on the right side of the currently displayed page on the first screen 110. The electronic device 100a may update state information related to the selected page.
도 16은 개시된 다른 실시예에 따른 전자 디바이스에서 탭 입력이 수신되는 일 예를 나타내는 흐름도이다.16 is a flowchart illustrating an example in which a tap input is received in an electronic device according to another disclosed embodiment.
단계 S1610에서, 전자 디바이스(100a)는 제 2 스크린(120)을 통해 싱글 탭 또는 더블 탭 입력을 수신할 수 있다.In operation S1610, the electronic device 100a may receive a single tap or double tap input through the second screen 120.
그러면, 단계 S1620에서, 전자 디바이스(100a)는 실행중인 어플리케이션이 제 1 스크린(110)에 디스플레이되어 있는지 확인할 수 있다. Then, in operation S1620, the electronic device 100a may check whether the running application is displayed on the first screen 110.
실행중인 어플리케이션이 있는 경우(단계 S1630), 싱글 탭 입력이 수신되면, 실행중인 어플리케이션에 대하여 싱글 탭 입력에 대응되는 동작이 전자 디바이스(100a)에 의해 수행되어 제 1 스크린(110) 상에 디스플레이될 수 있다. 그리고, 더블 탭 입력이 수신되면, 전자 디바이스(100a)는 실행중인 어플리케이션을 종료하거나, 또는 실행중인 어플리케이션의 이전 페이지로 돌아가는 동작이 전자 디바이스(100a)에 의해 수행되어 제 1 스크린(110)에 디스플레이될 수 있다.If there is a running application (step S1630), when a single tap input is received, an operation corresponding to the single tap input with respect to the running application is performed by the electronic device 100a to be displayed on the first screen 110. Can be. When the double tap input is received, the electronic device 100a terminates the running application or returns to the previous page of the running application by the electronic device 100a to display on the first screen 110. Can be.
그러나, 실행중인 어플리케이션이 없는 경우(단계 S1640), 전자 디바이스(100a)는 선택된 페이지가 있는지 확인할 수 있다. However, if no application is running (step S1640), the electronic device 100a may check whether there is a selected page.
선택된 페이지가 있는 경우(단계 S1650), 싱글 탭 입력이 수신되면, 상태 정보 및 사용자 입력에 기초하여 선택된 어플리케이션이 전자 디바이스(100a)에 의해 실행되어 제 1 스크린(110)에 디스플레이될 수 있다. 그리고, 더블 탭 입력이 수신되면, 전자 디바이스(100a)는 페이지의 선택을 해제하고, 선택된 페이지에 관련된 상태 정보를 업데이트할 수 있다. 또한, 전자 디바이스(100a)는, 제 1 스크린(110)의 사용자 인터페이스를 업데이트할 수 있다.If there is a selected page (step S1650), when a single tap input is received, an application selected based on the status information and the user input may be executed by the electronic device 100a and displayed on the first screen 110. When the double tap input is received, the electronic device 100a may deselect the page and update state information related to the selected page. In addition, the electronic device 100a may update the user interface of the first screen 110.
선택된 페이지가 없는 경우(단계 S1660), 싱글 탭 입력이 수신되면, 전자 디바이스(100a)는 현재 제 1 스크린(110) 상에 디스플레이되는 페이지를 선택하고, 선택된 페이지에 관련된 상태 정보를 업데이트할 수 있다. 그리고, 더블 탭 입력이 수신되면, 전자 디바이스(100a)는 아무 동작도 수행하지 않을 수 있다.If there is no selected page (step S1660), when a single tap input is received, the electronic device 100a may select a page currently displayed on the first screen 110 and update status information related to the selected page. . When the double tap input is received, the electronic device 100a may not perform any operation.
도 17은 개시된 다른 실시예에 따른 전자 디바이스에서 터치&홀드 입력이 수신되는 일 예를 나타내는 흐름도이다.17 is a flowchart illustrating an example in which a touch and hold input is received in an electronic device according to another disclosed embodiment.
단계 S1710에서, 전자 디바이스(100a)는, 제 2 스크린(120)을 통해 "중심 영역에서의 터치&홀드” 입력을 수신할 수 있다. 그리고, 전자 디바이스(100a)는, 수신된 사용자 입력을 전자 디바이스(100)에서 수행되어 제 1 스크린(110) 상에 디스플레이되는 동작으로 전환할 수 있다. 예를 들어, 제 2 스크린(120)을 통해 수신되는 “중심 영역에서의 터치&홀드” 입력은, 전자 디바이스(100a)를 잠금 상태로 변경하는 동작으로 전환될 수 있다.In operation S1710, the electronic device 100a may receive a “touch and hold in the center area” input through the second screen 120. The electronic device 100a may also receive the received user input. The operation performed by the device 100 may be switched to an operation displayed on the first screen 110. For example, the “touch & hold in the center area” input received through the second screen 120 may be The operation may be changed to change the electronic device 100a to a locked state.
단계 S1720에서, 전자 디바이스(100a)는, 전자 디바이스(100a)를 잠금 상태로 변경하고, 제 1 스크린(110)의 사용자 인터페이스를 업데이트할 수 있다. In operation S1720, the electronic device 100a may change the electronic device 100a to a locked state and update the user interface of the first screen 110.
개시된 실시예는 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어, 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.The disclosed embodiments can be embodied in the form of program instructions that can be executed by various computer means and recorded on a computer readable medium. The computer readable medium may include program instructions, data files, data structures, etc. alone or in combination. Program instructions recorded on the media may be those specially designed and constructed for the purposes of the present invention, or they may be of the kind well-known and available to those having skill in the computer software arts. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tape, optical media such as CD-ROMs, DVDs, and magnetic disks, such as floppy disks. Magneto-optical media, and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like.
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해하여야 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The foregoing description of the present invention is intended for illustration, and it will be understood by those skilled in the art that the present invention may be easily modified in other specific forms without changing the technical spirit or essential features of the present invention. will be. Therefore, it is to be understood that the embodiments described above are exemplary in all respects and not restrictive. For example, each component described as a single type may be implemented in a distributed manner, and similarly, components described as distributed may be implemented in a combined form.
본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is shown by the following claims rather than the above description, and all changes or modifications derived from the meaning and scope of the claims and their equivalents should be construed as being included in the scope of the present invention. do.

Claims (15)

  1. 복수의 스크린을 포함하는 전자 디바이스 제어 방법에 있어서,In the electronic device control method comprising a plurality of screens,
    사용자 인터페이스가 제 1 스크린과 독립적으로 업데이트되는 제 2 스크린을 통해 사용자 입력을 수신하는 단계;Receiving user input via a second screen on which the user interface is updated independently of the first screen;
    상기 사용자 입력에 기초하여, 상기 전자 디바이스에서 수행되어 상기 제 1 스크린 상에 디스플레이되는 동작을 제어하는 단계;Controlling an operation performed on the electronic device to be displayed on the first screen based on the user input;
    를 포함하는, 전자 디바이스 제어 방법.The electronic device control method comprising a.
  2. 제 1항에 있어서, 상기 전자 디바이스 제어 방법은, The method of claim 1, wherein the electronic device control method comprises:
    상기 전자 디바이스에서 수행되어 상기 제 1 스크린 상에 디스플레이되는 동작과 상기 사용자 입력을 미리 매핑시키는 단계; 및Pre-mapping the user input with an operation performed on the electronic device and displayed on the first screen; And
    상기 매핑 결과에 기초하여, 상기 사용자 입력에 대응되는 동작을 상기 제 1 스크린 상에 디스플레이하는 단계;Based on the mapping result, displaying an operation corresponding to the user input on the first screen;
    를 더 포함하는, 전자 디바이스 제어 방법.The electronic device control method further comprising.
  3. 제 1항에 있어서, 상기 사용자 입력은, The method of claim 1, wherein the user input,
    상기 제 2 스크린 상에서 드래그하는 입력, 싱글 탭하는 입력, 더블 탭하는 입력, 터치&홀드 입력 중 하나를 포함하는, 전자 디바이스 동작 방법.And one of a dragging input, a single tapping input, a double tapping input, and a touch and hold input on the second screen.
  4. 제 1항에 있어서, 상기 제 1 스크린 상에 디스플레이되는 동작을 제어하는 단계는,The method of claim 1, wherein the controlling of the operation displayed on the first screen comprises:
    상기 사용자 입력에 기초하여, 기설정된 동작을 상기 제 1 스크린 상에 디스플레이하는 단계; 및 Based on the user input, displaying a predetermined operation on the first screen; And
    상기 디스플레이되는 동작에 따라 상기 제 1 스크린 및 상기 제 2 스크린의 사용자 인터페이스를 제어하는 단계를 포함하는, 전자 디바이스 제어 방법. Controlling a user interface of the first screen and the second screen in accordance with the displayed operation.
  5. 제 1 항에 있어서, The method of claim 1,
    상기 사용자 입력을 수신하는 단계는, 상기 제 2 스크린 상에 디스플레이되는 키보드의 키(key)를 터치하는 단계를 포함하고,Receiving the user input includes touching a key of a keyboard displayed on the second screen,
    상기 제 1 스크린 상에 디스플레이되는 동작을 제어하는 단계는, 상기 터치된 키에 대응되는 값에 기초하여 결정된 동작을 상기 제 1 스크린 상에 디스플레이하는 단계를 포함하는, 전자 디바이스 제어 방법. Controlling the operation displayed on the first screen comprises displaying an operation determined on the first screen based on a value corresponding to the touched key.
  6. 제 5항에 있어서, 상기 전자 디바이스 제어 방법은,The method of claim 5, wherein the electronic device control method comprises:
    사용자 설정에 따라 상기 키보드의 디스플레이 포맷(display format)을 변경하는 단계를 더 포함하는, 전자 디바이스 제어 방법.Changing the display format of the keyboard according to a user setting.
  7. 제 1항에 있어서, 상기 전자 디바이스 제어 방법은,The method of claim 1, wherein the electronic device control method comprises:
    사용자에 따라, 상기 제 2 스크린을 통해 상기 사용자 입력을 수신하는 영역의 위치(location), 길이(length), 및 폭(width) 중 적어도 하나를 적응적으로 설정하는 단계를 더 포함하는, 전자 디바이스 제어 방법.And according to the user, adaptively setting at least one of a location, a length, and a width of an area for receiving the user input via the second screen. Control method.
  8. 제 1항에 있어서, 상기 전자 디바이스 제어 방법은,The method of claim 1, wherein the electronic device control method comprises:
    상기 제 2 스크린을 복수의 영역으로 분할하고, 상기 분할된 영역을 통해 수신된 사용자 입력에 따라 서로 다른 동작을 수행하는 단계를 더 포함하는, 전자 디바이스 동작 방법.Dividing the second screen into a plurality of areas, and performing different operations according to user input received through the divided areas.
  9. 제 1항에 있어서, 상기 전자 디바이스 제어 방법은,The method of claim 1, wherein the electronic device control method comprises:
    상기 제 1 스크린 및 상기 제 2 스크린의 상태 정보(state information)에 기초하여, 상기 제 1 스크린 및 상기 제 2 스크린의 사용자 인터페이스를 업데이트하는 단계를 더 포함하고, Updating a user interface of the first screen and the second screen based on state information of the first screen and the second screen,
    상기 상태 정보는, 상기 전자 디바이스의 잠금 상태, 선택된 어플리케이션, 및 실행중인 어플리케이션에 관련된 정보 중 적어도 하나를 포함하는, 전자 디바이스 제어 방법.The state information includes at least one of information related to a locked state of the electronic device, a selected application, and a running application.
  10. 제 1 항에 있어서, 상기 전자 디바이스 제어 방법은,The method of claim 1, wherein the electronic device control method comprises:
    상기 제 2 스크린을 통해 수신되는 기설정된 사용자 입력에 기초하여 상기 전자 디바이스의 잠금 상태를 해제하는 단계를 더 포함하는, 전자 디바이스 동작 방법.Unlocking the electronic device based on a preset user input received via the second screen.
  11. 제 1 스크린 및 사용자 인터페이스가 상기 제 1 스크린과 독립적으로 업데이트되는 제 2 스크린을 포함하는 디스플레이부; A display unit including a first screen and a second screen whose user interface is updated independently of the first screen;
    상기 제 2 스크린을 통해 사용자 입력을 수신하는 사용자 입력부; 및A user input unit configured to receive a user input through the second screen; And
    상기 사용자 입력에 기초하여, 전자 디바이스에서 수행되어 상기 제 1 스크린 상에 디스플레이되는 동작을 제어하는 제어부; A controller configured to control an operation performed on an electronic device and displayed on the first screen based on the user input;
    를 포함하는, 전자 디바이스.Comprising an electronic device.
  12. 제 11항에 있어서, 상기 제어부는,The method of claim 11, wherein the control unit,
    상기 전자 디바이스에서 수행되어 상기 제 1 스크린 상에 디스플레이되는 동작과 상기 사용자 입력을 미리 매핑시키고, 상기 매핑 결과에 기초하여 상기 사용자 입력에 대응되는 동작을 상기 제 1 스크린 상에 디스플레이하는, 전자 디바이스.And pre-map an operation performed on the electronic device to be displayed on the first screen and the user input, and display an operation corresponding to the user input on the first screen based on the mapping result.
  13. 제 11항에 있어서, 상기 사용자 입력은, The method of claim 11, wherein the user input,
    상기 제 2 스크린 상에서 드래그하는 입력, 싱글 탭하는 입력, 더블 탭하는 입력, 터치&홀드 입력 중 하나를 포함하는, 전자 디바이스.And one of a dragging input, a single tapping input, a double tapping input, and a touch and hold input on the second screen.
  14. 제 11항에 있어서, The method of claim 11,
    상기 사용자 입력은, 상기 제 2 스크린 상에 디스플레이되는 키보드의 키를 터치하는 입력을 포함하고,The user input includes an input of touching a key of a keyboard displayed on the second screen,
    상기 제어부는, 상기 터치된 키에 대응되는 값에 기초하여 결정된 동작을 상기 제 1 스크린 상에 디스플레이하는, 전자 디바이스. The controller is further configured to display an operation determined based on a value corresponding to the touched key on the first screen.
  15. 제 11항에 있어서, The method of claim 11,
    상기 제어부는, 상기 제 1 스크린 및 상기 제 2 스크린의 상태 정보에 기초하여 상기 제 1 스크린 및 상기 제 2 스크린의 사용자 인터페이스를 업데이트하고, The controller may be configured to update a user interface of the first screen and the second screen based on state information of the first screen and the second screen,
    상기 상태 정보는, 상기 전자 디바이스의 잠금 상태, 선택된 어플리케이션, 및 실행중인 어플리케이션에 관련된 정보 중 적어도 하나를 포함하는, 전자 디바이스.The state information includes at least one of information related to a locked state of the electronic device, a selected application, and a running application.
PCT/KR2015/012088 2015-01-19 2015-11-11 Electronic device and method for controlling electronic device WO2016117811A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/533,230 US20170344254A1 (en) 2015-01-19 2015-11-11 Electronic device and method for controlling electronic device

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
CN201510025705.3 2015-01-19
CN201510025705.3A CN104571832A (en) 2015-01-19 2015-01-19 Mobile terminal and control system and method thereof
KR10-2015-0155788 2015-11-06
KR1020150155788A KR102403064B1 (en) 2015-01-19 2015-11-06 Electronic device and control method thereof

Publications (1)

Publication Number Publication Date
WO2016117811A1 true WO2016117811A1 (en) 2016-07-28

Family

ID=56417307

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2015/012088 WO2016117811A1 (en) 2015-01-19 2015-11-11 Electronic device and method for controlling electronic device

Country Status (1)

Country Link
WO (1) WO2016117811A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107797704A (en) * 2017-10-27 2018-03-13 努比亚技术有限公司 Touch control method, mobile terminal and the storage medium of mobile terminal

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130062611A (en) * 2011-12-05 2013-06-13 삼성전자주식회사 Method for controlling display in a portable terminal and apparatus thereof
KR20130080937A (en) * 2012-01-06 2013-07-16 삼성전자주식회사 Apparatus and method for dislplaying a screen of portable device having a flexible display
KR20130127050A (en) * 2012-05-14 2013-11-22 삼성전자주식회사 Method and apparatus for operating functions of portable terminal having bended display
KR20140073196A (en) * 2012-12-06 2014-06-16 강동성 Teminal with moving keyboard and method thereof
US20150015525A1 (en) * 2013-03-20 2015-01-15 Lg Electronics Inc. Foldable display device providing adaptive touch sensitive area and method for controlling the same

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130062611A (en) * 2011-12-05 2013-06-13 삼성전자주식회사 Method for controlling display in a portable terminal and apparatus thereof
KR20130080937A (en) * 2012-01-06 2013-07-16 삼성전자주식회사 Apparatus and method for dislplaying a screen of portable device having a flexible display
KR20130127050A (en) * 2012-05-14 2013-11-22 삼성전자주식회사 Method and apparatus for operating functions of portable terminal having bended display
KR20140073196A (en) * 2012-12-06 2014-06-16 강동성 Teminal with moving keyboard and method thereof
US20150015525A1 (en) * 2013-03-20 2015-01-15 Lg Electronics Inc. Foldable display device providing adaptive touch sensitive area and method for controlling the same

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107797704A (en) * 2017-10-27 2018-03-13 努比亚技术有限公司 Touch control method, mobile terminal and the storage medium of mobile terminal

Similar Documents

Publication Publication Date Title
WO2016137272A1 (en) Method for controlling device having multiple operating systems installed therein, and device
WO2014088253A1 (en) Method and system for providing information based on context, and computer-readable recording medium thereof
WO2017095040A1 (en) User terminal device and displaying method thereof
WO2016060514A1 (en) Method for sharing screen between devices and device using the same
WO2016093506A1 (en) Mobile terminal and control method therefor
WO2014157897A1 (en) Method and device for switching tasks
WO2014157885A1 (en) Method and device for providing menu interface
WO2017065365A1 (en) Mobile terminal and method of controlling the same
WO2015037932A1 (en) Display apparatus and method for performing function of the same
WO2014157893A1 (en) Method and device for providing a private page
WO2015072787A1 (en) Method for sharing screen with external display device by electronic device and electronic device
WO2014017841A1 (en) User terminal apparatus and control method thereof cross-reference to related applications
WO2016035907A1 (en) Display apparatus and method for controlling same
WO2014046385A1 (en) Mobile device and method for controlling the same
WO2012046891A1 (en) Mobile terminal, display device, and method for controlling same
WO2016089074A1 (en) Device and method for receiving character input through the same
WO2014189225A1 (en) User input using hovering input
WO2016137105A1 (en) Device and method of running multiple operating systems
WO2016089063A1 (en) Method and system for controlling device
WO2016036105A1 (en) Method and portable terminal having bended display unit and cover for executing application
WO2016064106A1 (en) Mobile device comprising stylus pen and operation method therefor
WO2016159654A1 (en) System and method for providing widget
WO2016129923A1 (en) Display device, display method and computer-readable recording medium
WO2016137139A1 (en) Method and device for managing item
WO2019160238A1 (en) Electronic apparatus and operating method of the same

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15879065

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15533230

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15879065

Country of ref document: EP

Kind code of ref document: A1