WO2021090978A1 - 키보드 인터페이스를 출력하는 전자 장치 및 그 제어 방법 - Google Patents

키보드 인터페이스를 출력하는 전자 장치 및 그 제어 방법 Download PDF

Info

Publication number
WO2021090978A1
WO2021090978A1 PCT/KR2019/014982 KR2019014982W WO2021090978A1 WO 2021090978 A1 WO2021090978 A1 WO 2021090978A1 KR 2019014982 W KR2019014982 W KR 2019014982W WO 2021090978 A1 WO2021090978 A1 WO 2021090978A1
Authority
WO
WIPO (PCT)
Prior art keywords
display
keyboard interface
input
electronic device
keyboard
Prior art date
Application number
PCT/KR2019/014982
Other languages
English (en)
French (fr)
Inventor
이희철
최진수
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to PCT/KR2019/014982 priority Critical patent/WO2021090978A1/ko
Priority to US17/755,599 priority patent/US20220374145A1/en
Priority to KR1020227018353A priority patent/KR20220091570A/ko
Publication of WO2021090978A1 publication Critical patent/WO2021090978A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • GPHYSICS
    • G02OPTICS
    • G02FOPTICAL DEVICES OR ARRANGEMENTS FOR THE CONTROL OF LIGHT BY MODIFICATION OF THE OPTICAL PROPERTIES OF THE MEDIA OF THE ELEMENTS INVOLVED THEREIN; NON-LINEAR OPTICS; FREQUENCY-CHANGING OF LIGHT; OPTICAL LOGIC ELEMENTS; OPTICAL ANALOGUE/DIGITAL CONVERTERS
    • G02F1/00Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics
    • G02F1/01Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics for the control of the intensity, phase, polarisation or colour 
    • G02F1/13Devices or arrangements for the control of the intensity, colour, phase, polarisation or direction of light arriving from an independent light source, e.g. switching, gating or modulating; Non-linear optics for the control of the intensity, phase, polarisation or colour  based on liquid crystals, e.g. single liquid crystal display cells
    • G02F1/133Constructional arrangements; Operation of liquid crystal cells; Circuit arrangements
    • G02F1/1333Constructional arrangements; Manufacturing methods
    • G02F1/13338Input devices, e.g. touch panels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1615Constructional details or arrangements for portable computers with several enclosures having relative motions, each enclosure supporting at least one I/O or computing function
    • G06F1/1616Constructional details or arrangements for portable computers with several enclosures having relative motions, each enclosure supporting at least one I/O or computing function with folding flat displays, e.g. laptop computers or notebooks having a clamshell configuration, with body parts pivoting to an open position around an axis parallel to the plane they define in closed position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1641Details related to the display arrangement, including those related to the mounting of the display in the housing the display being formed by a plurality of foldable display components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • G06F3/1446Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display display composed of modules, e.g. video walls
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/2092Details of a display terminals using a flat panel, the details relating to the control arrangement of the display terminal and to the interfaces thereto
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/22Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of characters or indicia using display control signals derived from coded signals representing the characters or indicia, e.g. with a character-code memory
    • HELECTRICITY
    • H10SEMICONDUCTOR DEVICES; ELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
    • H10KORGANIC ELECTRIC SOLID-STATE DEVICES
    • H10K59/00Integrated devices, or assemblies of multiple devices, comprising at least one organic light-emitting element covered by group H10K50/00
    • H10K59/40OLEDs integrated with touch screens
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2300/00Aspects of the constitution of display devices
    • G09G2300/02Composition of display devices
    • G09G2300/026Video wall, i.e. juxtaposition of a plurality of screens to create a display screen of bigger dimensions
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2300/00Aspects of the constitution of display devices
    • G09G2300/04Structural and physical details of display devices
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/22Detection of presence or absence of input display information or of connection or disconnection of a corresponding information source

Definitions

  • Embodiments of the present specification relate to an electronic device that outputs a keyboard interface corresponding to a keyboard keyboard through a plurality of displays, and a control method thereof.
  • mobile terminals that emphasize portability also tend to have a plurality of displays in order to provide a screen with a wider area.
  • a keyboard function is provided by outputting a keyboard interface corresponding to a keyboard keyboard to a display instead of separate keyboard hardware.
  • a typical mobile terminal is similar to the size of a user's one hand, the user can hold the mobile terminal with both hands or one hand and input text through a keyboard interface.
  • the mobile terminal includes a plurality of displays, inconvenient text input may occur when a keyboard interface is displayed on any one display.
  • the keyboard interface may be displayed only on the right display.
  • the left display may have to be unstable in the air.
  • the range in which the user's left hand can be positioned is limited, which may cause inconvenience.
  • the problem to be solved by the embodiments of the present specification is to provide an electronic device and a method for controlling the same so that text input can be performed more easily and efficiently by outputting a keyboard interface using a plurality of displays.
  • an electronic device in which a first body having a first display and a second body having a second display are selectively coupled to interoperate with each other, provided in the first body to display the first display.
  • at least one processor configured to control the first display and the second display based on the coupling with the second body, wherein the at least one processor checks whether the second body is coupled, Based on the coupling of the second body, one region of the keyboard interface corresponding to the keyboard may be output on the first display, and another region of the keyboard interface may be output on the second display.
  • a method for controlling an electronic device in which a first body having a first display and a second body having a second display are selectively coupled and interlocked with each other is to determine whether the second body is coupled. And outputting a region of a keyboard interface corresponding to a keyboard keyboard to the first display and outputting another region of the keyboard interface to the second display based on the coupling of the second body.
  • a first body having a first display and a second body having a second display are selectively coupled to each other, Checking whether to be coupled, and outputting a region of a keyboard interface corresponding to a keyboard input keyboard to the first display based on the coupling of the second body, and another region of the keyboard interface to the second display You can store instructions to execute the step that outputs.
  • the electronic device and the control method thereof may allow text input to be performed more easily and efficiently by outputting a keyboard interface using a plurality of displays.
  • FIG. 1 is a block diagram illustrating a mobile terminal related to the present specification.
  • FIG. 2 is a diagram illustrating a state before a mobile terminal is coupled to an auxiliary device in a terminal set related to the present specification.
  • FIG 3 shows a state in which a mobile terminal is coupled to an auxiliary device.
  • FIG. 4 is a diagram illustrating a state in which the folio cover of the auxiliary device is separated from the state of FIG. 3.
  • FIG. 5 is a front perspective view and a rear perspective view of a mobile terminal related to the present specification.
  • FIG. 6 is a conceptual diagram of an electronic device according to an embodiment of the present specification.
  • FIG. 7 is a functional block diagram of an electronic device according to an embodiment of the present specification.
  • FIG. 8 is a flowchart illustrating a flow of each step of a method of controlling an electronic device according to an exemplary embodiment of the present specification.
  • FIG. 9 is a diagram illustrating an example in which an electronic device according to an embodiment of the present specification outputs a keyboard interface and an application icon.
  • FIG. 10 is a diagram illustrating an example of an input related to a keyboard interface in an electronic device according to an embodiment of the present specification.
  • FIG. 11 is a diagram illustrating another example of an input related to a keyboard interface in an electronic device according to an exemplary embodiment of the present specification.
  • FIG. 12 is a diagram illustrating an example of outputting a keyboard interface based on a posture of an electronic device according to an exemplary embodiment of the present specification.
  • FIG. 13 is a diagram illustrating an example of a text type of a keyboard interface of an electronic device according to an embodiment of the present specification.
  • Electronic devices described herein include mobile phones, smart phones, laptop computers, digital broadcasting terminals, personal digital assistants (PDAs), portable multimedia players (PMPs), navigation systems, and slate PCs.
  • PDAs personal digital assistants
  • PMPs portable multimedia players
  • slate PCs slate PCs.
  • Tablet PC ultrabook
  • wearable device for example, smartwatch, smart glass, head mounted display (HMD), etc. have.
  • FIG. 1 is a block diagram illustrating an electronic device 100 related to the present specification.
  • the electronic device 100 includes a wireless communication unit 110, an input unit 120, a sensing unit 140, an output unit 150, an interface unit 160, a memory 170, a control unit 180, and a power supply unit 190. And the like.
  • the components shown in FIG. 1 are not essential for implementing a mobile terminal, and thus, a mobile terminal described in the present specification may have more or fewer components than those listed above. Meanwhile, the electronic device 100 may be implemented as a mobile terminal according to an embodiment.
  • the wireless communication unit 110 includes a wireless communication unit between the electronic device 100 and a wireless communication system, between the electronic device 100 and other electronic devices, or between the electronic device 100 and an external server. It may include one or more modules that enable communication. In addition, the wireless communication unit 110 may include one or more modules that connect the electronic device 100 to one or more networks.
  • the wireless communication unit 110 may include at least one of a broadcast reception module 111, a mobile communication module 112, a wireless Internet module 113, a short-range communication module 114, and a location information module 115. .
  • the input unit 120 includes a camera 121 or an image input unit for inputting an image signal, a microphone 122 for inputting an audio signal, or an audio input unit, and a user input unit 123 for receiving information from a user, for example, , A touch key, a mechanical key, etc.).
  • the voice data or image data collected by the input unit 120 may be analyzed and processed as a user's control command.
  • the sensing unit 140 may include one or more sensors for sensing at least one of information in the mobile terminal, information on surrounding environments surrounding the mobile terminal, and user information.
  • the sensing unit 140 includes a proximity sensor 141, an illumination sensor 142, a touch sensor, an acceleration sensor, a magnetic sensor, and gravity.
  • G-sensor gyroscope sensor
  • motion sensor motion sensor
  • RGB sensor infrared sensor
  • IR sensor infrared sensor
  • fingerprint sensor fingerprint sensor
  • ultrasonic sensor ultrasonic sensor
  • Optical sensor for example, camera (see 121)), microphone (microphone, see 122), battery gauge, environmental sensor (for example, barometer, hygrometer, thermometer, radiation detection sensor, It may include at least one of a heat sensor, a gas sensor, etc.), and a chemical sensor (eg, an electronic nose, a healthcare sensor, a biometric sensor, etc.).
  • the mobile terminal disclosed in the present specification may combine and utilize information sensed by at least two or more of these sensors.
  • the output unit 150 is for generating an output related to visual, auditory or tactile sense, and includes at least one of a display unit 151, an audio output unit 152, a hap tip module 153, and a light output unit 154. can do.
  • the display unit 151 of the electronic device 100 corresponds to the first display described in FIGS. 1 to 3.
  • the display unit 151 may implement a touch screen by forming a layer structure or integrally with the touch sensor. Such a touch screen may function as a user input unit 123 that provides an input interface between the electronic device 100 and a user, and may provide an output interface between the electronic device 100 and a user.
  • the interface unit 160 serves as a passage for various types of external devices connected to the electronic device 100.
  • the interface unit 160 is a wired/wireless headset port, a charging port, a wired/wireless data port, a memory card port, a port for connecting a device equipped with an identification module. (port), an audio input/output (I/O) port, a video input/output (I/O) port, and an earphone port.
  • the electronic device 100 may perform appropriate control related to the connected external device in response to the connection of the external device to the interface unit 160.
  • the memory 170 stores data supporting various functions of the electronic device 100.
  • the memory 170 may store a plurality of application programs or applications driven by the electronic device 100, data for operation of the electronic device 100, and commands. At least some of these application programs may be downloaded from an external server through wireless communication. In addition, at least some of these application programs may exist on the electronic device 100 from the time of shipment for basic functions of the electronic device 100 (eg, incoming calls, outgoing functions, message reception, and outgoing functions). Meanwhile, the application program may be stored in the memory 170, installed on the electronic device 100, and driven by the controller 180 to perform an operation (or function) of the electronic device 100.
  • the controller 180 In addition to the operation related to the application program, the controller 180 generally controls the overall operation of the electronic device 100.
  • the controller 180 may provide or process appropriate information or functions to a user by processing signals, data, information, etc. input or output through the above-described components or by driving an application program stored in the memory 170.
  • the controller 180 may control at least some of the components discussed with reference to FIG. 1. Furthermore, in order to drive the application program, the controller 180 may operate by combining at least two or more of the components included in the electronic device 100 with each other.
  • controller 180 may be referred to as a processor according to an embodiment.
  • the power supply unit 190 receives external power or internal power under the control of the controller 180 and supplies power to each of the components included in the electronic device 100.
  • the power supply unit 190 includes a battery, and the battery may be a built-in battery or a replaceable battery.
  • the power supply unit 190 may include a charging port, and the charging port may be configured as an example of an interface 160 to which an external charger supplying power for charging a battery is electrically connected.
  • At least some of the respective components may operate in cooperation with each other to implement an operation, control, or control method of an electronic device according to various embodiments described below.
  • the operation, control, or control method of the electronic device may be implemented on the electronic device by driving at least one application program stored in the memory 170.
  • FIG. 2 to 4 are conceptual diagrams for explaining a terminal set 10 related to the present specification.
  • FIG. 2 illustrates a state before the electronic device (or electronic device) 100 is coupled to the auxiliary device 200 in the terminal set 10 related to the present specification
  • FIG. 3 illustrates the electronic device 100 ) Shows the combined state.
  • FIG. 4 shows a state in which the cover member 260 of the auxiliary device 200 is separated from the state of FIG. 3, respectively. Refer to Figs. 2 to 4 together for better understanding.
  • the terminal set 10 of the present specification includes an electronic device 100 having a display and an auxiliary device 200 that provides an extended display in combination with the electronic device 100.
  • the auxiliary device 200 is again coupled to the seating member 210 and the seating member 210, which is an area where the electronic device 100 is coupled, to selectively cover the electronic device 100 and mount the extended display ( 260).
  • the electronic device 100 and the auxiliary device 200 each form an output area to provide a multi-display, thereby increasing usability.
  • a display provided in the electronic device 100 is referred to as a first display 151, and a display provided in the auxiliary device 200 is referred to as a second display 261.
  • the second display 261 may be provided on both the inner and outer surfaces of the cover member 260.
  • the second display 261 provided on the inner side is defined as the inner second display 2611
  • the second display 261 provided on the outer side is defined as the outer second display 2612.
  • the inner second display 2611 is for the purpose of being viewed simultaneously with the first display when the cover member 260 is unfolded
  • the outer second display 2612 is viewed on the terminal set 10 when the cover member 260 is closed. It can be used in particular for the purpose of becoming.
  • the first display 151 and the second display 261, in particular, the inner second display 2611 may be output in connection with each other.
  • the first display 151 and the inner second display 2611 may be mirrored and output, or the screen output on the first display 151 may be moved to the inner second display 2611 for output.
  • an execution screen of one application or a plurality of linked applications may be divided and output on the first display and the inner second display 2611.
  • the controller of the game application may be output on the first display 151 and the game content may be output on the inner second display 2611. That is, the terminal set 10 of the present specification may operate like a single device having a plurality of displays, which means that the auxiliary device 200 shares several components included in the electronic device 100.
  • the outer second display 2612 may output relatively simple information. For example, it can perform a function of outputting simple text information or image information such as call reception, message reception, and alarm. Since the outer second display 2612 is provided, there is an advantage that information can be checked without a separate operation while the cover member 260 is closed.
  • the controller 180 and the power supply unit 190 of the electronic device 100 may supply power to the second display 261 as well as the first display 151 and transmit and receive data. Accordingly, the auxiliary device 200 can operate without a separate control unit 180 and a power supply unit 190. This can reduce the weight or volume of the auxiliary device 200 and achieve the effect of reducing manufacturing cost.
  • the electronic device 100 is physically coupled to the auxiliary device 200, and the auxiliary device 200 includes the electronic device 100 and the second display 261. It has a circuit for electrically connecting the. This is defined as a borough circuit part.
  • the auxiliary device 200 of the present specification proposes a form in which the cover member 260 is selectively attached and detached from the seating member 210. Advantages of the auxiliary device 200 having the detachable cover member 260 are as follows.
  • a function of physically protecting the electronic device 100 may be obtained by coupling only the seating member 210 to the electronic device 100.
  • the cover member 260 In the conventional case where the cover member 260 is always fixed to the seating member 210, the cover member 260 must be used in a state of large volume and weight even though the cover member 260 is not used, and the grip feeling of the electronic device 100 is reduced. Let it. Therefore, by coupling only the seating member 210 to the electronic device 100, this disadvantage can be compensated.
  • the detachable cover member 260 may be continuously used even if the electronic device 100 and the seating member 210 are replaced. For example, even if the seating member 210 used in conjunction with the specific electronic device 100 is damaged or lost, only the seating member 210 may be replaced and the previously used cover member 260 may be used as it is.
  • the previously used cover member 260 may be combined and used.
  • the electronic device 100 and the seating member 210 having different shapes or sizes are configured to be compatible with the existing cover member 260.
  • the cover member 260 may be combined in a different form.
  • the cover member 260 when the cover member 260 is inverted and configured to be coupled to the seating member 210, the two displays 151 and 261 can be viewed in the same direction or in opposite directions, thereby allowing various user experiences (user experience). experience).
  • the seating member 210 may be provided in the form of a terminal case.
  • the seating member 210 forms a seating area on which the rear surface of the electronic device 100 is seated.
  • the seating member 210 forms an output area of the display unit of the electronic device 100 when the electronic device 100 is seated, that is, an open area so that the first display 151 can be visually recognized on the front surface.
  • at least one area of the rear surface of the seating member 210 also has an opening so that the camera part of the electronic device 100 is exposed.
  • the circumference of the side of the seating member 210 is formed to correspond to the shape of the circumference of the side of the electronic device 100 so that the electronic device 100 can be fitted to the terminal case 210.
  • the cover member 260 and the seating member 210 of the auxiliary device 200 of the present specification are coupled and separated by a fastening portion 264.
  • At least one rotation axis is formed at one corner of the seating member 210 to selectively cover the seating area).
  • the cover member 260 may be detachably coupled to a side surface or a rear surface of one corner of the seating member 210. Combining to the side may minimize an increase in the thickness of the terminal set 10, and bonding to the side and rear may minimize an increase in the bezel of the terminal set 10. In the present specification, it is assumed that it is coupled to the side surface of the seating member 210, but it may be coupled to the rear surface of the seating member 210 in some cases.
  • the cover member 260 provides the above-described second display 261 by mounting the display panel 2611.
  • the display panel 2611 is exposed on one surface of the cover member 260 to form an output area.
  • the display panel 2611 may include a touch panel for receiving an external touch input.
  • the hinge part 265 is provided on the cover member 260 and provides at least one rotation axis so that the cover member 260 can rotate with respect to the seating member 210.
  • the cover member 260 rotated by the hinge portion 265 selectively covers the seating area of the seating member 210.
  • 5A and 5B are a front perspective view and a rear perspective view of the electronic device 100 related to the present specification.
  • the disclosed electronic device 100 includes a bar-shaped terminal body.
  • the present specification is not limited thereto and may be applied to various structures such as a watch type, a clip type, a glass type, or a folder type in which two or more bodies are relatively movably coupled, a flip type, a slide type, a swing type, and a swivel type.
  • a description of a specific type of electronic device may be generally applied to other types of electronic devices.
  • the terminal body may be understood as a concept referring to the electronic device 100 as at least one aggregate.
  • the electronic device 100 includes a case (for example, a frame, a housing, a cover, etc.) forming an exterior. As shown, the electronic device 100 may include a front case 101 and a rear case 102. Various electronic components are disposed in an inner space formed by the combination of the front case 101 and the rear case 102. At least one middle case may be additionally disposed between the front case 101 and the rear case 102.
  • a case for example, a frame, a housing, a cover, etc.
  • the electronic device 100 may include a front case 101 and a rear case 102.
  • Various electronic components are disposed in an inner space formed by the combination of the front case 101 and the rear case 102.
  • At least one middle case may be additionally disposed between the front case 101 and the rear case 102.
  • a display unit 151 is disposed on the front of the terminal body to output information. As illustrated, the window 151a of the display unit 151 may be mounted on the front case 101 to form the front surface of the terminal body together with the front case 101.
  • electronic components may be mounted on the rear case 102 as well.
  • Electronic components that can be mounted on the rear case 102 include a detachable battery, an identification module, and a memory card.
  • a rear cover 103 for covering the mounted electronic component may be detachably coupled to the rear case 102. Accordingly, when the rear cover 103 is separated from the rear case 102, the electronic components mounted on the rear case 102 are exposed to the outside.
  • the rear cover 103 when the rear cover 103 is coupled to the rear case 102, a part of the side of the rear case 102 may be exposed. In some cases, when the rear case 102 is combined, the rear case 102 may be completely covered by the rear cover 103. Meanwhile, the rear cover 103 may be provided with an opening for exposing the camera 121b or the sound output unit 152b to the outside.
  • These cases 101, 102, 103 may be formed by injection of synthetic resin or may be formed of a metal such as stainless steel (STS), aluminum (Al), titanium (Ti), or the like.
  • STS stainless steel
  • Al aluminum
  • Ti titanium
  • the electronic device 100 may be configured such that one case provides the inner space.
  • a unibody electronic device 100 in which synthetic resin or metal is connected from the side to the rear may be implemented.
  • the electronic device 100 may include a waterproof unit (not shown) that prevents water from permeating into the terminal body.
  • the waterproof unit is provided between the window 151a and the front case 101, between the front case 101 and the rear case 102, or between the rear case 102 and the rear cover 103, and the combination thereof It may include a waterproof member that seals the inner space of the city.
  • the electronic device 100 includes a display unit 151, first and second sound output units 152a and 152b, a proximity sensor 141, an illuminance sensor 142, a light output unit 154, and first and second sound output units.
  • Cameras 121a and 121b, first and second operation units 123a and 123b, microphone 122, interface unit 160, and the like may be provided.
  • the electronic device 100 in which the second sound output unit 152b and the second camera 121b are disposed on the rear surface of will be described as an example.
  • first manipulation unit 123a may not be provided on the front surface of the terminal body, and the second sound output unit 152b may be provided on the side of the terminal body rather than on the rear surface of the terminal body.
  • the display unit 151 displays (outputs) information processed by the electronic device 100.
  • the display unit 151 may display execution screen information of an application program driven by the electronic device 100, or UI (User Interface) and GUI (Graphic User Interface) information according to such execution screen information. .
  • the display unit 151 includes a liquid crystal display (LCD), a thin film transistor-liquid crystal display (TFT LCD), an organic light-emitting diode (OLED), and a flexible display. display), a 3D display, and an e-ink display.
  • LCD liquid crystal display
  • TFT LCD thin film transistor-liquid crystal display
  • OLED organic light-emitting diode
  • two or more display units 151 may exist according to the implementation form of the electronic device 100.
  • a plurality of display units may be spaced apart or integrally disposed on one surface, or may be disposed on different surfaces, respectively.
  • the display unit 151 may include a touch sensor that senses a touch on the display unit 151 so as to receive a control command by a touch method.
  • the touch sensor detects the touch, and the controller 180 may be configured to generate a control command corresponding to the touch based on this.
  • the content input by the touch method may be letters or numbers, or menu items that can be indicated or designated in various modes.
  • the touch sensor is formed in a film form having a touch pattern and is disposed between the window 151a and a display (not shown) on the rear surface of the window 151a, or is a metal wire patterned directly on the rear surface of the window 151a. May be.
  • the touch sensor may be integrally formed with the display.
  • the touch sensor may be disposed on a substrate of the display or may be provided inside the display.
  • the display unit 151 may form a touch screen together with a touch sensor, and in this case, the touch screen may function as a user input unit 123 (see FIG. 1 ). In some cases, the touch screen may replace at least some functions of the first manipulation unit 123a.
  • the first sound output unit 152a may be implemented as a receiver that transmits a call sound to the user's ear, and the second sound output unit 152b is a loud speaker that outputs various alarm sounds or multimedia playback sounds. It can be implemented in the form of ).
  • a sound hole for emitting sound generated from the first sound output unit 152a may be formed in the window 151a of the display unit 151.
  • the sound may be configured to be emitted along an assembly gap between structures (eg, a gap between the window 151a and the front case 101).
  • the external appearance of the electronic device 100 may be made simpler because the hole independently formed for sound output is not visible or hidden.
  • the light output unit 154 is configured to output light for notifying when an event occurs. Examples of the event include message reception, call signal reception, missed call, alarm, schedule notification, e-mail reception, and information reception through an application. When the user's event confirmation is detected, the controller 180 may control the light output unit 154 to terminate the output of light.
  • the first camera 121a processes an image frame of a still image or a moving picture obtained by an image sensor in a photographing mode or a video call mode.
  • the processed image frame may be displayed on the display unit 151 and may be stored in the memory 170.
  • the first and second manipulation units 123a and 123b are an example of a user input unit 123 that is manipulated to receive a command for controlling the operation of the electronic device 100, and may also be collectively referred to as a manipulating portion. have.
  • the first and second manipulation units 123a and 123b may be employed in any manner as long as the user operates while receiving a tactile feeling, such as touch, push, and scroll.
  • the first and second manipulation units 123a and 123b may also be employed in a manner in which the first and second manipulation units 123a and 123b are manipulated without a user's tactile feeling through proximity touch, hovering touch, or the like.
  • the first manipulation unit 123a is illustrated as being a touch key, but the present specification is not limited thereto.
  • the first manipulation unit 123a may be a push key (mechanical key) or may be configured as a combination of a touch key and a push key.
  • Contents input by the first and second manipulation units 123a and 123b may be set in various ways.
  • the first operation unit 123a receives commands such as menu, home key, cancellation, and search
  • the second operation unit 123b is output from the first or second sound output units 152a and 152b.
  • Commands such as adjusting the volume of sound and switching to the touch recognition mode of the display unit 151 may be input.
  • a rear input unit (not shown) may be provided on the rear surface of the terminal body.
  • the rear input unit is manipulated to receive a command for controlling the operation of the electronic device 100, and input contents may be variously set. For example, commands such as power on/off, start, end, scroll, etc., control the volume of sound output from the first and second sound output units 152a and 152b, and touch recognition mode of the display unit 151 You can receive commands such as conversion of.
  • the rear input unit may be implemented in a form capable of inputting by a touch input, a push input, or a combination thereof.
  • the rear input unit may be disposed to overlap the front display unit 151 in the thickness direction of the terminal body.
  • the rear input unit may be disposed on the rear upper end of the terminal body so that the user can easily manipulate the terminal body using the index finger.
  • the present specification is not necessarily limited thereto, and the position of the rear input unit may be changed.
  • the display unit 151 may be configured with a larger screen.
  • the electronic device 100 may be provided with a fingerprint recognition sensor for recognizing a user's fingerprint, and the controller 180 may use the fingerprint information sensed through the fingerprint recognition sensor as an authentication means.
  • the fingerprint recognition sensor may be embedded in the display unit 151 or the user input unit 123.
  • the microphone 122 is configured to receive a user's voice and other sounds.
  • the microphone 122 may be provided at a plurality of locations and configured to receive stereo sound.
  • the interface unit 160 becomes a path through which the electronic device 100 can be connected to an external device.
  • the interface unit 160 is a connection terminal for connection with other devices (eg, earphones, external speakers), a port for short-range communication (eg, an infrared port (IrDA Port), a Bluetooth port (Bluetooth)). Port), a wireless LAN port, etc.], or at least one of a power supply terminal for supplying power to the electronic device 100.
  • the interface unit 160 may be implemented in the form of a socket for accommodating an external card such as a Subscriber Identification Module (SIM) or a User Identity Module (UIM), or a memory card for storing information.
  • SIM Subscriber Identification Module
  • UIM User Identity Module
  • a second camera 121b may be disposed on the rear surface of the terminal body.
  • the second camera 121b has a photographing direction substantially opposite to the first camera 121a.
  • the second camera 121b may include a plurality of lenses arranged along at least one line.
  • the plurality of lenses may be arranged in a matrix format.
  • Such a camera may be referred to as an'array camera'.
  • an image may be photographed in various ways using a plurality of lenses, and an image of better quality may be obtained.
  • the flash 124 may be disposed adjacent to the second camera 121b.
  • the flash 124 illuminates light toward the subject when photographing the subject with the second camera 121b.
  • a second sound output unit 152b may be additionally disposed on the terminal body.
  • the second sound output unit 152b may implement a stereo function together with the first sound output unit 152a, and may be used to implement a speakerphone mode during a call.
  • At least one antenna for wireless communication may be provided in the terminal body.
  • the antenna may be embedded in the terminal body or may be formed in a case.
  • an antenna that forms a part of the broadcast reception module 111 (refer to FIG. 1) may be configured to be retractable from the terminal body.
  • the antenna may be formed in a film type and attached to the inner surface of the rear cover 103, or a case including a conductive material may be configured to function as an antenna.
  • the terminal body is provided with a power supply unit 190 (see FIG. 1) for supplying power to the electronic device 100.
  • the power supply unit 190 may include a battery 191 that is built into the terminal body or configured to be detachable from the outside of the terminal body.
  • the battery 191 may be configured to receive power through a power cable connected to the interface unit 160.
  • the battery 191 may be configured to enable wireless charging through a wireless charger.
  • the wireless charging may be implemented by a magnetic induction method or a resonance method (magnetic resonance method).
  • the rear cover 103 is coupled to the rear case 102 to cover the battery 191 to limit the separation of the battery 191 and protect the battery 191 from external shocks and foreign substances. It is exemplifying.
  • the rear cover 103 may be detachably coupled to the rear case 102.
  • An accessory that protects the appearance of the electronic device 100 or assists or expands the function of the electronic device 100 may be added to the electronic device 100.
  • An example of such an accessory may be a cover or a pouch that covers or accommodates at least one surface of the electronic device 100.
  • the cover or pouch may be configured to interlock with the display unit 151 to expand functions of the electronic device 100.
  • Another example of an accessory may be a touch pen for assisting or extending a touch input to a touch screen.
  • FIG. 6 is a conceptual diagram of an electronic device according to an embodiment of the present specification. Specifically, FIG. 6 shows an example in which a keyboard interface is provided in an electronic device including a plurality of displays.
  • the electronic device may include a first body including a first display 610 and may be coupled to a second body including a second display 620.
  • the electronic device may control each of the first display 610 and the second display 620 by linking the first display 610 and the second display 620 based on the combination.
  • the first display 610 and the second display 620 may be connected based on the combination, and the electronic device may output a keyboard interface to the first display 610 and the second display 620 based on the connection. .
  • the electronic device may divide and output a keyboard interface to the first display 610 and the second display 620. Specifically, one region 630 of the keyboard interface may be displayed on the first display 610, and another region 640 of the keyboard interface may be displayed on the second display 620.
  • the keyboard interface may be a user interface (UI) corresponding to the keyboard keyboard.
  • UI user interface
  • text or letters, or characters
  • the electronic device sequentially combines the text corresponding to the input to generate the final text. I can.
  • the electronic device displays the text'C' based on the applied area and time. Can be generated.
  • the electronic device displays the text'ak' based on the applied area and time. Can be created.
  • output of one region 630 and another region 640 of the keyboard interface may be performed by one application or a plurality of applications, depending on the implementation method.
  • the text provided by the keyboard interface exemplifies numbers and Korean characters, but is not limited thereto, and various texts such as English or special characters may be provided.
  • various texts such as English or special characters may be provided.
  • FIG. 13 For an example of text arrangement in this case, refer to FIG. 13.
  • FIG. 7 is a functional block diagram of an electronic device according to an embodiment of the present specification.
  • the electronic device 700 may include a first body 710 including (or including) a first display 711 and a processor 715. At least some of the first body 710, the first display 711, the processor 715, the second body 720, and the second display 721 use at least one processor (or microprocessor) according to an embodiment. It can be implemented including. In addition, at least some of the above may be implemented in hardware or software, or a combination of hardware and software.
  • the electronic device 700 may be selectively coupled to the second body 720 including the second display 721.
  • the electronic device 700 coupled to the second body 720 may correspond to the terminal set 10 of FIG. 2.
  • the electronic device 700 may be coupled with the second body 720 to interwork with the second display 721. Although described later, the control of the second display 721 based on this linkage may be performed by the processor 715.
  • the first body 710 may be a hardware configuration including the first display 711. In some cases, the first body 710 may be provided with an additional function related to the operation of the electronic device or the first display 711. For example, a button for activating the first display 711 may be included, but is not limited thereto.
  • the first display 711 may be implemented in a separate configuration rather than a form included in the first body 710, and this is the same for the second display 721.
  • the first display 711 may output (or display) at least a part of the keyboard interface. For example, the first display 711 may output the entire keyboard interface. For another example, the first display 711 may output a region for a predetermined text located on the right side of the keyboard interface. In this case, an area for the remaining text positioned on the left side of the keyboard interface may be output on the second display 721.
  • the second display 721 may output at least a part of the keyboard interface.
  • the second display 721 may output the entire keyboard interface.
  • the second display 721 may output a region for a predetermined text located on the left side of the keyboard interface. In this case, an area for the remaining text positioned on the left side of the keyboard interface may be output on the first display 711.
  • the output of the first display 711 and the second display 721 described above may be performed based on the control of the processor 715 to be described later, but is not limited thereto.
  • the processor 715 may check whether the second body 720 is coupled.
  • the processor 715 may determine whether the second body 720 (or the second display 721) is coupled based on determining whether the second body 720 (or the second display 721) is connected by wire or wirelessly. For example, the processor 715 may determine whether to combine based on whether a signal or response related to the combination is received.
  • the processor 715 outputs one region of the keyboard interface corresponding to the keyboard keyboard to the first display 711 based on the coupling of the second body 720, and outputs another region of the keyboard interface to the second display 721. Can be printed.
  • the one region and another region may be at least a part of a pre-designated keyboard interface.
  • one area of the keyboard interface may be an area for a predetermined text located on the right side of the keyboard interface, and the other area may be an area for the remaining text located on the left side of the keyboard interface, but is not limited thereto. .
  • the processor 715 when the coupling of the second body 720 is confirmed, the processor 715 outputs (or displays) a region of the keyboard interface corresponding to the keyboard keyboard on the first display 711, and the second display ( Another area of the keyboard interface may be output (or displayed) on 721.
  • the processor 715 displays a keyboard interface corresponding to the keyboard keyboard on the first display 711.
  • the region may be output and another region of the keyboard interface may be output on the second display 721.
  • the first input related to the divided output of the keyboard interface may be an input requesting that the keyboard interface be displayed through the first display 711 and the second display 721.
  • the first input may include an input applied while the entire keyboard interface is displayed through the first display 711.
  • FIG. 10 For a more specific example related to this, refer to FIG. 10.
  • the processor 715 may output a first type of keyboard interface to the first display 711 and a second type of keyboard interface to the second display.
  • the first type may be a Korean keyboard
  • the second type may be an English keyboard.
  • the processor 715 may output a first type of keyboard interface to the first display 711 and a second type of keyboard interface to the second display in response to a case where a specific input is applied.
  • each keyboard interface may be a keyboard interface of a preset type suitable for one-hand input.
  • the processor 715 may display an icon for selecting a target application to be input through a keyboard interface on at least one of the first display 711 and the second display 721.
  • the processor 715 may provide text generated based on the keyboard interface to the target application. For a more specific example related to this, refer to FIG. 9.
  • the processor 715 may check the type of text related to the target application.
  • the processor 715 may output one region of the keyboard interface related to the identified type to the first display 711 and output another region of the keyboard interface to the second display 721.
  • the type of text may include at least one of text for a first language, text for a second language, and text for a special character.
  • the type of text may include English text, Korean text, and special character text.
  • the processor 715 may generate text based on an input to the keyboard interface and a time when the input is applied. For example, the processor 715 may check a region to which an input is applied on the keyboard interface. In the keyboard interface, a text corresponding to each region may be pre-designated, and based on this, the processor 715 may determine the text (eg, A, B, e, a, a) indicated by the input. The processor 715 may further check the time when the input is applied. Accordingly, the processor 715 may combine the text indicated by the input in the order in which the input is applied.
  • the processor 715 may check a region to which an input is applied on the keyboard interface. In the keyboard interface, a text corresponding to each region may be pre-designated, and based on this, the processor 715 may determine the text (eg, A, B, e, a, a) indicated by the input. The processor 715 may further check the time when the input is applied. Accordingly, the processor 715 may combine the text indicated by the input in
  • the processor 715 may check whether a second input related to the keyboard interface is received.
  • the second input may be an input requesting to output a keyboard interface divided and outputted between the first display 711 and the second display 721 through one display.
  • the second input may be, for example, a drag input moving from left to right on the second display 721, but is not limited thereto.
  • the processor 715 may output a keyboard interface to one of the first display 711 and the second display 721.
  • the processor 715 may output at least a part of another area of the keyboard interface that is output on the second display 721 on the first display based on the reception of the second input.
  • FIG. 11 For a more specific example related to this, refer to FIG. 11.
  • an application that displays a keyboard interface on the first display 711 (hereinafter, referred to as a first keyboard application) and an application that displays a keyboard interface on the second display 721 (hereinafter, referred to as a second keyboard application) may be different.
  • the processor 715 executes an application that displays a keyboard interface on the second display 721 based on the coupling with the second body or reception of the first input, so that the keyboard interface is 2 It can be displayed on the display 721.
  • the processor 715 may execute the second keyboard application.
  • the processor 715 may change the form of the keyboard interface output through the first keyboard application into a designated form in response to execution of the second keyboard application.
  • the designated form may be a form corresponding to an area of the above-described keyboard interface.
  • the processor 715 may execute a first keyboard application and a second keyboard application when combined with the second body or when a first input is received.
  • the processor 715 may output a region of the keyboard interface to the first display 711 based on the first keyboard application.
  • the processor 715 may output a region of the keyboard interface to the second display 721 based on the second keyboard application.
  • the electronic device 700 may include a sensor that measures the posture of the electronic device 700.
  • the sensor for measuring the posture may include, for example, at least one of a gyro sensor and a global positioning sensor (GPS).
  • GPS global positioning sensor
  • the electronic device 700 may obtain a sensor value indicating a posture (eg, yaw, roll, and pitch) through the above-described sensor. Since the sensor value is easy for a person skilled in the art, a detailed description will be omitted.
  • the electronic device 700 may check whether the posture of the electronic device 700 is included in a predetermined posture range. When it is determined that the acquired sensor value is within the predetermined range, the electronic device 700 outputs a keyboard interface to the first display 711 and outputs content related to the running application to the second display 721. I can. For a more specific example related to this, refer to FIG. 12.
  • FIG. 8 is a flowchart illustrating a flow of each step of a method of controlling an electronic device according to an exemplary embodiment of the present specification. Each step of the method illustrated in FIG. 8 may be performed in a different order from that illustrated in the drawings depending on the case. In addition, in FIG. 8 below, content overlapping with the previously described content may be omitted.
  • the processor (or electronic device) of the electronic device may determine whether the second body is coupled (810 ).
  • the second body includes a second display and may be selectively coupled to the first body including the first display of the electronic device.
  • the meaning of being selectively combined may mean that detachment is freely possible or may mean that it is combined in a specific situation.
  • the processor may interwork with the second body or the second display. That is, the processor may control not only the first display but also the second display based on the coupling with the second body.
  • the processor may output a region of the keyboard interface on the first display (820 ). Specifically, the processor may output a designated area of the keyboard interface on the first display.
  • the one area may be an area in which a character (or text) designated to be input using a user's right hand is located on a keyboard keyboard.
  • the processor 715 may output another area of the keyboard interface on the second display (830 ). Specifically, the processor may output another designated area of the keyboard interface on the second display.
  • the other area may be an area in which a character (or text) designated to be input using a user's right hand is positioned on the keyboard keyboard.
  • steps 820 and 830 may be performed regardless of the order.
  • the processor may receive a predetermined input (eg, a first input) in relation to the output of the keyboard interface using the first display and the second display. Upon receiving a predetermined input, the processor may output one region of the keyboard interface to the first display and output another region of the keyboard interface to the second display.
  • a predetermined input eg, a first input
  • the processor may output one region of the keyboard interface to the first display and output another region of the keyboard interface to the second display.
  • the processor may receive a predetermined input (for example, a second input) to output the keyboard interface using one display. have. In this case, the processor may output the entire keyboard interface to one of the first display and the second display.
  • a predetermined input for example, a second input
  • FIG. 9 is a diagram illustrating an example in which an electronic device according to an embodiment of the present specification outputs a keyboard interface and an application icon.
  • the electronic device may include a first display 910 and may be combined with a second display 920.
  • the second display 920 may be coupled to the left side of the first display 910 as shown.
  • the electronic device may interwork with the second display 920 based on the combination.
  • a keyboard interface may be displayed on the first display 910 and the second display 920. Specifically, one region 930 of the keyboard interface may be displayed on the first display 910, and another region 940 of the keyboard interface may be displayed on the second display 920.
  • One region 930 may be a predetermined region of the left portion of the keyboard interface, and the other one region 940 may be a predetermined region of the right portion of the keyboard interface, but is not limited thereto, and may be determined differently according to settings. May be.
  • content for different applications requiring text input may be displayed on each of the first display 910 and the second display 920.
  • content related to the message application may be displayed on the first display 910
  • content related to the memo application may be displayed on the second display 920.
  • An icon for an application executed on at least one of the first display 910 and the second display 920 may be displayed on at least one of the first display 910 and the second display 920.
  • a first icon 970 related to a message application and a second icon 980 related to a memo application may be displayed on the second display 920.
  • the present invention is not limited thereto, and for example, the first icon 970 may be displayed on the first display 910 and the second icon 980 may be displayed on the second display 920.
  • Text input for the application may be performed using a keyboard interface, and the user may select an icon related to the application before or after text input to allow text to be input into the application.
  • a cursor for text input may be placed on the text input window 950 of the message application. Thereafter, text may be generated in the input window 950 based on the cursor based on the input through the keyboard interface. If an input for the second icon 980 is applied, a cursor for text input is placed on the text input window 960 of the memo application, and text may be generated in the input window 960 based on this.
  • an icon related to an application may be selected.
  • the generated text may be provided to an application corresponding to the selected icon. That is, when the first icon 970 is selected, the generated text may be provided to the message application, and when the second icon 970 is selected, the generated text may be provided to the memo application.
  • the electronic device provides content (or screen) related to an application related to a selected icon among the first icon 970 and the second icon 980 through the first display 910 and the second display 920. It can also be displayed.
  • a keyboard interface may be applied to a target application, which is an application corresponding to an icon selected based on this, so that text input may be performed.
  • FIG. 9 illustrates a case in which a Korean keyboard is provided in connection with the keyboard interface
  • the keyboard is not limited thereto, and a keyboard for other languages or special characters may be provided.
  • the processor 715 may output a first type of keyboard interface to the first display 711 and a second type of keyboard interface to the second display.
  • the first type may be a Korean keyboard
  • the second type may be an English keyboard.
  • the processor 715 may output a first type of keyboard interface to the first display 711 and a second type of keyboard interface to the second display in response to a case where a specific input is applied.
  • each keyboard interface may be a keyboard interface of a preset type suitable for one-hand input.
  • FIG. 10 is a diagram illustrating an example of an input related to a keyboard interface in an electronic device according to an embodiment of the present specification. Specifically, FIG. 10 conceptually illustrates a case where an input for dividing and displaying a keyboard interface on a plurality of displays is applied.
  • a keyboard interface may be output (or displayed) on the first display 1010 and the keyboard interface may not be output on the second display 1020.
  • the keyboard interface output on the first display 1010 may correspond to the entire keyboard keyboard. In this case, the user may input text by applying an input to the keyboard interface output on the first display 1010.
  • the first input 1030 related to the keyboard interface may be applied.
  • the first input 1030 may be an input that requests the keyboard interface to output through the first display 1010 and the second display 1020.
  • the first input 1030 may be, for example, a drag input of dragging from the first position 1001 to the second position 1002.
  • one area of the keyboard interface may be output to the first display 1010 and the other area may be output to the second display 1020.
  • one area of the keyboard interface may be a preset area to facilitate input with the left hand, and the other area may be a preset area of the keyboard interface to facilitate input with the right hand.
  • one area and another area may be designated as a specific area of the keyboard interface by user's setting.
  • the first input 1030 is not limited to the above-described example, and may be implemented in various forms such as knock-on or long touch. Also, in some cases, the shape of the first input 1030 may be changed according to a user's setting.
  • FIG. 11 is a diagram illustrating another example of an input related to a keyboard interface in an electronic device according to an exemplary embodiment of the present specification. Specifically, FIG. 11 conceptually shows a case in which an input for dividing and displaying a keyboard interface on one display is applied.
  • one region of the keyboard interface may be output (or displayed) on the first display 1110 and another region of the keyboard interface may be output (or displayed) on the second display 1120.
  • a second input 1121 related to the keyboard interface may be applied.
  • the second input 1121 may be applied with an input requesting to output a keyboard interface to one display.
  • the second input 1121 may be, for example, a drag input of dragging from the first position 1101 to the second position 1102.
  • the keyboard interface may be output to the first display 1110 as illustrated in FIG. 11B.
  • a display that outputs a keyboard interface may be designated according to the direction of the drag. For example, when the drag direction is from the first position 1101 to the second position 1102, the display outputting the keyboard interface may be designated as the first display 1110. For another example, when the drag direction is from the second position 1102 to the first position 1101, the display outputting the keyboard interface may be designated as the second display 1120.
  • FIG. 11 illustrates a case in which the entire keyboard interface is output to the first display 1110 based on the second input 1121, but is not limited thereto.
  • a part of the keyboard interface may be output on the second display 1120.
  • the Korean keyboard of the keyboard interface may be output to the first display 1110 and the numeric keyboard may be output to the second display 1120.
  • FIG. 12 is a diagram illustrating an example of outputting a keyboard interface based on a posture of an electronic device according to an exemplary embodiment of the present specification.
  • the first display 1210 and the second display 1220 may be arranged vertically.
  • the vertical arrangement may be performed based on a change in the posture of the electronic device while the first display 1210 and the second display 1220 are combined as shown in FIG. 9.
  • the first display 1210 may be formed based on the second display being coupled to the top of the first display 1210 in a horizontal mode as shown. have.
  • the electronic device may include a sensor (eg, a gyro sensor) that measures posture (eg, yaw, roll, and pitch), and based on this, an electronic device (or the first display 1210 or the first display 1210) may be used. 2
  • the posture of the display 1220 may be measured. Since it is easy for a person skilled in the art to measure the posture, a detailed description will be omitted.
  • the electronic device may obtain a sensor value for the posture.
  • the electronic device may check whether the acquired sensor value falls within a predetermined range. If the sensor value is included in the first range, the electronic device may output a keyboard interface to a designated area of the first display 1210. In this case, content (or information) related to the running application may be output on the second display 1220.
  • FIG. 13 is a diagram illustrating an example of a text type of a keyboard interface of an electronic device according to an embodiment of the present specification.
  • FIG. 13A shows an example of a keyboard interface providing an English keyboard
  • FIG. 13B shows an example of a keyboard interface providing a special character keyboard.
  • the electronic device may output an English keyboard or a special character keyboard to output one region to the first display and output another region to the second display based on the connection of the second body (or the second display).
  • the range of languages provided by the keyboard interface is not limited to the above-described examples, and various languages such as Chinese and Japanese may be provided.
  • a keyboard interface is divided and displayed on a first display and a second display based on a combination with a second body, thereby allowing a user to combine the first display and the second display together. You can make it easier to input the keyboard by grabbing it.
  • Combinations of each block of the block diagram attached to the present specification and each step of the flowchart may be performed by computer program instructions. Since these computer program instructions can be mounted on the processor of a general-purpose computer, special purpose computer or other programmable data processing equipment, the instructions executed by the processor of the computer or other programmable data processing equipment are shown in each block or flowchart of the block diagram. Each step creates a means to perform the functions described.
  • These computer program instructions can also be stored in computer-usable or computer-readable memory that can be directed to a computer or other programmable data processing equipment to implement a function in a particular way, so that the computer-usable or computer-readable memory It is also possible to produce an article of manufacture in which the instructions stored in the block diagram contain instruction means for performing the functions described in each block of the block diagram or each step of the flowchart. Since computer program instructions can also be mounted on a computer or other programmable data processing equipment, a series of operating steps are performed on a computer or other programmable data processing equipment to create a computer-executable process to create a computer or other programmable data processing equipment. It is also possible for the instructions to perform the processing equipment to provide steps for executing the functions described in each block of the block diagram and each step of the flowchart.
  • each block or each step may represent a module, segment, or part of code that contains one or more executable instructions for executing the specified logical function(s).
  • functions mentioned in blocks or steps may occur out of order.
  • two blocks or steps shown in succession may in fact be performed substantially simultaneously, or the blocks or steps may sometimes be performed in the reverse order depending on the corresponding function.

Abstract

본 명세서의 일 실시예에 따른 제1 디스플레이를 구비하는 제1 바디와 제2 디스플레이를 구비하는 제2 바디가 선택적으로 결합하여 연동하는 전자 장치는, 상기 제1 바디에 구비되어 상기 제1 디스플레이를 제어하며, 상기 제2 바디와의 결합을 기초로 상기 제1 디스플레이 및 제2 디스플레이를 제어하는 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는, 상기 제2 바디의 결합 여부를 확인하고, 상기 제2 바디의 결합을 기초로, 상기 제1 디스플레이에 키보드 자판에 대응하는 키보드 인터페이스의 일 영역을 출력하고, 상기 제2 디스플레이에 상기 키보드 인터페이스의 다른 일 영역을 출력할 수 있다.

Description

키보드 인터페이스를 출력하는 전자 장치 및 그 제어 방법
본 명세서의 실시예는 키보드 자판에 대응하는 키보드 인터페이스를 복수의 디스플레이를 통해 출력하는 전자 장치 및 그 제어 방법에 관한 것이다.
전자 기술의 발달에 따라, 사용자에게 동영상, 사진 등과 같은 다양한 멀티미디어 컨텐츠를 제공할 수 있는 스마트폰과 같은 전자 장치가 널리 보급되었다.
최근 이러한 멀티미디어 컨텐츠에 대한 수요가 급격하게 증가하고 있으며, 그에 대응하여 보다 쾌적한 환경에서 멀티미디어 컨텐츠를 시청하고자 하는 사용자의 니즈(need)도 증가하고 있다. 이에 따라, 보다 넓은 면적의 화면을 제공하는 전자 장치의 개발이 활발히 이루어지고 있다.
이러한 개발의 일환으로 휴대성이 강조되는 이동 단말기도 보다 넓은 면적의 화면 제공을 위해 복수의 디스플레이를 구비하는 추세이다.
한편, 이동 단말기와 같은 휴대성이 강조되는 전자 장치의 경우 별도의 키보드 하드웨어를 대신하여, 키보드 자판에 대응하는 키보드 인터페이스(interface)를 디스플레이에 출력하는 방식으로 키보드 기능을 제공한다.
일반적인 이동 단말기는 사용자의 한 손의 크기와 유사하기 때문에 사용자는 이동 단말기를 양손 또는 한손으로 잡아 키보드 인터페이스를 통해 텍스트를 입력할 수 있다. 그러나 이동 단말기가 복수의 디스플레이를 포함하는 경우 어느 하나의 디스플레이에 키보드 인터페이스가 표시되는 경우 텍스트 입력에 불편이 야기될 수 있다.
예를 들어 왼쪽과 오른쪽에 나란히 배열되는 복수의 디스플레이를 포함하는 전자 장치의 경우 오른쪽 디스플레이에만 키보드 인터페이스가 표시될 수 있다. 이러한 경우, 양손을 이용한 텍스트 입력을 위해서는 양손 모두 오른쪽 디스플레이를 잡아야 하기 때문에, 왼쪽 디스플레이는 불안정하게 공중에 떠있어야 할 수도 있다. 또한, 왼쪽 디스플레이로 인해 사용자의 왼손이 위치할 수 있는 범위가 제한되어 불편이 야기될 수 있다.
본 명세서의 실시예가 해결하고자 하는 과제는, 복수의 디스플레이를 이용하여 키보드 인터페이스가 출력되도록함으로써 보다 용이하고 효율적으로 텍스트 입력이 이루어지도록 하는 전자 장치 및 그 제어 방법을 제공하는 것이다.
다만, 본 명세서의 실시예가 해결하고자 하는 과제는 이상에서 언급한 바로 제한되지 않으며, 언급되지는 않았으나 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있는 목적을 포함할 수 있다.
본 명세서의 일 실시예에 따른 제1 디스플레이를 구비하는 제1 바디와 제2 디스플레이를 구비하는 제2 바디가 선택적으로 결합하여 연동하는 전자 장치는, 상기 제1 바디에 구비되어 상기 제1 디스플레이를 제어하며, 상기 제2 바디와의 결합을 기초로 상기 제1 디스플레이 및 제2 디스플레이를 제어하는 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는, 상기 제2 바디의 결합 여부를 확인하고, 상기 제2 바디의 결합을 기초로, 상기 제1 디스플레이에 키보드 자판에 대응하는 키보드 인터페이스의 일 영역을 출력하고, 상기 제2 디스플레이에 상기 키보드 인터페이스의 다른 일 영역을 출력할 수 있다.
본 명세서의 일 실시예에 따른 제1 디스플레이를 구비하는 제1 바디와 제2 디스플레이를 구비하는 제2 바디가 선택적으로 결합하여 연동하는 전자 장치의 제어 방법은, 상기 제2 바디의 결합 여부를 확인하는 단계와, 상기 제2 바디의 결합을 기초로, 상기 제1 디스플레이에 키보드 자판에 대응하는 키보드 인터페이스의 일 영역을 출력하고, 상기 제2 디스플레이에 상기 키보드 인터페이스의 다른 일 영역을 출력하는 단계를 포함할 수 있다.
본 명세서의 일 실시예에 따른 컴퓨터 판독가능 기록 매체는, 제1 디스플레이를 구비하는 제1 바디와 제2 디스플레이를 구비하는 제2 바디가 선택적으로 결합하여 연동하는 전자 장치에 대한 상기 제2 바디의 결합 여부를 확인하는 단계와, 상기 제2 바디의 결합을 기초로, 상기 제1 디스플레이에 키보드 입력 자판에 대응하는 키보드 인터페이스의 일 영역을 출력하고, 상기 제2 디스플레이에 상기 키보드 인터페이스의 다른 일 영역을 출력하는 단계를 실행하기 위한 명령어(instruction)를 저장할 수 있다.
본 명세서의 실시예에 따른 전자 장치 및 그 제어 방법은, 복수의 디스플레이를 이용하여 키보드 인터페이스가 출력되도록함으로써 보다 용이하고 효율적으로 텍스트 입력이 이루어지도록 할 수 있다.
다만, 본 명세서의 실시예에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
도 1은 본 명세서와 관련된 이동 단말기를 설명하기 위한 블록도이다.
도 2는 본 명세서와 관련된 단말기 세트에 있어서 이동 단말기가 보조 장치에 결합하기 전 상태를 도시한 것이다.
도 3은 이동 단말기가 보조 장치에 결합한 상태를 도시한 것이다.
도 4는 도 3의 상태에서 보조 장치의 폴리오 커버가 분리된 상태를 도시한 것이다.
도 5는 본 명세서와 관련된 이동 단말기의 전면 사시도 및 배면 사시도이다.
도 6은 본 명세서의 일 실시예에 따른 전자 장치에 대한 개념도이다.
도 7은 본 명세서의 일 실시예에 따른 전자 장치의 기능 블록도이다.
도 8은 본 명세서의 일 실시예에 따른 전자 장치의 제어 방법의 각 단계의 흐름을 나타내는 흐름도이다.
도 9는 본 명세서의 일 실시예에 따른 전자 장치가 키보드 인터페이스 및 어플리케이션 아이콘을 출력하는 경우의 예를 나타내는 도면이다.
도 10은 본 명세서의 일 실시예에 따른 전자 장치에서 키보드 인터페이스와 관련된 입력의 예를 나타내는 도면이다.
도 11은 본 명세서의 일 실시예에 따른 전자 장치에서 키보드 인터페이스와 관련된 입력의 다른 예를 나타내는 도면이다.
도 12는 본 명세서의 일 실시예에 따른 전자 장치의 자세를 기초로 키보드 인터페이스를 출력하는 예를 나타내는 도면이다.
도 13은 본 명세서의 일 실시예에 따른 전자 장치의 키보드 인터페이스의 텍스트 종류의 예를 나타내는 도면이다.
본 명세서의 실시예의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 명세서는 이하에서 개시되는 실시예들에 한정되는 것이 아니라 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 명세서의 개시가 완전하도록 하고, 본 명세서가 속하는 기술분야에서 통상의 지식을 가진 자에게 명세서의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 명세서의 범주는 청구항에 의해 정의될 뿐이다.
본 명세서의 실시예들을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명은 본 명세서의 실시예들을 설명함에 있어 실제로 필요한 경우 외에는 생략될 것이다. 그리고 후술되는 용어들은 본 명세서의 실시예에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
본 명세서는 다양한 변경을 가할 수 있고 여러 가지 실시예들을 포함할 수 있는바, 특정 실시예들을 도면에 예시하고 상세한 설명에 설명하고자 한다. 그러나 이는 본 명세서를 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 명세서의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로서 이해되어야 한다.
제 1, 제 2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 해당 구성요소들은 이와 같은 용어들에 의해 한정되지는 않는다. 이 용어들은 하나의 구성요소들을 다른 구성요소로부터 구별하는 목적으로만 사용된다.
어떤 구성요소가 다른 구성요소에 '연결되어' 있다거나 '접속되어' 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
본 명세서에서 설명되는 전자 장치에는 휴대폰, 스마트 폰(smart phone), 노트북 컴퓨터(laptop computer), 디지털방송용 단말기, PDA(personal digital assistants), PMP(portable multimedia player), 네비게이션, 슬레이트 PC(slate PC), 태블릿 PC(tablet PC), 울트라북(ultrabook), 웨어러블 디바이스(wearable device, 예를 들어, 워치형 단말기 (smartwatch), 글래스형 단말기 (smart glass), HMD(head mounted display)) 등이 포함될 수 있다.
그러나, 본 명세서에 기재된 실시 예에 따른 구성은 디지털 TV, 데스크탑 컴퓨터, 디지털 사이니지 등과 같은 고정 단말기에도 적용될 수도 있음을 본 기술분야의 해당 기술 분야의 통상의 기술자라면 쉽게 알 수 있을 것이다.
도 1은 본 명세서와 관련된 전자 장치(100)를 설명하기 위한 블록도이다.
전자 장치(100)는 무선 통신부(110), 입력부(120), 센싱부(140), 출력부(150), 인터페이스부(160), 메모리(170), 제어부(180) 및 전원 공급부(190) 등을 포함할 수 있다. 도 1에 도시된 구성요소들은 이동 단말기를 구현하는데 있어서 필수적인 것은 아니어서, 본 명세서 상에서 설명되는 이동 단말기는 위에서 열거된 구성요소들 보다 많거나, 또는 적은 구성요소들을 가질 수 있다. 한편, 전자 장치(100)는 실시예에 따라 이동 단말기로 구현될 수 있다.
보다 구체적으로, 상기 구성요소들 중 무선 통신부(110)는, 전자 장치(100)와 무선 통신 시스템 사이, 전자 장치(100)와 다른 전자 장치 사이, 또는 전자 장치(100)와 외부 서버 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 또한, 상기 무선 통신부(110)는, 전자 장치(100)를 하나 이상의 네트워크에 연결하는 하나 이상의 모듈을 포함할 수 있다.
이러한 무선 통신부(110)는, 방송 수신 모듈(111), 이동통신 모듈(112), 무선 인터넷 모듈(113), 근거리 통신 모듈(114), 위치정보 모듈(115) 중 적어도 하나를 포함할 수 있다.
입력부(120)는, 영상 신호 입력을 위한 카메라(121) 또는 영상 입력부, 오디오 신호 입력을 위한 마이크로폰(microphone, 122), 또는 오디오 입력부, 사용자로부터 정보를 입력받기 위한 사용자 입력부(123, 예를 들어, 터치키(touch key), 푸시키(mechanical key) 등)를 포함할 수 있다. 입력부(120)에서 수집한 음성 데이터나 이미지 데이터는 분석되어 사용자의 제어명령으로 처리될 수 있다.
센싱부(140)는 이동 단말기 내 정보, 이동 단말기를 둘러싼 주변 환경 정보 및 사용자 정보 중 적어도 하나를 센싱하기 위한 하나 이상의 센서를 포함할 수 있다. 예를 들어, 센싱부(140)는 근접센서(141, proximity sensor), 조도 센서(142, illumination sensor), 터치 센서(touch sensor), 가속도 센서(acceleration sensor), 자기 센서(magnetic sensor), 중력 센서(G-sensor), 자이로스코프 센서(gyroscope sensor), 모션 센서(motion sensor), RGB 센서, 적외선 센서(IR 센서: infrared sensor), 지문인식 센서(finger scan sensor), 초음파 센서(ultrasonic sensor), 광 센서(optical sensor, 예를 들어, 카메라(121 참조)), 마이크로폰(microphone, 122 참조), 배터리 게이지(battery gauge), 환경 센서(예를 들어, 기압계, 습도계, 온도계, 방사능 감지 센서, 열 감지 센서, 가스 감지 센서 등), 화학 센서(예를 들어, 전자 코, 헬스케어 센서, 생체 인식 센서 등) 중 적어도 하나를 포함할 수 있다. 한편, 본 명세서에 개시된 이동 단말기는, 이러한 센서들 중 적어도 둘 이상의 센서에서 센싱되는 정보들을 조합하여 활용할 수 있다.
출력부(150)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 디스플레이부(151), 음향 출력부(152), 햅팁 모듈(153), 광 출력부(154) 중 적어도 하나를 포함할 수 있다. 전자 장치(100)의 디스플레이부(151)는 도 1 내지 3에서 설명한 제1 디스플레이에 대응된다. 디스플레이부(151)는 터치 센서와 상호 레이어 구조를 이루거나 일체형으로 형성됨으로써, 터치 스크린을 구현할 수 있다. 이러한 터치 스크린은, 전자 장치(100)와 사용자 사이의 입력 인터페이스를 제공하는 사용자 입력부(123)로써 기능함과 동시에, 전자 장치(100)와 사용자 사이의 출력 인터페이스를 제공할 수 있다.
인터페이스부(160)는 전자 장치(100)에 연결되는 다양한 종류의 외부 기기와의 통로 역할을 수행한다. 이러한 인터페이스부(160)는, 유/무선 헤드셋 포트(port), 충전 포트(port), 유/무선 데이터 포트(port), 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트(port), 오디오 I/O(Input/Output) 포트(port), 비디오 I/O(Input/Output) 포트(port), 이어폰 포트(port) 중 적어도 하나를 포함할 수 있다. 전자 장치(100)에서는, 상기 인터페이스부(160)에 외부 기기가 연결되는 것에 대응하여, 연결된 외부 기기와 관련된 적절할 제어를 수행할 수 있다.
또한, 메모리(170)는 전자 장치(100)의 다양한 기능을 지원하는 데이터를 저장한다. 메모리(170)는 전자 장치(100)에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션(application)), 전자 장치(100)의 동작을 위한 데이터들, 명령어들을 저장할 수 있다. 이러한 응용 프로그램 중 적어도 일부는, 무선 통신을 통해 외부 서버로부터 다운로드 될 수 있다. 또한 이러한 응용 프로그램 중 적어도 일부는, 전자 장치(100)의 기본적인 기능(예를 들어, 전화 착신, 발신 기능, 메시지 수신, 발신 기능)을 위하여 출고 당시부터 전자 장치(100)상에 존재할 수 있다. 한편, 응용 프로그램은, 메모리(170)에 저장되고, 전자 장치(100) 상에 설치되어, 제어부(180)에 의하여 전자 장치(100)의 동작(또는 기능)을 수행하도록 구동될 수 있다.
제어부(180)는 상기 응용 프로그램과 관련된 동작 외에도, 통상적으로 전자 장치(100)의 전반적인 동작을 제어한다. 제어부(180)는 위에서 살펴본 구성요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리하거나 메모리(170)에 저장된 응용 프로그램을 구동함으로써, 사용자에게 적절한 정보 또는 기능을 제공 또는 처리할 수 있다.
또한, 제어부(180)는 메모리(170)에 저장된 응용 프로그램을 구동하기 위하여, 도 1과와 함께 살펴본 구성요소들 중 적어도 일부를 제어할 수 있다. 나아가, 제어부(180)는 상기 응용 프로그램의 구동을 위하여, 전자 장치(100)에 포함된 구성요소들 중 적어도 둘 이상을 서로 조합하여 동작시킬 수 있다.
또한, 제어부(180)는 실시예에 따라 프로세서로 지칭될 수 있다.
전원 공급부(190)는 제어부(180)의 제어 하에서 외부의 전원 또는 내부의 전원을 인가 받아 전자 장치(100)에 포함된 각 구성요소들에 전원을 공급한다. 이러한 전원 공급부(190)는 배터리를 포함하며, 상기 배터리는 내장형 배터리 또는 교체가능한 형태의 배터리가 될 수 있다.
또한, 전원 공급부(190)는 충전 포트를 구비할 수 있으며, 충전 포트는 배터리의 충전을 위하여 전원을 공급하는 외부 충전기가 전기적으로 연결되는 인터페이스(160)의 일 예로서 구성될 수 있다.
상기 각 구성요소들 중 적어도 일부는, 이하에서 설명되는 다양한 실시 예들에 따른 전자 장치의 동작, 제어, 또는 제어방법을 구현하기 위하여 서로 협력하여 동작할 수 있다. 또한, 상기 전자 장치의 동작, 제어, 또는 제어방법은 상기 메모리(170)에 저장된 적어도 하나의 응용 프로그램의 구동에 의하여 전자 장치 상에서 구현될 수 있다.
도 2 내지 도 4는 본 명세서와 관련된 단말기 세트(10)를 설명하기 위한 개념도이다. 도 2는 본 명세서와 관련된 단말기 세트(10)에 있어서 전자 장치(또는 전자 장치)(100)가 보조 장치(200)에 결합하기 전 상태를, 도 3은 전자 장치(100)가 보조 장치(200)에 결합한 상태를 도시한 것이다. 또한, 도 4는 도 3의 상태에서 보조 장치(200)의 커버 부재(260)가 분리된 상태를 각각 도시한 것이다. 이해를 돕기 위해 도 2 내지 4를 함께 참조한다.
본 명세서의 단말기 세트(10)는 디스플레이를 구비한 전자 장치(100) 및 전자 장치(100)와 결합하여 확장된 디스플레이를 제공하는 보조 장치(200)로 이루어진다. 보조 장치(200)는 다시 전자 장치(100)가 결합하는 영역인 안착 부재(210)와 안착 부재(210)에 결합하여 전자 장치(100)를 선택적으로 커버하고 확장된 디스플레이를 실장하는 커버 부재(260)를 포함한다.
전술한 바와 같이, 본 명세서의 단말기 세트(10)는 전자 장치(100)와 보조 장치(200)가 각각 출력 영역을 형성하여 멀티 디스플레이를 제공함으로써 사용성을 증가시킨다. 전자 장치(100)에 구비된 디스플레이를 제1 디스플레이(151), 보조 장치(200)에 구비된 디스플레이를 제2 디스플레이(261)라 한다.
제2 디스플레이(261)는 커버 부재(260)의 내측면 및 외측면에 모두 구비될 수 있다. 내측면에 구비된 제2 디스플레이(261)를 내측 제2 디스플레이(2611), 외측면에 구비된 제2 디스플레이(261)를 외측 제2 디스플레이(2612)로 정의한다. 내측 제2 디스플레이(2611)는 커버 부재(260)를 펼쳤을 때 제1 디스플레이와 동시에 시인되는 용도로, 외측 제2 디스플레이(2612)는 커버 부재(260)를 닫았을 때 단말기 세트(10) 상에서 시인되는 용도로 특히 사용될 수 있다.
제1 디스플레이(151) 및 제2 디스플레이(261), 특히 내측 제2 디스플레이(2611)는 상호 연계되어 출력될 수 있다. 예를 들어 제1 디스플레이(151)와 내측 제2 디스플레이(2611)가 미러링되어 출력되거나, 제1 디스플레이(151)에 출력되고 있는 화면을 내측 제2 디스플레이(2611)에 이동시켜 출력하도록 할 수도 있고, 또는 하나의 애플리케이션 또는 연계된 복수의 애플리케이션의 실행화면이 제1 디스플레이 및 내측 제2 디스플레이(2611)에 나눠 출력될 수도 있다. 예를 들어 게임 애플리케이션의 컨트롤러는 제1 디스플레이(151)에, 게임 컨텐츠는 내측 제2 디스플레이(2611)에 출력될 수 있다. 즉 본 명세서의 단말기 세트(10)는 복수의 디스플레이를 갖는 하나의 장치처럼 동작할 수 있으며, 이는 전자 장치(100)에 구비된 여러 구성을 보조 장치(200)가 공유함을 의미한다.
외측 제2 디스플레이(2612)는 상대적으로 간단한 정보를 출력할 수 있다. 예를 들어, 호 수신, 메시지 수신, 알람 등의 간단한 텍스트 정보나 이미지 정보를 출력하는 기능을 수행할 수 있다. 외측 제2 디스플레이(2612)가 구비됨으로써 커버 부재(260)가 닫힌 상태에서 별도의 동작없이 정보를 확인할 수 있다는 장점이 있다.
전자 장치(100)의 제어부(180) 및 전원 공급부(190)는 제1 디스플레이(151)뿐만 아니라 제2 디스플레이(261)에 전력을 공급하고 데이터를 송수신할 수 있다. 따라서 보조 장치(200)는 별도의 제어부(180) 및 전원 공급부(190)의 구비없이 동작할 수 있다. 이는 보조 장치(200)의 무게 또는 부피를 감소시키며 제조 비용 절감의 효과도 달성할 수 있다.
상기 제2 디스플레이(261)에의 전력 공급 및 데이터 송수신을 위해 전자 장치(100)는 보조 장치(200)에 물리적으로 결합하고, 보조 장치(200)는 전자 장치(100)와 제2 디스플레이(261)를 전기적으로 연결하기 위한 회로를 구비한다. 이를 보로 회로부로 정의한다.
본 명세서의 보조 장치(200)는 커버 부재(260)가 안착 부재(210)에 선택적으로 착탈되는 형태를 제안한다. 분리 가능한 커버 부재(260)를 갖는 보조 장치(200)의 장점은 다음과 같다.
첫째, 커버 부재(260)를 사용하지 않는 경우 안착 부재(210)만 전자 장치(100)에 결합시킴으로써 전자 장치(100)를 물리적으로 보호하는 기능을 얻을 수 있다. 커버 부재(260)가 안착 부재(210)에 항상 고정되어 있는 종래의 경우 커버 부재(260)를 사용하지 않음에도 불구하고 큰 부피 및 무게의 상태로 사용해야 하며, 전자 장치(100)의 그립감도 저하시킨다. 따라서 안착 부재(210)만 전자 장치(100)에 결합시킴으로써 이러한 단점을 보완할 수 있다.
둘째, 분리 가능한 커버 부재(260)는 전자 장치(100) 및 안착 부재(210)를 교체하더라도 계속적으로 사용될 수도 있다. 예를 들어 특정 전자 장치(100)에 결합하여 사용하던 안착 부재(210)가 파손 또는 분실되더라도 안착 부재(210)만 교체하여 기존에 사용하던 커버 부재(260)를 그대로 사용할 수 있다.
셋째, 기존에 사용하던 전자 장치(100)와 형태 또는 크기가 다른 전자 장치(100) 및 안착 부재(210)를 사용하게 되는 경우에도 기존에 사용하던 커버 부재(260)를 결합시켜 사용할 수도 있다. 물론 이는 형태 또는 크기가 다른 전자 장치(100) 및 안착 부재(210)가 기존 커버 부재(260)와 호환 가능하도록 구성되는 것을 전제로 한다.
넷째, 커버 부재(260)를 다른 형태로 결합시킬 수도 있다. 예를 들어, 커버 부재(260)를 뒤집어서 안착 부재(210)에 결합 가능하도록 구성하는 경우, 두 디스플레이(151, 261)를 동일 방향, 또는 서로 반대 방향을 바라볼 수 있도록 함으로써 다양한 사용자 경험(user experience)을 제공할 수 있다.
도 4를 참조하면, 경우에 따라 안착 부재(210)는 단말기 케이스의 형태로 구비될 수 있다. 이러한 경우, 안착 부재(210)는 전자 장치(100)의 배면이 안착하는 안착 영역을 형성한다. 안착 부재(210)는 전자 장치(100)가 안착시 전자 장치(100)의 디스플레이부의 출력 영역, 즉 제1 디스플레이(151)가 전면에 시인될 수 있도록 개방된 영역을 형성한다. 동시에, 안착 부재(210) 배면의 적어도 일 영역 또한 개구부를 가져 전자 장치(100)의 카메라부 등이 노출되도록 한다. 안착 부재(210)의 측면 둘레는 전자 장치(100)의 측면 둘레 형상에 대응하도록 형성되어 전자 장치(100)가 단말기 케이스(210)에 핏(fit)하게 결합할 수 있도록 한다.
본 명세서의 보조 장치(200)의 커버 부재(260)와 안착 부재(210)는 체결부(264)에 의해 결합 및 분리된다.
커버 부재(260)는 안착 부재(210)에 결합시 안착 부재(210)의 일 모서리에서 적어도 하나의 회전축을 형성하여 안착 영역)을 선택적으로 덮는다.
커버 부재(260)는 안착 부재(210)의 일 모서리의 측면, 또는 측후면에 착탈 결합될 수 있다. 측면에 결합은 단말기 세트(10)의 두께 증가를 최소화할 수 있으며, 측후면에 결합은 단말기 세트(10)의 베젤 증가를 최소화할 수 있다. 본 명세서에서는 안착 부재(210)의 측면에 결합하는 것을 전제로 설명하나, 경우에 따라 안착 부재(210)의 후면에 결합하는 것도 가능하다.
커버 부재(260)는 디스플레이 패널(2611)을 실장하여 상술한 제2 디스플레이(261)를 제공한다. 디스플레이 패널(2611)은 커버 부재(260)의 일면에 노출되어 출력 영역을 형성한다. 디스플레이 패널(2611)은 외부 터치 입력을 수신하기 위한 터치 패널을 구비할 수 있다.
힌지부(265)는 커버 부재(260)에 구비되어 커버 부재(260)가 안착 부재(210)에 대해 회동할 수 있도록 적어도 하나의 회전축을 제공한다. 힌지부(265)에 의해 회동되는 커버 부재(260)는 안착 부재(210)의 안착 영역을 선택적으로 덮는다.
도 5a 및 도 5b는 본 명세서와 관련된 전자 장치(100)의 전면 사시도 및 배면 사시도이다.
도 5a를 참조하면, 개시된 전자 장치(100)는 바 형태의 단말기 바디를 구비하고 있다. 다만, 본 명세서는 여기에 한정되지 않고 와치 타입, 클립 타입, 글래스 타입 또는 2 이상의 바디들이 상대 이동 가능하게 결합되는 폴더 타입, 플립 타입, 슬라이드 타입, 스윙 타입, 스위블 타입 등 다양한 구조에 적용될 수 있다. 전자 장치의 특정 유형에 관련될 것이나, 전자 장치의 특정유형에 관한 설명은 다른 타입의 전자 장치에 일반적으로 적용될 수 있다.
여기에서, 단말기 바디는 전자 장치(100)를 적어도 하나의 집합체로 보아 이를 지칭하는 개념으로 이해될 수 있다.
전자 장치(100)는 외관을 이루는 케이스(예를 들면, 프레임, 하우징, 커버 등)를 포함한다. 도시된 바와 같이, 전자 장치(100)는 프론트 케이스(101)와 리어 케이스(102)를 포함할 수 있다. 프론트 케이스(101)와 리어 케이스(102)의 결합에 의해 형성되는 내부공간에는 각종 전자부품들이 배치된다. 프론트 케이스(101)와 리어 케이스(102) 사이에는 적어도 하나의 미들 케이스가 추가로 배치될 수 있다.
단말기 바디의 전면에는 디스플레이부(151)가 배치되어 정보를 출력할 수 있다. 도시된 바와 같이, 디스플레이부(151)의 윈도우(151a)는 프론트 케이스(101)에 장착되어 프론트 케이스(101)와 함께 단말기 바디의 전면을 형성할 수 있다.
경우에 따라서, 리어 케이스(102)에도 전자부품이 장착될 수 있다. 리어 케이스(102)에 장착 가능한 전자부품은 착탈 가능한 배터리, 식별 모듈, 메모리 카드 등이 있다. 이 경우, 리어 케이스(102)에는 장착된 전자부품을 덮기 위한 후면커버(103)가 착탈 가능하게 결합될 수 있다. 따라서, 후면 커버(103)가 리어 케이스(102)로부터 분리되면, 리어 케이스(102)에 장착된 전자부품은 외부로 노출된다.
도시된 바와 같이, 후면커버(103)가 리어 케이스(102)에 결합되면, 리어 케이스(102)의 측면 일부가 노출될 수 있다. 경우에 따라서, 상기 결합시 리어 케이스(102)는 후면커버(103)에 의해 완전히 가려질 수도 있다. 한편, 후면커버(103)에는 카메라(121b)나 음향 출력부(152b)를 외부로 노출시키기 위한 개구부가 구비될 수 있다.
이러한 케이스들(101, 102, 103)은 합성수지를 사출하여 형성되거나 금속, 예를 들어 스테인레스 스틸(STS), 알루미늄(Al), 티타늄(Ti) 등으로 형성될 수도 있다.
전자 장치(100)는, 복수의 케이스가 각종 전자부품들을 수용하는 내부 공간을 마련하는 위의 예와 달리, 하나의 케이스가 상기 내부 공간을 마련하도록 구성될 수도 있다. 이 경우, 합성수지 또는 금속이 측면에서 후면으로 이어지는 유니 바디의 전자 장치(100)가 구현될 수 있다.
한편, 전자 장치(100)는 단말기 바디 내부로 물이 스며들지 않도록 하는 방수부(미도시)를 구비할 수 있다. 예를 들어, 방수부는 윈도우(151a)와 프론트 케이스(101) 사이, 프론트 케이스(101)와 리어 케이스(102) 사이 또는 리어 케이스(102)와 후면 커버(103) 사이에 구비되어, 이들의 결합 시 내부 공간을 밀폐하는 방수부재를 포함할 수 있다.
전자 장치(100)에는 디스플레이부(151), 제1 및 제2 음향 출력부(152a, 152b), 근접 센서(141), 조도 센서(142), 광 출력부(154), 제1 및 제2 카메라(121a, 121b), 제1 및 제2 조작유닛(123a, 123b), 마이크로폰(122), 인터페이스부(160) 등이 구비될 수 있다.
이하에서는, 도 5a 및 도 5b에 도시된 바와 같이, 단말기 바디의 전면에 디스플레이부(151), 제1 음향 출력부(152a), 근접 센서(141), 조도 센서(142), 광 출력부(154), 제1 카메라(121a) 및 제1 조작유닛(123a)이 배치되고, 단말기 바디의 측면에 제2 조작유닛(123b), 마이크로폰(122) 및 인터페이스부(160)이 배치되며, 단말기 바디의 후면에 제2 음향 출력부(152b) 및 제2 카메라(121b)가 배치된 전자 장치(100)를 일 예로 들어 설명한다.
다만, 이들 구성은 이러한 배치에 한정되는 것은 아니다. 이들 구성은 필요에 따라 제외 또는 대체되거나, 다른 면에 배치될 수 있다. 예를 들어, 단말기 바디의 전면에는 제1 조작유닛(123a)이 구비되지 않을 수 있으며, 제2 음향 출력부(152b)는 단말기 바디의 후면이 아닌 단말기 바디의 측면에 구비될 수 있다.
디스플레이부(151)는 전자 장치(100)에서 처리되는 정보를 표시(출력)한다. 예를 들어, 디스플레이부(151)는 전자 장치(100)에서 구동되는 응용 프로그램의 실행화면 정보, 또는 이러한 실행화면 정보에 따른 UI(User Interface), GUI(Graphic User Interface) 정보를 표시할 수 있다.
디스플레이부(151)는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉서블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전자잉크 디스플레이(e-ink display) 중에서 적어도 하나를 포함할 수 있다.
또한, 디스플레이부(151)는 전자 장치(100)의 구현 형태에 따라 2개 이상 존재할 수 있다. 이 경우, 전자 장치(100)에는 복수의 디스플레이부들이 하나의 면에 이격되거나 일체로 배치될 수 있고, 또한 서로 다른 면에 각각 배치될 수도 있다.
디스플레이부(151)는 터치 방식에 의하여 제어 명령을 입력 받을 수 있도록, 디스플레이부(151)에 대한 터치를 감지하는 터치센서를 포함할 수 있다. 이를 이용하여, 디스플레이부(151)에 대하여 터치가 이루어지면, 터치센서는 상기 터치를 감지하고, 제어부(180)는 이에 근거하여 상기 터치에 대응하는 제어명령을 발생시키도록 이루어질 수 있다. 터치 방식에 의하여 입력되는 내용은 문자 또는 숫자이거나, 각종 모드에서의 지시 또는 지정 가능한 메뉴항목 등일 수 있다.
한편, 터치센서는, 터치패턴을 구비하는 필름 형태로 구성되어 윈도우(151a)와 윈도우(151a)의 배면 상의 디스플레이(미도시) 사이에 배치되거나, 윈도우(151a)의 배면에 직접 패터닝되는 메탈 와이어가 될 수도 있다. 또는, 터치센서는 디스플레이와 일체로 형성될 수 있다. 예를 들어, 터치센서는, 디스플레이의 기판 상에 배치되거나, 디스플레이의 내부에 구비될 수 있다.
이처럼, 디스플레이부(151)는 터치센서와 함께 터치 스크린을 형성할 수 있으며, 이 경우에 터치 스크린은 사용자 입력부(123, 도 1 참조)로 기능할 수 있다. 경우에 따라, 터치 스크린은 제1 조작유닛(123a)의 적어도 일부 기능을 대체할 수 있다.
제1 음향 출력부(152a)는 통화음을 사용자의 귀에 전달시키는 리시버(receiver)로 구현될 수 있으며, 제2 음향 출력부(152b)는 각종 알람음이나 멀티미디어의 재생음을 출력하는 라우드 스피커(loud speaker)의 형태로 구현될 수 있다.
디스플레이부(151)의 윈도우(151a)에는 제1 음향 출력부(152a)로부터 발생되는 사운드의 방출을 위한 음향홀이 형성될 수 있다. 다만, 본 명세서는 이에 한정되는 것은 아니고, 상기 사운드는 구조물 간의 조립틈(예를 들어, 윈도우(151a)와 프론트 케이스(101) 간의 틈)을 따라 방출되도록 구성될 수 있다. 이 경우, 외관상 음향 출력을 위하여 독립적으로 형성되는 홀이 보이지 않거나 숨겨져 전자 장치(100)의 외관이 보다 심플해질 수 있다.
광 출력부(154)는 이벤트의 발생시 이를 알리기 위한 빛을 출력하도록 이루어진다. 상기 이벤트의 예로는 메시지 수신, 호 신호 수신, 부재중 전화, 알람, 일정 알림, 이메일 수신, 애플리케이션을 통한 정보 수신 등을 들 수 있다. 제어부(180)는 사용자의 이벤트 확인이 감지되면, 빛의 출력이 종료되도록 광 출력부(154)를 제어할 수 있다.
제1 카메라(121a)는 촬영 모드 또는 화상통화 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상의 화상 프레임을 처리한다. 처리된 화상 프레임은 디스플레이부(151)에 표시될 수 있으며, 메모리(170)에 저장될 수 있다.
제1 및 제2 조작유닛(123a, 123b)은 전자 장치(100)의 동작을 제어하기 위한 명령을 입력 받기 위해 조작되는 사용자 입력부(123)의 일 예로서, 조작부(manipulating portion)로도 통칭될 수 있다. 제1 및 제2 조작유닛(123a, 123b)은 터치, 푸시, 스크롤 등 사용자가 촉각적인 느낌을 받으면서 조작하게 되는 방식(tactile manner)이라면 어떤 방식이든 채용될 수 있다. 또한, 제1 및 제2 조작유닛(123a, 123b)은 근접 터치(proximity touch), 호버링(hovering) 터치 등을 통해서 사용자의 촉각적인 느낌이 없이 조작하게 되는 방식으로도 채용될 수 있다.
본 도면에서는 제1 조작유닛(123a)이 터치키(touch key)인 것으로 예시하나, 본 명세서가 이에 한정되는 것은 아니다. 예를 들어, 제1 조작유닛(123a)은 푸시키(mechanical key)가 되거나, 터치키와 푸시키의 조합으로 구성될 수 있다.
제1 및 제2 조작유닛(123a, 123b)에 의하여 입력되는 내용은 다양하게 설정될 수 있다. 예를 들어, 제1 조작유닛(123a)은 메뉴, 홈키, 취소, 검색 등의 명령을 입력 받고, 제2 조작유닛(123b)은 제1 또는 제2 음향 출력부(152a, 152b)에서 출력되는 음향의 크기 조절, 디스플레이부(151)의 터치 인식 모드로의 전환 등의 명령을 입력 받을 수 있다.
한편, 단말기 바디의 후면에는 사용자 입력부(123)의 다른 일 예로서, 후면 입력부(미도시)가 구비될 수 있다. 이러한 후면 입력부는 전자 장치(100)의 동작을 제어하기 위한 명령을 입력 받기 위해 조작되는 것으로서, 입력되는 내용은 다양하게 설정될 수 있다. 예를 들어, 전원의 온/오프, 시작, 종료, 스크롤 등과 같은 명령, 제1 및 제2 음향 출력부(152a, 152b)에서 출력되는 음향의 크기 조절, 디스플레이부(151)의 터치 인식 모드로의 전환 등과 같은 명령을 입력 받을 수 있다. 후면 입력부는 터치입력, 푸시입력 또는 이들의 조합에 의한 입력이 가능한 형태로 구현될 수 있다.
후면 입력부는 단말기 바디의 두께방향으로 전면의 디스플레이부(151)와 중첩되게 배치될 수 있다. 일 예로, 사용자가 단말기 바디를 한 손으로 쥐었을 때 검지를 이용하여 용이하게 조작 가능하도록, 후면 입력부는 단말기 바디의 후면 상단부에 배치될 수 있다. 다만, 본 명세서는 반드시 이에 한정되는 것은 아니며, 후면 입력부의 위치는 변경될 수 있다.
이처럼 단말기 바디의 후면에 후면 입력부가 구비되는 경우, 이를 이용한 새로운 형태의 유저 인터페이스가 구현될 수 있다. 또한, 앞서 설명한 터치 스크린 또는 후면 입력부가 단말기 바디의 전면에 구비되는 제1 조작유닛(123a)의 적어도 일부 기능을 대체하여, 단말기 바디의 전면에 제1 조작유닛(123a)이 미배치되는 경우, 디스플레이부(151)가 보다 대화면으로 구성될 수 있다.
한편, 전자 장치(100)에는 사용자의 지문을 인식하는 지문인식센서가 구비될 수 있으며, 제어부(180)는 지문인식센서를 통하여 감지되는 지문정보를 인증수단으로 이용할 수 있다. 상기 지문인식센서는 디스플레이부(151) 또는 사용자 입력부(123)에 내장될 수 있다.
마이크로폰(122)은 사용자의 음성, 기타 소리 등을 입력 받도록 이루어진다. 마이크로폰(122)은 복수의 개소에 구비되어 스테레오 음향을 입력 받도록 구성될 수 있다.
인터페이스부(160)는 전자 장치(100)를 외부기기와 연결시킬 수 있는 통로가 된다. 예를 들어, 인터페이스부(160)는 다른 장치(예를 들어, 이어폰, 외장 스피커)와의 연결을 위한 접속단자, 근거리 통신을 위한 포트[예를 들어, 적외선 포트(IrDA Port), 블루투스 포트(Bluetooth Port), 무선 랜 포트(Wireless LAN Port) 등], 또는 전자 장치(100)에 전원을 공급하기 위한 전원공급단자 중 적어도 하나일 수 있다. 이러한 인터페이스부(160)는 SIM(Subscriber Identification Module) 또는 UIM(User Identity Module), 정보 저장을 위한 메모리 카드 등의 외장형 카드를 수용하는 소켓의 형태로 구현될 수도 있다.
단말기 바디의 후면에는 제2 카메라(121b)가 배치될 수 있다. 이 경우, 제2 카메라(121b)는 제1 카메라(121a)와 실질적으로 반대되는 촬영 방향을 가지게 된다.
제2 카메라(121b)는 적어도 하나의 라인을 따라 배열되는 복수의 렌즈를 포함할 수 있다. 복수의 렌즈는 행렬(matrix) 형식으로 배열될 수도 있다. 이러한 카메라는, '어레이(array) 카메라'로 명명될 수 있다. 제2카메라(121b)가 어레이 카메라로 구성되는 경우, 복수의 렌즈를 이용하여 다양한 방식으로 영상을 촬영할 수 있으며, 보다 나은 품질의 영상을 획득할 수 있다.
플래시(124)는 제2 카메라(121b)에 인접하게 배치될 수 있다. 플래시(124)는 제2카메라(121b)로 피사체를 촬영하는 경우에 피사체를 향하여 빛을 비추게 된다.
단말기 바디에는 제2 음향 출력부(152b)가 추가로 배치될 수 있다. 제2 음향 출력부(152b)는 제1 음향 출력부(152a)와 함께 스테레오 기능을 구현할 수 있으며, 통화시 스피커폰 모드의 구현을 위하여 사용될 수도 있다.
단말기 바디에는 무선 통신을 위한 적어도 하나의 안테나가 구비될 수 있다. 안테나는 단말기 바디에 내장되거나, 케이스에 형성될 수 있다. 예를 들어, 방송 수신 모듈(111, 도 1 참조)의 일부를 이루는 안테나는 단말기 바디에서 인출 가능하게 구성될 수 있다. 또는, 안테나는 필름 타입으로 형성되어 후면 커버(103)의 내측면에 부착될 수도 있고, 도전성 재질을 포함하는 케이스가 안테나로서 기능하도록 구성될 수도 있다.
단말기 바디에는 전자 장치(100)에 전원을 공급하기 위한 전원 공급부(190, 도 1 참조)가 구비된다. 전원 공급부(190)는 단말기 바디에 내장되거나, 단말기 바디의 외부에서 착탈 가능하게 구성되는 배터리(191)를 포함할 수 있다.
배터리(191)는 인터페이스부(160)에 연결되는 전원 케이블을 통하여 전원을 공급받도록 구성될 수 있다. 또한, 배터리(191)는 무선충전기기를 통하여 무선충전 가능하도록 구성될 수도 있다. 상기 무선충전은 자기유도방식 또는 공진방식(자기공명방식)에 의하여 구현될 수 있다.
한편, 본 도면에서는 후면 커버(103)가 배터리(191)를 덮도록 리어 케이스(102)에 결합되어 배터리(191)의 이탈을 제한하고, 배터리(191)를 외부 충격과 이물질로부터 보호하도록 구성된 것을 예시하고 있다. 배터리(191)가 단말기 바디에 착탈 가능하게 구성되는 경우, 후면 커버(103)는 리어 케이스(102)에 착탈 가능하게 결합될 수 있다.
전자 장치(100)에는 외관을 보호하거나, 전자 장치(100)의 기능을 보조 또는 확장시키는 액세서리가 추가될 수 있다. 이러한 액세서리의 일 예로, 전자 장치(100)의 적어도 일면을 덮거나 수용하는 커버 또는 파우치를 들 수 있다. 커버 또는 파우치는 디스플레이부(151)와 연동되어 전자 장치(100)의 기능을 확장시키도록 구성될 수 있다. 액세서리의 다른 일 예로, 터치 스크린에 대한 터치입력을 보조 또는 확장하기 위한 터치펜을 들 수 있다.
도 6은 본 명세서의 일 실시예에 따른 전자 장치에 대한 개념도이다. 구체적으로, 도 6은 복수의 디스플레이를 포함하는 전자 장치에서 키보드 인터페이스가 제공되는 경우의 예를 나타낸다.
도 6을 참조하면, 전자 장치는 제1 디스플레이(610)를 구비하는 제1 바디를 포함할 수 있으며, 제2 디스플레이(620)를 구비하는 제2 바디와 결합할 수 있다. 이러한 경우, 전자 장치는 결합에 기초하여 제1 디스플레이(610)와 제2 디스플레이(620)를 연동시킴으로써 각각을 제어할 수 있다.
결합에 기초하여 제1 디스플레이(610)와 제2 디스플레이(620)는 연결될 수 있고, 전자 장치는 연결을 기초로 제1 디스플레이(610)와 제2 디스플레이(620)에 키보드 인터페이스를 출력할 수 있다.
구체적으로, 전자 장치는 도 6에 도시된 바와 같이 제1 디스플레이(610)와 제2 디스플레이(620)에 키보드 인터페이스를 나누어 출력할 수 있다. 구체적으로, 제1 디스플레이(610)에 키보드 인터페이스의 일 영역(630)이 표시되고, 제2 디스플레이(620)에 키보드 인터페이스의 다른 일 영역(640)이 표시될 수 있다.
여기서, 키보드 인터페이스는 키보드 자판에 대응하는 사용자 인터페이스(user interface, UI)일 수 있다. 키보드 인터페이스는 영역 별로 텍스트(또는 글자, 또는 문자)가 지정되어 있을 수 있으며, 이에 따라 키보드 인터페이스 상에 입력이 인가되면, 전자 장치는 입력에 대응하는 텍스트를 순차적으로 조합하여 최종적인 텍스트를 생성할 수 있다.
예를 들어 'ㄷ'에 해당하는 영역에 대한 입력과 'ㅏ'에 해당하는 영역에 대한 입력이 순차적으로 인가되는 경우, 전자 장치는 입력이 인가된 영역 및 시간을 기초로 '다'라는 텍스트를 생성할 수 있다.
다른 예를 들면 'a'에 해당하는 영역에 대한 입력과 'k'에 해당하는 영역에 대한 입력이 순차적으로 인가되는 경우, 전자 장치는 입력이 인가된 영역 및 시간을 기초로 'ak'라는 텍스트를 생성할 수 있다.
실시예에서, 키보드 인터페이스의 일 영역(630) 및 다른 일 영역(640)의 출력은 구현 방식에 따라, 하나의 어플리케이션에 의해 이루어질 수도 있고 복수의 어플리케이션에 의해 이루어질 수도 있다.
한편, 도 6에서는 키보드 인터페이스에서 제공하는 텍스트가 숫자 및 한글을 예시적으로 나타내었으나, 이에 제한되는 것은 아니고 영문 또는 특수 문자와 같은 다양한 텍스트를 제공할 수도 있다. 이러한 경우의 텍스트 배열의 예는 도 13을 참조할 수 있다.
도 7은 본 명세서의 일 실시예에 따른 전자 장치의 기능 블록도이다.
도 7을 참조하면, 전자 장치(700)는 제1 디스플레이(711)를 구비(또는 포함)하는 제1 바디(710)와 프로세서(715)를 포함할 수 있다. 제1 바디(710), 제1 디스플레이(711), 프로세서(715), 제2 바디(720) 및 제2 디스플레이(721) 중 적어도 일부는 실시예에 따라 적어도 하나의 프로세서(또는 마이크로프로세서)를 포함하여 구현될 수 있다. 또한, 상기 적어도 일부는 하드웨어나 소프트웨어, 또는, 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.
전자 장치(700)는 제2 디스플레이(721)를 구비하는 제2 바디(720)와 선택적으로 결합될 수 있다. 제2 바디(720)와 결합된 전자 장치(700)는 도 2의 단말기 세트(10)에 대응할 수 있다. 전자 장치(700)는 제2 바디(720)와 결합하여 제2 디스플레이(721)와 연동할 수 있다. 후술하겠으나, 이러한 연동에 기초한 제2 디스플레이(721)의 제어는 프로세서(715)에 의해 수행될 수 있다.
제1 바디(710)는 제1 디스플레이(711)를 구비하는 하드웨어적 구성일 수 있다. 경우에 따라 제1 바디(710)에는 전자 장치의 동작 또는 제1 디스플레이(711)와 관련된 추가적인 기능이 구비될 수 있다. 예를 들어 제1 디스플레이(711)의 활성화를 위한 버튼이 포함될 수도 있으나, 이에 제한되는 것은 아니다.
실시예에 따라, 제1 디스플레이(711)는 제1 바디(710)에 포함되는 형태가 아닌 별개의 구성으로 구현될 수도 있으며, 이는 제2 디스플레이(721)의 경우도 마찬가지이다.
제1 디스플레이(711)는 키보드 인터페이스의 적어도 일부를 출력(또는 표시)할 수 있다. 예를 들어, 제1 디스플레이(711)는 키보드 인터페이스의 전체를 출력할 수 있다. 다른 예를 들면, 제1 디스플레이(711)는 키보드 인터페이스의 우측에 위치하는 기지정된 텍스트에 대한 영역을 출력할 수 있다. 이러한 경우 키보드 인터페이스의 좌측에 위치하는 나머지 텍스트에 대한 영역은 제2 디스플레이(721)에 출력될 수 있다.
제2 디스플레이(721)는 키보드 인터페이스의 적어도 일부를 출력할 수 있다. 예를 들어, 제2 디스플레이(721)는 키보드 인터페이스의 전체를 출력될 수 있다. 다른 예를 들면, 제2 디스플레이(721)는 키보드 인터페이스의 좌측에 위치하는 기지정된 텍스트에 대한 영역을 출력할 수 있다. 이러한 경우 키보드 인터페이스의 좌측에 위치하는 나머지 텍스트에 대한 영역은 제1 디스플레이(711)에 출력될 수 있다.
한편, 상술한 제1 디스플레이(711) 및 제2 디스플레이(721)의 출력은 후술하는 프로세서(715)의 제어를 기초로 수행되는 것일 수 있으나, 이에 제한되는 것은 아니다.
프로세서(715)는 제2 바디(720)의 결합 여부를 확인할 수 있다. 프로세서(715)는 제2 바디(720)(또는 제2 디스플레이(721))가 유선 또는 무선으로 연결되었는지 여부를 판별함에 기초하여 결합 여부를 확인할 수 있다. 예를 들어, 프로세서(715)는 결합과 관련된 신호 또는 응답이 수신되는지 여부에 기초하여 결합 여부를 확인할 수 있다.
프로세서(715)는 제2 바디(720)의 결합을 기초로 제1 디스플레이(711)에 키보드 자판에 대응하는 키보드 인터페이스의 일 영역을 출력하고, 제2 디스플레이(721)에 키보드 인터페이스의 다른 일 영역을 출력할 수 있다. 여기서, 일 영역과 다른 일 영역은 미리 지정된 키보드 인터페이스의 적어도 일부일 수 있다. 예를 들어 키보드 인터페이스의 일 영역은 키보드 인터페이스의 우측에 위치하는 기지정된 텍스트에 대한 영역일 수 있고, 다른 일 영역은 키보드 인터페이스의 좌측에 위치하는 나머지 텍스트에 대한 영역일 수 있으나 이에 제한되는 것은 아니다.
실시예에서, 프로세서(715)는 제2 바디(720)의 결합이 확인되면, 제1 디스플레이(711)에 키보드 자판에 대응하는 키보드 인터페이스의 일 영역을 출력(또는 표시)하고, 제2 디스플레이(721)에 키보드 인터페이스의 다른 일 영역을 출력(또는 표시)할 수 있다.
실시예에서, 프로세서(715)는 제2 바디(720)의 결합이 확인되고 키보드 인터페이스의 분할 출력과 관련된 제1 입력이 수신되면, 제1 디스플레이(711)에 키보드 자판에 대응하는 키보드 인터페이스의 일 영역을 출력하고, 제2 디스플레이(721)에 키보드 인터페이스의 다른 일 영역을 출력할 수 있다.
키보드 인터페이스의 분할 출력과 관련된 제1 입력은 키보드 인터페이스가 제1 디스플레이(711) 및 제2 디스플레이(721)를 통해 표시되도록 요청하는 입력일 수 있다. 예를 들어 제1 입력은 제1 디스플레이(711)를 통해 키보드 인터페이스 전체가 표시되는 상태에서 인가되는 입력을 포함할 수 있다. 이와 관련된 보다 구체적인 예는 도 10을 참조할 수 있다.
실시예에서, 프로세서(715)는 제1 디스플레이(711)에 제1 종류의 키보드 인터페이스를 출력하고 제2 디스플레이에 제2 종류의 키보드 인터페이스를 출력할 수 있다. 예를 들어, 제1 종류는 한글 자판일 수 있고, 제2 종류는 영문 자판일 수 있다. 경우에 따라, 프로세서(715)는 특정 입력이 인가되는 경우에 대응하여 제1 디스플레이(711)에 제1 종류의 키보드 인터페이스를 출력하고 제2 디스플레이에 제2 종류의 키보드 인터페이스를 출력할 수도 있다.
서로 다른 종류의 키보드 인터페이스가 각각 제1 디스플레이(711)와 제2 디스플레이(721)에 출력되는 경우, 각각의 키보드 인터페이스는 한손 입력에 적합하도록 기설정된 형태의 키보드 인터페이스일 수 있다.
실시예에서, 프로세서(715)는 키보드 인터페이스를 통해 입력될 대상 어플리케이션을 선택하는 아이콘을 제1 디스플레이(711) 또는 제2 디스플레이(721) 중 적어도 하나에 표시할 수 있다. 프로세서(715)는 아이콘에 대한 입력이 수신되면 키보드 인터페이스를 기초로 생성되는 텍스트를 대상 어플리케이션에 제공할 수 있다. 이와 관련된 보다 구체적인 예는 도 9를 참조할 수 있다.
경우에 따라, 프로세서(715)는 아이콘에 대한 입력이 수신되면 대상 어플리케이션과 관련된 텍스트의 종류를 확인할 수 있다. 프로세서(715)는 확인된 종류와 관련된 키보드 인터페이스의 일 영역을 제1 디스플레이(711)에 출력하고, 키보드 인터페이스의 다른 일 영역을 제2 디스플레이(721)에 출력할 수 있다.
여기서, 텍스트의 종류는 제1 언어에 대한 텍스트, 제2 언어에 대한 텍스트, 특수 문자에 대한 텍스트 중 적어도 하나를 포함할 수 있다. 예를 들어, 텍스트의 종류는 영문 텍스트, 한글 텍스트 및 특수 문자 텍스트를 포함할 수 있다.
프로세서(715)는 키보드 인터페이스에 대한 입력 및 입력이 인가된 시간을 기초로 텍스트를 생성할 수 있다. 예를 들어, 프로세서(715)는 키보드 인터페이스 상 입력이 인가된 영역을 확인할 수 있다. 키보드 인터페이스는 영역 별로 대응하는 텍스트가 미리 지정될 수 있으며, 이를 기초로 프로세서(715)는 입력이 나타내는 텍스트(예: A, B, e, ㄱ, ㅏ)를 결정할 수 있다. 프로세서(715)는 입력이 인가된 시간을 더 확인할 수 있다. 이에 따라 프로세서(715)는 입력이 인가된 시간 순서로 입력이 나타내는 텍스트를 조합할 수 있다.
프로세서(715)는 키보드 인터페이스와 관련된 제2 입력의 수신 여부를 확인할 수 있다. 제2 입력은 제1 디스플레이(711)와 제2 디스플레이(721)에 나뉘어 출력되는 키보드 인터페이스를 하나의 디스플레이를 통해 출력하도록 요청하는 입력일 수 있다. 제2 입력은 예를 들면 제2 디스플레이(721) 상에서 왼쪽에서 오른쪽으로 이동하는 드래그 입력일 수 있으나, 이에 제한되는 것은 아니다.
프로세서(715)는 제2 입력이 수신되면 제1 디스플레이(711)와 제2 디스플레이(721) 중 하나에 키보드 인터페이스를 출력할 수 있다. 예를 들어, 프로세서(715)는 제2 입력의 수신을 기초로 제2 디스플레이(721)에 출력되는 키보드 인터페이스의 다른 일 영역의 적어도 일부를 제1 디스플레이에 출력할 수 있다. 이와 관련된 보다 구체적인 예는 도 11을 참조할 수 있다.
실시예에 따라 제1 디스플레이(711)에 키보드 인터페이스를 표시하는 어플리케이션(이하, 제1 키보드 어플리케이션)과 제2 디스플레이(721)에 키보드 인터페이스를 표시하는 어플리케이션(이하, 제2 키보드 앱)은 상이할 수 있다. 이러한 경우, 프로세서(715)는 제2 바디와의 결합 또는 제1 입력의 수신을 기초로 제2 디스플레이(721)에 키보드 인터페이스를 표시하는 어플리케이션을 실행시켜 키보드 인터페이스가 제1 디스플레이(711) 및 제2 디스플레이(721)에 표시되도록 할 수 있다.
예를 들어, 제1 키보드 어플리케이션이 실행 중인 상태에서 제2 바디와 결합하거나 제1 입력이 수신되면, 프로세서(715)는 제2 키보드 어플리케이션을 실행시킬 수 있다. 프로세서(715)는 제2 키보드 어플리케이션의 실행에 대응하여 제1 키보드 어플리케이션을 통해 출력되는 키보드 인터페이스의 형태를 지정된 형태로 변경할 수 있다. 이 때, 지정된 형태는 상술한 키보드 인터페이스의 일 영역에 대응하는 형태일 수 있다.
다른 예를 들면, 프로세서(715)는 제2 바디와 결합하거나 제1 입력이 수신되면 제1 키보드 어플리케이션과 제2 키보드 어플리케이션을 실행시킬 수 있다. 프로세서(715)는 제1 키보드 어플리케이션을 기초로 키보드 인터페이스의 일 영역을 제1 디스플레이(711)에 출력할 수 있다. 프로세서(715)는 제2 키보드 어플리케이션을 기초로 키보드 인터페이스의 일 영역을 제2 디스플레이(721)에 출력할 수 있다.
도시하지는 않았으나, 전자 장치(700)는 전자 장치(700)의 자세를 측정하는 센서를 포함할 수 있다. 자세를 측정하는 센서는, 예를 들면 자이로 센서(gyro sensor) 및 GPS(global positioning sensor) 중 적어도 하나를 포함할 수 있다. 전자 장치(700)는 상술한 센서를 통해 자세(예: 요(yaw), 롤(roll), 피치(pitch))를 나타내는 센서 값을 획득할 수 있다. 센서 값에 대해서는 통상의 기술자에게 용이한바 구체적인 설명은 생략하겠다.
이러한 경우, 전자 장치(700)는 전자 장치(700)의 자세가 기지정된 자세 범위에 포함되는지 여부를 확인할 수 있다. 전자 장치(700)는 획득된 센서 값이 기지정된 범위 내에 포함되는 것으로 확인되면, 제1 디스플레이(711)에 키보드 인터페이스를 출력하고, 제2 디스플레이(721)에 실행 중인 어플리케이션과 관련된 컨텐츠를 출력할 수 있다. 이와 관련된 보다 구체적인 예는 도 12를 참조할 수 있다.
도 8은 본 명세서의 일 실시예에 따른 전자 장치의 제어 방법의 각 단계의 흐름을 나타내는 흐름도이다. 도 8에 도시된 방법의 각 단계는 경우에 따라 도면에 도시된 바와 그 순서를 달리하여 수행될 수 있다. 또한, 이하 도 8에서는 이미 서술한 내용과 중복되는 내용은 생략될 수 있다.
도 8을 참조하면, 전자 장치의 프로세서(또는 전자 장치)는 제2 바디의 결합 여부를 확인할 수 있다(810). 여기서, 제2 바디는 제2 디스플레이를 구비하는 것으로, 전자 장치의 제1 디스플레이를 구비하는 제1 바디와 선택적으로 결합될 수 있다. 여기서, 선택적으로 결합된다는 의미는 탈착이 자유롭게 가능함을 의미하거나 특정 상황에서 결합됨을 의미할 수 있다.
프로세서는 제2 바디가 결합된 것으로 확인되면, 제2 바디 또는 제2 디스플레이와 연동할 수 있다. 즉, 프로세서는 제2 바디와의 결합에 기초하여 제1 디스플레이뿐 아니라 제2 디스플레이도 제어할 수 있다.
프로세서는 제1 디스플레이에 키보드 인터페이스의 일 영역을 출력할 수 있다(820). 구체적으로, 프로세서는 제1 디스플레이에 키보드 인터페이스의 지정된 일 영역을 출력할 수 있다. 예를 들어, 일 영역은 키보드 자판에서 사용자의 오른손을 이용하여 입력되도록 지정되는 문자(또는 텍스트)가 위치되는 영역일 수 있다.
프로세서(715)는 제2 디스플레이에 키보드 인터페이스의 다른 일 영역을 출력할 수 있다(830). 구체적으로, 프로세서는 제2 디스플레이에 키보드 인터페이스의 지정된 다른 일 영역을 출력할 수 있다. 예를 들어, 다른 일 영역은 키보드 자판에서 사용자의 오른손을 이용하여 입력되도록 지정되는 문자(또는 텍스트)가 위치되는 영역일 수 있다.
실시예에 따라, 단계 820과 단계 830은 순서에 무관하게 수행될 수 있다.
실시예에서, 프로세서는 제1 디스플레이와 제2 디스플레이를 이용한 키보드 인터페이스의 출력과 관련하여 기지정된 입력(예: 제1 입력)을 수신할 수 있다. 프로세서는 기지정된 입력을 수신하면, 제1 디스플레이에 키보드 인터페이스의 일 영역을 출력하고 제2 디스플레이에 키보드 인터페이스의 다른 일 영역을 출력할 수 있다.
실시예에서, 제1 디스플레이와 제2 디스플레이를 이용하여 키보드 인터페이스가 출력되는 상태에서, 프로세서는 하나의 디스플레이를 이용하여 키보드 인터페이스를 출력하고자 하는 기지정된 입력(예: 제2 입력)을 수신할 수 있다. 이러한 경우, 프로세서는 제1 디스플레이 및 제2 디스플레이 중 하나에 키보드 인터페이스 전체를 출력할 수 있다.
도 9는 본 명세서의 일 실시예에 따른 전자 장치가 키보드 인터페이스 및 어플리케이션 아이콘을 출력하는 경우의 예를 나타내는 도면이다.
도 9를 참조하면, 전자 장치는 제1 디스플레이(910)를 포함할 수 있고, 제2 디스플레이(920)와 결합될 수 있다. 실시예에서, 제2 디스플레이(920)는 도시된 바와 같이 제1 디스플레이(910)의 좌측에 결합될 수 있다. 전자 장치는 결합에 기초하여 제2 디스플레이(920)와 연동될 수 있다.
제1 디스플레이(910)와 제2 디스플레이(920)에는 키보드 인터페이스가 표시될 수 있다. 구체적으로, 제1 디스플레이(910)에는 키보드 인터페이스의 일 영역(930)이 표시되고, 제2 디스플레이(920)에는 키보드 인터페이스의 다른 일 영역(940)이 표시될 수 있다.
일 영역(930)은 키보드 인터페이스의 왼쪽 부분의 기지정된 영역일 수 있고, 다른 일 영역(940)은 키보드 인터페이스의 오른쪽 부분의 기지정된 영역일 수 있으나, 이에 제한되는 것은 아니며, 설정에 따라 다르게 결정될 수도 있다.
실시예에서, 제1 디스플레이(910)와 제2 디스플레이(920) 각각에는 텍스트 입력이 요구되는 서로 다른 어플리케이션에 대한 컨텐츠가 표시될 수 있다. 예를 들어 제1 디스플레이(910)에는 메시지 어플리케이션과 관련된 컨텐츠가 표시되고, 제2 디스플레이(920)에는 메모 어플리케이션과 관련된 컨텐츠가 표시될 수 있다.
제1 디스플레이(910) 및 제2 디스플레이(920) 중 적어도 하나에서 실행되는 어플리케이션에 대한 아이콘은 제1 디스플레이(910) 및 제2 디스플레이(920) 중 적어도 하나에 표시될 수 있다.
예를 들어, 도시된 바와 같이 제2 디스플레이(920)에 메시지 어플리케이션과 관련된 제1 아이콘(970)과 메모 어플리케이션과 관련된 제2 아이콘(980)이 표시될 수 있다. 다만, 이에 제한되는 것은 아니고, 예를 들어 제1 아이콘(970)은 제1 디스플레이(910)에 표시되고 제2 아이콘(980)은 제2 디스플레이(920)에 표시될 수 있다.
어플리케이션에 대한 텍스트 입력은 키보드 인터페이스를 이용하여 이루어질 수 있는데, 사용자는 텍스트 입력 전 또는 후에 어플리케이션과 관련된 아이콘을 선택함으로써 어플리케이션에 텍스트가 입력되도록 할 수 있다.
예를 들어, 제1 아이콘(970)에 대한 입력이 인가되면 텍스트 입력을 위한 커서가 메시지 어플리케이션의 텍스트 입력창(950)에 놓여질 수 있다. 그 후 키보드 인터페이스를 통한 입력에 기초하여 커서를 기준으로 입력창(950)에 텍스트가 생성될 수 있다. 만약, 제2 아이콘(980)에 대한 입력이 인가되면 텍스트 입력을 위한 커서가 메모 어플리케이션의 텍스트 입력창(960)에 놓여지고 이를 기준으로 입력창(960)에 텍스트가 생성될 수 있다.
다른 예를 들면, 키보드 인터페이스를 통한 입력에 기초하여 텍스트가 생성된 후 어플리케이션과 관련된 아이콘이 선택될 수 있다. 이러한 경우, 생성된 텍스트는 선택된 아이콘에 대응하는 어플리케이션에 제공될 수 있다. 즉, 제1 아이콘(970)이 선택되면 메시지 어플리케이션에 생성된 텍스트가 제공되고, 제2 아이콘(970)이 선택되면 메모 어플리케이션에 생성된 텍스트가 제공될 수 있다.
실시예에 따라, 전자 장치는 제1 아이콘(970) 및 제2 아이콘(980) 중 선택된 아이콘과 관련된 어플리케이션과 관련된 컨텐츠(또는 화면)이 제1 디스플레이(910)와 제2 디스플레이(920)를 통해 표시되도록 할 수도 있다. 이를 기초로 선택된 아이콘에 대응하는 어플리케이션인 대상 어플리케이션에 키보드 인터페이스가 적용되어 텍스트 입력이 이루어질 수 있다.
한편, 도 9에서는 키보드 인터페이스와 관련하여 한글 자판을 제공하는 경우를 도시하고 있으나, 이에 제한되지 않고 다른 언어 또는 특수 문자에 대한 자판도 제공될 수 있음은 물론이다.
실시예에서, 프로세서(715)는 제1 디스플레이(711)에 제1 종류의 키보드 인터페이스를 출력하고 제2 디스플레이에 제2 종류의 키보드 인터페이스를 출력할 수 있다. 예를 들어, 제1 종류는 한글 자판일 수 있고, 제2 종류는 영문 자판일 수 있다. 경우에 따라, 프로세서(715)는 특정 입력이 인가되는 경우에 대응하여 제1 디스플레이(711)에 제1 종류의 키보드 인터페이스를 출력하고 제2 디스플레이에 제2 종류의 키보드 인터페이스를 출력할 수도 있다.
서로 다른 종류의 키보드 인터페이스가 각각 제1 디스플레이(711)와 제2 디스플레이(721)에 출력되는 경우, 각각의 키보드 인터페이스는 한손 입력에 적합하도록 기설정된 형태의 키보드 인터페이스일 수 있다.
도 10은 본 명세서의 일 실시예에 따른 전자 장치에서 키보드 인터페이스와 관련된 입력의 예를 나타내는 도면이다. 구체적으로, 도 10은 키보드 인터페이스를 복수의 디스플레이에 나누어 표시하도록 하는 입력이 인가되는 경우를 개념적으로 나타낸다.
도 10a을 참조하면, 제1 디스플레이(1010)에는 키보드 인터페이스가 출력(또는 표시)되고 제2 디스플레이(1020)에는 키보드 인터페이스가 출력되지 않을 수 있다. 제1 디스플레이(1010)에 출력되는 키보드 인터페이스는 키보드 자판 전체에 대응할 수 있다. 이러한 경우 사용자는 제1 디스플레이(1010)에 출력되는 키보드 인터페이스에 입력을 가하여 텍스트를 입력할 수 있다.
이러한 경우, 키보드 인터페이스와 관련된 제1 입력(1030)이 인가될 수 있다. 제1 입력(1030)은 키보드 인터페이스가 제1 디스플레이(1010) 및 제2 디스플레이(1020)를 통하여 출력하도록 요청하는 입력일 수 있다. 제1 입력(1030)은 예를 들면, 제1 위치(1001)에서 제2 위치(1002)로 드래그하는 드래그 입력일 수 있다.
제1 입력(1030)이 인가되면, 도 10b에 도시된 바와 같이 키보드 인터페이스의 일 영역은 제1 디스플레이(1010)에 출력되고 다른 일 영역은 제2 디스플레이(1020)에 출력될 수 있다. 예를 들어 일 영역은 키보드 인터페이스 중 왼손으로 입력이 용이하도록 기설정된 영역이고, 다른 일 영역은 키보드 인터페이스 중 오른손으로 입력이 용이하도록 기설정된 영역일 수 있다.
다만 이에 제한되는 것은 아니고 일 영역과 다른 일 영역은 사용자의 설정에 의해 키보드 인터페이스의 특정 영역으로 지정될 수도 있음은 물론이다.
한편, 제1 입력(1030)은 상술된 예에 제한되지 않으며 예를 들어 노크온 또는 롱터치와 같은 다양한 형태로 구현될 수 있다. 또한, 경우에 따라 제1 입력(1030)의 형태는 사용자의 설정에 의해 변경될 수도 있다.
도 11은 본 명세서의 일 실시예에 따른 전자 장치에서 키보드 인터페이스와 관련된 입력의 다른 예를 나타내는 도면이다. 구체적으로, 도 11은 키보드 인터페이스를 하나의 디스플레이에 나누어 표시하도록 하는 입력이 인가되는 경우를 개념적으로 나타낸다.
도 11a를 참조하면, 제1 디스플레이(1110)에 키보드 인터페이스의 일 영역이 출력(또는 표시)되고, 제2 디스플레이(1120)에 키보드 인터페이스의 다른 일 영역이 출력(또는 표시)될 수 있다.
이 때, 키보드 인터페이스와 관련된 제2 입력(1121)이 인가될 수 있다. 제2 입력(1121)은 키보드 인터페이스를 하나의 디스플레이에 출력하도록 요청하는 입력이 인가될 수 있다. 제2 입력(1121)은 예를 들면 제1 위치(1101)에서 제2 위치(1102)로 드래그하는 드래그 입력일 수 있다.
제2 입력(1121)이 인가되면, 도 11b에 도시된 바와 같이 키보드 인터페이스는 제1 디스플레이(1110)에 출력될 수 있다.
실시예에서, 드래그의 방향에 따라 키보드 인터페이스를 출력하는 디스플레이가 지정될 수 있다. 예를 들어, 드래그의 방향이 제1 위치(1101)에서 제2 위치(1102)를 향하는 방향인 경우 키보드 인터페이스를 출력하는 디스플레이는 제1 디스플레이(1110)로 지정될 수 있다. 다른 예를 들면, 드래그의 방향이 제2 위치(1102)에서 제1 위치(1101)를 향하는 방향인 경우 키보드 인터페이스를 출력하는 디스플레이는 제2 디스플레이(1120)로 지정될 수 있다.
도 11에서는 제2 입력(1121)을 기초로 키보드 인터페이스 전체가 제1 디스플레이(1110)에 출력되는 경우를 나타내었으나, 이에 제한되는 것은 아니다. 예를 들어, 키보드 인터페이스의 일부는 제2 디스플레이(1120)에 출력될 수도 있다. 예를 들어 키보드 인터페이스의 한글 자판은 제1 디스플레이(1110)에 출력되고 숫자 자판은 제2 디스플레이(1120)에 출력될 수도 있다.
도 12는 본 명세서의 일 실시예에 따른 전자 장치의 자세를 기초로 키보드 인터페이스를 출력하는 예를 나타내는 도면이다.
도 12를 참조하면, 제1 디스플레이(1210)와 제2 디스플레이(1220)는 상하로 배열될 수 있다. 상하로 배열되는 경우는, 예를 들면 제1 디스플레이(1210)와 제2 디스플레이(1220)가 도 9와 같이 결합된 상태에서 전자 장치의 자세가 변경됨에 기초하여 이루어지는 것일 수 있다. 다른 예를 들면, 상하로 배열되는 경우는, 제1 디스플레이(1210)가 도시된 바와 같이 가로 모드로 위치하는 상태에서 제1 디스플레이(1210)의 상단에 제2 디스플레이가 결합됨에 기초하여 이루어지는 것일 수 있다.
구체적으로 나타내지는 않았으나, 전자 장치는 자세(예: 요, 롤, 피치)를 측정하는 센서(예: 자이로 센서)를 포함할 수 있으며, 이를 기초로 전자 장치(또는 제1 디스플레이(1210) 또는 제2 디스플레이(1220))의 자세가 측정될 수 있다. 자세 측정과 관련하여서는 통상의 기술자에게 용이한바 구체적인 설명은 생략하겠다.
센서의 자세 측정을 기초로 전자 장치는 자세에 대한 센서 값을 획득할 수 있다. 전자 장치는 획득된 센서 값이 기지정된 범위에 속하는지 여부를 확인할 수 있다. 만약 센서 값이 제1 범위에 포함되는 경우 전자 장치는 제1 디스플레이(1210)의 지정된 영역에 키보드 인터페이스를 출력할 수 있다. 이러한 경우, 실행 중인 어플리케이션과 관련된 컨텐츠(또는 정보)는 제2 디스플레이(1220)에 출력될 수 있다.
도 13은 본 명세서의 일 실시예에 따른 전자 장치의 키보드 인터페이스의 텍스트 종류의 예를 나타내는 도면이다.
도 13a는 영문 자판을 제공하는 키보드 인터페이스의 예를 나타내고, 도 13b는 특수 문자 자판을 제공하는 키보드 인터페이스의 예를 나타낸다.
전자 장치는 영문 자판 또는 특수 문자 자판도 제2 바디(또는 제2 디스플레이)의 연결에 기초하여 일 영역은 제1 디스플레이에 출력하고, 다른 일 영역은 제2 디스플레이에 출력되도록 할 수 있다.
다만, 키보드 인터페이스에 의해 제공되는 언어의 범위는 상술한 예에 제한되지 않고 중문 및 일문과 같은 다양한 언어가 제공될 수도 있음은 물론이다.
본 명세서의 실시예에 따른 전자 장치 및 그 제어 방법은, 제2 바디와의 결합에 기초하여 키보드 인터페이스가 제1 디스플레이 및 제2 디스플레이에 나뉘어 표시되도록 함으로써 사용자가 제1 디스플레이와 제2 디스플레이를 함께 잡아 보다 용이하게 자판 입력이 가능하도록 할 수 있다.
본 명세서에 첨부된 블록도의 각 블록과 흐름도의 각 단계의 조합들은 컴퓨터 프로그램 인스트럭션들에 의해 수행될 수도 있다. 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 블록도의 각 블록 또는 흐름도의 각 단계에서 설명된 기능들을 수행하는 수단을 생성하게 된다. 이들 컴퓨터 프로그램 인스트럭션들은 특정 방식으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용 가능 또는 컴퓨터 판독 가능 메모리에 저장되는 것도 가능하므로, 그 컴퓨터 이용가능 또는 컴퓨터 판독 가능 메모리에 저장된 인스트럭션들은 블록도의 각 블록 또는 흐름도 각 단계에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다. 컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑재되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 블록도의 각 블록 및 흐름도의 각 단계에서 설명된 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다.
또한, 각 블록 또는 각 단계는 특정된 논리적 기능(들)을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. 또, 몇 가지 대체 실시예들에서는 블록들 또는 단계들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 블록들 또는 단계들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 블록들 또는 단계들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다.
이상의 설명은 본 명세서의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 명세서가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 명세서의 본질적인 품질에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 명세서에 개시된 실시예들은 본 명세서의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 명세서의 기술 사상의 범위가 한정되는 것은 아니다. 본 명세서의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 균등한 범위 내에 있는 모든 기술사상은 본 명세서의 권리범위에 포함되는 것으로 해석되어야 할 것이다.

Claims (19)

  1. 제1 디스플레이를 구비하는 제1 바디와 제2 디스플레이를 구비하는 제2 바디가 선택적으로 결합하여 연동하는 전자 장치에 있어서,
    상기 제1 바디에 구비되어 상기 제1 디스플레이를 제어하며, 상기 제2 바디와의 결합을 기초로 상기 제1 디스플레이 및 제2 디스플레이를 제어하는 적어도 하나의 프로세서를 포함하고,
    상기 적어도 하나의 프로세서는,
    상기 제2 바디의 결합 여부를 확인하고,
    상기 제2 바디의 결합을 기초로, 상기 제1 디스플레이에 키보드 자판에 대응하는 키보드 인터페이스의 일 영역을 출력하고, 상기 제2 디스플레이에 상기 키보드 인터페이스의 다른 일 영역을 출력하는
    전자 장치.
  2. 제1항에 있어서,
    상기 적어도 하나의 프로세서는,
    상기 키보드 인터페이스를 통해 입력될 대상 어플리케이션을 선택하는 아이콘을 상기 제1 디스플레이 또는 상기 제2 디스플레이 중 적어도 하나에 표시하고,
    상기 아이콘에 대한 입력이 수신되면 상기 키보드 인터페이스를 기초로 생성되는 텍스트를 상기 대상 어플리케이션에 제공하는
    전자 장치.
  3. 제1항에 있어서,
    상기 적어도 하나의 프로세서는,
    상기 키보드 인터페이스를 통해 입력될 대상 어플리케이션을 선택하는 아이콘을 상기 제1 디스플레이 또는 상기 제2 디스플레이 중 적어도 하나에 표시하고,
    상기 아이콘에 대한 입력이 수신되면 상기 대상 어플리케이션과 관련된 텍스트의 종류를 확인하고,
    상기 확인된 종류와 관련된 키보드 인터페이스의 일 영역을 상기 제1 디스플레이에 출력하고, 상기 키보드 인터페이스의 다른 일 영역을 상기 제2 디스플레이에 출력하는
    전자 장치.
  4. 제3항에 있어서,
    상기 텍스트의 종류는,
    제1 언어에 대한 텍스트, 제2 언어에 대한 텍스트, 특수 문자에 대한 텍스트 중 적어도 하나를 포함하는
    전자 장치.
  5. 제1항에 있어서,
    상기 적어도 하나의 프로세서는,
    상기 키보드 인터페이스에 대한 입력 및 상기 입력이 인가된 시간을 기초로 텍스트를 생성하는
    전자 장치.
  6. 제1항에 있어서,
    상기 적어도 하나의 프로세서는,
    상기 키보드 인터페이스와 관련된 제1 입력의 수신 여부를 확인하고,
    상기 제1 입력이 수신 및 상기 제2 바디의 결합을 기초로, 상기 제1 디스플레이에 상기 키보드 인터페이스의 일 영역을 출력하고, 상기 제2 디스플레이에 상기 키보드 인터페이스의 다른 일 영역을 출력하는
    전자 장치.
  7. 제6항에 있어서,
    상기 제1 입력은, 상기 제1 디스플레이를 통해 상기 키보드 인터페이스의 전체가 표시되는 상태에서 인가되는 입력을 포함하는
    전자 장치.
  8. 제1항에 있어서,
    상기 적어도 하나의 프로세서는,
    상기 키보드 인터페이스와 관련된 제2 입력의 수신 여부를 확인하고,
    상기 제2 입력의 수신을 기초로 상기 제2 디스플레이에 출력되는 상기 키보드 인터페이스의 다른 일 영역의 적어도 일부를 상기 제1 디스플레이에 출력하는
    전자 장치.
  9. 제1항에 있어서,
    상기 전자 장치는 상기 전자 장치의 자세를 측정하는 센서를 더 포함하고,
    상기 적어도 하나의 프로세서는,
    상기 센서를 통해 상기 전자 장치의 자세에 대한 센서 값을 획득하고,
    상기 획득된 센서 값이 기지정된 범위 내에 포함되는지 여부를 확인하고,
    상기 획득된 센서 값이 기지정된 범위 내에 포함되는 것으로 확인되면, 상기 제1 디스플레이에 상기 키보드 인터페이스를 출력하고, 상기 제2 디스플레이에 실행 중인 어플리케이션과 관련된 컨텐츠를 출력하는
    전자 장치.
  10. 제1 디스플레이를 구비하는 제1 바디와 제2 디스플레이를 구비하는 제2 바디가 선택적으로 결합하여 연동하는 전자 장치의 제어 방법에 있어서,
    상기 제2 바디의 결합 여부를 확인하는 단계와,
    상기 제2 바디의 결합을 기초로, 상기 제1 디스플레이에 키보드 자판에 대응하는 키보드 인터페이스의 일 영역을 출력하고, 상기 제2 디스플레이에 상기 키보드 인터페이스의 다른 일 영역을 출력하는 단계를 포함하는
    전자 장치의 제어 방법.
  11. 제10항에 있어서,
    상기 키보드 인터페이스를 통해 입력될 대상 어플리케이션을 선택하는 아이콘을 상기 제1 디스플레이 또는 상기 제2 디스플레이 중 적어도 하나에 표시하는 단계와,
    상기 아이콘에 대한 입력이 수신되면 상기 키보드 인터페이스를 기초로 생성되는 텍스트를 상기 대상 어플리케이션에 제공하는 단계를 더 포함하는
    전자 장치의 제어 방법.
  12. 제11항에 있어서,
    상기 키보드 인터페이스를 통해 입력될 대상 어플리케이션을 선택하는 아이콘을 상기 제1 디스플레이 또는 상기 제2 디스플레이 중 적어도 하나에 표시하는 단계와,
    상기 아이콘에 대한 입력이 수신되면 상기 대상 어플리케이션과 관련된 텍스트의 종류를 확인하는 단계를 더 포함하고,
    상기 출력하는 단계는,
    상기 확인된 종류와 관련된 키보드 인터페이스의 일 영역을 상기 제1 디스플레이에 출력하고, 상기 키보드 인터페이스의 다른 일 영역을 상기 제2 디스플레이에 출력하는 단계를 포함하는
    전자 장치의 제어 방법.
  13. 제12항에 있어서,
    상기 텍스트의 종류는,
    제1 언어에 대한 텍스트, 제2 언어에 대한 텍스트, 특수 문자에 대한 텍스트 중 적어도 하나를 포함하는
    전자 장치의 제어 방법.
  14. 제10항에 있어서,
    상기 키보드 인터페이스에 대한 입력 및 상기 입력이 인가된 시간을 기초로 텍스트를 생성하는 단계를 더 포함하는
    전자 장치의 제어 방법.
  15. 제10항에 있어서,
    상기 키보드 인터페이스와 관련된 제1 입력의 수신 여부를 확인하는 단계를 더 포함하고,
    상기 출력하는 단계는,
    상기 제1 입력이 수신 및 상기 제2 바디의 결합을 기초로, 상기 제1 디스플레이에 상기 키보드 인터페이스의 일 영역을 출력하고, 상기 제2 디스플레이에 상기 키보드 인터페이스의 다른 일 영역을 출력하는 단계를 포함하는
    전자 장치의 제어 방법.
  16. 제15항에 있어서,
    상기 제1 입력은, 상기 제1 디스플레이를 통해 상기 키보드 인터페이스의 전체가 표시되는 상태에서 인가되는 입력을 포함하는
    전자 장치의 제어 방법.
  17. 제10항에 있어서,
    상기 키보드 인터페이스와 관련된 제2 입력의 수신 여부를 확인하는 단계를 더 포함하고,
    상기 출력하는 단계는,
    상기 제2 입력의 수신을 기초로 상기 제2 디스플레이에 출력되는 상기 키보드 인터페이스의 다른 일 영역의 적어도 일부를 상기 제1 디스플레이에 출력하는 단계를 포함하는
    전자 장치의 제어 방법.
  18. 제1항에 있어서,
    자세를 측정하는 센서를 통해 상기 전자 장치의 자세에 대한 센서 값을 획득하는 단계와,
    상기 획득된 센서 값이 기지정된 범위 내에 포함되는지 여부를 확인하는 단계를 포함하고,
    상기 출력하는 단계는,
    상기 획득된 센서 값이 기지정된 범위 내에 포함되는 것으로 확인되면, 상기 제1 디스플레이에 상기 키보드 인터페이스를 출력하고, 상기 제2 디스플레이에 실행 중인 어플리케이션과 관련된 컨텐츠를 출력하는 단계를 포함하는
    전자 장치의 제어 방법.
  19. 제1 디스플레이를 구비하는 제1 바디와 제2 디스플레이를 구비하는 제2 바디가 선택적으로 결합하여 연동하는 전자 장치에 대한 상기 제2 바디의 결합 여부를 확인하는 단계와,
    상기 제2 바디의 결합을 기초로, 상기 제1 디스플레이에 키보드 입력 자판에 대응하는 키보드 인터페이스의 일 영역을 출력하고, 상기 제2 디스플레이에 상기 키보드 인터페이스의 다른 일 영역을 출력하는 단계를 실행하기 위한 명령어(instruction)를 저장하는
    컴퓨터 판독가능 기록 매체.
PCT/KR2019/014982 2019-11-06 2019-11-06 키보드 인터페이스를 출력하는 전자 장치 및 그 제어 방법 WO2021090978A1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/KR2019/014982 WO2021090978A1 (ko) 2019-11-06 2019-11-06 키보드 인터페이스를 출력하는 전자 장치 및 그 제어 방법
US17/755,599 US20220374145A1 (en) 2019-11-06 2019-11-06 Electronic device for outputting keyboard interface and control method therefor
KR1020227018353A KR20220091570A (ko) 2019-11-06 2019-11-06 키보드 인터페이스를 출력하는 전자 장치 및 그 제어 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2019/014982 WO2021090978A1 (ko) 2019-11-06 2019-11-06 키보드 인터페이스를 출력하는 전자 장치 및 그 제어 방법

Publications (1)

Publication Number Publication Date
WO2021090978A1 true WO2021090978A1 (ko) 2021-05-14

Family

ID=75848089

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2019/014982 WO2021090978A1 (ko) 2019-11-06 2019-11-06 키보드 인터페이스를 출력하는 전자 장치 및 그 제어 방법

Country Status (3)

Country Link
US (1) US20220374145A1 (ko)
KR (1) KR20220091570A (ko)
WO (1) WO2021090978A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100132293A (ko) * 2009-06-09 2010-12-17 삼성전자주식회사 Ui 제공방법 및 이를 적용한 디스플레이 장치
KR20110050965A (ko) * 2009-11-09 2011-05-17 엘지전자 주식회사 이동 단말기 및 그 표시방법
WO2012044781A1 (en) * 2010-10-01 2012-04-05 Imerj LLC Keyboard spanning multiple screens
KR20150128303A (ko) * 2014-05-09 2015-11-18 삼성전자주식회사 복수의 디스플레이들을 제어하는 방법 및 장치
KR20170030349A (ko) * 2015-09-09 2017-03-17 삼성전자주식회사 입력의 압력을 감지하는 전자 장치 및 그 동작 방법

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100474724B1 (ko) * 2001-08-04 2005-03-08 삼성전자주식회사 터치스크린을 가지는 장치 및 그 장치에 외부디스플레이기기를 연결하여 사용하는 방법
US20120176320A1 (en) * 2005-03-18 2012-07-12 Burrell Iv James W Touchscreen keyboard displays, alphanumeric input keyboards and control means
JP2011248411A (ja) * 2010-05-21 2011-12-08 Toshiba Corp 情報処理装置および仮想キーボードの表示方法
CN105843574B (zh) * 2011-02-10 2020-08-21 三星电子株式会社 包含触摸屏显示器的便携式设备以及控制它的方法
US9495012B2 (en) * 2011-09-27 2016-11-15 Z124 Secondary single screen mode activation through user interface activation
JP5860078B2 (ja) * 2014-02-20 2016-02-16 ファナック株式会社 着脱可能な表示器付機械操作盤
KR102587138B1 (ko) * 2016-10-17 2023-10-11 삼성전자주식회사 전자 장치 및 전자 장치에서의 디스플레이 제어 방법
CN112333333A (zh) * 2019-07-17 2021-02-05 华为技术有限公司 一种基于折叠屏的交互方法及设备

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100132293A (ko) * 2009-06-09 2010-12-17 삼성전자주식회사 Ui 제공방법 및 이를 적용한 디스플레이 장치
KR20110050965A (ko) * 2009-11-09 2011-05-17 엘지전자 주식회사 이동 단말기 및 그 표시방법
WO2012044781A1 (en) * 2010-10-01 2012-04-05 Imerj LLC Keyboard spanning multiple screens
KR20150128303A (ko) * 2014-05-09 2015-11-18 삼성전자주식회사 복수의 디스플레이들을 제어하는 방법 및 장치
KR20170030349A (ko) * 2015-09-09 2017-03-17 삼성전자주식회사 입력의 압력을 감지하는 전자 장치 및 그 동작 방법

Also Published As

Publication number Publication date
KR20220091570A (ko) 2022-06-30
US20220374145A1 (en) 2022-11-24

Similar Documents

Publication Publication Date Title
WO2020054883A1 (ko) 이동 단말기
WO2016010221A1 (ko) 이동 단말기 및 그 제어 방법
WO2016195191A1 (en) Mobile terminal
WO2017094926A1 (ko) 단말 장치 및 제어 방법
WO2016167437A1 (ko) 이동 단말기
WO2016167483A1 (ko) 컬러센서 모듈 및 이동 단말기
WO2016153101A1 (ko) 이동 단말기
WO2021070982A1 (ko) 컨텐츠를 공유하는 전자 장치 및 그 제어 방법
WO2015190668A1 (ko) 이동 단말기
WO2018038288A1 (ko) 이동 단말기
WO2015108287A1 (ko) 이동 단말기
WO2018135675A1 (ko) 전자장치
WO2016195197A1 (en) Pen terminal and method for controlling the same
WO2021049685A1 (ko) 홈스크린을 설정하는 이동 단말기 및 그 제어 방법
WO2021107200A1 (ko) 이동 단말기 및 이동 단말기 제어 방법
WO2018131747A1 (ko) 이동 단말기 및 그 제어 방법
WO2015122551A1 (ko) 이동단말기 및 그 제어방법
WO2017039064A1 (ko) 이동 단말기
WO2016182134A1 (ko) 이동단말기 및 그 제어방법
WO2021090978A1 (ko) 키보드 인터페이스를 출력하는 전자 장치 및 그 제어 방법
WO2018084338A1 (ko) 이동 단말기
WO2020209444A1 (ko) 이동 단말기 및 이에 결합하는 보조 장치
WO2021080040A1 (ko) 다른 전자 장치의 입력을 제어하는 전자 장치 및 그 방법
WO2020166736A1 (ko) 모바일 디바이스 및 그 제어 방법
WO2019240332A1 (ko) 이동 단말기

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19951881

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 20227018353

Country of ref document: KR

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19951881

Country of ref document: EP

Kind code of ref document: A1