WO2021045420A1 - 폴더블 전자 장치 및 그 제어 방법 - Google Patents

폴더블 전자 장치 및 그 제어 방법 Download PDF

Info

Publication number
WO2021045420A1
WO2021045420A1 PCT/KR2020/011226 KR2020011226W WO2021045420A1 WO 2021045420 A1 WO2021045420 A1 WO 2021045420A1 KR 2020011226 W KR2020011226 W KR 2020011226W WO 2021045420 A1 WO2021045420 A1 WO 2021045420A1
Authority
WO
WIPO (PCT)
Prior art keywords
electronic device
touch sensing
housing structure
input unit
user
Prior art date
Application number
PCT/KR2020/011226
Other languages
English (en)
French (fr)
Inventor
김난희
김래태
김차겸
박정민
서혜원
이승은
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Publication of WO2021045420A1 publication Critical patent/WO2021045420A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1643Details related to the display arrangement, including those related to the mounting of the display in the housing the display being associated to a digitizer, e.g. laptops that can be used as penpads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1652Details related to the display arrangement, including those related to the mounting of the display in the housing the display being flexible, e.g. mimicking a sheet of paper, or rollable
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1675Miscellaneous details related to the relative movement between the different enclosures or enclosure parts
    • G06F1/1677Miscellaneous details related to the relative movement between the different enclosures or enclosure parts for detecting open or closed state or particular intermediate positions assumed by movable parts of the enclosure, e.g. detection of display lid position with respect to main body in a laptop, detection of opening of the cover of battery compartment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675

Definitions

  • Various embodiments of the present disclosure relate to a foldable electronic device and a control method thereof.
  • Electronic devices are being provided in various forms such as a smart phone, a tablet personal computer (PC), or a personal digital assistant (PDA).
  • Electronic devices are being developed in a portable or wearable form to improve portability and user accessibility.
  • a foldable type electronic device with a flexible display provides a relatively larger screen than a general bar type electronic device. Since it becomes convenient to do so, it is in the spotlight as an electronic device to satisfy consumers' preferences.
  • the thickness of the foldable electronic device has gradually become thinner in order to secure the user's convenience in order to secure the portability.
  • a key area that is formed on one side of the foldable electronic device and receives a user's manipulation input also decreases.
  • the present disclosure provides an electronic device capable of expanding a key area in response to a folded or unfolded state of a foldable electronic device, thereby overcoming the limitation that occurs as the thickness of the foldable electronic device decreases. I want to.
  • An electronic device includes a first housing structure, a second housing structure, and a hinge structure connecting the first and second housing structures, and the electronic device is unfolded.
  • a foldable housing forming a rear surface and a side surface of the electronic device in a) state, a flexible display disposed in a space formed by the foldable housing, and forming a front surface of the electronic device in an unfolded state of the electronic device, the first At least one input unit located on one side of the housing structure to receive a user's manipulation, and at least one input unit formed on one side of the second housing structure corresponding to the input unit when the electronic device is folded
  • a touch sensing area and a processor electrically connected to the at least one input unit or the at least one touch area, wherein the processor identifies whether the electronic device is in the folded state or the unfolded state, and the identification result Based on, the touch sensing region may be activated, and the electronic device may be driven in response to the user's input to the activated touch sensing region or the
  • a method includes, in a method of controlling an electronic device, whether an electronic device including a first housing structure and a second housing structure rotatable by a hinge structure is in a folded state or an unfolded state.
  • An operation of identifying through a sensor unit, based on the identification result, corresponding to at least one input unit formed on one side of the first housing structure, in the folded state of the electronic device, and one side of the second housing structure An operation of activating at least one touch sensing region formed in and driving the electronic device in response to a user's manipulation of the input unit or a user's input to the activated touch sensing region.
  • the electronic device may prevent a user from inputting an unintended manipulation by expanding a region in which a user's manipulation can be input based on whether the electronic device is in a folded state or an unfolded state. .
  • an electronic device is to improve user convenience by changing a key mapping based on whether the electronic device is in a folded state or an unfolded state.
  • FIG. 1 is a block diagram of an electronic device in a network environment according to various embodiments.
  • FIG. 2A is a perspective view illustrating an unfolded state of an electronic device according to an exemplary embodiment.
  • 2B is a perspective view illustrating a folded state of an electronic device according to an exemplary embodiment.
  • 2C is a perspective view illustrating a folded state of an electronic device according to another exemplary embodiment.
  • FIG 3 is an exploded perspective view of an electronic device according to an exemplary embodiment.
  • FIG. 4A is a side view illustrating an unfolded state of an electronic device according to an exemplary embodiment.
  • FIG. 4B is a side view illustrating a folded state of the electronic device of FIG. 4A.
  • FIG. 5 is a diagram illustrating an electrical connection relationship between a processor, an input unit, and a touch sensing area of an electronic device according to an exemplary embodiment.
  • FIG. 6 is a flowchart illustrating an operation of controlling the electronic device in response to a folded or unfolded state of the electronic device.
  • FIG. 7A is a diagram illustrating a state in which a user's input is input only to a touch sensing area when the electronic device is folded.
  • 7B is a diagram illustrating a state in which a user's input is simultaneously input to an input unit and a touch sensing area when the electronic device is folded.
  • 7C is a diagram illustrating a state in which a user grips the electronic device while the electronic device is in an open state.
  • FIG. 8 is a flowchart illustrating an operation of controlling an electronic device in response to a folding angle.
  • FIG. 9 is a diagram illustrating a state in which an electronic device is used in a table mode according to an exemplary embodiment.
  • FIG. 10 is a flowchart illustrating an operation of controlling an electronic device based on a folded state of the electronic device.
  • 11A is a perspective view illustrating an electronic device according to an exemplary embodiment.
  • 11B is a perspective view illustrating a folded state of the electronic device of FIG. 11A.
  • FIG. 12 is a flowchart illustrating an operation of switching an input unit function in response to a folded or unfolded state of the electronic device.
  • FIG. 13A is a front view illustrating an unfolded state of an electronic device according to an exemplary embodiment.
  • FIG. 13B is a front view showing a folded state of the electronic device of FIG. 13A.
  • 14A is a perspective view illustrating an unfolded state of an electronic device according to an exemplary embodiment.
  • FIG. 14B is a perspective view illustrating a folded state of the electronic device of FIG. 14A at a predetermined angle.
  • FIG. 14C is a perspective view illustrating a folded state of the electronic device of FIG. 14A.
  • FIG. 1 is a block diagram of an electronic device 101 in a network environment 100 according to various embodiments.
  • the electronic device 101 communicates with the electronic device 102 through a first network 198 (for example, a short-range wireless communication network), or a second network 199 It is possible to communicate with the electronic device 104 or the server 108 through (eg, a long-distance wireless communication network).
  • the electronic device 101 may communicate with the electronic device 104 through the server 108.
  • the electronic device 101 includes a processor 120, a memory 130, an input device 150, an audio output device 155, a display device 160, an audio module 170, and a sensor module ( 176, interface 177, haptic module 179, camera module 180, power management module 188, battery 189, communication module 190, subscriber identification module 196, or antenna module 197 ) Can be included.
  • a sensor module 176, interface 177, haptic module 179, camera module 180, power management module 188, battery 189, communication module 190, subscriber identification module 196, or antenna module 197
  • at least one of these components may be omitted or one or more other components may be added to the electronic device 101.
  • some of these components may be implemented as one integrated circuit.
  • the sensor module 176 eg, a fingerprint sensor, an iris sensor, or an illuminance sensor
  • the display device 160 eg, a display.
  • the processor 120 for example, executes software (eg, a program 140) to implement at least one other component (eg, a hardware or software component) of the electronic device 101 connected to the processor 120. It can be controlled and can perform various data processing or operations. According to an embodiment, as at least part of data processing or operation, the processor 120 may store commands or data received from other components (eg, the sensor module 176 or the communication module 190) to the volatile memory 132. It is loaded into, processes commands or data stored in the volatile memory 132, and the result data may be stored in the nonvolatile memory 134.
  • software eg, a program 140
  • the processor 120 may store commands or data received from other components (eg, the sensor module 176 or the communication module 190) to the volatile memory 132. It is loaded into, processes commands or data stored in the volatile memory 132, and the result data may be stored in the nonvolatile memory 134.
  • the processor 120 includes a main processor 121 (eg, a central processing unit or an application processor), and a secondary processor 123 (eg, a graphic processing unit, an image signal processor) that can be operated independently or together with the main processor 121 (eg, a central processing unit or an application processor). , A sensor hub processor, or a communication processor). Additionally or alternatively, the coprocessor 123 may be set to use lower power than the main processor 121 or to be specialized for a designated function. The secondary processor 123 may be implemented separately from the main processor 121 or as a part thereof.
  • main processor 121 eg, a central processing unit or an application processor
  • a secondary processor 123 eg, a graphic processing unit, an image signal processor
  • the coprocessor 123 may be set to use lower power than the main processor 121 or to be specialized for a designated function.
  • the secondary processor 123 may be implemented separately from the main processor 121 or as a part thereof.
  • the co-processor 123 is, for example, in place of the main processor 121 while the main processor 121 is in an inactive (eg, sleep) state, or the main processor 121 is active (eg, executing an application). ) While in the state, together with the main processor 121, at least one of the components of the electronic device 101 (for example, the display device 160, the sensor module 176, or the communication module 190) It is possible to control at least some of the functions or states associated with it.
  • the coprocessor 123 eg, an image signal processor or a communication processor
  • may be implemented as a part of other functionally related components eg, the camera module 180 or the communication module 190). have.
  • the memory 130 may store various data used by at least one component of the electronic device 101 (eg, the processor 120 or the sensor module 176 ).
  • the data may include, for example, software (eg, the program 140) and input data or output data for commands related thereto.
  • the memory 130 may include a volatile memory 132 or a nonvolatile memory 134.
  • the program 140 may be stored as software in the memory 130, and may include, for example, an operating system 142, middleware 144, or an application 146.
  • the input device 150 may receive a command or data to be used for a component of the electronic device 101 (eg, the processor 120) from outside (eg, a user) of the electronic device 101.
  • the input device 150 may include, for example, a microphone, a mouse, a keyboard, or a digital pen (eg, a stylus pen).
  • the sound output device 155 may output an sound signal to the outside of the electronic device 101.
  • the sound output device 155 may include, for example, a speaker or a receiver.
  • the speaker can be used for general purposes such as multimedia playback or recording playback, and the receiver can be used to receive incoming calls.
  • the receiver may be implemented separately from the speaker or as part of the speaker.
  • the display device 160 may visually provide information to the outside of the electronic device 101 (eg, a user).
  • the display device 160 may include, for example, a display, a hologram device, or a projector and a control circuit for controlling the device.
  • the display device 160 may include a touch circuitry set to sense a touch, or a sensor circuit (eg, a pressure sensor) set to measure the strength of a force generated by the touch. have.
  • the audio module 170 may convert sound into an electrical signal, or conversely, may convert an electrical signal into sound. According to an embodiment, the audio module 170 acquires sound through the input device 150, the sound output device 155, or an external electronic device (eg: Sound can be output through the electronic device 102) (for example, a speaker or headphones).
  • an external electronic device eg: Sound can be output through the electronic device 102
  • Sound can be output through the electronic device 102
  • the sensor module 176 detects an operating state (eg, power or temperature) of the electronic device 101, or an external environmental state (eg, a user state), and generates an electrical signal or data value corresponding to the detected state. can do.
  • the sensor module 176 includes, for example, a gesture sensor, a gyro sensor, an atmospheric pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, a color sensor, an infrared (IR) sensor, a biometric sensor, It may include a temperature sensor, a humidity sensor, or an illuminance sensor.
  • the interface 177 may support one or more specified protocols that may be used for the electronic device 101 to connect directly or wirelessly with an external electronic device (eg, the electronic device 102 ).
  • the interface 177 may include, for example, a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, an SD card interface, or an audio interface.
  • connection terminal 178 may include a connector through which the electronic device 101 can be physically connected to an external electronic device (eg, the electronic device 102).
  • the connection terminal 178 may include, for example, an HDMI connector, a USB connector, an SD card connector, or an audio connector (eg, a headphone connector).
  • the haptic module 179 may convert an electrical signal into a mechanical stimulus (eg, vibration or movement) or an electrical stimulus that a user can perceive through tactile or motor sensations.
  • the haptic module 179 may include, for example, a motor, a piezoelectric element, or an electrical stimulation device.
  • the camera module 180 may capture a still image and a video.
  • the camera module 180 may include one or more lenses, image sensors, image signal processors, or flashes.
  • the power management module 188 may manage power supplied to the electronic device 101.
  • the power management module 388 may be implemented as at least a part of, for example, a power management integrated circuit (PMIC).
  • PMIC power management integrated circuit
  • the battery 189 may supply power to at least one component of the electronic device 101.
  • the battery 189 may include, for example, a non-rechargeable primary cell, a rechargeable secondary cell, or a fuel cell.
  • the communication module 190 includes a direct (eg, wired) communication channel or a wireless communication channel between the electronic device 101 and an external electronic device (eg, the electronic device 102, the electronic device 104, or the server 108). It is possible to support establishment and communication through the established communication channel.
  • the communication module 190 operates independently of the processor 120 (eg, an application processor) and may include one or more communication processors supporting direct (eg, wired) communication or wireless communication.
  • the communication module 190 is a wireless communication module 192 (eg, a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module) or a wired communication module 194 (eg : A local area network (LAN) communication module, or a power line communication module) may be included.
  • a corresponding communication module is a first network 198 (for example, a short-range communication network such as Bluetooth, WiFi direct or IrDA (infrared data association)) or a second network 199 (for example, a cellular network, the Internet, or It can communicate with external electronic devices through a computer network (for example, a telecommunication network such as a LAN or WAN).
  • the wireless communication module 192 uses subscriber information stored in the subscriber identification module 196 (eg, International Mobile Subscriber Identifier (IMSI)) in a communication network such as the first network 198 or the second network 199.
  • IMSI International Mobile Subscriber Identifier
  • the electronic device 101 can be checked and authenticated.
  • the antenna module 197 may transmit a signal or power to the outside (eg, an external electronic device) or receive from the outside.
  • the antenna module may include one antenna including a conductor formed on a substrate (eg, a PCB) or a radiator formed of a conductive pattern.
  • the antenna module 197 may include a plurality of antennas. In this case, at least one antenna suitable for a communication method used in a communication network such as the first network 198 or the second network 199 is, for example, provided by the communication module 190 from the plurality of antennas. Can be chosen.
  • the signal or power may be transmitted or received between the communication module 190 and an external electronic device through the at least one selected antenna.
  • other components eg, RFIC
  • other than the radiator may be additionally formed as part of the antenna module 197.
  • At least some of the components are connected to each other through a communication method (e.g., bus, general purpose input and output (GPIO), serial peripheral interface (SPI), or mobile industry processor interface (MIPI))) between peripheral devices and signals ( E.g. commands or data) can be exchanged with each other.
  • a communication method e.g., bus, general purpose input and output (GPIO), serial peripheral interface (SPI), or mobile industry processor interface (MIPI)
  • GPIO general purpose input and output
  • SPI serial peripheral interface
  • MIPI mobile industry processor interface
  • the command or data may be transmitted or received between the electronic device 101 and the external electronic device 104 through the server 108 connected to the second network 199.
  • Each of the electronic devices 102 and 104 may be a device of the same or different type as the electronic device 101.
  • all or some of the operations executed by the electronic device 101 may be executed by one or more of the external electronic devices 102, 104, or 108.
  • the electronic device 101 needs to perform a function or service automatically or in response to a request from a user or another device, the electronic device 101
  • One or more external electronic devices receiving the request may execute at least a part of the requested function or service, or an additional function or service related to the request, and transmit a result of the execution to the electronic device 101.
  • the electronic device 101 may process the result as it is or additionally and provide it as at least a part of a response to the request.
  • cloud computing distributed computing, or client-server computing technology may be used.
  • An electronic device may be a device of various types.
  • the electronic device may include, for example, a portable communication device (eg, a smart phone), a computer device, a portable multimedia device, a portable medical device, a camera, a wearable device, or a home appliance.
  • a portable communication device eg, a smart phone
  • a computer device e.g., a smart phone
  • a portable multimedia device e.g., a portable medical device
  • a camera e.g., a camera
  • a wearable device e.g., a smart bracelet
  • the electronic device according to the embodiment of the present document is not limited to the above-described devices.
  • a or B “at least one of A and B”, “at least one of A or B,” “A, B or C,” “at least one of A, B and C,” and “A”
  • Each of the phrases such as “at least one of, B, or C” may include any one of the items listed together in the corresponding one of the phrases, or all possible combinations thereof.
  • Terms such as “first”, “second”, or “first” or “second” may be used simply to distinguish the component from other Order) is not limited.
  • Some (eg, a first) component is referred to as “coupled” or “connected” to another (eg, a second) component, with or without the terms “functionally” or “communicatively”. When mentioned, it means that any of the above components may be connected to the other components directly (eg by wire), wirelessly, or via a third component.
  • module used in this document may include a unit implemented in hardware, software, or firmware, and may be used interchangeably with terms such as logic, logic blocks, parts, or circuits.
  • the module may be an integrally configured component or a minimum unit of the component or a part thereof that performs one or more functions.
  • the module may be implemented in the form of an application-specific integrated circuit (ASIC).
  • ASIC application-specific integrated circuit
  • Various embodiments of the present document include one or more instructions stored in a storage medium (eg, internal memory 136 or external memory 138) that can be read by a machine (eg, electronic device 101). It may be implemented as software (for example, the program 140) including them.
  • the processor eg, the processor 120 of the device (eg, the electronic device 101) may call and execute at least one command among one or more commands stored from a storage medium. This enables the device to be operated to perform at least one function according to the at least one command invoked.
  • the one or more instructions may include code generated by a compiler or code executable by an interpreter.
  • a storage medium that can be read by a device may be provided in the form of a non-transitory storage medium.
  • a non-transitory' only means that the storage medium is a tangible device and does not contain a signal (e.g., electromagnetic wave). It does not distinguish between temporary storage cases.
  • a method according to various embodiments disclosed in the present document may be provided by being included in a computer program product.
  • Computer program products can be traded between sellers and buyers as commodities.
  • the computer program product is distributed in the form of a device-readable storage medium (e.g. compact disc read only memory (CD-ROM)), or through an application store (e.g. Play Store TM ) or two user devices ( It can be distributed (e.g., downloaded or uploaded) directly between, e.g. smartphones)
  • a device such as a server of a manufacturer, a server of an application store, or a memory of a relay server.
  • each component (eg, module or program) of the above-described components may include a singular number or a plurality of entities.
  • one or more components or operations among the above-described corresponding components may be omitted, or one or more other components or operations may be added.
  • a plurality of constituent elements eg, a module or program
  • the integrated component may perform one or more functions of each component of the plurality of components in the same or similar to that performed by the corresponding component among the plurality of components prior to the integration. .
  • operations performed by a module, program, or other component may be sequentially, parallel, repeatedly, or heuristically executed, or one or more of the operations may be executed in a different order or omitted. Or one or more other actions may be added.
  • 2A is a perspective view illustrating an unfolded state of an electronic device according to an exemplary embodiment.
  • 2B is a perspective view illustrating a folded state of an electronic device according to an exemplary embodiment.
  • 2C is a perspective view illustrating a folded state of an electronic device according to another exemplary embodiment.
  • an electronic device 200 (eg, the electronic device 101 of FIG. 1) according to an embodiment includes a foldable housing 210 and a foldable housing 210.
  • a hinge cover 220 covering a portion, a flexible or foldable display 230 disposed in the space formed by the foldable housing 210 (hereinafter, "display" 230) ,
  • An input unit 240 positioned on at least one side of the foldable housing 210 and a touch sensing area 250 may be included.
  • the surface on which the display 230 is disposed is defined as the first surface or the front surface of the electronic device 200, and the surface facing the opposite direction to the front surface is defined as the second surface or the rear surface of the electronic device 200.
  • a surface surrounding the space between the front and rear surfaces is defined as a third surface or a side surface of the electronic device 200.
  • the foldable housing 210 may include a first housing structure 211 and a second housing structure 212, a first rear cover 211a, and a second rear cover 212a. have.
  • first housing structure 211 and the second housing structure 212 may be disposed on both sides about a folding axis (A-axis in FIG. 2A), and have a substantially symmetrical shape with respect to the folding axis. Can be formed.
  • the shapes of the first housing structure 211 and the second housing structure 212 are not limited to the above-described shapes, and may be formed in various shapes according to embodiments.
  • the first housing structure 211 and the second housing structure 212 may be rotatably coupled by a hinge structure (not shown), and according to the state of the electronic device 200, the first housing structure 211 and the second housing structure 212 may be rotatably coupled.
  • the angle between the structure 211 and the second housing structure 212 (hereinafter, referred to as “folding angle”) may vary.
  • the folding angle between the first housing structure 211 and the second housing structure 212 in an unfolded state (or "flat state") of the electronic device 200 as shown in FIG. 2A May be 180 ⁇ .
  • the folding angle between the first housing structure 211 and the second housing structure 212 in the folded state of the electronic device 200 as shown in FIG. 2B is 0° to 10° Can be
  • the first rear cover 211a and the second rear cover 212a may be disposed on both sides about a folding axis (A axis), and specifically, the first rear cover 211a is a folding axis. It is disposed on one side of the (A axis), and the second rear cover 212a may be disposed on the other side of the folding axis (A axis).
  • the first rear cover 211a and the second rear cover 212a may have a generally rectangular shape.
  • the edge of the first rear cover 211a may be wrapped by the first housing structure 211, and the edge of the second rear cover 212a may be wrapped by the second housing structure 212.
  • the first rear cover 211a and the first housing structure 211 may be integrally formed, and the second housing structure 212 and the second rear cover 212a may be integrally formed. May be.
  • first rear cover 211a and the second rear cover 212a may have a generally symmetrical shape with respect to the folding axis (A-axis).
  • camera modules 235 and 236 may be disposed in one area of the first rear cover 211a. That is, the first rear cover 211a and the second rear cover 212a may include a portion having a shape symmetrical to each other and a portion having a shape asymmetrical to each other.
  • the hinge cover 220 is disposed between the first housing structure 211 and the second housing structure 212, and disposed between the first housing structure 211 and the second housing structure 212 It can be formed to cover the internal parts that become.
  • the hinge cover 220 may cover the hinge structure connecting the first housing structure 211 and the second housing structure 212.
  • the hinge cover 220 may include a curved surface as an example, and according to the state of the electronic device 200 (eg, a folded state or an unfolded state), the first housing structure 211 and/or the second housing structure It may be covered by a partial area of 212, or may be exposed to the outside.
  • the hinge cover 220 when the electronic device 200 is in the unfolded state, the hinge cover 220 is covered by the first housing structure 211 and the second housing structure 212 and thus the electronic device 200 ) May not be visible from the outside.
  • FIG. 2B when the electronic device 200 is in a folded state, the hinge cover 220 is exposed to the outside between the first housing structure 211 and the second housing structure 212, It can be seen from the outside of the electronic device 200.
  • the display 230 may be disposed on a space formed by the foldable housing 210.
  • the display 230 may be mounted on a recess formed by the foldable housing 210 and may constitute most of the front surface of the electronic device 200. That is, the front surface of the electronic device 200 may include the display 230 and a partial region of the first housing structure 211 adjacent to the display 230 and a partial region of the second housing structure 212.
  • the display 230 may mean a flexible display in which at least a portion of the area may be transformed into a flat or curved surface.
  • the display 230 includes a folding area 233, a first area 231 disposed on one side of the folding area 233, and a second area disposed on the other side of the folding area 233. (232) may be included.
  • the division of the area of the display 230 shown in FIG. 2A is only exemplary, and according to the embodiment, the area of the display 230 may be divided in a different manner.
  • the first area 231 and the second area 232 can be divided based on the folding area 233 extending in a direction parallel to the x-axis.
  • the display 230 includes a first area (not shown) and a second area (not shown) based on a folding area (not shown) extending in a direction parallel to the y-axis. It can also be classified as.
  • the first area 231 and the second area 232 may have an overall symmetrical shape with respect to the folding area 233.
  • a recess or opening may be formed in a partial region of the first region 231, and other electronic components (eg, a camera module 234, a proximity sensor, etc.) may be aligned in the recess or opening. That is, the first region 231 and the second region 232 may include a portion having a shape symmetrical to each other and a portion having a shape asymmetrical to each other.
  • the input unit 240 and the touch sensing area 250 may be formed on one side of the foldable housing 210.
  • the input unit 240 may be formed on one side of the first housing structure 211, and the touch sensing area 250 is formed on the side of the first housing structure 211 on which the input unit 240 is formed. It may be formed on one side of the second housing structure 212 in the same direction.
  • the input unit 240 is formed on one side of the second housing structure 212, and the touch sensing area 250 is formed on one side of the first housing structure 211. May be.
  • the input unit 240 is a type of key through which a user's manipulation can be input, and the electronic device 200 may be driven based on a user manipulation of the input unit 240.
  • the user may adjust the volume of the electronic device 200 or turn the power on/off through the manipulation of the input unit 240, run the camera, or perform voice assistance.
  • Function can also be executed.
  • the input unit 240 may be formed of a physical key such as a button as shown in the drawing, but according to another embodiment (not shown), the input unit 240 is a touch that recognizes a user's touch. It may be formed as a sensor-type virtual key, a haptic-type virtual key that recognizes and vibrates a user's touch, or a strain gauge-type virtual key that senses pressure.
  • the input unit 240 may be an embossed key formed protruding from one side of the foldable housing 210, but may be formed in an engraved manner in other embodiments.
  • the touch sensing area 250 is an area capable of sensing a user's touch, and may be activated or deactivated according to a state of the electronic device 200 (eg, a folded state or an unfolded state). However, a detailed description of this will be described later.
  • the touch sensing region 250 may be formed on one side of the foldable housing 210 in a manner to increase the sensitivity of a touch circuitry or a sensor circuit mounted inside the electronic device 200. I can.
  • the touch sensing area 250 may be formed by mounting a touch sensor (not shown) on one side of the foldable housing 210. As shown in FIGS. 2B and 2C, the touch sensing area 250 may be formed at a position corresponding to the input unit 240 in the folded state of the electronic device 200, and a detailed description thereof will be described later.
  • the operation of the first housing structure 211 and the second housing structure 212 and each area of the display 230 according to the state of the electronic device 200 eg, in an open or folded state
  • the state of the electronic device 200 eg, in an open or folded state
  • the first housing structure 211 and the second housing structure 212 when the electronic device 200 is in an unfolded state, the first housing structure 211 and the second housing structure 212 form an angle of 180° and are the same. It can be arranged to face the direction. Due to the arrangement of the first housing structure 211 and the second housing structure 212 described above, the surface of the first area 231 and the surface of the second area 232 of the display 230 also form 180° from each other. And, it may face the same direction (for example, the front direction of the electronic device 200). The folding area 233 may form the same plane as the first area 231 and the second area 232.
  • the first housing structure 211 and the second housing structure 212 may be disposed in a direction facing each other. I can.
  • the first area 231 and the second area 232 of the display 230 form an angle of 0° to 10° and may face each other.
  • At least a portion of the folding area 233 may be formed as a curved surface having a predetermined curvature.
  • the first housing structure 211 and the second housing structure 212 may be disposed in opposite directions to each other.
  • the first housing structure 211 may be disposed in a direction toward the front side of the electronic device 200
  • the second housing structure 212 may be disposed in a direction toward the rear side of the electronic device 200.
  • the first rear cover 211a and the second rear cover 212a may be disposed in a direction facing each other. Due to the arrangement of the first housing structure 211 and the second housing structure 212 described above, the first area 231 and the second area 232 of the display 230 may be disposed in opposite directions to each other.
  • the first area 231 may be disposed to face the front side of the electronic device 200, and the second area 232 may be disposed to face the rear side of the electronic device 200.
  • At least a portion of the folding area 233 may be formed as a curved surface having a predetermined curvature, and may be exposed to the outside of the electronic device 200.
  • FIG 3 is an exploded perspective view of an electronic device according to an exemplary embodiment.
  • an electronic device 200 includes a display unit 300, a bracket assembly 330, a substrate unit 350, a first housing structure 211, and a second housing structure 212. , May include a first rear cover 211a and a second rear cover 212a.
  • the display unit 300 may be referred to as a display module or a display assembly.
  • the display unit 300 may include a display 230 and one or more plates 310 (or layers) on which the display 230 is mounted.
  • the plate 310 may be disposed between the display 230 and the bracket assembly 330.
  • a display 230 may be disposed on at least a portion of one surface of the plate 310 (eg, an upper surface with reference to FIG. 3 ), and the plate 310 may be formed in a shape corresponding to the display 230.
  • the bracket assembly 330 includes a hinge structure 333 disposed between the first bracket 331, the second bracket 332, the first bracket 331 and the second bracket 332, and an external As viewed from, a hinge cover 220 covering the hinge structure 333, and a wiring member 334 crossing the first bracket 331 and the second bracket 332 (e.g., flexible printed circuit board (FPCB) circuit board).
  • a hinge cover 220 covering the hinge structure 333
  • a wiring member 334 crossing the first bracket 331 and the second bracket 332 e.g., flexible printed circuit board (FPCB) circuit board
  • the bracket assembly 330 may be disposed between the plate 310 and the substrate portion 350.
  • the first bracket 331 may be disposed between the first region 231 of the display 230 and the first substrate 351.
  • the second bracket 332 may be disposed between the second region 232 of the display 230 and the second substrate 352.
  • the wiring member 334 and the hinge structure 333 may be disposed inside the bracket assembly 330.
  • the wiring member 334 may be disposed in a direction crossing the first bracket 331 and the second bracket 332 (eg, in the x-axis direction). That is, the wiring member 334 is disposed in a direction perpendicular to the folding axis (eg, the y-axis or the folding axis A of FIG. 2A) of the folding area 233 of the electronic device 200 (eg, the x-axis direction). Can be.
  • the substrate portion 350 includes a first substrate 351 disposed on the first bracket 331 side and a second substrate 352 disposed on the second bracket 332 side, as described above. It may include.
  • the first substrate 351 and the second substrate 352 may include a bracket assembly 330, a first housing structure 211, a second housing structure 212, a first rear cover 211a and a second It may be disposed inside the space formed by the rear cover 212a.
  • Components for implementing various functions of the electronic device 200 eg, the processor 120 of FIG. 1 may be mounted on the first substrate 351 and the second substrate 352.
  • the first housing structure 211 and the second housing structure 212 may be assembled to each other so as to be coupled to both sides of the bracket assembly 330 while the display unit 300 is coupled to the bracket assembly 330.
  • the first housing structure 211 and the second housing structure 212 may slide on both sides of the bracket assembly 330 to be coupled to the bracket assembly 330.
  • the first housing structure 211 may include a first rotation support surface 213, and the second housing structure 212 is a second rotation corresponding to the first rotation support surface 213. It may include a support surface 214.
  • the first rotation support surface 213 and the second rotation support surface 214 may include curved surfaces corresponding to the curved surfaces included in the hinge cover 220.
  • the first rotation support surface 213 and the second rotation support surface 214 cover the hinge cover 220 when the electronic device 200 is unfolded (for example, the electronic device of FIG. 2A ).
  • the 220 may not be exposed to the rear surface of the electronic device 200 or may be exposed to a minimum.
  • the first rotation support surface 213 and the second rotation support surface 214 are curved surfaces included in the hinge cover 220 when the electronic device 200 is folded (for example, the electronic device of FIG. 2B ).
  • the hinge cover 220 may be exposed to the rear surface of the electronic device 200 as much as possible by rotating along the line.
  • 4A is a side view illustrating an unfolded state of an electronic device according to an exemplary embodiment.
  • 4B is a side view illustrating a folded state of the electronic device of FIG. 4A.
  • an electronic device 400 includes a first housing structure 411, a second housing structure 412, a first housing structure 411 and a second housing structure 412.
  • a hinge structure 421 rotatably connected to each other, a hinge cover 420 covering the hinge structure 421, and an input unit 440 formed on one side of the foldable housing 410 and a touch sensing region ( 450).
  • At least one of the constituent elements of the electronic device 400 may be the same as or similar to at least one of the constituent elements of the electronic device 200 of FIGS. 2A, 2B, 2C, or 3.
  • a duplicate description will be It should be omitted.
  • the input unit 440 includes a first input unit 441 configured to execute a first function according to a user's manipulation, and a second input unit 441 configured to execute a second function different from the first function according to a user's manipulation. It may include an input unit 442.
  • the first input unit 441 may increase the volume of the electronic device 400 in response to a user's manipulation
  • the second input unit 442 may increase the volume of the electronic device 400 in response to a user’s manipulation. Can be lowered.
  • the first input unit 441 may execute a camera in response to a user's manipulation
  • the second input unit 442 may execute a voice assistance function.
  • the touch sensing region 450 is a first touch sensing region 451 formed in a region corresponding to the first input unit 441 when the electronic device 400 is folded (eg, FIG. 4B ). And a second touch sensing area 452 formed in an area corresponding to the second input unit 442 when the electronic device 400 is folded.
  • the first touch sensing region 451 and the second touch sensing region 452 are formed at positions corresponding to the first input unit 441 and the second input unit 442, respectively, when the electronic device 400 is folded.
  • the area in which the manipulation of can be recognized can be substantially expanded, and a detailed description thereof will be described later.
  • the first touch sensing region 451 and the first touch sensing region 451 may be formed so that the first touch sensing region 451 may be formed in the region corresponding to the first input unit 441.
  • the input unit 441 may be formed at a position spaced apart from the hinge structure 421 by the same distance. Referring to FIG. 4A, the distance between the first input unit 441 and the hinge structure 421 formed in the first housing structure 411 may be L1, and a first touch sensing region formed in the second housing structure 412 ( The distance between the hinge structure 451 and the hinge structure 421 may also be L1.
  • the second touch sensing region 452 and the second input unit 452 may be formed so that the second touch sensing region 452 may be formed in the region corresponding to the second input unit 442.
  • the 442 may be formed at a position spaced apart from the hinge structure 421 by the same distance L2. That is, the distance between the second input unit 442 formed in the first housing structure 411 and the hinge structure 421 may be L2, and the second touch sensing region 452 formed in the second housing structure 412 and the hinge The distance between the structures 421 may also be L2.
  • the first input unit 441 and the first touch sensing area 451 are a virtual center line ML formed when the electronic device 400 is folded. It may be formed in a symmetrical shape based on.
  • the first input unit 441 may be disposed on one side of the first housing structure 411 while forming an angle ⁇ (eg, 0° to 5°) with the virtual center line ML.
  • the first touch sensing area 451 may be disposed on one side of the second housing structure 412 while forming an angle ⁇ equal to the angle with the virtual center line ML.
  • the second input unit 442 and the second touch sensing area 452 may also be formed in a shape symmetrical with respect to the virtual center line ML.
  • FIG. 5 is a diagram illustrating an electrical connection relationship between a processor, an input unit, and a touch sensing area of an electronic device according to an exemplary embodiment.
  • the electronic device 500 includes a foldable housing 510, an input unit 540 formed on one side of the foldable housing 510 and a touch sensing area 550, and the electronic device 500. It may include a mounted processor 560 and a sensor unit 570. At least one of the components of the electronic device 500 is the same as at least one of the components of the electronic device 200 of FIGS. 2A, 2B, and 2C or the electronic device 400 of FIGS. 4A and 4B. Alternatively, they may be similar, and redundant descriptions will be omitted.
  • the processor 560 (for example, the processor 120 of FIG. 1) is electrically or operatively connected to the input unit 540, the touch sensing area 550, and the sensor unit 570,
  • the elements may be controlled or the electronic device 500 may be driven by receiving electrical signals from the elements.
  • the processor 560 may receive an electrical signal from the input unit 540 to adjust the volume of the electronic device 500 or execute an application.
  • the sensor unit 570 is mounted inside the electronic device 500 to identify a state of the electronic device 500 (eg, a folded state or an unfolded state). 1 Identify the folding angle between the housing structure (e.g., the first housing structure 411 in FIGS. 4A and 4B) and the second housing structure (e.g., the second housing structure 412 in FIGS. 4A and 4B) You may.
  • the sensor unit 570 may include at least one of a hall sensor (hall IC), a digital hall sensor (digital hall IC), a gyro sensor, a six axis sensor, a rotary encoder sensor, and a stretch sensor. have.
  • the sensor unit 570 may include a Hall sensor mounted on the first housing structure and/or the second housing structure to identify whether the electronic device 500 is in a folded state or an unfolded state.
  • the sensor unit 570 may include a rotary sensor attached to a hinge structure (eg, the hinge structure 421 of FIG. 4A) to identify a folding angle between the first housing structure and the second housing structure. .
  • the sensor unit 570 includes a stretch sensor attached to the rear surface of the electronic device 500 corresponding to the folding area (eg, the folding area 233 in FIG. 2A ), Based on the folding angle between the first housing structure and the second housing structure may be identified.
  • the processor 560 may identify the state of the electronic device 500 or the folding angle by receiving the sensing value of the sensor unit 570, and the touch sensing area 550 based on the identified result. Can be activated or deactivated. As an example, when the electronic device is identified as a folded state, the processor 560 may activate the touch sensing area 550, and a detailed description thereof will be described later.
  • FIG. 6 is a flowchart illustrating an operation of controlling the electronic device in response to a folded or unfolded state of the electronic device.
  • FIG. 7A is a diagram illustrating a state in which a user's input is input only to the touch sensing area when the electronic device is folded
  • FIG. 7B is a diagram illustrating a state in which the user's input is simultaneously input to the input unit and the touch sensing area when the electronic device is folded
  • Fig. 7C is a diagram illustrating a state in which a user grips the electronic device while the electronic device is unfolded.
  • a processor eg, the processor 560 of FIG. 5 of the electronic device 700 (eg, the electronic device 500 of FIG. 5) according to an embodiment It is possible to identify whether the state of 700) is a folded state or an unfolded state. Specifically, the processor may identify (or determine) whether the electronic device 700 is currently in a folded state or an unfolded state, based on a sensing value of the sensor unit (eg, the sensor unit 570 in FIG. 5 ). .
  • the processor includes the touch sensing regions 751 and 752 (eg, the first touch sensing region 451 and the second touch sensing region 452 in FIG. 4A) based on the identification result in operation 601. )) can be activated.
  • a first input unit 741 eg, the first input unit 441 in FIG. 4A
  • a 2 The input unit 742 for example, the second input unit 442 of FIG.
  • first input unit 741 and the second input unit 742 are A first touch sensing region 751 and a second touch sensing region 752 may be formed on one side of the second housing structure 712 (eg, the second housing structure 412 in FIG. 4A ).
  • the first touch sensing region 751 may be formed at a position corresponding to the first input unit 741
  • the second touch sensing region ( 752) may be formed at a position corresponding to the second input unit 742.
  • a first input unit 741 and a second input unit 742, and a first touch sensing region 751 and a second touch sensing region 752 corresponding to the first input unit 741 and the second input unit 742 are shown.
  • a third input unit, a fourth input unit, a third touch sensing region, and a fourth touch sensing region may be additionally formed.
  • the processor activates the first touch sensing region 751 and the second touch sensing region 752 to recognize a user's input (or manipulation). Can be expanded, and a detailed description thereof will be described later.
  • the processor may input (or manipulate) the input units 741 and 742 or the touch sensing regions 751 and 752 activated in operation 602 when the electronic device 700 is folded.
  • driving of the electronic device 700 may be controlled.
  • the processor drives the electronic device 700 in the same manner as the first input unit 741 detects the user's input. Can be controlled.
  • the processor controls the driving of the electronic device 700 in the same manner as the user's input is sensed in the second input unit 742.
  • the user's input may include a touch operation, and may include a swiping operation according to embodiments.
  • the first input unit 741 is set to increase the volume of the electronic device 700 in response to a user's input
  • the second input unit 742 is set to decrease the volume of the electronic device 700.
  • the electronic device 700 is the same as when the user's input is sensed in the first input unit 741.
  • the electronic device ( 700) can be lowered.
  • the electronic device 700 may substantially expand the area of the first input unit 741 through the first touch sensing area 751 when the electronic device 700 is in a folded state, An area of the second input unit 742 may be substantially expanded through the second touch sensing area 752. Accordingly, even when the thickness of the electronic device 700 according to an exemplary embodiment becomes thinner, an area capable of detecting a user's input may be maintained, thereby minimizing the occurrence of a malfunction of the electronic device 700.
  • the processor controls the driving of the electronic device 700 in response to a user's input to the input units 741 and 742 or the touch sensing regions 751 and 752. Let's look at the operation.
  • the processor transmits the user's input to the first input unit 741.
  • the driving of the electronic device 700 may be controlled.
  • the first input unit 741 may be set to execute a camera application in response to a user's input.
  • the processor may execute the camera application in the same manner as the user's input input to the first input unit 741.
  • a user's input is simultaneously sensed in the input units 741 and 742 and the touch sensing areas 751 and 752.
  • the processor executes a function set in the first input unit 741 (for example, a camera application is executed).
  • the electronic device 700 may be controlled to perform power on/off.
  • the processor controls the electronic device 700 to execute a function set in the second input unit 742. can do.
  • a user's input may be simultaneously sensed in an input unit and a touch sensing area that does not correspond to the input unit.
  • a user's input may be simultaneously sensed in the first input unit 741 and the second touch sensing area 752, and as another example (eg, FIG. 7B), the second input unit 742 and the first touch are sensed. There may be a case in which a user's input is simultaneously detected in the area 751.
  • the driving of the electronic device 700 may be controlled.
  • the processor prioritizes the user's input to the second input unit 742, Driving of the electronic device 700 may be controlled so that a function set in the input unit 742 is performed.
  • the first input unit 741 is set to execute a voice assistance function in response to a user's input
  • the second input unit 742 is set to execute a camera application
  • the processor may execute the camera application by prioritizing the user's input to the second input unit 742.
  • the processor detects a user's input at the same time in an input unit (eg, the second input unit 742) and a touch detection area (eg, the first touch detection area 751) not corresponding to the input unit.
  • driving of the electronic device 700 may be controlled by prioritizing the user's input to the touch sensing area.
  • the first input unit 741 is set to execute a voice assistance function in response to a user's input
  • the second input unit 742 is set to execute a camera application
  • the processor may execute the voice assistance function by prioritizing the user's input to the first touch sensing region 751.
  • the processor when a user's input is simultaneously sensed in an input unit and a touch sensing region (for example, the first touch sensing region 751) not corresponding to the input unit (for example, the second input unit 742), the processor Depending on the type (eg, virtual key, physical key) of the input units 741 and 742 formed in the electronic device 700, the input to the input unit may be prioritized or the input to the touch sensing area may be prioritized.
  • the type eg, virtual key, physical key
  • the processor may control driving of the electronic device 700 by prioritizing the input to the input units 741 and 742.
  • the processor prioritizes inputs to the touch sensing areas 751 and 752, 700) can also be controlled.
  • the processor may prioritize the input to the touch sensing areas 751 and 752 even when the input units 741 and 742 are formed of physical keys according to the embodiment, and conversely, the input unit Even when (741, 742) is formed as a virtual key, the input to the input unit (741, 742) may be prioritized.
  • the processor does not activate (deactivate) the touch sensing regions 751 and 752 when it is identified that the electronic device 700 is in the open state in operation 601, and the touch The sensing areas 751 and 752 may be used to check whether the user grips the electronic device 700. That is, the processor may utilize the touch sensing regions 751 and 752 as grip sensors in the unfolded state of the electronic device 700. As an example (refer to FIG. 7C ), when the user's hand contacts the first touch sensing area 751, the processor may determine that the user is enclosing the electronic device 700.
  • FIG. 8 is a flowchart illustrating an operation of controlling an electronic device in response to a folding angle.
  • 9 is a diagram illustrating a state in which an electronic device is used in a table mode according to an exemplary embodiment.
  • a processor eg, the processor 560 of FIG. 5 of the electronic device 900 (eg, the electronic device 500 of FIG. 5) according to an embodiment has a first housing structure.
  • the folding angle ( ⁇ , folding angle) between (911) (for example, the first housing structure 411 in FIG. 4A) and the second housing structure 912 (for example, the second housing structure 412 in FIG. 4A) Can be identified.
  • the sensor unit eg, the sensor unit 570 of FIG.
  • the processor may identify the folding angle ⁇ based on the sensing value of the sensor unit.
  • the processor when the folding angle identified in operation 801 is within a specified angle range, the touch sensing regions 951 and 952 (for example, the first touch sensing region 451 of FIG. 4A, The second touch sensing area 452 may be activated. That is, when the folding angle ⁇ between the first housing structure 911 and the second housing structure 912 falls within a specified angle range, the processor 900 is currently in a table mode. It is determined that it is determined that the touch sensing regions 951 and 952 are activated to improve user convenience.
  • the second housing structure 912 when the electronic device 900 is in a table mode state, the second housing structure 912 may be in contact with the ground, and the first housing structure 911 may be spaced apart from the ground at a certain angle. .
  • the electronic device 900 when a user manipulates the first input unit 941 or the second input unit 942 formed on one side of the first housing structure 911, the electronic device 900 There may be a case where the device 900 passes back. As described above, when the electronic device 900 passes backward, the second housing structure 912 is separated from the ground, so that the electronic device 900 cannot be fixed to the ground, which may cause inconvenience to the user. have.
  • the processor of the electronic device 900 includes a first touch sensing area 951 and a second touch formed on one side of the second housing structure 912 when the electronic device 900 is in a table mode. By activating the sensing region 952, the user may control the driving of the electronic device 900 through the first touch sensing region 951 and/or the second touch sensing region 952.
  • the processor may determine that the electronic device 900 is in the current table mode.
  • the processor may determine that the electronic device 900 is in a folded state (eg, the electronic device of FIG. 7A), and the folding angle is 170° to In the case of 180°, the processor may determine that the electronic device 900 is in an unfolded state (eg, the electronic device of FIG. 4A ).
  • the processor in response to a user's input to the input units 941 and 942 or the touch sensing regions 951 and 952 activated in operation 802, drives the electronic device 900. Can be controlled. As an example, when a user's input (or manipulation) is detected by the first input unit 941, the processor may control the electronic device 900 to perform a function set in the first input unit 941.
  • the processor when a user's input is detected in the first touch sensing region 951, the processor is set in the first input unit 941 corresponding to the first touch sensing region 951.
  • the electronic device 900 may be controlled to perform a function.
  • the processor may execute the camera application in response to the user's input sensed in the first touch sensing area 951.
  • the processor performs a function set in the second input unit 942 corresponding to the second touch sensing region 952 ( 900) can also be controlled.
  • FIG. 10 is a flowchart illustrating an operation of controlling an electronic device based on a folded state of the electronic device.
  • an operation of controlling an electronic device eg, the electronic device 700 of FIG. 7A or the electronic device 900 of FIG. 9 according to the state of the electronic device will be described.
  • a processor eg, the processor 560 of FIG. 5) of the electronic device (eg, the electronic device 500 of FIG. 5) according to an embodiment )
  • the current state of the electronic device may be identified. That is, based on the sensing value of the sensor unit, the processor determines whether the electronic device is currently in an open state (eg, the electronic device of FIG. 4A), a folded state (eg, the electronic device of FIG. 4B), or a table mode state (eg, the electronic device of FIG. 9).
  • the processor When it is identified in operation 1001 that the electronic device is currently in a folded state, in operation 1002, the processor according to an embodiment activates a touch sensing area formed at a position corresponding to the input unit in the folded state of the electronic device to input the user.
  • a region capable of detecting a hereinafter referred to as “input sensing region”) may be expanded.
  • the processor of the electronic device may detect a user's input to the input detection area extended by the operation 1002, and control driving of the electronic device in response to the detection result.
  • the processor includes a first input unit (eg, the first input unit 741 in FIG. 7A) and/or a first touch sensing area corresponding to the first input unit (eg, the first touch sensing area ( 751)), it is possible to control the driving of the electronic device to perform a function set in the first input unit.
  • operation 1004 In the processor according to an embodiment, the folding angle between the first housing structure (eg, the first housing structure 911 in FIG. 9) and the second housing structure (eg, the second housing structure 912 in FIG. 9) It is possible to identify whether (folding angle) is within the specified angle range.
  • the processor may include the electronic device. It is determined that it is in the current table mode state and activates the touch sensing region (for example, the first touch sensing region 751 and the second touch sensing region 752 in FIG. 7A) to activate the input unit (for example, the first input unit (FIG. 7A )). 741) and the second input unit 742, as well as through the touch sensing area, a user's input may be sensed.
  • the touch sensing region for example, the first touch sensing region 751 and the second touch sensing region 752 in FIG. 7A
  • the input unit for example, the first input unit (FIG. 7A )
  • the processor may detect a user's input to an input unit or a touch sensing area activated in operation 1005, and control driving of the electronic device based on the user's input.
  • a user's input to a first touch detection area eg, the first touch detection area 751 of FIG. 7A
  • the processor may control driving of the electronic device to perform a function set in the first input unit.
  • the processor when it is identified that the folding angle between the first housing structure and the second housing structure is out of the specified angle range (eg, when the folding angle is 180°), in operation 1007, the processor according to an embodiment
  • the electronic device may determine that it is currently in the open state, and may not activate the touch sensing area.
  • the processor may deactivate the touch sensing region and use the touch sensing region as a grip sensor.
  • the processor may determine whether the user grips the electronic device (eg, see FIG. 7C) by using the touch sensing area.
  • the processor of the electronic device in response to the state of the electronic device, activates the touch sensing region to expand the region capable of detecting a user's input, or deactivates the touch sensing region. Through this, it is possible to determine whether the user grips the electronic device.
  • 11A is a perspective view illustrating an electronic device according to an exemplary embodiment.
  • 11B is a perspective view illustrating a folded state of the electronic device of FIG. 11A.
  • an electronic device 1100 includes a fingerprint sensor 1160 and an electronic device formed on one side of the second housing structure 1122 (or the first housing structure 1121).
  • the device 1100 includes a third touch sensing region 1170 formed on one side of the first housing structure 1121 (or the second housing structure 1122) corresponding to the fingerprint sensor 1160 in a folded state. can do.
  • an input unit 1140 (for example, the input unit 240 of FIG. 2A) may be formed on one side of the first housing structure 1121, and the input unit ( A touch sensing region 1150 (eg, the touch sensing region 250 of FIG. 2A) may be formed on one side of the second housing structure 1122 corresponding to 1140.
  • the fingerprint sensor 1160 is formed on one side of the second housing structure 1122 in which the touch sensing region 1150 is formed, and the third touch The sensing area 1170 may be formed on one side of the first housing structure 1121 corresponding to the fingerprint sensor 1160 when the electronic device 1100 is folded.
  • the fingerprint sensor 1160 is the other side of the second housing structure 1122 perpendicular to one side of the second housing structure 1122 on which the touch sensing area 1150 is formed. Can be formed in The third touch sensing area 1170 may be formed on one side of the first housing structure 1121 corresponding to the fingerprint sensor 1160 when the electronic device 1100 is folded.
  • the fingerprint sensor 1160 is formed on one side of the first housing structure 1121 on which the input unit 1140 is formed, and the third touch sensing area 1170 is an electronic device.
  • the folded state 1100 may be formed on one side of the second housing structure 1122 corresponding to the fingerprint sensor 1160.
  • the fingerprint sensor 1160 and the third touch sensing area 1170 may be disposed at a position symmetrical with respect to a virtual center line ML' formed when the electronic device 1100 is folded. .
  • the fingerprint sensor 1160 and the third touch sensing area 1170 may be parallel to each other, and the distance between the fingerprint sensor 1160 and the virtual center line ML′ and the third The distance between the touch sensing area 1170 and the virtual center line ML' may be the same.
  • the area of the fingerprint sensor 1160 gradually decreases.
  • the fingerprint recognition rate of the fingerprint sensor 1160 decreases as the area of the fingerprint sensor 1160 decreases.
  • the electronic device 1100 forms a third touch sensing area 1170 at a position corresponding to the fingerprint sensor 1160 in a folded state of the electronic device 1100, thereby forming the area of the fingerprint sensor 1160. Even if this decreases, the recognition rate of the fingerprint sensor 1160 can be maintained.
  • the processor when the electronic device 1100 is in a folded state, the processor (for example, the processor 560 of FIG. 5) activates the third touch sensing region 1170 and activates the third touch sensing region 1170. ), it is possible to identify whether the user is touching an area adjacent to the fingerprint sensor 1160. When the area of the fingerprint sensor 1160 is reduced, it may be difficult to identify the presence or absence of a user's touch.
  • the electronic device 1100 may detect whether a user touches a user through the third touch detection area 1170 and recognize a user's fingerprint through the fingerprint sensor 1160 according to whether the touch is detected. The recognition rate of the fingerprint sensor 1160 may be improved.
  • a third device is provided on one side of the first housing structure 1121 corresponding to the fingerprint sensor 1160.
  • a second fingerprint sensor (not shown) may be formed instead of the touch sensing area 1170.
  • the electronic device 1100 may increase a fingerprint recognition rate by expanding a region capable of recognizing a user's fingerprint through the second fingerprint sensor.
  • FIG. 12 is a flowchart illustrating an operation of switching an input unit function in response to a folded or unfolded state of the electronic device.
  • 13A is a front view illustrating an unfolded state of an electronic device according to an exemplary embodiment.
  • 13B is a front view showing a folded state of the electronic device of FIG. 13A.
  • a processor of an electronic device 1300 may identify whether the electronic device 1300 is currently folded based on a sensing value of the sensor unit (eg, the sensor unit 570 of FIG. 5).
  • the processor includes the input units 1321 and 1322 (eg, FIG. Functions set in the first input unit 741 and the second input unit 742 of 7a may be switched.
  • the input unit may include a first input unit 1321 set to perform a first function and a second input unit 1322 set to perform a second function different from the first function in response to a user's manipulation.
  • the first input unit 1321 when the electronic device 1300 is in an open state, the first input unit 1321 may be positioned above the second input unit 1322.
  • the first input unit 1321 when the electronic device 1300 is folded, the first input unit 1321 may be positioned under the second input unit 1322.
  • the processor may switch the functions set in the first input unit 1321 and the second input unit 1322 to allow user manipulation.
  • the first input unit 1321 set to perform the first function may change the mapping to perform the second function.
  • the second input unit 1322 which has been set to perform the second function, may change the mapping to perform the first function.
  • the first input unit 1321 when the electronic device 1300 is unfolded, the first input unit 1321 is set to increase the volume of the electronic device 1300 in response to a user's manipulation, and the second input unit 1322 is an electronic device. It may be set to lower the volume of 1300. Accordingly, the user can manipulate the first input unit 1321 to increase the volume of the image played on the display 1330 of the electronic device 1300 (for example, the display 230 of FIG. 2A ), and conversely, the second input unit. By operating 1322, the volume of the image played on the display 1330 may be lowered.
  • the processor changes the setting of the first input unit 1321 to lower the volume of the electronic device 1300 in response to a user's manipulation, and the second The setting of the input unit 1322 may be changed to increase the volume of the electronic device 1300 in response to a user's manipulation. Accordingly, the user can increase the volume of the image reproduced on the sub-display 1330a of the electronic device 1300 by manipulating the second input unit 1322, and conversely, the first input unit 1321 to manipulate the sub-display ( The image of the video played in 1330a) may be lowered. That is, the electronic device 1300 according to an embodiment converts the mapping of the input units 1321 and 1322 in consideration of a change in the position of the input units 1321 and 1322 generated when the electronic device 1300 is folded, Can improve the convenience of the product.
  • 14A is a perspective view illustrating an unfolded state of an electronic device according to an exemplary embodiment.
  • 14B is a perspective view illustrating a folded state of the electronic device of FIG. 14A at a predetermined angle.
  • 14C is a perspective view illustrating a folded state of the electronic device of FIG. 14A.
  • an electronic device 1400 includes a first housing structure 1411 (eg, a first housing structure 211 in FIG. 2A) and a second housing structure. (1412) (e.g., the second housing structure 212 of FIG. 2A), a hinge structure that rotatably connects the first housing structure 1411 and the second housing structure 1412 (e.g., the hinge structure of FIG. 4A ( 421), a display 1430, and a plurality of touch sensing regions 1441, 1442, 1451, and 1452 formed on one side of the first housing structure 1411 and/or the second housing structure 1412. I can. At least one of the components of the electronic device 1400 of FIGS.
  • 14A, 14B, and 14C is the electronic device 200 of FIGS. 2A, 2B, and 2C or the electronic device 400 of FIGS. 4A and 4B. ) May be the same as or similar to at least one of the constituent elements, and redundant descriptions will be omitted.
  • the plurality of touch sensing regions may include a first touch sensing region 1441, a second touch sensing region 1442, a third touch sensing region 1451, and a fourth touch sensing region 1452.
  • the first touch sensing region 1441 and the second touch sensing region 1442 may be formed on one side of the first housing structure 1411.
  • the third touch sensing region 1451 may be formed on one side of the second housing structure 1412 corresponding to the first touch sensing region 1441 in the folded state of the electronic device 1400 (for example, FIG. 14C ).
  • the fourth touch sensing region 1452 may be formed on one side of the second housing structure 1412 corresponding to the second touch sensing region 1442 in the folded state of the electronic device 1400.
  • the first touch sensing area 1441, the second touch sensing area 1442, the third touch sensing area 1451, and the fourth touch sensing area 1452 are in a planar shape.
  • the present invention is not limited thereto, and according to an embodiment, the first touch detection area 1442, the second touch detection area 1442, the third touch detection area 1451, and the fourth touch detection area 1452 are It may be formed in an embossed or engraved shape.
  • an identifier for example, an arrow is formed to provide the user with the first touch detection area 1441, the second touch detection area 1442, and the third touch detection area ( 1451) and the location of the fourth touch sensing area 1452 may be notified.
  • the first touch sensing region 1451, the second touch sensing region 1442, the third touch sensing region 1451, and the fourth touch sensing region 1452 are formed of a touch sensor type virtual key.
  • it may be formed as a haptic type virtual key that recognizes a user's touch and vibrates, or a strain gauge type virtual key that senses pressure.
  • the first touch sensing region 1451 and the second touch sensing region 1442 of the electronic device 1400 are activated.
  • a user's input to the touch sensing region 1451 and/or the second touch sensing region 1442 may be sensed.
  • the first touch sensing region 1442 may be set to perform a first function (eg, increasing the volume of an electronic device) in response to a user's input
  • the second touch sensing region 1442 is a user It may be set to perform a second function (eg, lowering the volume of the electronic device) in response to an input of.
  • the third touch sensing region 1451 and the fourth touch sensing region 1452 are deactivated or activated as a grip sensor to detect the third touch sensing region 1451 and the fourth touch according to the embodiment. Whether or not the user holds the electronic device 1400 may be checked through the area 1452.
  • a graphic user interface (for example, an arrow) capable of indicating the location of the first and second touch sensing regions 1442 and 1442 is displayed on the display 1430, The positions of the activated first and second touch sensing regions 1441 and 1442 may be notified to the user.
  • a first touch sensing region 1451 when the electronic device 1400 is folded at a predetermined angle, a first touch sensing region 1451, a second touch sensing region 1442, and a third electronic device 1400 according to an exemplary embodiment. Both the touch sensing region 1451 and the fourth touch sensing region 1452 may be activated.
  • the first touch sensing area 1442 may be set to perform a first function in response to a user's input, and the second touch sensing area 1442 is a second function in response to a user's input. Can be set to perform.
  • the third touch sensing region 1451 may be set to perform a third function in response to a user's input, and the fourth touch sensing region 1452 may perform a fourth function in response to a user's input. It can also be set to perform.
  • the first function, the second function, the third function, and the fourth function may be set to perform different functions, but are not limited thereto. It may be set to perform, or the second function and the fourth function may be set to perform the same function.
  • the first function may be a volume increase function of the electronic device 1400
  • the second function may be a volume reduction function of the electronic device 1400
  • the third function is the power-on function of the electronic device 1400. It may be an on/off function
  • the fourth function may be a voice assistance function.
  • the first and third functions may be a volume increase function of the electronic device 1400
  • the second and fourth functions may be a volume reduction function of the electronic device 1400.
  • the display 1430 includes a first touch detection area 1451, a second touch detection area 1442, a third touch detection area 1451, and/or a fourth touch detection area.
  • GUI graphic user interface
  • a first touch sensing region 1441 and a third touch sensing region 1451, a second touch sensing region 1442 and a fourth touch sensing region may be disposed at a corresponding position.
  • the first and third touch sensing regions 1451 and 1451 may be set to perform the same function in response to a user's input.
  • the touch sensing area 1452 may also be set to perform the same function in response to a user's input.
  • the first touch sensing region 1451 and the third touch sensing region 1451 may be set to increase the volume of the electronic device 1400 in response to a user input, and the second touch sensing region 1442 ) And the fourth touch sensing area 1452 may also be set to lower the volume of the electronic device 1400 in response to a user's input.
  • a region capable of detecting a user's input may be enlarged, and as a result, a case in which an erroneous touch different from the user's intention may occur due to a fine touch.
  • the electronic device 1400 adjusts the touch sensitivity, so that when the electronic device 1400 is in a folded state, the electronic device 1400 is positioned at the center of the first and third touch sensing regions 1451.
  • a first virtual touch sensing region 1461 may be formed, and a second virtual touch sensing region 1462 positioned at the center of the second touch sensing region 1442 and the fourth touch sensing region 1452 may be formed.
  • the electronic device 1400 detects only a user's input to the first virtual touch sensing region 1461 and/or the second virtual touch sensing region 1462, thereby providing a fine touch. It is possible to minimize the erroneous touch caused by.
  • the first virtual touch sensing area 1461 is located at the center of the first and third touch sensing areas 1451 and 1451, and the second virtual touch sensing area 1462 is a second touch sensing area.
  • the present invention is not limited thereto, and according to an embodiment, the first virtual touch sensing region 1461 and/or the second virtual touch sensing region ( 1462) may be formed to be biased to any one of the sensing regions.
  • the first virtual touch sensing region 1461 may be formed to be skewed toward the first touch sensing region 1451, and conversely may be formed to be skewed toward the third touch sensing region 1451.
  • a first housing structure eg, the first housing structure 211 of FIG. 2A
  • a second housing structure Example: A second housing structure 212 of FIG. 2A and a hinge structure connecting the first housing structure and the second housing structure (for example, the hinge structure 333 of FIG. 3)
  • the electronic device is unfolded.
  • a foldable housing eg, the foldable housing 210 of FIG. 2A
  • a flexible display e.g., the display 230 of FIG.
  • At least one input unit eg, the input unit 240 of FIG. 2A
  • a folded state of the electronic device eg, the electronic device of FIG. 2B
  • a side surface of the second housing structure corresponding to the input unit
  • At least one formed touch sensing region for example, the touch sensing region 250 of FIG. 2B
  • a processor electrically connected to the at least one input unit or the at least one touch sensing region (for example, the processor 560 of FIG. 5 ).
  • the processor identifies whether the electronic device is in the folded state or the unfolded state, and activates the touch sensing region based on the identification result, and the activated touch sensing region or the input unit In response to the user's input to, the electronic device may be driven.
  • a distance between the input unit and the hinge structure eg, L1 and L2 in FIG. 4A
  • a distance between the touch sensing region and the hinge structure may be the same.
  • the input unit and the touch sensing region are disposed at a position symmetrical with respect to a virtual center line (eg, ML in FIG. 4B) formed on the side of the housing due to the folded state of the electronic device.
  • a virtual center line eg, ML in FIG. 4B
  • a folding angle between the first housing structure and the second housing structure eg, ⁇ in FIG. 11 or whether the first housing structure and the second housing structure are in contact with each other is detected.
  • a sensor unit for example, the sensor unit 570 of FIG. 5
  • the processor may be configured to determine the folded state or the unfolded state of the electronic device in response to the detection result of the sensor unit. have.
  • the sensor unit may include at least one of a Hall sensor, a digital Hall sensor, a gyro sensor, a six axis sensor, a rotary sensor, and a stretch sensor.
  • the processor when the electronic device is determined to be in the folded state, activates the touch sensing region to detect the user's manipulation of the touch sensing region. Can be configured.
  • the processor may be configured to detect the user's manipulation of the touch sensing region by activating the touch sensing region when the folding angle is within a specified angle range. have.
  • the processor when the electronic device is determined to be in the open state, the processor may be configured to detect whether a user grips the electronic device through the touch sensing area. .
  • the at least one input unit includes a first input unit configured to execute a first function according to the user's manipulation (for example, the first input unit 1321 of FIGS. 13A and 13B) and the first function It may include a second input unit (eg, the second input unit 1322 of FIGS. 13A and 13B) configured to execute another second function.
  • the processor when the electronic device is determined to be in the folded state, the processor may be configured to switch functions of the first input unit and the second input unit.
  • a fingerprint sensor eg, the fingerprint sensor 1160 of FIGS. 11A and 11B
  • the at least one touch sensing area comprises the electronic device.
  • a third touch sensing region eg, a second touch sensing region 1170 of FIGS. 11A and 11B formed on one side of the first housing structure corresponding to the fingerprint sensor may be further included. have.
  • the fingerprint sensor and the third touch sensing area are symmetrical with respect to a virtual center line (for example, ML' in FIG. 11B) formed on the side of the housing due to the folded state of the electronic device. Can be placed in position.
  • a virtual center line for example, ML' in FIG. 11B
  • the processor when the electronic device is determined to be in the folded state, the processor may be configured to detect a user's touch input to the third touch sensing region by activating the third touch sensing region. I can.
  • a first housing structure and a second housing structure rotatable by a hinge structure may be in a folded state or an unfolded state.
  • An operation of identifying a state through a sensor unit, based on the identification result, corresponding to at least one input unit formed on one side of the first housing structure in the folded state of the electronic device, and the second housing structure An operation of activating at least one touch sensing region formed on one side of the input unit, and driving the electronic device in response to a user's manipulation of the input unit or a user's input to the activated touch sensing region.
  • the operation of activating the touch sensing region may activate the touch sensing region when it is determined that the electron is in a folded state as a result of the identification.
  • an operation of detecting whether the user has a grip on the electronic device through the touch sensing area may be further included.
  • an operation of identifying a folding angle between the first housing structure and the second housing structure through the sensor unit may be further included.
  • the operation of activating the touch sensing region may activate the touch sensing region when the folding angle is identified as within a specified angle range as a result of identifying the folding angle.
  • the at least one input unit includes a first input unit configured to execute a first function according to the user's manipulation, and a second input unit configured to execute a second function different from the first function. I can.
  • an operation of switching functions of the first input unit and the second input unit is performed. It may contain more.

Abstract

본 개시는 폴더블 전자 장치 및 그 제어 방법에 관한 것으로, 본 개시의 일 실시예에 따른 전자 장치는, 제1 하우징 구조, 제2 하우징 구조 및 상기 제1 하우징 구조와 제2 하우징 구조를 연결하는 힌지 구조를 포함하고, 상기 전자 장치의 펼침(unfolded) 상태에서 상기 전자 장치의 후면과 측면을 형성하는 폴더블 하우징, 상기 폴더블 하우징에 의해 형성된 공간에 배치되고, 상기 전자 장치의 펼침 상태에서 상기 전자 장치의 전면을 형성하는 플렉서블 디스플레이, 상기 제1 하우징 구조의 일 측면에 위치하여, 사용자의 조작을 입력 받는 적어도 하나의 입력부, 상기 전자 장치가 접힌(folding) 상태에서, 상기 입력부에 대응되는 상기 제2 하우징 구조의 일 측면에 형성되는 적어도 하나의 터치 감지 영역, 및 상기 적어도 하나의 입력부 또는 상기 적어도 하나의 터치 영역과 전기적으로 연결되는 프로세서를 포함하고, 상기 프로세서는, 상기 전자 장치의 상기 접힘 상태 또는 상기 펼침 상태 여부를 식별하고, 상기 식별 결과에 기초하여, 상기 터치 감지 영역을 활성화시키며, 상기 활성화된 터치 감지 영역 또는 상기 입력부에 대한 상기 사용자의 입력에 응답하여, 상기 전자 장치를 구동하도록 구성될 수 있다.

Description

폴더블 전자 장치 및 그 제어 방법
본 개시의 다양한 실시예들은 폴더블 전자 장치 및 그 제어 방법에 관한 것이다.
디지털 기술의 발달과 함께 전자 장치는 스마트폰(smart phone), 태블릿 PC(tablet personal computer), 또는 PDA(personal digital assistant) 등과 같은 다양한 형태로 제공되고 있다. 전자 장치는 이동성(portability) 및 사용자의 접근성(accessibility)을 향상시킬 수 있도록 휴대용 또는 사용자에 착용할 수 있는 형태로 개발되고 있다.
최근 들어, 스마트폰이나 태블릿 PC 등과 같은 휴대용 전자 장치는 휴대 용이성을 위해 가볍고, 얇아지고 있으며, 사용 편의성을 위해 다방면으로 발전을 꾀하고 있다. 특히, 플렉서블(flexible) 디스플레이를 구비한 폴더블 타입(foldable type)의 전자 장치는 일반적인 바 타입(bar type)의 전자 장치보다 상대적으로 큰 화면을 제공하면서도, 접게(folding) 되면 그 크기가 줄어들어 휴대하기 편리해지므로, 소비자의 기호를 충족시키기 위한 전자 장치로 각광받고 있다.
폴더블 전자 장치가 접힘(folded) 상태에서도 휴대성을 확보하기 위해서는 일반적인 전자 장치에 비하여 두께가 얇아야 하므로, 사용자의 편의성을 확보하는 차원에서 폴더블 전자 장치의 두께는 점차 얇아지게 되었다.
폴더블 전자 장치의 두께가 얇아짐에 따라 폴더블 전자 장치의 일 측면에 형성되어, 사용자의 조작 입력을 받는 키(key) 영역 또한 줄어들게 되었다.
사용자들은 키를 정확히 확인하지 않은 상태에서 만져지는 촉감에 기초하여 키 조작을 수행하는 것이 일반적인데, 키 영역이 줄어듦에 따라 폴더블 전자 장치가 접힌 상태에서는 촉감만으로는 키를 구별하기 어려워졌으며, 그 결과, 사용자가 의도치 않은 키가 입력되는 오 동작 발생 빈도가 증가하게 되었다.
즉, 기존의 폴더블 전자 장치의 두께가 얇아지면서 휴대성이 향상될 수는 있으나, 오 동작 발생 빈도가 높아진다는 한계가 있으므로, 폴더블 전자 장치의 두께를 얇게 하면서도 사용자의 오 입력을 방지할 수 있는 방안이 요구되고 있는 실정이다.
본 개시는 폴더블 전자 장치의 접힘(folded) 또는 펼침(unfolded) 상태에 대응하여 키 영역을 확장할 수 있는 전자 장치를 제공하여, 폴더블 전자 장치의 두께가 얇아짐에 따라 발생되는 한계를 극복하고자 한다.
다양한 실시예에 따른 전자 장치는, 전자 장치에 있어서, 제1 하우징 구조, 제2 하우징 구조 및 상기 제1 하우징 구조와 제2 하우징 구조를 연결하는 힌지 구조를 포함하고, 상기 전자 장치의 펼침(unfolded) 상태에서 상기 전자 장치의 후면과 측면을 형성하는 폴더블 하우징, 상기 폴더블 하우징에 의해 형성된 공간에 배치되고, 상기 전자 장치의 펼침 상태에서 상기 전자 장치의 전면을 형성하는 플렉서블 디스플레이, 상기 제1 하우징 구조의 일 측면에 위치하여, 사용자의 조작을 입력 받는 적어도 하나의 입력부, 상기 전자 장치가 접힌(folding) 상태에서, 상기 입력부에 대응되는 상기 제2 하우징 구조의 일 측면에 형성되는 적어도 하나의 터치 감지 영역, 및 상기 적어도 하나의 입력부 또는 상기 적어도 하나의 터치 영역과 전기적으로 연결되는 프로세서를 포함하고, 상기 프로세서는, 상기 전자 장치의 상기 접힘 상태 또는 상기 펼침 상태 여부를 식별하고, 상기 식별 결과에 기초하여, 상기 터치 감지 영역을 활성화시키며, 상기 활성화된 터치 감지 영역 또는 상기 입력부에 대한 상기 사용자의 입력에 응답하여, 상기 전자 장치를 구동하도록 구성될 수 있다.
다양한 실시예에 따른 방법은, 전자 장치를 제어하는 방법에 있어서, 힌지 구조에 의해 회전 가능한 제1 하우징 구조, 제2 하우징 구조를 포함하는 전자 장치의 접힘(folded) 상태 또는 펼침(unfolded) 상태 여부를 센서부를 통해 식별하는 동작, 상기 식별 결과에 기초하여, 상기 전자 장치의 상기 접힘 상태에서, 상기 제1 하우징 구조의 일 측면에 형성된 적어도 하나의 입력부에 대응되고, 상기 제2 하우징 구조의 일 측면에 형성된 적어도 하나의 터치 감지 영역을 활성화시키는 동작 및 상기 입력부에 대한 사용자의 조작 또는 활성화된 상기 터치 감지 영역에 대한 사용자의 입력에 응답하여, 상기 전자 장치를 구동시키는 동작을 포함할 수 있다.
다양한 실시예에 따른 전자 장치는, 전자 장치가 접힘 상태인지 또는 펼침 상태인지 여부에 기초하여 사용자의 조작을 입력 받을 수 있는 영역을 확장함으로써, 사용자가 의도치 않은 조작이 입력되는 것을 방지할 수 있다.
또한, 다양한 실시예에 따른 전자 장치는, 전자 장치가 접힘 상태인지 또는 펼침 상태인지 여부에 기초하여 키 맵핑(mapping)을 변경함으로써, 사용자의 편의성을 향상시키고자 한다.
도 1은, 다양한 실시예들에 따른 네트워크 환경 내의 전자 장치의 블럭도이다.
도 2a는, 일 실시예에 따른 전자 장치의 펼침(unfolded) 상태를 나타내는 사시도이다.
도 2b는, 일 실시예에 따른 전자 장치의 접힘(folded) 상태를 나타내는 사시도이다.
도 2c는, 다른 실시예에 따른 전자 장치의 접힘(folded) 상태를 나타내는 사시도이다.
도 3은, 일 실시예에 따른 전자 장치의 분해 사시도이다.
도 4a는, 일 실시예에 따른 전자 장치의 펼침(unfolded) 상태를 나타내는 측면도이다.
도 4b는, 도 4a의 전자 장치의 접힘(folded) 상태를 나타내는 측면도이다.
도 5는, 일 실시예에 따른 전자 장치의 프로세서, 입력부, 및 터치 감지 영역의 전기적 연결 관계를 나타내는 도면이다.
도 6은, 전자 장치의 접힘 또는 펼침 상태에 응답하여, 전자 장치를 제어하는 동작을 나타내는 흐름도이다.
도 7a는, 전자 장치가 접힘 상태에서, 사용자의 입력이 터치 감지 영역에만 입력되는 상태를 나타내는 도면이다.
도 7b는, 전자 장치가 접힘 상태에서, 사용자의 입력이 입력부와 터치 감지 영역에 동시에 입력되는 상태를 나타내는 도면이다.
도 7c는, 전자 장치가 펼침 상태에서, 사용자가 전자 장치를 파지하는 상태를 나타내는 도면이다.
도 8은, 폴딩 각도(folding angle)에 응답하여, 전자 장치를 제어하는 동작을 나타내는 흐름도이다.
도 9는, 일 실시예에 따른 전자 장치가 테이블 모드(table mode)로 사용되고 있는 상태를 나타내는 도면이다.
도 10은, 전자 장치의 접힘 상태에 기초하여, 전자 장치를 제어하는 동작을 나타내는 흐름도이다.
도 11a는, 일 실시예에 따른 전자 장치를 나타내는 사시도이다.
도 11b는, 도 11a의 전자 장치의 접힘 상태를 나타내는 사시도이다.
도 12는, 전자 장치의 접힘 또는 펼침 상태에 응답하여, 입력부 기능을 전환하는 동작을 나타내는 흐름도이다.
도 13a는, 일 실시예에 따른 전자 장치의 펼침 상태를 나타내는 정면도이다.
도 13b는, 도 13a의 전자 장치의 접힘 상태를 나타내는 정면도이다.
도 14a는, 일 실시예에 따른 전자 장치의 펼침 상태를 나타내는 사시도이다.
도 14b는, 도 14a의 전자 장치의 일정 각도 접힘 상태를 나타내는 사시도이다.
도 14c는, 도 14a의 전자 장치의 접힘 상태를 나타내는 사시도이다.
도 1은, 다양한 실시예들에 따른, 네트워크 환경(100) 내의 전자 장치(101)의 블럭도이다. 도 1을 참조하면, 네트워크 환경(100)에서 전자 장치(101)는 제 1 네트워크(198)(예: 근거리 무선 통신 네트워크)를 통하여 전자 장치(102)와 통신하거나, 또는 제 2 네트워크(199)(예: 원거리 무선 통신 네트워크)를 통하여 전자 장치(104) 또는 서버(108)와 통신할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 서버(108)를 통하여 전자 장치(104)와 통신할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 프로세서(120), 메모리(130), 입력 장치(150), 음향 출력 장치(155), 표시 장치(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 햅틱 모듈(179), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 가입자 식별 모듈(196), 또는 안테나 모듈(197)을 포함할 수 있다. 어떤 실시예에서는, 전자 장치(101)에는, 이 구성 요소들 중 적어도 하나(예: 표시 장치(160) 또는 카메라 모듈(180))가 생략되거나, 하나 이상의 다른 구성 요소가 추가될 수 있다. 어떤 실시예에서는, 이 구성 요소들 중 일부들은 하나의 통합된 회로로 구현될 수 있다. 예를 들면, 센서 모듈(176)(예: 지문 센서, 홍채 센서, 또는 조도 센서)은 표시 장치(160)(예: 디스플레이)에 임베디드된 채 구현될 수 있다
프로세서(120)는, 예를 들면, 소프트웨어(예: 프로그램(140))를 실행하여 프로세서(120)에 연결된 전자 장치(101)의 적어도 하나의 다른 구성 요소(예: 하드웨어 또는 소프트웨어 구성 요소)을 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일 실시예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(120)는 다른 구성 요소(예: 센서 모듈(176) 또는 통신 모듈(190))로부터 수신된 명령 또는 데이터를 휘발성 메모리(132)에 로드하고, 휘발성 메모리(132)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리(134)에 저장할 수 있다. 일 실시예에 따르면, 프로세서(120)는 메인 프로세서(121)(예: 중앙 처리 장치 또는 어플리케이션 프로세서), 및 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(123)(예: 그래픽 처리 장치, 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 추가적으로 또는 대체적으로, 보조 프로세서(123)은 메인 프로세서(121)보다 저전력을 사용하거나, 또는 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서(123)는 메인 프로세서(121)와 별개로, 또는 그 일부로서 구현될 수 있다.
보조 프로세서(123)는, 예를 들면, 메인 프로세서(121)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(121)를 대신하여, 또는 메인 프로세서(121)가 액티브(예: 어플리케이션 실행) 상태에 있는 동안 메인 프로세서(121)와 함께, 전자 장치(101)의 구성 요소들 중 적어도 하나의 구성 요소(예: 표시 장치(160), 센서 모듈(176), 또는 통신 모듈(190))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일 실시예에 따르면, 보조 프로세서(123)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성 요소(예: 카메라 모듈(180) 또는 통신 모듈(190))의 일부로서 구현될 수 있다.
메모리(130)는, 전자 장치(101)의 적어도 하나의 구성 요소(예: 프로세서(120) 또는 센서 모듈(176))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램(140)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(130)는, 휘발성 메모리(132) 또는 비휘발성 메모리(134)를 포함할 수 있다.
프로그램(140)은 메모리(130)에 소프트웨어로서 저장될 수 있으며, 예를 들면, 운영 체제(142), 미들 웨어(144) 또는 어플리케이션(146)을 포함할 수 있다.
입력 장치(150)는, 전자 장치(101)의 구성 요소(예: 프로세서(120))에 사용될 명령 또는 데이터를 전자 장치(101)의 외부(예: 사용자)로부터 수신할 수 있다. 입력 장치(150)은, 예를 들면, 마이크, 마우스, 키보드, 또는 디지털 펜(예: 스타일러스 펜)을 포함할 수 있다.
음향 출력 장치(155)는 음향 신호를 전자 장치(101)의 외부로 출력할 수 있다. 음향 출력 장치(155)는, 예를 들면, 스피커 또는 리시버를 포함할 수 있다. 스피커는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있고, 리시버는 착신 전화를 수신하기 위해 사용될 수 있다. 일 실시예에 따르면, 리시버는 스피커와 별개로, 또는 그 일부로서 구현될 수 있다.
표시 장치(160)는 전자 장치(101)의 외부(예: 사용자)로 정보를 시각적으로 제공할 수 있다. 표시 장치(160)은, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일 실시예에 따르면, 표시 장치(160)는 터치를 감지하도록 설정된 터치 회로(touch circuitry), 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 센서 회로(예: 압력 센서)를 포함할 수 있다.
오디오 모듈(170)은 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 일 실시예에 따르면, 오디오 모듈(170)은, 입력 장치(150)를 통해 소리를 획득하거나, 음향 출력 장치(155), 또는 전자 장치(101)와 직접 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(102)) (예: 스피커 또는 헤드폰))를 통해 소리를 출력할 수 있다.
센서 모듈(176)은 전자 장치(101)의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 사용자 상태)를 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 일 실시예에 따르면, 센서 모듈(176)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다.
인터페이스(177)는 전자 장치(101)이 외부 전자 장치(예: 전자 장치(102))와 직접 또는 무선으로 연결되기 위해 사용될 수 있는 하나 이상의 지정된 프로토콜들을 지원할 수 있다. 일 실시예에 따르면, 인터페이스(177)는, 예를 들면, HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.
연결 단자(178)는, 그를 통해서 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 물리적으로 연결될 수 있는 커넥터를 포함할 수 있다. 일 실시예에 따르면, 연결 단자(178)은, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.
햅틱 모듈(179)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 일 실시예에 따르면, 햅틱 모듈(179)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.
카메라 모듈(180)은 정지 영상 및 동영상을 촬영할 수 있다. 일 실시예에 따르면, 카메라 모듈(180)은 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다.
전력 관리 모듈(188)은 전자 장치(101)에 공급되는 전력을 관리할 수 있다. 일 실시예에 따르면, 전력 관리 모듈(388)은, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구현될 수 있다.
배터리(189)는 전자 장치(101)의 적어도 하나의 구성 요소에 전력을 공급할 수 있다. 일 실시예에 따르면, 배터리(189)는, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.
통신 모듈(190)은 전자 장치(101)와 외부 전자 장치(예: 전자 장치(102), 전자 장치(104), 또는 서버(108))간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(190)은 프로세서(120)(예: 어플리케이션 프로세서)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일 실시예에 따르면, 통신 모듈(190)은 무선 통신 모듈(192)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(194)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제 1 네트워크(198)(예: 블루투스, WiFi direct 또는 IrDA(infrared data association) 같은 근거리 통신 네트워크) 또는 제 2 네트워크(199)(예: 셀룰러 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부 전자 장치와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성 요소(예: 단일 칩)으로 통합되거나, 또는 서로 별도의 복수의 구성 요소들(예: 복수 칩들)로 구현될 수 있다. 무선 통신 모듈(192)은 가입자 식별 모듈(196)에 저장된 가입자 정보(예: 국제 모바일 가입자 식별자(IMSI))를 이용하여 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크 내에서 전자 장치(101)를 확인 및 인증할 수 있다.
안테나 모듈(197)은 신호 또는 전력을 외부(예: 외부 전자 장치)로 송신하거나 외부로부터 수신할 수 있다. 일 실시예에 따르면, 안테나 모듈은 서브스트레이트(예: PCB) 위에 형성된 도전체 또는 도전성 패턴으로 이루어진 방사체를 포함하는 하나의 안테나를 포함할 수 있다. 일 실시예에 따르면, 안테나 모듈(197)은 복수의 안테나들을 포함할 수 있다. 이런 경우, 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 적어도 하나의 안테나가, 예를 들면, 통신 모듈(190)에 의하여 상기 복수의 안테나들로부터 선택될 수 있다. 신호 또는 전력은 상기 선택된 적어도 하나의 안테나를 통하여 통신 모듈(190)과 외부 전자 장치 간에 송신되거나 수신될 수 있다. 어떤 실시예에 따르면, 방사체 이외에 다른 부품(예: RFIC)이 추가로 안테나 모듈(197)의 일부로 형성될 수 있다.
상기 구성 요소들 중 적어도 일부는 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input and output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))를 통해 서로 연결되고 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.
일 실시예에 따르면, 명령 또는 데이터는 제 2 네트워크(199)에 연결된 서버(108)를 통해서 전자 장치(101)와 외부의 전자 장치(104)간에 송신 또는 수신될 수 있다. 전자 장치(102, 104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 일 실시예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 외부 전자 장치들(102, 104, or 108) 중 하나 이상의 외부 장치들에서 실행될 수 있다. 예를 들면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로, 또는 사용자 또는 다른 장치로부터의 요청에 반응하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 하나 이상의 외부 전자 장치들에게 그 기능 또는 그 서비스의 적어도 일부를 수행하라고 요청할 수 있다. 상기 요청을 수신한 하나 이상의 외부 전자 장치들은 요청된 기능 또는 서비스의 적어도 일부, 또는 상기 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행의 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 상기 결과를, 그대로 또는 추가적으로 처리하여, 상기 요청에 대한 응답의 적어도 일부로서 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다.
본 문서에 개시된 다양한 실시예들에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치 (예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 또는 가전 장치를 포함할 수 있다. 본 문서의 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.
본 문서의 다양한 실시예들 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시예들로 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성 요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나","A 또는 B 중 적어도 하나,""A, B 또는 C," "A, B 및 C 중 적어도 하나,"및 "A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성 요소를 다른 해당 구성 요소와 구분하기 위해 사용될 수 있으며, 해당 구성 요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제 1) 구성 요소가 다른(예: 제 2) 구성 요소에, "기능적으로" 또는 "통신적으로"라는 용어와 함께 또는 이런 용어 없이, "커플드" 또는 "커넥티드"라고 언급된 경우, 그것은 상기 어떤 구성 요소가 상기 다른 구성 요소에 직접적으로(예: 유선으로), 무선으로, 또는 제 3 구성 요소를 통하여 연결될 수 있다는 것을 의미한다.
본 문서에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로 등의 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일 실시예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다.
본 문서의 다양한 실시예들은 기기(machine)(예: 전자 장치(101)) 의해 읽을 수 있는 저장 매체(storage medium)(예: 내장 메모리(136) 또는 외장 메모리(138))에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예: 프로그램(140))로서 구현될 수 있다. 예를 들면, 기기(예: 전자 장치(101))의 프로세서(예: 프로세서(120))는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장매체는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, ‘비일시적'은 저장매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.
일 실시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두개의 사용자 장치들(예: 스마트폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.
다양한 실시예들에 따르면, 상기 기술한 구성 요소들의 각각의 구성 요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있다. 다양한 실시예들에 따르면, 전술한 해당 구성 요소들 중 하나 이상의 구성 요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성 요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성 요소들(예: 모듈 또는 프로그램)은 하나의 구성 요소로 통합될 수 있다. 이런 경우, 통합된 구성 요소는 상기 복수의 구성 요소들 각각의 구성 요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성 요소들 중 해당 구성 요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시예들에 따르면, 모듈, 프로그램 또는 다른 구성 요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.
도 2a는, 일 실시예에 따른 전자 장치의 펼침(unfolded) 상태를 나타내는 사시도이다. 도 2b는, 일 실시예에 따른 전자 장치의 접힘(folded) 상태를 나타내는 사시도이다. 도 2c는, 다른 실시예에 따른 전자 장치의 접힘(folded) 상태를 나타내는 사시도이다.
도 2a 및 도 2b를 참조하면, 일 실시예에 따른 전자 장치(200)(예: 도 1의 전자 장치(101))는, 폴더블 하우징(210), 상기 폴더블 하우징(210)의 접힘 가능한 부분을 커버하는 힌지 커버(220), 상기 폴더블 하우징(210)에 의해 형성된 공간 내에 배치된 플렉서블(flexible) 또는 폴더블(foldable) 디스플레이(230)(이하, 줄여서, "디스플레이"(230)), 상기 폴더블 하우징(210)의 적어도 일 측면에 위치하는 입력 부(240), 및 터치 감지 영역(250)을 포함할 수 있다. 본 개시에서는 디스플레이(230)가 배치된 면을 제1 면 또는 전자 장치(200)의 전면으로 정의하고, 상기 전면의 반대 방향을 향하는 면을 제2 면 또는 전자 장치(200)의 후면으로 정의한다. 또한, 상기 전면과 후면 사이의 공간을 둘러싸는 면을 제3 면 또는 전자 장치(200)의 측면으로 정의한다.
일 실시예에 따르면, 폴더블 하우징(210)은, 제1 하우징 구조(211)와 제2 하우징 구조(212), 제1 후면 커버(211a), 및 제2 후면 커버(212a)를 포함할 수 있다.
제1 하우징 구조(211)와 제2 하우징 구조(212)는 일 예시로, 폴딩 축(도 2a의 A축)을 중심으로 양측에 배치될 수 있으며, 상기 폴딩 축을 기준으로 실질적으로 대칭인 형상으로 형성될 수 있다. 다만, 제1 하우징 구조(211)와 제2 하우징 구조(212)의 형상이 상술한 형상에 한정되는 것은 아니며, 실시예에 따라 다양한 형상으로 형성될 수 있다.
일 실시예에 따르면, 제1 하우징 구조(211)와 제2 하우징 구조(212)는 힌지 구조(미도시)에 의해 회전 가능하게 결합될 수 있으며, 전자 장치(200)의 상태에 따라 제1 하우징 구조(211)와 제2 하우징 구조(212) 사이의 각도(이하, "폴딩 각도(folding angle)"라고 지칭함)가 달라질 수 있다. 일 예시로, 도 2a에 도시된 바와 같이 전자 장치(200)가 펼침 상태(unfolded state)(또는 "flat state")에서 제1 하우징 구조(211)와 제2 하우징 구조(212) 사이의 폴딩 각도는 180˚일 수 있다. 또 다른 예시로, 도 2b에 도시된 바와 같이 전자 장치(200)가 접힘 상태(folded state)에서 제1 하우징 구조(211)와 제2 하우징 구조(212) 사이의 폴딩 각도는 0˚ 내지 10˚ 일 수 있다.
일 실시예에 따르면, 제1 후면 커버(211a)와 제2 후면 커버(212a)는 폴딩 축(A축)을 중심으로 양측에 배치될 수 있으며, 구체적으로 제1 후면 커버(211a)는 폴딩 축(A축)의 일편에 배치되고, 제2 후면 커버(212a)는 폴딩 축(A축)의 다른 일편에 배치될 수 있다. 일 실시예에 따르면, 제1 후면 커버(211a)와 제2 후면 커버(212a)는 대체적으로 직사각형 형상으로 형성될 수 있다. 제1 후면 커버(211a)의 가장자리는 제1 하우징 구조(211)에 의해 감싸지고, 제2 후면 커버(212a)의 가장자리는 제2 하우징 구조(212)에 의해 감싸질 수 있다. 또 다른 실시예에 따르면, 제1 후면 커버(211a)와 제1 하우징 구조(211)는 일체로 형성될 수 있고, 제2 하우징 구조(212)와 제2 후면 커버(212a)가 일체로 형성될 수도 있다.
일 예시로, 제1 후면 커버(211a)와 제2 후면 커버(212a)는 폴딩 축(A축)을 기준으로 전체적으로 대칭적인 형상을 가질 수 있다. 다만, 제1 후면 커버(211a)의 일 영역에는 카메라 모듈(235, 236)이 배치될 수 있다. 즉, 제1 후면 커버(211a)와 제2 후면 커버(212a)는 서로 대칭적인 형상을 갖는 부분과, 서로 비대칭적인 형상을 갖는 부분을 포함할 수 있다.
일 실시예에 따르면, 힌지 커버(220)는 제1 하우징 구조(211)와 제2 하우징 구조(212) 사이에 배치되어, 제1 하우징 구조(211)와 제2 하우징 구조(212) 사이에 배치되는 내부 부품을 가리도록 형성될 수 있다. 일 예시로, 힌지 커버(220)는 제1 하우징 구조(211)와 제2 하우징 구조(212)를 연결하는 힌지 구조를 가릴 수 있다.
힌지 커버(220)는 일 예시로 곡면을 포함할 수 있으며, 전자 장치(200)의 상태(예: 접힘 상태, 또는 펼침 상태)에 따라, 제1 하우징 구조(211) 및/또는 제2 하우징 구조(212)의 일부 영역에 의해 가려지거나, 외부에 노출될 수 있다. 일 예시로, 도 2a에 도시된 바와 같이 전자 장치(200)가 펼침 상태인 경우, 힌지 커버(220)는 제1 하우징 구조(211)와 제2 하우징 구조(212)에 의해 가려져 전자 장치(200)의 외부에서 보이지 않을 수 있다. 다른 예시로, 도 2b에 도시된 바와 같이 전자 장치(200)가 접힘 상태인 경우, 힌지 커버(220)는 제1 하우징 구조(211) 및 제2 하우징 구조(212) 사이에서 외부로 노출되어, 전자 장치(200)의 외부에서 보일 수 있다.
일 실시예에 따른, 디스플레이(230)는, 상기 폴더블 하우징(210)에 의해 형성된 공간 상에 배치될 수 있다. 일 예시로, 디스플레이(230)는 폴더블 하우징(210)에 의해 형성되는 리세스(recess) 상에 안착되어, 전자 장치(200)의 전면의 대부분을 구성할 수 있다. 즉, 전자 장치(200)의 전면은 디스플레이(230) 및 디스플레이(230)에 인접한 제1 하우징 구조(211)의 일부 영역 및 제2 하우징 구조(212)의 일부 영역을 포함할 수 있다.
상기 디스플레이(230)는, 적어도 일부 영역이 평면 또는 곡면으로 변형될 수 있는 플렉서블(flexible) 디스플레이를 의미할 수 있다. 도 2a를 참조하면, 디스플레이(230)는 폴딩 영역(233), 폴딩 영역(233)을 기준으로 일측에 배치되는 제1 영역(231), 및 폴딩 영역(233)의 타측에 배치되는 제2 영역(232)을 포함할 수 있다. 다만, 도 2a에 도시된 디스플레이(230)의 영역 구분은 예시적인 것에 불과하며, 실시예에 따라 디스플레이(230)는 다른 방식으로 영역이 구분될 수도 있다. 일 예시로, 도 2a에 도시된 바와 같이, 디스플레이(230)가 x축과 평행한 방향으로 연장되는 폴딩 영역(233)을 기준으로 제1 영역(231)과 제2 영역(232)이 구분될 수 있으나, 다른 실시예(미도시)에서는, 디스플레이(230)가 y축과 평행한 방향으로 연장되는 폴딩 영역(미도시)을 기준으로 제1 영역(미도시), 제2 영역(미도시)으로 구분될 수도 있다.
일 예시로, 제1 영역(231)과 제2 영역(232)은 폴딩 영역(233)을 기준으로 전체적으로 대칭적인 형상을 가질 수 있다. 다만, 제1 영역(231)의 일부 영역에는 리세스 또는 개구부(opening)가 형성되고, 리세스 또는 개구부에는 다른 전자 부품(예: 카메라 모듈(234), 근접 센서 등)이 정렬될 수 있다. 즉, 제1 영역(231)과 제2 영역(232)은 서로 대칭적인 형상을 갖는 부분과, 서로 비대칭적인 형상을 갖는 부분을 포함할 수 있다.
일 실시예에 따르면, 입력부(240)와 터치 감지 영역(250)은, 폴더블 하우징(210)의 일 측면에 형성될 수 있다. 일 예시로, 입력부(240)는 제1 하우징 구조(211)의 일 측면에 형성될 수 있으며, 터치 감지 영역(250)은 상기 입력부(240)가 형성된 제1 하우징 구조(211)의 일 측면과 동일한 방향의 제2 하우징 구조(212)의 일 측면에 형성될 수 있다. 도면 상에 도시되지 않았으나, 다른 예시로, 입력부(240)가 제2 하우징 구조(212)의 일 측면에 형성되고, 터치 감지 영역(250)이 제1 하우징 구조(211)의 일 측면에 형성될 수도 있다.
상기 입력부(240)는, 사용자의 조작을 입력 받을 수 있는 키(key)의 일종으로, 전자 장치(200)는 입력부(240)에 대한 사용자 조작에 기초하여 구동될 수 있다. 일 예시로, 사용자는 입력부(240) 조작을 통해 전자 장치(200)의 볼륨을 조절하거나, 전원을 온/오프(On/Off)시킬 수 있으며, 카메라를 실행시키거나, 보이스 어시스턴스(voice assistance) 기능을 실행시킬 수도 있다.
일 예시로, 입력부(240)는 도면 상에 도시된 바와 같이 버튼(button)과 같은 물리 키로 형성될 수 있으나, 다른 실시예(미도시)에 따르면 입력부(240)는 사용자의 터치를 인식하는 터치 센서 방식의 가상 키, 사용자의 터치를 인식하고 진동하는 햅틱 방식의 가상 키, 또는 압력을 감지하는 스트레인 게이지(strain gauge) 방식의 가상 키로 형성될 수도 있다. 또한, 입력부(240)는 폴더블 하우징(210)의 일 측면에서 돌출되어 형성된 양각 방식의 키일 수도 있으나, 다른 실시예에서는 음각 방식으로 형성될 수도 있다.
상기 터치 감지 영역(250)은, 사용자의 터치를 감지할 수 있는 영역으로, 전자 장치(200)의 상태(예: 접힘 상태 또는 펼침 상태)에 따라 활성화 또는 비활성화될 수 있다. 다만, 이에 대한 구체적인 설명은 후술하도록 한다. 일 예시로, 터치 감지 영역(250)은 전자 장치(200) 내부에 실장된 터치 회로(touch circuitry) 또는 센서 회로의 감도(sensitivity)를 높이는 방식으로 폴더블 하우징(210)의 일 측면에 형성될 수 있다. 다른 실시예에 따르면, 터치 감지 영역(250)은 폴더블 하우징(210)의 일 측면에 터치 센서(미도시)를 실장하는 방식으로 형성될 수도 있다. 터치 감지 영역(250)은 도 2b 및 도 2c에 도시된 바와 같이, 전자 장치(200)의 접힘 상태에서 입력부(240)와 대응되는 위치에 형성될 수 있으며, 이에 대한 구체적인 설명은 후술하도록 한다.
이하에서는, 전자 장치(200)의 상태(예: 펼침 상태 또는 접힘 상태)에 따른, 제1 하우징 구조(211)와 제2 하우징 구조(212)의 동작 및 디스플레이(230)의 각 영역에 대해 설명하도록 한다.
일 실시예(예: 도 2a)에 따르면, 전자 장치(200)가 펼침 상태(unfolded state)인 경우, 제1 하우징 구조(211)와 제2 하우징 구조(212)는 180˚의 각도를 이루며 동일한 방향을 향하도록 배치될 수 있다. 상술한 제1 하우징 구조(211)와 제2 하우징 구조(212)의 배치로 인하여, 디스플레이(230)의 제1 영역(231)의 표면과 제2 영역(232)의 표면도 서로 180˚를 형성하며, 동일한 방향(예: 전자 장치(200)의 전면 방향)을 향할 수 있다. 폴딩 영역(233)은 제1 영역(231) 및 제2 영역(232)과 동일한 평면을 형성할 수 있다.
일 실시예(예: 도 2b)에 따르면, 전자 장치(200)가 접힘 상태(folded state)인 경우, 제1 하우징 구조(211)와 제2 하우징 구조(212)는 서로 마주보는 방향으로 배치될 수 있다. 디스플레이(230)의 제1 영역(231)과 제2 영역(232)은 0˚ 내지 10˚의 각도를 형성하며, 서로 마주볼 수 있다. 폴딩 영역(233)은 적어도 일부가 소정의 곡률을 가지는 곡면으로 이루어질 수 있다.
또 다른 실시예(예: 도 2c)에 따르면, 전자 장치(200)가 접힘 상태인 경우, 제1 하우징 구조(211)와 제2 하우징 구조(212)는 서로 반대 방향으로 배치될 수도 있다. 일 예시로, 제1 하우징 구조(211)는 전자 장치(200)의 전면을 향하는 방향으로 배치될 수 있으며, 제2 하우징 구조(212)는 전자 장치(200)의 후면을 향하는 방향으로 배치될 수 있다. 이에 따라, 제1 후면 커버(211a)와 제2 후면 커버(212a)는 서로 마주보는 방향으로 배치될 수 있다. 상술한 제1 하우징 구조(211)와 제2 하우징 구조(212)의 배치로 인하여, 디스플레이(230)의 제1 영역(231)과 제2 영역(232)은 서로 반대 방향에 배치될 수 있다. 일 예시로, 제1 영역(231)은 전자 장치(200)의 전면을 향하도록 배치될 수 있으며, 제2 영역(232)은 전자 장치(200)의 후면을 향하도록 배치될 수 있다. 폴딩 영역(233)은 적어도 일부가 소정의 곡률을 가지는 곡면으로 이루어질 수 있으며, 전자 장치(200)의 외부에 노출될 수 있다.
도 3은 일 실시예에 따른 전자 장치의 분해 사시도이다.
도 3을 참조하면, 일 실시예에 따른 전자 장치(200)는 디스플레이부(300), 브라켓 어셈블리(330), 기판부(350), 제1 하우징 구조 (211), 제2 하우징 구조(212), 제1 후면 커버(211a) 및 제2 후면 커버(212a)를 포함할 수 있다. 본 개시에서, 디스플레이부(display unit)(300)는 디스플레이 모듈(module) 또는 디스플레이 어셈블리(assembly)로 불릴 수 있다.
일 실시예에 따른 디스플레이부(300)는, 디스플레이(230)와, 디스플레이(230)가 안착되는 하나 이상의 플레이트(310)(또는 층)을 포함할 수 있다. 일 실시예에 따르면, 플레이트(310)는 디스플레이(230)와 브라켓 어셈블리(330) 사이에 배치될 수 있다. 플레이트(310)의 일면(예: 도 3을 기준으로 상부면)의 적어도 일부에는 디스플레이(230)가 배치될 수 있으며, 플레이트(310)는 디스플레이(230)와 대응되는 형상으로 형성될 수 있다.
일 실시예에 따른 브라켓 어셈블리(330)는, 제1 브라켓(331), 제2 브라켓(332), 제1 브라켓(331) 및 제2 브라켓(332) 사이에 배치되는 힌지 구조(333), 외부에서 볼 때 힌지 구조(333)를 커버하는 힌지 커버(220), 및 제1 브라켓(331)과 제2 브라켓(332)을 가로지르는 배선 부재(334)(예: 연성 회로 기판(FPCB: flexible printed circuit board)를 포함할 수 있다.
일 실시예에 따르면, 상기 플레이트(310)와 상기 기판부(350) 사이에, 상기 브라켓 어셈블리(330)가 배치될 수 있다. 일례로, 제1 브라켓(331)은, 디스플레이(230)의 제1 영역(231) 및 제1 기판(351) 사이에 배치될 수 있다. 제2 브라켓(332)은, 디스플레이(230)의 제2 영역(232) 및 제2 기판(352) 사이에 배치될 수 있다.
일 실시예에 따르면, 브라켓 어셈블리(330)의 내부에는 배선 부재(334)와 힌지 구조(333)의 적어도 일부가 배치될 수 있다. 배선 부재(334)는 제1 브라켓(331)과 제2 브라켓(332)을 가로지르는 방향(예: x축 방향)으로 배치될 수 있다. 즉, 배선 부재(334)는 전자 장치(200)의 폴딩 영역(233)의 폴딩 축(예: y축 또는 도 2a의 폴딩 축(A))에 수직한 방향(예: x축 방향)으로 배치될 수 있다.
일 실시예에 따른 기판부(350)는, 상술한 바와 같이, 제1 브라켓(331) 측에 배치되는 제1 기판(351)과 제2 브라켓(332) 측에 배치되는 제2 기판(352)을 포함할 수 있다. 일 예시로, 제1 기판(351)과 제2 기판(352)은 브라켓 어셈블리(330), 제1 하우징 구조(211), 제2 하우징 구조(212), 제1 후면 커버(211a) 및 제2 후면 커버(212a)에 의해 형성되는 공간의 내부에 배치될 수 있다. 제1 기판(351)과 제2 기판(352)에는 전자 장치(200)의 다양한 기능을 구현하기 위한 부품들(예: 도 1의 프로세서(120))이 실장될 수 있다.
상기 제1 하우징 구조(211)와 제2 하우징 구조(212)는 브라켓 어셈블리(330)에 디스플레이부(300)가 결합된 상태에서, 브라켓 어셈블리(330)의 양측으로 결합되도록 서로 조립될 수 있다. 일 예시로, 제1 하우징 구조 (211)과 제2 하우징 구조(212)는 브라켓 어셈블리(330)의 양 측에서 슬라이딩 되어 브라켓 어셈블리(330)와 결합될 수 있다.
일 실시예에 따르면, 제1 하우징 구조(211)는 제1 회전 지지면(213)을 포함할 수 있고, 제2 하우징 구조(212)는 제1 회전 지지면(213)에 대응되는 제2 회전 지지면(214)을 포함할 수 있다. 제1 회전 지지면(213)과 제2 회전 지지면(214)은 힌지 커버(220)에 포함된 곡면과 대응되는 곡면을 포함할 수 있다.
상기 제1 회전 지지면(213)과 제2 회전 지지면(214)은, 전자 장치(200)가 펼쳐진 상태(예: 도 2a의 전자 장치)인 경우, 상기 힌지 커버(220)를 덮어 힌지 커버(220)가 전자 장치(200)의 후면으로 노출되지 않거나, 최소한으로 노출되도록 할 수 있다. 반대로, 제1 회전 지지면(213)과 제2 회전 지지면(214)은, 전자 장치(200)가 접힘 상태(예: 도 2b의 전자 장치)인 경우, 힌지 커버(220)에 포함된 곡면을 따라 회전하여, 힌지 커버(220)가 전자 장치(200)의 후면으로 최대한 노출되도록 할 수 있다.
도 4a는, 일 실시예에 따른 전자 장치의 펼침(unfolded) 상태를 나타내는 측면도이다. 도 4b는, 도 4a의 전자 장치의 접힘(folded) 상태를 나타내는 측면도이다.
도 4a 및 도 4b를 참조하면, 일 실시예에 따른 전자 장치(400)는 제1 하우징 구조(411), 제2 하우징 구조(412), 제1 하우징 구조(411)와 제2 하우징 구조(412)를 회전 가능하게 연결하는 힌지 구조(421), 상기 힌지 구조(421)를 커버하는 힌지 커버(420), 및 폴더블 하우징(410)의 일 측면에 형성되는 입력부(440)와 터치 감지 영역(450)을 포함할 수 있다. 전자 장치(400)의 구성 요소들 중 적어도 하나는 도 2a, 2b, 2c, 또는 도 3의 전자 장치(200)의 구성 요소들 중 적어도 하나와 동일 또는 유사할 수 있으며, 이하에서는 중복되는 설명은 생략하도록 한다.
일 실시예에 따르면, 입력부(440)는 사용자의 조작에 따라 제1 기능을 실행하도록 구성된 제1 입력부(441) 및 사용자의 조작에 따라 상기 제1 기능과 다른 제2 기능을 실행하도록 구성된 제2 입력부(442)를 포함할 수 있다. 일 예시로, 제1 입력부(441)는 사용자의 조작에 대응하여 전자 장치(400)의 볼륨을 높일 수 있으며, 반대로 제2 입력부(442)는 사용자의 조작에 대응하여 전자 장치(400)의 볼륨을 낮출 수 있다. 다른 예시로, 제1 입력부(441)는 사용자의 조작에 대응하여 카메라를 실행시킬 수 있고, 제2 입력부(442)는 보이스 어시스턴스(voice assistance) 기능을 실행시킬 수 있다.
일 실시예에 따르면, 터치 감지 영역(450)은 전자 장치(400)가 접힘 상태(예: 도 4b)에서, 제1 입력부(441)와 대응되는 영역에 형성되는 제1 터치 감지 영역(451) 및 전자 장치(400)가 접힘 상태에서, 제2 입력부(442)와 대응되는 영역에 형성되는 제2 터치 감지 영역(452)을 포함할 수 있다. 제1 터치 감지 영역(451)과 제2 터치 감지 영역(452)은 전자 장치(400)가 접힘 상태에서 각각 제1 입력부(441)와 제2 입력부(442)에 대응되는 위치에 형성되어, 사용자의 조작을 인식할 수 있는 영역을 실질적으로 확장할 수 있으며, 이에 대한 구체적인 설명은 후술하도록 한다.
일 실시예에 따르면, 전자 장치(400)가 접힘 상태에서 제1 터치 감지 영역(451)이 제1 입력부(441)에 대응되는 영역에 형성될 수 있도록, 제1 터치 감지 영역(451)과 제1 입력부(441)은 힌지 구조(421)로부터 동일한 거리만큼 이격된 위치에 형성될 수 있다. 도 4a를 참조하면, 제1 하우징 구조(411)에 형성된 제1 입력부(441)와 힌지 구조(421) 사이의 거리는 L1일 수 있고, 제2 하우징 구조(412)에 형성된 제1 터치 감지 영역(451)과 힌지 구조(421) 사이의 거리도 L1일 수 있다.
이와 유사하게, 전자 장치(400)가 접힘 상태에서 제2 터치 감지 영역(452)이 제2 입력부(442)에 대응되는 영역에 형성될 수 있도록, 제2 터치 감지 영역(452)과 2 입력부(442)는 힌지 구조(421)로부터 동일한 거리(L2)만큼 이격된 위치에 형성될 수 있다. 즉, 제1 하우징 구조(411)에 형성된 제2 입력부(442)와 힌지 구조(421) 사이의 거리는 L2일 수 있고, 제2 하우징 구조(412)에 형성된 제2 터치 감지 영역(452)과 힌지 구조(421) 사이의 거리도 L2일 수 있다.
도 4b를 참조하면, 전자 장치(400)가 접힘 상태인 경우, 제1 입력부(441)와 제1 터치 감지 영역(451)은 전자 장치(400)가 접힘에 따라 형성되는 가상의 중앙선(ML)을 기준으로 대칭되는 형상으로 형성될 수 있다. 일 예시로, 제1 입력부(441)는 가상의 중앙선(ML)과 소정의 각도(α)(예: 0˚ 내지 5˚)를 이루며 제1 하우징 구조(411)의 일 측면에 배치될 수 있으며, 제1 터치 감지 영역(451)은 가상의 중앙선(ML)과 상기 각도와 동일한 각도(α)를 이루며 제2 하우징 구조(412)의 일 측면에 배치될 수 있다. 이와 유사하게, 제2 입력부(442)와 제2 터치 감지 영역(452)도 상기 가상의 중앙선(ML)을 기준으로 대칭되는 형상으로 형성될 수 있다.
도 5는, 일 실시예에 따른 전자 장치의 프로세서, 입력부, 및 터치 감지 영역의 전기적 연결 관계를 나타내는 도면이다.
일 실시예에 따르면, 전자 장치(500)는 폴더블 하우징(510), 폴더블 하우징(510)의 일 측면에 형성되는 입력부(540)와 터치 감지 영역(550), 전자 장치(500) 내부에 실장되는 프로세서(560) 및 센서부(570)를 포함할 수 있다. 전자 장치(500)의 구성 요소들 중 적어도 하나는 도 2a, 도 2b, 및 도 2c의 전자 장치(200) 또는 도 4a, 및 도 4b의 전자 장치(400)의 구성 요소들 중 적어도 하나와 동일 또는 유사할 수 있으며, 중복되는 설명은 생략하도록 한다.
일 실시예에 따르면, 프로세서(560)(예: 도 1의 프로세서(120))는 입력부(540), 터치 감지 영역(550), 센서부(570)와 전기적 또는 작동적으로 연결되어, 상기 구성 요소들을 제어하거나, 상기 구성 요소들로부터 전기적 신호를 전달받아 전자 장치(500)의 구동을 제어할 수 있다. 일 예시로, 프로세서(560)는 입력부(540)로부터 전기적 신호를 전달받아 전자 장치(500)의 볼륨을 조절하거나, 어플리케이션을 실행시킬 수 있다.
일 실시예에 따르면, 센서부(570)는 전자 장치(500)의 내부에 실장되어, 전자 장치(500)의 상태(예: 접힘 상태 또는 펼침 상태)를 식별할 수 있으며, 실시예에 따라 제1 하우징 구조(예: 도 4a, 및 도 4b의 제1 하우징 구조(411))와 제2 하우징 구조(예: 도 4a, 및 도 4b의 제2 하우징 구조(412)) 사이의 폴딩 각도를 식별할 수도 있다.
상기 센서부(570)는 홀 센서(hall IC), 디지털 홀 센서(digital hall IC), 자이로 센서, 육축 센서, 로터리 센서(rotary encoder sensor), 스트레치 센서(stretch sensor) 중 적어도 하나를 포함할 수 있다. 일 예시로, 센서부(570)는 제1 하우징 구조 및/또는 제2 하우징 구조에 실장되는 홀 센서를 포함하여, 전자 장치(500)가 접힘 상태인지 또는 펼침 상태인지 여부를 식별할 수 있다. 다른 예시로, 센서부(570)는 힌지 구조(예: 도 4a의 힌지 구조(421))에 부착되는 로터리 센서를 포함하여 제1 하우징 구조와 제2 하우징 구조 사이의 폴딩 각도를 식별할 수도 있다. 또 다른 예시로, 센서부(570)는 폴딩 영역(예: 도 2a의 폴딩 영역(233))과 대응되는 전자 장치(500)의 후면에 부착되는 스트레치 센서를 포함하여, 스트레인(strain) 양에 기초하여 제1 하우징 구조와 제2 하우징 구조 사이의 폴딩 각도를 식별할 수도 있다.
일 실시예에 따르면, 프로세서(560)는 센서부(570)의 센싱 값을 수신하여 전자 장치(500)의 상태 또는 폴딩 각도를 식별할 수 있으며, 식별된 결과에 기초하여 터치 감지 영역(550)을 활성화시키거나, 비활성화시킬 수 있다. 일 예시로, 프로세서(560)는 전자 장치가 접힘 상태로 식별되는 경우, 터치 감지 영역(550)을 활성화시킬 수 있으며, 이에 대한 구체적인 설명은 후술하도록 한다.
도 6은, 전자 장치의 접힘 또는 펼침 상태에 응답하여, 전자 장치를 제어하는 동작을 나타내는 흐름도이다.
도 7a는, 전자 장치가 접힘 상태에서, 사용자의 입력이 터치 감지 영역에만 입력되는 상태를 나타내는 도면이고, 도 7b는, 전자 장치가 접힘 상태에서, 사용자의 입력이 입력부와 터치 감지 영역에 동시에 입력되는 상태를 나타내는 도면이며, 도 7c는, 전자 장치가 펼침 상태에서, 사용자가 전자 장치를 파지하는 상태를 나타내는 도면이다.
도 6의 전자 장치를 제어하는 동작을 설명함에 있어, 도 7a, 도 7b, 및 도 7c의 구성을 참고하여 설명하도록 한다.
도 6을 참조하면, 601 동작에서, 일 실시예에 따른 전자 장치(700)(예: 도 5의 전자 장치(500))의 프로세서(예: 도 5의 프로세서(560))는, 전자 장치(700)의 상태가 접힘 상태(folded state)인지 또는 펼침 상태(unfolded state)인지 여부를 식별할 수 있다. 구체적으로, 프로세서는 센서부(예: 도 5의 센서부(570))의 센싱 값에 기초하여, 전자 장치(700)가 현재 접힘 상태인지 또는 펼침 상태인지 여부를 식별(또는 판단)할 수 있다.
일 실시예에 따른 602 동작에서, 프로세서는 601 동작에서의 식별 결과에 기초하여 터치 감지 영역(751, 752)(예: 도 4a의 제1 터치 감지 영역(451), 제2 터치 감지 영역(452))를 활성화할 수 있다. 일 예시로, 제1 하우징 구조(711)(예: 도 4a의 제1 하우징 구조(411))의 일 측면에는 제1 입력부(741)(예: 도 4a의 제1 입력부(441))와 제2 입력부(742)(예: 도 4a의 제2 입력부(442))가 형성될 수 있고, 전자 장치(700)가 접힘 상태에서, 제1 입력부(741)와 제2 입력부(742)와 대응되는 제2 하우징 구조(712)(예: 도 4a의 제2 하우징 구조(412))의 일 측면에는 제1 터치 감지 영역(751)과 제2 터치 감지 영역(752)이 형성될 수 있다.
도 7a를 참조하면, 전자 장치(700)가 접힘 상태인 경우, 상기 제1 터치 감지 영역(751)은 제1 입력부(741)와 대응되는 위치에 형성될 수 있으며, 상기 제2 터치 감지 영역(752)은 제2 입력부(742)와 대응되는 위치에 형성될 수 있다. 도면 상에는 제1 입력부(741)와 제2 입력부(742), 및 상기 제1 입력부(741)와 제2 입력부(742)에 대응되는 제1 터치 감지 영역(751)과 제2 터치 감지 영역(752)만 도시되어 있으나, 이에 한정되는 것은 아니며 실시예에 따라 제3 입력부, 제4 입력부, 제3 터치 감지 영역, 제4 터치 감지 영역 등이 추가적으로 형성될 수도 있다.
프로세서는 601 동작에서 전자 장치가 접힘 상태인 것으로 식별되는 경우, 제1 터치 감지 영역(751)과 제2 터치 감지 영역(752)을 활성화시켜, 사용자의 입력(또는 조작)을 인식할 수 있는 영역을 확장시킬 수 있으며, 이에 대한 구체적인 설명은 후술하도록 한다.
일 실시예에 따르면, 603 동작에서, 프로세서는 전자 장치(700)가 접힘 상태에서 입력부(741, 742) 또는 상기 602 동작에서 활성화된 터치 감지 영역(751, 752)에 대한 사용자의 입력(또는 조작)에 응답하여, 전자 장치(700)의 구동을 제어할 수 있다. 일 실시예에 따르면, 프로세서는 제1 터치 감지 영역(751)에서 사용자의 입력이 감지되는 경우, 제1 입력부(741)에 사용자의 입력이 감지된 것과 동일한 방식으로 전자 장치(700)의 구동을 제어할 수 있다. 이와 유사하게, 프로세서는 제2 터치 감지 영역(752)에서 사용자의 입력이 감지되는 경우, 제2 입력부(742)에 사용자의 입력이 감지된 것과 동일한 방식으로 전자 장치(700)의 구동을 제어할 수 있다. 본 개시에서 사용자의 입력은 터치 동작을 포함할 수 있고, 실시예에 따라 스와이핑(swiping) 동작을 포함할 수도 있다.
일 예시로, 제1 입력부(741)가 사용자의 입력에 대응하여 전자 장치(700)의 볼륨을 높이도록 설정되어 있고, 제2 입력부(742)는 전자 장치(700)의 볼륨을 낮추도록 설정될 수 있다. 상기 프로세서는 전자 장치(700)가 접힘 상태에서 제1 터치 감지 영역(751)에 대한 사용자의 입력이 감지되면, 제1 입력부(741)에 사용자의 입력이 감지된 것과 동일하게 전자 장치(700)의 볼륨을 높일 수 있다. 반대로, 프로세서는 전자 장치(700)가 접힘 상태에서 제2 터치 감지 영역(752)에 대한 사용자의 입력이 감지되는 경우, 제2 입력부(742)에 사용자의 입력이 감지된 것과 동일하게 전자 장치(700)의 볼륨을 낮출 수 있다. 즉, 일 실시예에 따른 전자 장치(700)는, 전자 장치(700)가 접힘 상태인 경우, 제1 터치 감지 영역(751)을 통해 제1 입력부(741) 영역을 실질적으로 확장할 수 있으며, 제2 터치 감지 영역(752)을 통해 제2 입력부(742) 영역을 실질적으로 확장할 수 있다. 이에 따라, 일 실시예에 따른 전자 장치(700)는 두께가 얇아지는 경우에도 사용자의 입력을 감지할 수 있는 영역을 유지할 수 있어, 전자 장치(700)의 오 동작 발생을 최소화할 수 있다.
이하에서는, 도 7a 내지 도 7b를 참조하여 603 동작에서 프로세서가 입력부(741, 742) 또는 터치 감지 영역(751, 752)에 대한 사용자의 입력에 응답하여, 전자 장치(700)의 구동을 제어하는 동작에 대하여 살펴보도록 한다.
도 7a를 참조하면, 사용자가 제1 터치 감지 영역(751)을 터치하여, 제1 터치 감지 영역(751)에 사용자의 입력이 감지되는 경우, 프로세서는 제1 입력부(741)에 사용자의 입력이 감지된 것과 동일하게 전자 장치(700)의 구동을 제어할 수 있다. 일 예시로, 제1 입력부(741)가 사용자의 입력에 응답하여, 카메라 어플리케이션을 실행시키도록 설정될 수 있다. 상기 프로세서는, 제1 터치 감지 영역(751)에 사용자의 입력이 감지되는 경우, 제1 입력부(741)에 사용자의 입력이 입력된 것과 동일하게 카메라 어플리케이션을 실행시킬 수 있다.
다양한 실시예에 따라, 입력부(741, 742)와 터치 감지 영역(751, 752)에 사용자의 입력이 동시에 감지되는 경우가 있을 수 있다. 도면 상에 도시되지는 않았으나, 제1 입력부(741)와 제1 터치 감지 영역(751)에 대한 사용자의 입력이 감지되는 경우, 프로세서는 제1 입력부(741)에 설정된 기능(예: 카메라 어플리케이션 실행, 전원 온오프(on/off))이 실행되도록 전자 장치(700)를 제어할 수 있다. 이와 유사하게, 제2 입력부(742)와 제2 터치 감지 영역(752)에 대한 사용자의 입력이 감지되는 경우, 프로세서는 제2 입력부(742)에 설정된 기능을 실행되도록 전자 장치(700)를 제어할 수 있다.
다양한 실시예에 따라 입력부와 상기 입력부에 대응되지 않는 터치 감지 영역에 사용자의 입력이 동시에 감지되는 경우가 있을 수 있다. 일 예시로, 제1 입력부(741)와 제2 터치 감지 영역(752)에 사용자의 입력이 동시에 감지될 수 있으며, 다른 예시(예: 도 7b)로 제2 입력부(742)와 제1 터치 감지 영역(751)에 사용자의 입력이 동시에 감지되는 경우가 있을 수 있다.
일 실시예에 따른, 프로세서는 입력부와 상기 입력부(예: 제2 입력부(742))에 대응되지 않는 터치 감지 영역(예: 제1 터치 감지 영역(751))에 사용자의 입력이 동시에 감지되는 경우, 입력부에 대한 사용자의 입력을 우선시하여 전자 장치(700)의 구동을 제어할 수 있다.
도 7b를 참조하면, 제2 입력부(742)와 제1 터치 감지 영역(751)에 사용자의 입력이 동시에 감지되는 경우, 프로세서는 제2 입력부(742)에 대한 사용자의 입력을 우선시하여, 제2 입력부(742)에 설정된 기능이 수행되도록 전자 장치(700)의 구동을 제어할 수 있다. 일 예시로, 제1 입력부(741)는 사용자의 입력에 대응하여 보이스 어시스턴스 기능을 실행시키도록 설정되고, 제2 입력부(742)는 카메라 어플리케이션을 실행하도록 설정된 상태에서, 제2 입력부(742)와 제1 터치 감지 영역(751)에 사용자의 입력이 동시에 감지되는 경우, 프로세서는 제2 입력부(742)에 대한 사용자의 입력을 우선시하여, 카메라 어플리케이션을 실행시킬 수 있다.
또 다른 실시예에 따른, 프로세서는 입력부(예: 제2 입력부(742))와 상기 입력부에 대응되지 않는 터치 감지 영역(예: 제1 터치 감지 영역(751))에 사용자의 입력이 동시에 감지되는 경우, 터치 감지 영역에 대한 사용자의 입력을 우선시하여 전자 장치(700)의 구동을 제어할 수 있다. 일 예시로, 제1 입력부(741)는 사용자의 입력에 대응하여 보이스 어시스턴스 기능을 실행시키도록 설정되고, 제2 입력부(742)는 카메라 어플리케이션을 실행하도록 설정된 상태에서, 제2 입력부(742)와 제1 터치 감지 영역(751)에 사용자의 입력이 동시에 감지되는 경우, 프로세서는 제1 터치 감지 영역(751)에 대한 사용자의 입력을 우선시하여, 보이스 어시스턴스 기능을 실행시킬 수 있다.
다양한 실시예에 따르면, 입력부와 상기 입력부(예: 제2 입력부(742))에 대응되지 않는 터치 감지 영역(예: 제1 터치 감지 영역(751))에 사용자의 입력이 동시에 감지되는 경우, 프로세서는 전자 장치(700)에 형성된 입력부(741, 742)의 종류(예: 가상 키, 물리 키)에 따라, 입력부에 대한 입력을 우선시할 수도 있고, 터치 감지 영역에 대한 입력을 우선시할 수도 있다.
일 실시예에 따르면, 입력부(741, 742)가 버튼과 같은 물리 키로 형성된 경우, 프로세서는 입력부(741, 742)에 대한 입력을 우선시하여 전자 장치(700)의 구동을 제어할 수 있다. 다른 실시예에 따르면, 입력부(741, 742)가 햅틱 또는 압력 등을 통해 입력을 감지하는 가상(virtual) 키로 형성된 경우, 프로세서는 터치 감지 영역(751, 752)에 대한 입력을 우선시하여 전자 장치(700)의 구동을 제어할 수도 있다. 다만, 상술한 실시예에 한정되는 것은 아니며, 프로세서는 실시예에 따라, 입력부(741, 742)가 물리 키로 형성된 경우에도 터치 감지 영역(751, 752)에 대한 입력을 우선시할 수도 있고, 반대로 입력부(741, 742)가 가상 키로 형성된 경우에도 입력부(741, 742)에 대한 입력을 우선시할 수도 있다.
도 7c를 참조하면, 일 실시예에 따른 프로세서는, 상기 601 동작에서 전자 장치(700)가 펼침 상태인 것으로 식별되는 경우, 터치 감지 영역(751, 752)을 활성화시키지 않고(비활성화), 상기 터치 감지 영역(751, 752)을 사용자의 전자 장치(700) 그립 여부를 확인하는 용도로 사용할 수 있다. 즉, 프로세서는 전자 장치(700)의 펼침 상태에서, 터치 감지 영역(751, 752)을 그립 센서(grip sensor)로 활용할 수 있다. 일 예시(도 7c 참조)로, 사용자의 손이 제1 터치 감지 영역(751)에 접촉하는 경우, 프로세서는 사용자가 전자 장치(700)를 감싸 쥐고 있는 것으로 판단할 수 있다.
도 8은, 폴딩 각도(folding angle)에 응답하여, 전자 장치를 제어하는 동작을 나타내는 흐름도이다. 도 9는, 일 실시예에 따른 전자 장치가 테이블 모드(table mode)로 사용되고 있는 상태를 나타내는 도면이다.
도 8의 전자 장치를 제어하는 동작을 설명함에 있어, 도 9의 구성을 참고하여 설명하도록 한다.
도 8을 참조하면, 801 동작에서, 일 실시예에 따른 전자 장치(900)(예: 도 5의 전자 장치(500))의 프로세서(예: 도 5의 프로세서(560))는 제1 하우징 구조(911)(예: 도 4a의 제1 하우징 구조(411))와 제2 하우징 구조(912)(예: 도 4a의 제2 하우징 구조(412)) 사이의 폴딩 각도(θ, folding angle)를 식별할 수 있다. 일 실시예에 따르면, 센서부(예: 도 5의 센서부(570))는 디지털 홀 센서(digital hall IC), 자이로 센서, 육축 센서, 로터리 센서, 스트레치 센서 중 적어도 하나를 포함할 수 있고, 프로세서는 센서부의 센싱 값에 기초하여, 상기 폴딩 각도(θ)를 식별할 수 있다.
802 동작에서, 일 실시예에 따른 프로세서는, 801 동작에서 식별된 폴딩 각도가 지정된 각도 범위 이내인 경우, 터치 감지 영역(951, 952)(예: 도 4a의 제1 터치 감지 영역(451), 제2 터치 감지 영역(452))을 활성화시킬 수 있다. 즉, 프로세서는, 제1 하우징 구조(911)와 제2 하우징 구조(912) 사이의 폴딩 각도(θ)가 지정된 각도 범위 이내에 속하는 경우, 전자 장치(900)가 현재 테이블 모드(table mode) 상태인 것으로 판단하고, 터치 감지 영역(951, 952)을 활성화시켜 사용자의 편의성을 향상시킬 수 있다.
일 실시예에 따르면, 전자 장치(900)가 테이블 모드 상태인 경우, 제2 하우징 구조(912)는 지면에 접하고, 제1 하우징 구조(911)는 지면으로부터 일정한 각도를 이루며 이격된 상태일 수 있다. 전자 장치(900)가 테이블 모드인 상태에서, 사용자가 제1 하우징 구조(911)의 일 측면에 형성된 제1 입력부(941) 또는 제2 입력부(942)를 조작하는 경우, 사용자의 조작에 의해 전자 장치(900)가 뒤로 넘어가는 경우가 발생할 수 있다. 상술한 바와 같이 전자 장치(900)가 뒤로 넘어가는 경우, 제2 하우징 구조(912)가 지면으로부터 이격되어, 전자 장치(900)가 지면에 고정될 수 없게 되는 바, 사용자에게 불편함을 줄 수 있다. 일 실시예에 따른 전자 장치(900)의 프로세서는, 전자 장치가(900)가 테이블 모드인 경우, 제2 하우징 구조(912)의 일 측면에 형성된 제1 터치 감지 영역(951) 및 제2 터치 감지 영역(952)을 활성화시켜, 사용자가 제1 터치 감지 영역(951) 및/또는 제2 터치 감지 영역(952)을 통해서도 전자 장치(900)의 구동을 제어하도록 할 수 있다.
일 예시로, 프로세서는, 제1 하우징 구조(911)와 제2 하우징 구조(912) 사이의 폴딩 각도가 10˚ 내지 170˚ 범위 내인 경우, 전자 장치가(900)가 현재 테이블 모드인 것으로 판단할 수 있으나, 이에 한정되는 것은 아니다. 또 다른 실시예에 따르면, 폴딩 각도가 0˚ 내지 10˚인 경우, 상기 프로세서는 전자 장치(900)가 접힘 상태(예: 도 7a의 전자 장치)로 판단할 수 있으며, 폴딩 각도가 170˚ 내지 180˚인 경우, 상기 프로세서는 전자 장치(900)가 펼쳐진 상태(예: 도 4a의 전자 장치)로 판단할 수 있다.
803 동작에서, 일 실시예에 따른 프로세서는, 입력부(941, 942) 또는 상기 802 동작에서 활성화된 터치 감지 영역(951, 952)에 대한 사용자의 입력에 응답하여, 전자 장치(900)의 구동을 제어할 수 있다. 일 예시로, 제1 입력부(941)에 사용자의 입력(또는 조작)이 감지되는 경우, 상기 프로세서는 제1 입력부(941)에 설정된 기능을 수행하도록 전자 장치(900)를 제어할 수 있다.
다른 예시로, 도 9에 도시된 바와 같이 제1 터치 감지 영역(951)에 사용자의 입력이 감지되는 경우, 프로세서는 상기 제1 터치 감지 영역(951)과 대응되는 제1 입력부(941)에 설정된 기능을 수행하도록 전자 장치(900)를 제어할 수 있다. 제1 입력부(941)가 사용자의 조작에 따라 카메라 어플리케이션을 실행시키도록 설정된 경우, 프로세서는 제1 터치 감지 영역(951)에서 감지되는 사용자의 입력에 대응하여, 카메라 어플리케이션을 실행시킬 수 있다. 이와 유사하게, 제2 터치 감지 영역(952)에 사용자의 입력이 감지되는 경우, 프로세서는 상기 제2 터치 감지 영역(952)과 대응되는 제2 입력부(942)에 설정된 기능을 수행하도록 전자 장치(900)를 제어할 수도 있다.
도 10은, 전자 장치의 접힘 상태에 기초하여, 전자 장치를 제어하는 동작을 나타내는 흐름도이다.
도 10을 참조하여, 전자 장치의 상태에 따라, 전자 장치(예: 도 7a의 전자 장치(700), 또는 도 9의 전자 장치(900))를 제어하는 동작에 대하여 살펴보도록 한다.
1001 동작에서, 일 실시예에 따른 전자 장치(예: 도 5의 전자 장치(500))의 프로세서(예: 도 5의 프로세서(560))는, 센서부(예: 도 5의 센서부(570))의 센싱 값에 기초하여, 전자 장치의 현재 상태를 식별할 수 있다. 즉, 프로세서는 센서부의 센싱 값에 기초하여, 전자 장치가 현재 펼침 상태(예: 도 4a의 전자 장치)인지, 접힘 상태(예: 도 4b의 전자 장치)인지, 또는 테이블 모드 상태(예: 도 9의 전자 장치)인지 여부를 식별할 수 있다.
상기 1001 동작에서 전자 장치가 현재 접힘 상태인 것으로 식별되는 경우, 1002 동작에서 일 실시예에 따른 프로세서는, 전자 장치가 접힘 상태에서 입력부와 대응되는 위치에 형성되는 터치 감지 영역을 활성화시켜 사용자의 입력을 감지할 수 있는 영역(이하 "입력 감지 영역"이라고 지칭함)을 확장할 수 있다.
1003 동작에서, 일 실시예에 따른 전자 장치의 프로세서는, 상기 1002 동작에 의해 확장된 입력 감지 영역에 대한 사용자의 입력을 감지하고, 상기 감지 결과에 응답하여 전자 장치의 구동을 제어할 수 있다. 일 예시로, 상기 프로세서는 제1 입력부(예: 도 7a의 제1 입력부(741)) 및/또는 상기 제1 입력부와 대응되는 제1 터치 감지 영역(예: 도 7a의 제1 터치 감지 영역(751))에 대한 사용자의 입력이 감지되는 경우, 제1 입력부에 설정된 기능을 수행하도록 전자 장치의 구동을 제어할 수 있다.상기 1001 동작에서 전자 장치가 접힘 상태가 아닌 것으로 식별되는 경우, 1004 동작에서, 일 실시예에 따른 프로세서는 제1 하우징 구조(예: 도 9의 제1 하우징 구조(911))와 제2 하우징 구조(예: 도 9의 제2 하우징 구조(912)) 사이의 폴딩 각도(folding angle)가 지정된 각도 범위 내인지 식별할 수 있다.
상기 1004 동작에서 제1 하우징 구조와 제2 하우징 구조 사이의 폴딩 각도(예: 도 9의 θ)가 지정된 각도 범위 내에 속하는 것으로 식별되는 경우, 1005 동작에서, 일 실시예에 따른 프로세서는 전자 장치가 현재 테이블 모드 상태인 것으로 판단하고, 터치 감지 영역(예: 도 7a의 제1 터치 감지 영역(751), 제2 터치 감지 영역(752))을 활성화시켜 입력부(예: 도 7a의 제1 입력부(741), 제2 입력부(742))뿐만 아니라 터치 감지 영역을 통해서도 사용자의 입력을 감지할 수 있다.
1006 동작에서, 일 실시예에 따른 프로세서는 입력부 또는 상기 1005 동작에서 활성화된 터치 감지 영역에 대한 사용자의 입력을 감지하고, 사용자의 입력에 기초하여 전자 장치의 구동을 제어할 수 있다. 일 예시로, 제1 입력부(예: 도 7a의 제1 입력부(741))와 대응되는 제1 터치 감지 영역(예: 도 7a의 제1 터치 감지 영역(751))에 대한 사용자의 입력이 감지되는 경우, 프로세서는 제1 입력부에 설정된 기능을 수행하도록 전자 장치의 구동을 제어할 수 있다.
상기 1004 동작에서 제1 하우징 구조와 제2 하우징 구조 사이의 폴딩 각도가 지정된 각도 범위에서 벗어난 것으로 식별되는 경우(예: 폴딩 각도가 180˚인 경우), 1007 동작에서, 일 실시예에 따른 프로세서는 전자 장치가 현재 펼침 상태로 판단하고, 터치 감지 영역을 활성화시키지 않을 수 있다. 일 예시로, 프로세서는 터치 감지 영역을 비활성화시키고, 터치 감지 영역을 그립 센서로 활용할 수 있다. 프로세서는 터치 감지 영역을 활용하여, 사용자의 전자 장치 그립 여부(예: 도 7c 참조)를 판단할 수 있다.
즉, 일 실시예에 따른 전자 장치의 프로세서는 전자 장치의 상태에 응답하여, 터치 감지 영역을 활성화시켜 사용자의 입력을 감지할 수 있는 영역을 확장하거나, 터치 감지 영역을 비활성화시키되, 터치 감지 영역을 통해 사용자의 전자 장치 그립 여부를 판단할 수 있다.
도 11a는, 일 실시예에 따른 전자 장치를 나타내는 사시도이다. 도 11b는, 도 11a의 전자 장치의 접힘 상태를 나타내는 사시도이다.
도 11a 및 도 11b를 참조하면, 일 실시예에 따른 전자 장치(1100)는 제2 하우징 구조(1122)(또는 제1 하우징 구조(1121))의 일 측면에 형성되는 지문 센서(1160)와 전자 장치(1100)가 접힘 상태에서 상기 지문 센서(1160)와 대응되는 제1 하우징 구조(1121)(또는 제2 하우징 구조(1122))의 일 측면에 형성되는 제3 터치 감지 영역(1170)을 포함할 수 있다.
일 실시예에 따르면, 제1 하우징 구조(1121)의 일 측면에는 입력부(1140)(예: 도 2a의 입력부(240))가 형성될 수 있으며, 전자 장치(1100)가 접힘 상태에서 상기 입력부(1140)와 대응되는 제2 하우징 구조(1122)의 일 측면에는 터치 감지 영역(1150)(예: 도 2a의 터치 감지 영역(250))이 형성될 수 있다.
일 실시예(예: 도 11a 또는 도 11b 참조)에 따르면, 상기 지문 센서(1160)는 상기 터치 감지 영역(1150)이 형성된 제2 하우징 구조(1122)의 일 측면에 형성되고, 상기 제3 터치 감지 영역(1170)은 전자 장치(1100)가 접힘 상태에서 지문 센서(1160)와 대응되는 제1 하우징 구조(1121)의 일 측면에 형성될 수 있다.
다른 실시예(미도시)에 따르면, 상기 지문 센서(1160)는 상기 터치 감지 영역(1150)이 형성된 제2 하우징 구조(1122)의 일 측면과 수직한 제2 하우징 구조(1122)의 다른 일 측면에 형성될 수 있다. 상기 제3 터치 감지 영역(1170)은 전자 장치(1100)가 접힘 상태에서 지문 센서(1160)와 대응되는 제1 하우징 구조(1121)의 일 측면에 형성될 수 있다.
다른 실시예(미도시)에 따르면, 상기 지문 센서(1160)는 상기 입력부(1140)가 형성된 제1 하우징 구조(1121)의 일 측면에 형성되고, 상기 제3 터치 감지 영역(1170)은 전자 장치(1100)가 접힘 상태에서 상기 지문 센서(1160)와 대응되는 제2 하우징 구조(1122)의 일 측면에 형성될 수도 있다.
일 실시예에 따른 지문 센서(1160)와 제3 터치 감지 영역(1170)은, 전자 장치(1100)가 접힘에 따라 형성되는 가상의 중앙선(ML')을 기준으로 대칭되는 위치에 배치될 수 있다. 전자 장치(1100)가 접힘 상태에서, 지문 센서(1160)와 제3 터치 감지 영역(1170)은 서로 평행할 수 있으며, 지문 센서(1160)와 가상의 중앙선(ML') 사이의 거리와 제3 터치 감지 영역(1170)과 가상의 중앙선(ML') 사이의 거리는 동일할 수 있다.
사용자의 편의성 확보를 위해 전자 장치(1100)의 두께가 줄어들면, 지문 센서(1160)의 영역도 점차 줄어들게 된다. 일반적으로, 지문 센서(1160)의 지문 인식률은 지문 센서(1160)의 영역이 줄어들수록 떨어지게 된다. 일 실시예에 따른 전자 장치(1100)는 전자 장치(1100)가 접힘 상태에서 상기 지문 센서(1160)에 대응되는 위치에 제3 터치 감지 영역(1170)을 형성하여, 지문 센서(1160)의 영역이 줄어들더라도 지문 센서(1160)의 인식률을 유지할 수 있다.
일 예시로, 프로세서(예: 도 5의 프로세서(560))는 전자 장치(1100)가 접힘 상태인 경우, 상기 제3 터치 감지 영역(1170)을 활성화시키고, 활성화된 제3 터치 감지 영역(1170)을 통해 사용자가 지문 센서(1160)와 인접한 영역을 터치하고 있는지 여부를 식별할 수 있다. 지문 센서(1160)의 영역이 줄어들면, 사용자의 터치 유무를 식별하기 어려운 경우가 발생할 수 있다. 일 실시예에 따른 전자 장치(1100)는 제3 터치 감지 영역(1170)을 통해 사용자의 터치 여부를 감지하고, 터치 감지 여부에 따라 지문 센서(1160)를 통해 사용자의 지문을 인식할 수 있으므로, 지문 센서(1160)의 인식률을 향상시킬 수 있다.
도면 상에 도시되지 않았으나, 일 실시예에 따른 전자 장치(1100)에는, 전자 장치(1100)가 접힘 상태에서 상기 지문 센서(1160)에 대응되는 제1 하우징 구조(1121)의 일 측면에 제3 터치 감지 영역(1170)이 아닌 제2 지문 센서(미도시)가 형성될 수도 있다. 일 실시예에 따른, 전자 장치(1100)는 제2 지문 센서를 통해 사용자의 지문을 인식할 수 있는 영역을 확장하여, 지문 인식률을 높일 수 있다.
도 12는, 전자 장치의 접힘 또는 펼침 상태에 응답하여, 입력부 기능을 전환하는 동작을 나타내는 흐름도이다.
도 13a는, 일 실시예에 따른 전자 장치의 펼침 상태를 나타내는 정면도이다. 도 13b는, 도 13a의 전자 장치의 접힘 상태를 나타내는 정면도이다.
도 12의 입력부 기능을 전환하는 동작을 설명함에 있어, 도 13a 및 13b의 구성을 참고하여 설명하도록 한다.
도 12를 참조하면, 1201 동작에서, 일 실시예에 따른 전자 장치(1300)(예: 도 5의 전자 장치(500) 또는 도 7a, 도 7b, 및 도 7c의 전자 장치(700))의 프로세서(예: 도 5의 프로세서(560))는 센서부(예: 도 5의 센서부(570))의 센싱 값에 기초하여, 전자 장치(1300)가 현재 접힘 상태인지 여부를 식별할 수 있다.
상기 1201 동작에서 전자 장치(1300)가 접힘 상태로 식별되는 경우(예: 도 13b의 전자 장치(1300)), 1202 동작에서, 일 실시예에 따른 프로세서는 입력부(1321, 1322)(예: 도 7a의 제1 입력부(741), 제2 입력부(742))에 설정된 기능이 전환되도록 할 수 있다.
일 예시로, 입력부는 사용자의 조작에 대응하여, 제1 기능을 수행하도록 설정된 제1 입력부(1321)와 상기 제1 기능과 다른 제2 기능을 수행하도록 설정된 제2 입력부(1322)를 포함할 수 있다. 도 13a에 도시된 바와 같이, 전자 장치(1300)가 펼침 상태에서는 제1 입력부(1321)가 제2 입력부(1322) 상단에 위치할 수 있다. 반면, 도 13b에 도시된 바와 같이, 전자 장치(1300)가 접힘 상태에서는 제1 입력부(1321)가 제2 입력부(1322) 하단에 위치할 수 있다.
1202 동작에서, 일 실시예에 따른 프로세서는, 상기 1201 동작에서 전자 장치가 접힘 상태로 식별되는 경우, 제1 입력부(1321)와 제2 입력부(1322)에 설정된 기능을 전환하여, 사용자의 조작에 대응하여, 제1 기능을 수행하도록 설정되었던 제1 입력부(1321)는 제2 기능을 수행하도록 매핑을 변경할 수 있다. 반대로, 사용자의 조작에 대응하여, 제2 기능을 수행하도록 설정되었던 제2 입력부(1322)는 제1 기능을 수행하도록 매핑을 변경할 수 있다.
일 실시예에 따르면, 전자 장치(1300)가 펼침 상태에서 제1 입력부(1321)는 사용자의 조작에 대응하여 전자 장치(1300)의 볼륨을 높이도록 설정되고, 제2 입력부(1322)는 전자 장치(1300)의 볼륨을 낮추도록 설정될 수 있다. 이에 따라, 사용자는 제1 입력부(1321)를 조작하여 전자 장치(1300)의 디스플레이(1330)(예: 도 2a의 디스플레이(230))에 재생되는 영상의 볼륨을 높일 수 있고, 반대로 제2 입력부(1322)를 조작하여 상기 디스플레이(1330)에 재생되는 영상의 볼륨을 낮출 수 있다.
상기 프로세서는, 전자 장치(1300)가 현재 접힘 상태인 것으로 식별되는 경우, 제1 입력부(1321)의 설정을 사용자의 조작에 대응하여, 전자 장치(1300)의 볼륨을 낮추도록 변경하고, 제2 입력부(1322)의 설정을 사용자의 조작에 대응하여, 전자 장치(1300)의 볼륨을 높이도록 변경할 수 있다. 이에 따라, 사용자는 제2 입력부(1322)를 조작하여 전자 장치(1300)의 서브 디스플레이(1330a)에 재생되는 영상의 볼륨을 높일 수 있고, 반대로 제1 입력부(1321)를 조작하여 상기 서브 디스플레이(1330a)에 재생되는 영상의 이미지를 낮출 수 있다. 즉, 일 실시예에 따른 전자 장치(1300)는 전자 장치(1300)가 접힘에 따라 발생되는 입력부(1321, 1322)의 위치 변화를 고려하여, 입력부(1321, 1322)의 매핑을 전환함으로써, 사용자의 편의성을 향상시킬 수 있다.
도 14a는, 일 실시예에 따른 전자 장치의 펼침 상태를 나타내는 사시도이다. 도 14b는, 도 14a의 전자 장치의 일정 각도 접힘 상태를 나타내는 사시도이다. 도 14c는, 도 14a의 전자 장치의 접힘 상태를 나타내는 사시도이다.
도 14a, 도 14b, 및 도 14c를 참조하면, 일 실시예에 따른 전자 장치(1400)는 제1 하우징 구조(1411)(예: 도 2a의 제1 하우징 구조(211)), 제2 하우징 구조(1412) (예: 도 2a의 제2 하우징 구조(212)), 제1 하우징 구조(1411)와 제2 하우징 구조(1412)를 회전 가능하게 연결하는 힌지 구조(예: 도 4a의 힌지 구조(421)), 디스플레이(1430), 및 상기 제1 하우징 구조(1411) 및/또는 제2 하우징 구조(1412)의 일 측면에 형성된 복수의 터치 감지 영역(1441, 1442, 1451, 1452)를 포함할 수 있다. 도 14a, 도 14b, 및 도 14c의 전자 장치(1400)의 구성 요소들 중 적어도 하나는 도 2a, 도 2b, 및 도 2c의 전자 장치(200) 또는 도 4a, 및 도 4b의 전자 장치(400)의 구성 요소들 중 적어도 하나와 동일 또는 유사할 수 있으며, 중복되는 설명은 생략하도록 한다.
일 실시예에 따르면, 복수의 터치 감지 영역은 제1 터치 감지 영역(1441), 제2 터치 감지 영역(1442), 제3 터치 감지 영역(1451), 제4 터치 감지 영역(1452)을 포함할 수 있다. 일 예시로, 제1 터치 감지 영역(1441)과 제2 터치 감지 영역(1442)은 제1 하우징 구조(1411)의 일 측면에 형성될 수 있다. 제3 터치 감지 영역(1451)은 전자 장치(1400)의 접힘 상태(예: 도 14c)에서 제1 터치 감지 영역(1441)과 대응되는 제2 하우징 구조(1412)의 일 측면에 형성될 수 있으며, 제4 터치 감지 영역(1452)은 전자 장치(1400)의 접힘 상태에서 제2 터치 감지 영역(1442)과 대응되는 제2 하우징 구조(1412)의 일 측면에 형성될 수 있다.
도 14a, 도 14b, 및 도 14c 상에는 상기 제1 터치 감지 영역(1441), 제2 터치 감지 영역(1442), 제3 터치 감지 영역(1451), 제4 터치 감지 영역(1452)이 평면 형태로 형성되어 있으나, 이에 한정되는 것은 아니며 실시예에 따라 상기 제1 터치 감지 영역(1441), 제2 터치 감지 영역(1442), 제3 터치 감지 영역(1451), 제4 터치 감지 영역(1452)은 양각 또는 음각 형태로 형성될 수도 있다. 다른 실시예에 따르면, 상기 제1 터치 감지 영역(1441), 제2 터치 감지 영역(1442), 제3 터치 감지 영역(1451), 제4 터치 감지 영역(1452)이 형성된 제1 하우징 구조(1411) 또는 제2 하우징 구조(1412)의 일 영역 상에는 식별자(예: 화살표)가 형성되어, 사용자에게 상기 제1 터치 감지 영역(1441), 제2 터치 감지 영역(1442), 제3 터치 감지 영역(1451), 제4 터치 감지 영역(1452)의 위치를 알릴 수도 있다.
다양한 실시예에 따르면, 상기 제1 터치 감지 영역(1441), 제2 터치 감지 영역(1442), 제3 터치 감지 영역(1451), 제4 터치 감지 영역(1452)은 터치 센서 방식의 가상 키로 형성될 수도 있으나, 사용자의 터치를 인식하고 진동하는 햅틱 방식의 가상 키, 또는 압력을 감지하는 스트레인 게이지(strain gauge) 방식의 가상 키로 형성될 수도 있다.
도 14a를 참조하면, 전자 장치(1400)가 펼침 상태일 때, 일 실시예에 따른 전자 장치(1400)의 제1 터치 감지 영역(1441), 제2 터치 감지 영역(1442)은 활성화되어 제1 터치 감지 영역(1441), 및/또는 제2 터치 감지 영역(1442)에 대한 사용자의 입력을 감지할 수 있다. 이 때, 상기 제1 터치 감지 영역(1441)은 사용자의 입력에 대응하여 제1 기능(예: 전자 장치의 볼륨 증가)을 수행하도록 설정될 수 있으며, 상기 제2 터치 감지 영역(1442)은 사용자의 입력에 대응하여 제2 기능(예: 전자 장치의 볼륨 낮춤)을 수행하도록 설정될 수 있다. 반면, 제3 터치 감지 영역(1451), 제4 터치 감지 영역(1452)는 실시예에 따라 비활성화되거나, 그립 센서(grip sensor)로 활성화되어 상기 제3 터치 감지 영역(1451), 제4 터치 감지 영역(1452)을 통해 사용자의 전자 장치(1400) 파지 여부를 확인할 수 있다. 일 실시예에 따르면, 디스플레이(1430)에는 제1 터치 감지 영역(1441), 제2 터치 감지 영역(1442)과 위치를 나타낼 수 있는 GUI(graphic user interface)(예: 화살표)가 표시되어, 사용자에게 활성화된 제1 터치 감지 영역(1441), 제2 터치 감지 영역(1442)의 위치를 알릴 수도 있다.
도 14b를 참조하면, 전자 장치(1400)가 일정 각도 접힘 상태일 때, 일 실시예에 따른 전자 장치(1400)의 제1 터치 감지 영역(1441), 제2 터치 감지 영역(1442), 제3 터치 감지 영역(1451), 제4 터치 감지 영역(1452)은 모두 활성화될 수 있다.
일 실시예에 따르면, 제1 터치 감지 영역(1441)은 사용자의 입력에 대응되어 제1 기능을 수행하도록 설정될 수 있으며, 제2 터치 감지 영역(1442)은 사용자의 입력에 대응하여 제2 기능을 수행하도록 설정될 수 있다. 실시예에 따라, 제3 터치 감지 영역(1451)은 사용자의 입력에 대응하여 제3 기능을 수행하도록 설정될 수 있으며, 제4 터치 감지 영역(1452)은 사용자의 입력에 대응하여 제4 기능을 수행하도록 설정될 수도 있다. 이 때, 상기 제1 기능, 제2 기능, 제3 기능, 제4 기능은 각기 상이한 기능을 하도록 설정될 수 있으나 이에 한정되는 것은 아니며, 실시예에 따라 제1 기능과 제3 기능은 동일한 기능을 수행하도록 설정되어 있거나, 제2 기능과 제4 기능은 동일한 기능을 수행하도록 설정될 수도 있다. 일 예시로, 제1 기능은 전자 장치(1400)의 볼륨 증가 기능일 수 있고, 제2 기능은 전자 장치(1400)의 볼륨 낮춤 기능일 수 있으며, 제3 기능은 전자 장치(1400)의 전원 온오프(on/off) 기능일 수 있고, 제4 기능은 보이스 어시스턴스 기능일 수 있다. 다른 예시로, 제1 기능과 제3 기능은 전자 장치(1400)의 볼륨 증가 기능일 수 있고, 제2 기능과 제4 기능은 전자 장치(1400)의 볼륨 낮춤 기능일 수도 있다. 일 실시예(예: 도 14b 참조)에 따르면, 디스플레이(1430)에는 제1 터치 감지 영역(1441), 제2 터치 감지 영역(1442), 제3 터치 감지 영역(1451), 및/또는 제4 터치 감지 영역(1452)의 위치를 나타낼 수 있는 GUI(graphic user interface)(예: 화살표)가 표시되어, 사용자에게 활성화된 제1 터치 감지 영역(1441), 제2 터치 감지 영역(1442), 제3 터치 감지 영역(1451), 및/또는 제4 터치 감지 영역(1452)의 위치를 알릴 수도 있다.
도 14c를 참조하면, 전자 장치(1400)가 접힘 상태일 때, 제1 터치 감지 영역(1441)과 제3 터치 감지 영역(1451), 제2 터치 감지 영역(1442)과 제4 터치 감지 영역(1452)은 각기 대응되는 위치에 배치될 수 있다. 일 실시예에 따르면, 제1 터치 감지 영역(1441)과 제3 터치 감지 영역(1451)은 사용자의 입력에 대응하여 동일한 기능을 수행하도록 설정될 수 있으며, 제2 터치 감지 영역(1442)과 제4 터치 감지 영역(1452)도 사용자의 입력에 대응하여 동일한 기능을 수행하도록 설정될 수 있다. 일 예시로, 제1 터치 감지 영역(1441)과 제3 터치 감지 영역(1451)은 사용자의 입력에 대응하여 전자 장치(1400)의 볼륨을 높이도록 설정될 수 있으며, 제2 터치 감지 영역(1442)과 제4 터치 감지 영역(1452)도 사용자의 입력에 대응하여 전자 장치(1400)의 볼륨을 낮추도록 설정될 수 있다.
제1 터치 감지 영역(1441)과 제3 터치 감지 영역(1451)이 대응되는 위치에 형성되고, 제2 터치 감지 영역(1442)과 제4 터치 감지 영역(1452)이 대응되는 위치에 형성됨에 따라, 사용자의 입력을 감지할 수 있는 영역이 확대될 수 있고, 그 결과 미세한 터치에 의해 사용자의 의도와 다른 오 터치가 이루어지는 경우가 발생할 수 있다.
일 실시예에 따른 전자 장치(1400)는 터치 감도를 조절하여, 전자 장치(1400)가 접힘 상태일 때, 제1 터치 감지 영역(1441)과 제3 터치 감지 영역(1451)의 중앙에 위치하는 제1 가상 터치 감지 영역(1461)을 형성할 수 있고, 제2 터치 감지 영역(1442)과 제4 터치 감지 영역(1452)의 중앙에 위치하는 제2 가상 터치 감지 영역(1462)을 형성할 수 있다. 상기 전자 장치(1400)는, 전자 장치(1400)가 접힘 상태일 때에는 제1 가상 터치 감지 영역(1461) 및/또는 제2 가상 터치 감지 영역(1462)에 대한 사용자의 입력만을 감지함으로써, 미세한 터치에 의해 발생하는 오 터치를 최소화할 수 있다.
도 14c 상에는 제1 가상 터치 감지 영역(1461)은 제1 터치 감지 영역(1441)과 제3 터치 감지 영역(1451)의 중앙에 위치하고, 제2 가상 터치 감지 영역(1462)은 제2 터치 감지 영역(1442)과 제4 터치 감지 영역(1452)의 중앙에 위치하는 것으로 도시되어 있으나 이에 한정되는 것은 아니며, 실시예에 따라 제1 가상 터치 감지 영역(1461) 및/또는 제2 가상 터치 감지 영역(1462)은 어느 한 감지 영역에 치우쳐 형성될 수 있다. 일 예시로, 상기 제1 가상 터치 감지 영역(1461)은 제1 터치 감지 영역(1441)에 치우쳐 형성될 수 있으며, 반대로 제3 터치 감지 영역(1451)에 치우쳐 형성될 수도 있다.
본 개시의 다양한 실시예에 따르면, 전자 장치(예: 도 2a의 전자 장치(200))에 있어서, 제1 하우징 구조(예: 도 2a의 제1 하우징 구조(211)), 제2 하우징 구조(예: 도 2a의 제2 하우징 구조(212)) 및 상기 제1 하우징 구조와 제2 하우징 구조를 연결하는 힌지 구조(예: 도 3의 힌지 구조(333))를 포함하고, 상기 전자 장치의 펼침(unfolded) 상태(예: 도 2a의 전자 장치)에서 상기 전자 장치의 후면과 측면을 형성하는 폴더블 하우징(예: 도 2a의 폴더블 하우징(210)), 상기 폴더블 하우징에 의해 형성된 공간에 배치되고, 상기 전자 장치의 펼침 상태에서 상기 전자 장치의 전면을 형성하는 플렉서블 디스플레이(예: 도 2a의 디스플레이(230)), 상기 제1 하우징 구조의 일 측면에 위치하여, 사용자의 조작을 입력 받는 적어도 하나의 입력부(예: 도 2a의 입력부(240)), 상기 전자 장치의 접힘(folded) 상태(예: 도 2b의 전자 장치)에서, 상기 입력부에 대응되는 상기 제2 하우징 구조의 일 측면에 형성되는 적어도 하나의 터치 감지 영역(예: 도 2b의 터치 감지 영역(250)) 및 상기 적어도 하나의 입력부 또는 상기 적어도 하나의 터치 감지 영역과 전기적으로 연결되는 프로세서(예: 도 5의 프로세서(560))를 포함하고, 상기 프로세서는, 상기 전자 장치의 상기 접힘 상태 또는 상기 펼침 상태 여부를 식별하고, 상기 식별 결과에 기초하여, 상기 터치 감지 영역을 활성화시키며, 상기 활성화된 터치 감지 영역 또는 상기 입력부에 대한 상기 사용자의 입력에 응답하여, 상기 전자 장치를 구동하도록 구성될 수 있다.
일 실시예에 따르면, 상기 전자 장치의 상기 펼침 상태에서, 상기 입력부와 상기 힌지 구조 사이의 거리(예: 도 4a의 L1, L2)와 상기 터치 감지 영역과 상기 힌지 구조 사이의 거리는 동일할 수 있다.
일 실시예에 따르면, 상기 입력부와 상기 터치 감지 영역은 상기 전자 장치의 상기 접힘 상태에 의해 상기 하우징의 측면에 형성되는 가상의 중앙선(예: 도 4b의 ML)을 기준으로 대칭되는 위치에 배치될 수 있다.
일 실시예에 따르면, 상기 제1 하우징 구조와 상기 제2 하우징 구조 사이의 폴딩 각도(folding angle)(예: 도 11의 θ) 또는 상기 제1 하우징 구조와 상기 제2 하우징 구조의 접촉 여부를 감지하는 센서부(예: 도 5의 센서부(570))를 더 포함하며, 상기 프로세서는, 상기 센서부의 상기 감지 결과에 응답하여, 상기 전자 장치의 접힌 상태 또는 상기 펼침 상태를 판단하도록 구성될 수 있다.
일 실시예에 따르면, 상기 센서부는, 홀 센서, 디지털 홀 센서, 자이로 센서, 육축 센서, 로터리 센서, 스트레치 센서 중 적어도 하나를 포함할 수 있다.
일 실시예(예: 도 7a, 7b)에 따르면, 상기 프로세서는, 상기 전자 장치가 상기 접힘 상태로 판단되는 경우, 상기 터치 감지 영역을 활성화하여 상기 터치 감지 영역에 대한 상기 사용자의 조작을 감지하도록 구성될 수 있다.
일 실시예(예: 도 9)에 따르면, 상기 프로세서는, 상기 폴딩 각도가 지정된 각도 범위 이내인 경우, 상기 터치 감지 영역을 활성화하여 상기 터치 감지 영역에 대한 상기 사용자의 조작을 감지하도록 구성될 수 있다.
일 실시예(예: 도 7c)에 따르면, 상기 프로세서는, 상기 전자 장치가 상기 펼침 상태로 판단되는 경우, 상기 터치 감지 영역을 통해 사용자의 전자 장치 그립(grip) 여부를 감지하도록 구성될 수 있다.
일 실시예에 따르면, 상기 적어도 하나의 입력부는, 상기 사용자의 조작에 따라 제1 기능을 실행하도록 구성된 제1 입력부(예: 도 13a, 13b의 제1 입력부(1321)) 및 상기 제1 기능과 다른 제2 기능을 실행하도록 구성된 제2 입력부(예: 도 13a, 13b의 제2 입력부(1322))를 포함할 수 있다.
일 실시예에 따르면, 상기 프로세서는, 상기 전자 장치가 상기 접힘 상태로 판단되는 경우, 상기 제1 입력부와 상기 제2 입력부의 기능을 전환하도록 구성될 수 있다.
일 실시예에 따르면, 상기 제2 하우징 구조의 일 측면에 위치하는 지문 센서(예: 도 11a, 11b의 지문 센서(1160))를 더 포함하고, 상기 적어도 하나의 터치 감지 영역은, 상기 전자 장치의 상기 접힘 상태에서, 상기 지문 센서에 대응되는 상기 제1 하우징 구조의 일 측면에 형성되는 제3 터치 감지 영역(예: 도 11a, 11b의 제2 터치 감지 영역(1170))을 더 포함할 수 있다.
일 실시예에 따르면, 상기 지문 센서와 상기 제3 터치 감지 영역은 상기 전자 장치의 상기 접힘 상태에 의해 상기 하우징의 측면에 형성되는 가상의 중앙선(예: 도 11b의 ML')을 기준으로 대칭되는 위치에 배치될 수 있다.
일 실시예에 따르면, 상기 프로세서는, 상기 전자 장치가 상기 접힘 상태로 판단되는 경우, 상기 제3 터치 감지 영역을 활성화하여 상기 제3 터치 감지 영역에 대한 사용자의 터치 입력을 감지할 수 있도록 구성될 수 있다.
본 개시의 다양한 실시예에 따른 방법은, 전자 장치를 제어하는 방법에 있어서, 힌지 구조에 의해 회전 가능한 제1 하우징 구조, 제2 하우징 구조를 포함하는 전자 장치의 접힘(folded) 상태 또는 펼침(unfolded) 상태 여부를 센서부를 통해 식별하는 동작, 상기 식별 결과에 기초하여, 상기 전자 장치의 상기 접힘 상태에서, 상기 제1 하우징 구조의 일 측면에 형성된 적어도 하나의 입력부에 대응되고, 상기 제2 하우징 구조의 일 측면에 형성된 적어도 하나의 터치 감지 영역을 활성화시키는 동작, 및 상기 입력부에 대한 사용자의 조작 또는 활성화된 상기 터치 감지 영역에 대한 사용자의 입력에 응답하여, 상기 전자 장치를 구동시키는 동작을 포함할 수 있다.
일 실시예에 따르면, 상기 터치 감지 영역을 활성화시키는 동작은, 상기 식별 결과, 상기 전자 가 접힘 상태로 확인되는 경우, 상기 터치 감지 영역을 활성화시킬 수 있다.
일 실시예에 따르면, 상기 식별 결과, 상기 전자 장치가 펼침 상태로 확인되는 경우, 상기 터치 감지 영역을 통해 상기 사용자의 상기 전자 장치의 그립(grip) 여부를 감지하는 동작을 더 포함할 수 있다.
일 실시예에 따르면, 상기 센서부를 통해, 상기 제1 하우징 구조와 상기 제2 하우징 구조 사이의 폴딩 각도(folding angle)를 식별하는 동작을 더 포함할 수 있다.
일 실시예에 따르면, 상기 터치 감지 영역을 활성화시키는 동작은, 상기 폴딩 각도 식별 결과, 상기 폴딩 각도가 지정된 각도 범위 이내로 확인되는 경우, 상기 터치 감지 영역을 활성화시킬 수 있다.
일 실시예에 따르면, 상기 적어도 하나의 입력부는, 상기 사용자의 조작에 따라 제1 기능을 실행하도록 구성된 제1 입력부, 및 상기 제1 기능과 다른 제2 기능을 실행하도록 구성된 제2 입력부를 포함할 수 있다.
일 실시예에 따르면, 상기 전자 장치의 상기 접힘 상태 또는 상기 펼침 여부를 식별한 결과, 상기 전자 장치가 접힘 상태인 것으로 확인되는 경우, 상기 제1 입력부와 상기 제2 입력부의 기능을 전환하는 동작을 더 포함할 수 있다.
상술한 본 개시의 구체적인 실시예들에서, 개시에 포함되는 구성 요소는 제시된 구체적인 실시 예에 따라 단수 또는 복수로 표현되었다. 그러나, 단수 또는 복수의 표현은 설명의 편의를 위해 제시한 상황에 적합하게 선택된 것으로서, 본 개시가 단수 또는 복수의 구성 요소에 제한되는 것은 아니며, 복수로 표현된 구성 요소라 하더라도 단수로 구성되거나, 단수로 표현된 구성 요소라 하더라도 복수로 구성될 수 있다.
한편, 본 개시의 상세한 설명에서는 구체적인 실시 예에 관해 설명하였으나, 본 개시의 범위에서 벗어나지 않는 한도 내에서 여러 가지 변형이 가능함은 물론이다. 그러므로 본 개시의 범위는 설명된 실시 예에 국한되어 정해져서는 아니 되며 후술하는 특허청구의 범위뿐만 아니라 이 특허청구의 범위와 균등한 것들에 의해 정해져야 한다.

Claims (15)

  1. 전자 장치에 있어서,
    제1 하우징 구조, 제2 하우징 구조 및 상기 제1 하우징 구조와 상기 제2 하우징 구조를 연결하는 힌지 구조를 포함하고, 상기 전자 장치의 펼침 상태에서 상기 전자 장치의 후면과 측면을 형성하는 폴더블 하우징;
    상기 폴더블 하우징에 의해 형성된 공간에 배치되고, 상기 전자 장치의 펼침 상태에서 상기 전자 장치의 전면을 형성하는 플렉서블 디스플레이;
    상기 제1 하우징 구조의 일 측면에 위치하고, 사용자의 조작을 입력 받는 적어도 하나의 입력부;
    상기 전자 장치의 접힘 상태에서, 상기 입력부에 대응되는 상기 제2 하우징 구조의 일 측면에 형성되는 적어도 하나의 터치 감지 영역; 및
    상기 적어도 하나의 입력부 또는 상기 적어도 하나의 터치 감지 영역과 전기적으로 연결되는 프로세서를 포함하고,
    상기 프로세서는,
    상기 전자 장치의 상기 접힘 상태 또는 상기 펼침 상태 여부를 식별하고,
    상기 식별 결과에 기초하여, 상기 터치 감지 영역을 활성화시키며,
    상기 활성화된 터치 감지 영역 또는 상기 입력부에 대한 상기 사용자의 입력에 응답하여, 상기 전자 장치를 구동하도록 설정된 전자 장치.
  2. 제1항에 있어서,
    상기 전자 장치의 상기 펼침 상태에서, 상기 입력부와 상기 힌지 구조 사이의 거리와 상기 터치 감지 영역과 상기 힌지 구조 사이의 거리는 동일한 전자 장치.
  3. 제1항에 있어서,
    상기 입력부와 상기 터치 감지 영역은 상기 전자 장치의 상기 접힘 상태에 의해 상기 하우징의 측면에 형성되는 가상의 중앙선을 기준으로 대칭되는 위치에 배치되는 전자 장치.
  4. 제1항에 있어서,
    상기 제1 하우징 구조와 상기 제2 하우징 구조 사이의 폴딩 각도 또는 상기 제1 하우징 구조와 상기 제2 하우징 구조의 접촉 여부를 감지하는 센서부를 더 포함하며,
    상기 프로세서는, 상기 센서부의 상기 감지 결과에 응답하여, 상기 전자 장치의 상기 접힘 상태 또는 상기 펼침 상태를 판단하도록 설정된 전자 장치.
  5. 제4항에 있어서,
    상기 센서부는,
    홀 센서, 디지털 홀 센서, 자이로 센서, 육축 센서, 로터리 센서, 또는 스트레치 센서 중 적어도 하나를 포함하는 전자 장치.
  6. 제4항에 있어서,
    상기 프로세서는,
    상기 전자 장치가 상기 접힘 상태로 판단되는 경우, 상기 터치 감지 영역을 활성화하고, 상기 활성화된 터치 감지 영역에 대한 상기 사용자의 조작을 감지하도록 설정된 전자 장치.
  7. 제4항에 있어서,
    상기 프로세서는,
    상기 폴딩 각도가 지정된 각도 범위 이내인 경우, 상기 터치 감지 영역을 활성화하고, 상기 활성화된 터치 감지 영역에 대한 상기 사용자의 조작을 감지하도록 설정된 전자 장치.
  8. 제4항에 있어서,
    상기 프로세서는,
    상기 전자 장치가 상기 펼침 상태로 판단되는 경우, 상기 터치 감지 영역을 통해 상기 전자 장치에 대한 상기 사용자의 그립 여부를 감지하도록 설정된 전자 장치.
  9. 제4항에 있어서,
    상기 적어도 하나의 입력부는,
    상기 사용자의 조작에 따라 제1 기능을 실행하도록 구성된 제1 입력부; 및
    상기 제1 기능과 다른 제2 기능을 실행하도록 구성된 제2 입력부를 포함하는 전자 장치.
  10. 제9항에 있어서,
    상기 프로세서는,
    상기 전자 장치가 상기 접힘 상태로 판단되는 경우, 상기 제1 입력부와 상기 제2 입력부의 기능을 전환하도록 설정된 전자 장치.
  11. 제4항에 있어서,
    상기 제2 하우징 구조의 일 측면에 위치하는 지문 센서를 더 포함하고,
    상기 적어도 하나의 터치 감지 영역은,
    상기 전자 장치의 상기 접힘 상태에서, 상기 지문 센서에 대응되는 상기 제1 하우징 구조의 일 측면에 형성되는 제3 터치 감지 영역을 더 포함하는 전자 장치.
  12. 제11항에 있어서,
    상기 지문 센서와 상기 제3 터치 감지 영역은 상기 전자 장치의 상기 접힘 상태에 의해 상기 하우징의 측면에 형성되는 가상의 중앙선을 기준으로 대칭되는 위치에 배치되는 전자 장치.
  13. 제11항에 있어서,
    상기 프로세서는,
    상기 전자 장치가 상기 접힘 상태로 판단되는 경우, 상기 제3 터치 감지 영역을 활성화하고, 상기 활성화된 제3 터치 감지 영역에 대한 사용자의 터치 입력을 감지하도록 설정된 전자 장치.
  14. 전자 장치를 제어하는 방법에 있어서,
    힌지 구조에 의해 회전 가능한 제1 하우징 구조 및 제2 하우징 구조를 포함하는 전자 장치의 접힘 상태 또는 펼침 상태 여부를 센서부를 통해 식별하는 동작;
    상기 식별 결과에 기초하여, 상기 전자 장치의 상기 접힘 상태에서, 상기 제1 하우징 구조의 일 측면에 형성된 적어도 하나의 입력부에 대응되고, 상기 제2 하우징 구조의 일 측면에 형성된 적어도 하나의 터치 감지 영역을 활성화시키는 동작; 및
    상기 입력부에 대한 사용자의 조작 또는 상기 활성화된 터치 감지 영역에 대한 상기 사용자의 입력에 응답하여, 상기 전자 장치를 구동시키는 동작을 포함하는 방법.
  15. 제14항에 있어서,
    상기 터치 감지 영역을 활성화시키는 동작은,
    상기 식별 결과, 상기 전자 장치가 접힘 상태로 확인되는 경우, 상기 터치 감지 영역을 활성화시키는 동작을 포함하는 방법.
PCT/KR2020/011226 2019-09-05 2020-08-24 폴더블 전자 장치 및 그 제어 방법 WO2021045420A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2019-0110074 2019-09-05
KR1020190110074A KR20210028924A (ko) 2019-09-05 2019-09-05 폴더블 전자 장치 및 그 제어 방법

Publications (1)

Publication Number Publication Date
WO2021045420A1 true WO2021045420A1 (ko) 2021-03-11

Family

ID=74853417

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2020/011226 WO2021045420A1 (ko) 2019-09-05 2020-08-24 폴더블 전자 장치 및 그 제어 방법

Country Status (2)

Country Link
KR (1) KR20210028924A (ko)
WO (1) WO2021045420A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070016915A (ko) * 2004-06-21 2007-02-08 모토로라 인코포레이티드 상부 하우징부에 하나 이상의 전기 제어 버튼을 포함하는통신 장치
KR100807473B1 (ko) * 2006-08-22 2008-02-25 삼성전기주식회사 휴대전화기의 오동작 방지 스위치
KR20140068427A (ko) * 2012-11-28 2014-06-09 엘지전자 주식회사 이동 단말기 및 그 제어방법
KR20160108705A (ko) * 2015-03-05 2016-09-20 삼성디스플레이 주식회사 표시 장치
US20190011955A1 (en) * 2017-07-06 2019-01-10 Lenovo (Singapore) Pte. Ltd. Device with foldable display

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070016915A (ko) * 2004-06-21 2007-02-08 모토로라 인코포레이티드 상부 하우징부에 하나 이상의 전기 제어 버튼을 포함하는통신 장치
KR100807473B1 (ko) * 2006-08-22 2008-02-25 삼성전기주식회사 휴대전화기의 오동작 방지 스위치
KR20140068427A (ko) * 2012-11-28 2014-06-09 엘지전자 주식회사 이동 단말기 및 그 제어방법
KR20160108705A (ko) * 2015-03-05 2016-09-20 삼성디스플레이 주식회사 표시 장치
US20190011955A1 (en) * 2017-07-06 2019-01-10 Lenovo (Singapore) Pte. Ltd. Device with foldable display

Also Published As

Publication number Publication date
KR20210028924A (ko) 2021-03-15

Similar Documents

Publication Publication Date Title
WO2019209041A1 (ko) 플렉서블 디스플레이 및 이를 구비하는 전자 장치
WO2020218796A1 (ko) 폴더블 전자 장치
WO2020013528A1 (ko) 플렉서블 디스플레이 및 이를 포함하는 전자 장치
WO2020171354A1 (en) Electronic device for reducing occurrence of unintended user input and operation method for the same
WO2021025384A1 (en) Foldable electronic device including magnets
WO2021034047A1 (en) Electronic device and method for controlling operation mode based on state of electronic device
WO2021162435A1 (en) Electronic device and method for activating fingerprint sensor
WO2020230982A1 (ko) 전자 장치 및 그의 알림 제공 방법
WO2022071736A1 (ko) 플렉서블 디스플레이를 포함하는 전자 장치
WO2021107682A1 (en) Foldable device and controlling method thereof
WO2019156495A1 (en) Display including plurality of wiring layers in bending region
WO2020171600A1 (en) Foldable electronic device for controlling user interface and method of operating the same
WO2021118201A1 (ko) 폴더블 전자 장치 및 상기 폴더블 전자 장치에서 사용자 인터페이스를 표시하는 방법
WO2021020801A1 (ko) 이벤트에 따라 형태가 전환되는 접이식 전자 장치 및 그 접이식 전자 장치의 형태를 전환하는 방법
WO2019039702A1 (en) COVER DEVICE, ELECTRONIC DEVICE, AND COVER DEVICE IDENTIFICATION METHOD
WO2022055255A1 (ko) 사용자 인터페이스를 제공하는 전자 장치 및 그 방법
WO2021091286A1 (en) Electronic device including sensor for detecting external input
WO2021060889A1 (ko) 폴더블 전자 장치 및 이를 이용한 멀티 윈도우 운용 방법
WO2021025323A1 (en) Electronic device with flexible display and camera
WO2021029528A1 (en) Electronic device including opening
WO2021221421A1 (ko) 디스플레이를 제어하는 방법 및 그 전자 장치
WO2021145748A1 (ko) 안테나 포함하는 전자 장치
WO2021025329A1 (en) Electronic device including display and sensor
WO2021006535A1 (ko) 폴더블 전자 장치의 케이스
WO2021045420A1 (ko) 폴더블 전자 장치 및 그 제어 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20861200

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20861200

Country of ref document: EP

Kind code of ref document: A1