WO2022108239A1 - 플렉서블 디스플레이를 포함하는 전자 장치 및 이의 동작 방법 - Google Patents

플렉서블 디스플레이를 포함하는 전자 장치 및 이의 동작 방법 Download PDF

Info

Publication number
WO2022108239A1
WO2022108239A1 PCT/KR2021/016412 KR2021016412W WO2022108239A1 WO 2022108239 A1 WO2022108239 A1 WO 2022108239A1 KR 2021016412 W KR2021016412 W KR 2021016412W WO 2022108239 A1 WO2022108239 A1 WO 2022108239A1
Authority
WO
WIPO (PCT)
Prior art keywords
display
electronic device
sensor
touch input
mode
Prior art date
Application number
PCT/KR2021/016412
Other languages
English (en)
French (fr)
Inventor
김기원
이혜린
임다희
정병호
김민정
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020210004919A external-priority patent/KR20220068093A/ko
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Publication of WO2022108239A1 publication Critical patent/WO2022108239A1/ko
Priority to US18/116,078 priority Critical patent/US11983355B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09FDISPLAYING; ADVERTISING; SIGNS; LABELS OR NAME-PLATES; SEALS
    • G09F9/00Indicating arrangements for variable information in which the information is built-up on a support by selection or combination of individual elements
    • G09F9/30Indicating arrangements for variable information in which the information is built-up on a support by selection or combination of individual elements in which the desired character or characters are formed by combining individual elements

Definitions

  • Various embodiments of the present disclosure relate to an electronic device including a flexible display and an operating method thereof.
  • a larger display may be mounted on the electronic device, but in consideration of the portability of the electronic device, there may be restrictions in extending the size of the display.
  • the flexible display may be mounted in an electronic device in a form that is slidable, foldable or bendable, or rollable.
  • An electronic device including a flexible display may provide an expanded or contracted screen according to a user's needs.
  • an electronic device including a flexible display (eg, a slideable display) in which an area visually exposed to the outside is expandable
  • a user may be difficult for a user to use the electronic device with one hand.
  • a hand eg, a finger
  • Various embodiments of the present disclosure provide a flexible display capable of performing a function of the electronic device (eg, a function related to a screen displayed through the flexible display of the electronic device) based on an input to the rear surface of the electronic device. It relates to an electronic device comprising a, and an operating method thereof.
  • the electronic device may include a first structure, a second structure guiding the sliding movement of the first structure, and at least partially accommodated in the interior of the second structure or the second structure according to the sliding movement of the first structure.
  • a flexible display visually exposed to the outside of the second structure, at least one sensor, and at least one processor operatively connected to the flexible display and the at least one sensor, wherein the at least one processor comprises the at least one Through the sensor of, obtain information about the state of the first structure with respect to the second structure, detect a touch input through the at least one sensor, and the state of the first structure with respect to the second structure Based on the information on, among the first part visually exposed to the outside in the flexible display and the second part accommodated inside the second structure, the part of the flexible display in which the touch input is detected is identified, , and when the confirmed part is the second part, based on the touch input, it may be set to perform a function related to the screen displayed through the first part.
  • a method of operating an electronic device includes a first structure, a second structure guiding the sliding movement of the first structure, and at least partially moving into the inside of the second structure according to the sliding movement of the first structure.
  • the at least one sensor of the electronic device including a flexible display accommodated or visually exposed to the outside of the second structure, and at least one sensor, the state of the first structure with respect to the second structure Based on the operation of obtaining information, the operation of detecting a touch input through the at least one sensor, and the information on the state of the first structure with respect to the second structure, the flexible display is visually displayed to the outside.
  • an operation of identifying a portion of the flexible display in which the touch input is detected among the exposed first portion and the second portion accommodated in the second structure, and when the identified portion is the second portion, the touch It may include an operation of performing a function related to the screen displayed through the first part based on the input.
  • An electronic device including a flexible display and an operating method thereof perform a function of the electronic device based on an input to a rear surface of the electronic device, thereby enabling a user to use one hand to the electronic device can be made available.
  • an electronic device including a flexible display and an operating method thereof may set a function of the electronic device corresponding to a user input to the rear surface of the electronic device.
  • FIG. 1 is a block diagram of an electronic device in a network environment, according to various embodiments of the present disclosure
  • FIG. 2 is a diagram illustrating an electronic device according to various embodiments disclosed herein, and is a diagram illustrating a state in which most of the flexible display is exposed to the outside of a second structure.
  • FIG. 3 is an exploded perspective view illustrating an electronic device according to various embodiments disclosed herein.
  • FIG. 4 is a block diagram of an electronic device according to various embodiments of the present disclosure.
  • FIG. 5 is a diagram for explaining a method of operating an electronic device according to various embodiments of the present disclosure.
  • FIG. 6 is a flowchart illustrating a method of operating an electronic device according to various embodiments of the present disclosure.
  • FIG. 7 is an exemplary view for explaining the state of the first structure with respect to the second structure according to the sliding movement of the first structure, according to various embodiments.
  • FIG. 8 is an exemplary diagram for explaining a method of performing a function related to a screen displayed on a first portion of a display based on an input to a second portion of the display by a first method according to various embodiments of the present disclosure; to be.
  • FIG. 9 is an exemplary diagram for explaining a method of converting a touch input for a second part of a display into a touch input for a first part of the display by a second method according to various embodiments of the present disclosure
  • FIG. 10 is an exemplary diagram for explaining a method of performing a function related to a screen displayed on a first portion of a display based on an input for a second portion of the display, according to various embodiments of the present disclosure
  • FIG. 11 is a flowchart illustrating a method in which an electronic device operates in a first mode or a second mode, according to various embodiments of the present disclosure
  • FIG. 12 is an exemplary diagram for explaining a method of operating an electronic device, according to various embodiments of the present disclosure
  • FIG. 13 is an exemplary diagram for explaining a method of setting a function executed based on a touch on the rear surface of an electronic device, according to various embodiments of the present disclosure
  • FIG. 14 is a diagram illustrating an electronic device according to various embodiments of the present disclosure.
  • 15 is an exemplary diagram for explaining a method of operating an electronic device including a foldable display according to various embodiments of the present disclosure
  • 16 is an exemplary diagram for explaining a method of operating an electronic device including a multi-foldable display according to various embodiments of the present disclosure.
  • FIG. 1 is a block diagram of an electronic device 101 in a network environment 100 according to various embodiments.
  • an electronic device 101 communicates with an electronic device 102 through a first network 198 (eg, a short-range wireless communication network) or a second network 199 . It may communicate with at least one of the electronic device 104 and the server 108 through (eg, a long-distance wireless communication network). According to an embodiment, the electronic device 101 may communicate with the electronic device 104 through the server 108 .
  • a first network 198 eg, a short-range wireless communication network
  • a second network 199 e.g., a second network 199
  • the electronic device 101 may communicate with the electronic device 104 through the server 108 .
  • the electronic device 101 includes a processor 120 , a memory 130 , an input module 150 , a sound output module 155 , a display module 160 , an audio module 170 , and a sensor module ( 176), interface 177, connection terminal 178, haptic module 179, camera module 180, power management module 188, battery 189, communication module 190, subscriber identification module 196 , or an antenna module 197 may be included.
  • at least one of these components eg, the connection terminal 178
  • may be omitted or one or more other components may be added to the electronic device 101 .
  • some of these components are integrated into one component (eg, display module 160 ). can be
  • the processor 120 for example, executes software (eg, a program 140) to execute at least one other component (eg, a hardware or software component) of the electronic device 101 connected to the processor 120 . It can control and perform various data processing or operations. According to one embodiment, as at least part of data processing or operation, the processor 120 converts commands or data received from other components (eg, the sensor module 176 or the communication module 190 ) to the volatile memory 132 . may be stored in the volatile memory 132 , and may process commands or data stored in the volatile memory 132 , and store the result data in the non-volatile memory 134 .
  • software eg, a program 140
  • the processor 120 converts commands or data received from other components (eg, the sensor module 176 or the communication module 190 ) to the volatile memory 132 .
  • the volatile memory 132 may be stored in the volatile memory 132 , and may process commands or data stored in the volatile memory 132 , and store the result data in the non-volatile memory 134 .
  • the processor 120 is the main processor 121 (eg, a central processing unit or an application processor) or a secondary processor 123 (eg, a graphic processing unit, a neural network processing unit) a neural processing unit (NPU), an image signal processor, a sensor hub processor, or a communication processor).
  • the main processor 121 e.g, a central processing unit or an application processor
  • a secondary processor 123 eg, a graphic processing unit, a neural network processing unit
  • NPU neural processing unit
  • an image signal processor e.g., a sensor hub processor, or a communication processor.
  • the main processor 121 e.g, a central processing unit or an application processor
  • a secondary processor 123 eg, a graphic processing unit, a neural network processing unit
  • NPU neural processing unit
  • an image signal processor e.g., a sensor hub processor, or a communication processor.
  • the main processor 121 e.g, a central processing unit or an application processor
  • a secondary processor 123
  • the auxiliary processor 123 is, for example, on behalf of the main processor 121 while the main processor 121 is in an inactive (eg, sleep) state, or the main processor 121 is active (eg, executing an application). ), together with the main processor 121, at least one of the components of the electronic device 101 (eg, the display module 160, the sensor module 176, or the communication module 190) It is possible to control at least some of the related functions or states.
  • the coprocessor 123 eg, an image signal processor or a communication processor
  • may be implemented as part of another functionally related component eg, the camera module 180 or the communication module 190. have.
  • the auxiliary processor 123 may include a hardware structure specialized for processing an artificial intelligence model.
  • Artificial intelligence models can be created through machine learning. Such learning may be performed, for example, in the electronic device 101 itself on which the artificial intelligence model is performed, or may be performed through a separate server (eg, the server 108).
  • the learning algorithm may include, for example, supervised learning, unsupervised learning, semi-supervised learning, or reinforcement learning, but in the above example not limited
  • the artificial intelligence model may include a plurality of artificial neural network layers.
  • Artificial neural networks include deep neural networks (DNNs), convolutional neural networks (CNNs), recurrent neural networks (RNNs), restricted boltzmann machines (RBMs), deep belief networks (DBNs), bidirectional recurrent deep neural networks (BRDNNs), It may be one of deep Q-networks or a combination of two or more of the above, but is not limited to the above example.
  • the artificial intelligence model may include, in addition to, or alternatively, a software structure in addition to the hardware structure.
  • the memory 130 may store various data used by at least one component of the electronic device 101 (eg, the processor 120 or the sensor module 176 ).
  • the data may include, for example, input data or output data for software (eg, the program 140 ) and instructions related thereto.
  • the memory 130 may include a volatile memory 132 or a non-volatile memory 134 .
  • the program 140 may be stored as software in the memory 130 , and may include, for example, an operating system 142 , middleware 144 , or an application 146 .
  • the input module 150 may receive a command or data to be used in a component (eg, the processor 120 ) of the electronic device 101 from the outside (eg, a user) of the electronic device 101 .
  • the input module 150 may include, for example, a microphone, a mouse, a keyboard, a key (eg, a button), or a digital pen (eg, a stylus pen).
  • the sound output module 155 may output a sound signal to the outside of the electronic device 101 .
  • the sound output module 155 may include, for example, a speaker or a receiver.
  • the speaker can be used for general purposes such as multimedia playback or recording playback.
  • the receiver may be used to receive an incoming call. According to one embodiment, the receiver may be implemented separately from or as part of the speaker.
  • the display module 160 may visually provide information to the outside (eg, a user) of the electronic device 101 .
  • the display module 160 may include, for example, a control circuit for controlling a display, a hologram device, or a projector and a corresponding device.
  • the display module 160 may include a touch sensor configured to sense a touch or a pressure sensor configured to measure the intensity of a force generated by the touch.
  • the audio module 170 may convert a sound into an electric signal or, conversely, convert an electric signal into a sound. According to an embodiment, the audio module 170 acquires a sound through the input module 150 or an external electronic device (eg, a sound output module 155 ) directly or wirelessly connected to the electronic device 101 . A sound may be output through the electronic device 102 (eg, a speaker or headphones).
  • an external electronic device eg, a sound output module 155
  • a sound may be output through the electronic device 102 (eg, a speaker or headphones).
  • the sensor module 176 detects an operating state (eg, power or temperature) of the electronic device 101 or an external environmental state (eg, user state), and generates an electrical signal or data value corresponding to the sensed state. can do.
  • the sensor module 176 may include, for example, a gesture sensor, a gyro sensor, a barometric pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, a color sensor, an IR (infrared) sensor, a biometric sensor, It may include a temperature sensor, a humidity sensor, or an illuminance sensor.
  • the interface 177 may support one or more designated protocols that may be used by the electronic device 101 to directly or wirelessly connect with an external electronic device (eg, the electronic device 102 ).
  • the interface 177 may include, for example, a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, an SD card interface, or an audio interface.
  • HDMI high definition multimedia interface
  • USB universal serial bus
  • SD card interface Secure Digital Card
  • the connection terminal 178 may include a connector through which the electronic device 101 can be physically connected to an external electronic device (eg, the electronic device 102 ).
  • the connection terminal 178 may include, for example, an HDMI connector, a USB connector, an SD card connector, or an audio connector (eg, a headphone connector).
  • the haptic module 179 may convert an electrical signal into a mechanical stimulus (eg, vibration or movement) or an electrical stimulus that the user can perceive through tactile or kinesthetic sense.
  • the haptic module 179 may include, for example, a motor, a piezoelectric element, or an electrical stimulation device.
  • the camera module 180 may capture still images and moving images. According to an embodiment, the camera module 180 may include one or more lenses, image sensors, image signal processors, or flashes.
  • the power management module 188 may manage power supplied to the electronic device 101 .
  • the power management module 188 may be implemented as, for example, at least a part of a power management integrated circuit (PMIC).
  • PMIC power management integrated circuit
  • the battery 189 may supply power to at least one component of the electronic device 101 .
  • battery 189 may include, for example, a non-rechargeable primary cell, a rechargeable secondary cell, or a fuel cell.
  • the communication module 190 is a direct (eg, wired) communication channel or a wireless communication channel between the electronic device 101 and an external electronic device (eg, the electronic device 102, the electronic device 104, or the server 108). It can support establishment and communication performance through the established communication channel.
  • the communication module 190 may include one or more communication processors that operate independently of the processor 120 (eg, an application processor) and support direct (eg, wired) communication or wireless communication.
  • the communication module 190 is a wireless communication module 192 (eg, a cellular communication module, a short-range communication module, or a global navigation satellite system (GNSS) communication module) or a wired communication module 194 (eg, : It may include a LAN (local area network) communication module, or a power line communication module).
  • GNSS global navigation satellite system
  • a corresponding communication module among these communication modules is a first network 198 (eg, a short-range communication network such as Bluetooth, wireless fidelity (WiFi) direct, or infrared data association (IrDA)) or a second network 199 (eg, legacy It may communicate with the external electronic device 104 through a cellular network, a 5G network, a next-generation communication network, the Internet, or a computer network (eg, a telecommunication network such as a LAN or a WAN).
  • a first network 198 eg, a short-range communication network such as Bluetooth, wireless fidelity (WiFi) direct, or infrared data association (IrDA)
  • a second network 199 eg, legacy It may communicate with the external electronic device 104 through a cellular network, a 5G network, a next-generation communication network, the Internet, or a computer network (eg, a telecommunication network such as a LAN or a WAN).
  • a telecommunication network
  • the wireless communication module 192 uses the subscriber information (eg, International Mobile Subscriber Identifier (IMSI)) stored in the subscriber identification module 196 within a communication network such as the first network 198 or the second network 199 .
  • the electronic device 101 may be identified or authenticated.
  • the wireless communication module 192 may support a 5G network after a 4G network and a next-generation communication technology, for example, a new radio access technology (NR).
  • NR access technology includes high-speed transmission of high-capacity data (eMBB (enhanced mobile broadband)), minimization of terminal power and access to multiple terminals (mMTC (massive machine type communications)), or high reliability and low latency (URLLC (ultra-reliable and low-latency) -latency communications)).
  • eMBB enhanced mobile broadband
  • mMTC massive machine type communications
  • URLLC ultra-reliable and low-latency
  • the wireless communication module 192 may support a high frequency band (eg, mmWave band) to achieve a high data rate, for example.
  • a high frequency band eg, mmWave band
  • the wireless communication module 192 includes various technologies for securing performance in a high-frequency band, for example, beamforming, massive multiple-input and multiple-output (MIMO), all-dimensional multiplexing. It may support technologies such as full dimensional MIMO (FD-MIMO), an array antenna, analog beam-forming, or a large scale antenna.
  • the wireless communication module 192 may support various requirements specified in the electronic device 101 , an external electronic device (eg, the electronic device 104 ), or a network system (eg, the second network 199 ).
  • the wireless communication module 192 may include a peak data rate (eg, 20 Gbps or more) for realizing eMBB, loss coverage (eg, 164 dB or less) for realizing mMTC, or U-plane latency for realizing URLLC ( Example: downlink (DL) and uplink (UL) each 0.5 ms or less, or round trip 1 ms or less).
  • a peak data rate eg, 20 Gbps or more
  • loss coverage eg, 164 dB or less
  • U-plane latency for realizing URLLC
  • the antenna module 197 may transmit or receive a signal or power to the outside (eg, an external electronic device).
  • the antenna module 197 may include an antenna including a conductor formed on a substrate (eg, a PCB) or a radiator formed of a conductive pattern.
  • the antenna module 197 may include a plurality of antennas (eg, an array antenna). In this case, at least one antenna suitable for a communication method used in a communication network such as the first network 198 or the second network 199 is connected from the plurality of antennas by, for example, the communication module 190 . can be selected. A signal or power may be transmitted or received between the communication module 190 and an external electronic device through the selected at least one antenna.
  • other components eg, a radio frequency integrated circuit (RFIC)
  • RFIC radio frequency integrated circuit
  • the antenna module 197 may form a mmWave antenna module.
  • the mmWave antenna module comprises a printed circuit board, an RFIC disposed on or adjacent to a first side (eg, underside) of the printed circuit board and capable of supporting a designated high frequency band (eg, mmWave band); and a plurality of antennas (eg, an array antenna) disposed on or adjacent to a second side (eg, top or side) of the printed circuit board and capable of transmitting or receiving signals of the designated high frequency band. can do.
  • peripheral devices eg, a bus, general purpose input and output (GPIO), serial peripheral interface (SPI), or mobile industry processor interface (MIPI)
  • GPIO general purpose input and output
  • SPI serial peripheral interface
  • MIPI mobile industry processor interface
  • the command or data may be transmitted or received between the electronic device 101 and the external electronic device 104 through the server 108 connected to the second network 199 .
  • Each of the external electronic devices 102 or 104 may be the same as or different from the electronic device 101 .
  • all or a part of operations executed in the electronic device 101 may be executed in one or more external electronic devices 102 , 104 , or 108 .
  • the electronic device 101 may perform the function or service itself instead of executing the function or service itself.
  • one or more external electronic devices may be requested to perform at least a part of the function or the service.
  • One or more external electronic devices that have received the request may execute at least a part of the requested function or service, or an additional function or service related to the request, and transmit a result of the execution to the electronic device 101 .
  • the electronic device 101 may process the result as it is or additionally and provide it as at least a part of a response to the request.
  • cloud computing distributed computing, mobile edge computing (MEC), or client-server computing technology may be used.
  • the electronic device 101 may provide an ultra-low latency service using, for example, distributed computing or mobile edge computing.
  • the external electronic device 104 may include an Internet of things (IoT) device.
  • Server 108 may be an intelligent server using machine learning and/or neural networks.
  • the external electronic device 104 or the server 108 may be included in the second network 199 .
  • the electronic device 101 may be applied to an intelligent service (eg, smart home, smart city, smart car, or health care) based on 5G communication technology and IoT-related technology.
  • the electronic device may have various types of devices.
  • the electronic device may include, for example, a portable communication device (eg, a smart phone), a computer device, a portable multimedia device, a portable medical device, a camera, a wearable device, or a home appliance device.
  • a portable communication device eg, a smart phone
  • a computer device e.g., a smart phone
  • a portable multimedia device e.g., a portable medical device
  • a camera e.g., a portable medical device
  • a camera e.g., a portable medical device
  • a camera e.g., a portable medical device
  • a wearable device e.g., a smart bracelet
  • a home appliance device e.g., a home appliance
  • first, second, or first or second may be used simply to distinguish the element from other elements in question, and may refer to elements in other aspects (e.g., importance or order) is not limited. It is said that one (eg, first) component is “coupled” or “connected” to another (eg, second) component, with or without the terms “functionally” or “communicatively”. When referenced, it means that one component can be connected to the other component directly (eg by wire), wirelessly, or through a third component.
  • module used in various embodiments of this document may include a unit implemented in hardware, software, or firmware, and is interchangeable with terms such as, for example, logic, logic block, component, or circuit.
  • a module may be an integrally formed part or a minimum unit or a part of the part that performs one or more functions.
  • the module may be implemented in the form of an application-specific integrated circuit (ASIC).
  • ASIC application-specific integrated circuit
  • one or more instructions stored in a storage medium may be implemented as software (eg, the program 140) including
  • a processor eg, processor 120
  • a device eg, electronic device 101
  • the one or more instructions may include code generated by a compiler or code executable by an interpreter.
  • the device-readable storage medium may be provided in the form of a non-transitory storage medium.
  • 'non-transitory' only means that the storage medium is a tangible device and does not include a signal (eg, electromagnetic wave), and this term is used in cases where data is semi-permanently stored in the storage medium and It does not distinguish between temporary storage cases.
  • a signal eg, electromagnetic wave
  • the method according to various embodiments disclosed in this document may be included and provided in a computer program product.
  • Computer program products may be traded between sellers and buyers as commodities.
  • the computer program product is distributed in the form of a machine-readable storage medium (eg compact disc read only memory (CD-ROM)), or via an application store (eg Play Store TM ) or on two user devices ( It can be distributed online (eg download or upload), directly between smartphones (eg smartphones).
  • a part of the computer program product may be temporarily stored or temporarily generated in a machine-readable storage medium such as a memory of a server of a manufacturer, a server of an application store, or a relay server.
  • each component (eg, module or program) of the above-described components may include a singular or a plurality of entities, and some of the plurality of entities may be separately disposed in other components. have.
  • one or more components or operations among the above-described corresponding components may be omitted, or one or more other components or operations may be added.
  • a plurality of components eg, a module or a program
  • the integrated component may perform one or more functions of each component of the plurality of components identically or similarly to those performed by the corresponding component among the plurality of components prior to the integration. .
  • operations performed by a module, program, or other component are executed sequentially, in parallel, repeatedly, or heuristically, or one or more of the operations are executed in a different order, or omitted. or one or more other operations may be added.
  • FIG. 2 is a view showing the electronic device 101 according to various embodiments disclosed herein, in a state in which a portion of the flexible display 203 (eg, the second area A2 ) is accommodated in the second structure 202 . It is a drawing showing
  • FIG. 3 is a view showing the electronic device 101 according to various embodiments disclosed in this document, in which most of the flexible display 203 is exposed to the outside of the second structure 202 .
  • the state shown in FIG. 2 may be defined as that the first structure 201 is closed with respect to the second structure 202 , and the state shown in FIG. 3 is the first structure 202 with respect to the second structure 202 .
  • Structure 201 may be defined as open.
  • a “closed state” or an “open state” may be defined as a state in which the electronic device is closed or opened.
  • the electronic device 101 may include a first structure 201 and a second structure 202 movably disposed in the first structure 201 .
  • it may be interpreted as a structure in which the first structure 201 is slidably disposed on the second structure 202 in the electronic device 101 .
  • the first structure 201 may be arranged to reciprocate by a predetermined distance in a direction shown with respect to the second structure 202, for example, a direction indicated by an arrow 1.
  • the first structure 201 may be referred to as, for example, a first housing, a slide unit, or a slide housing, and may be disposed reciprocally on the second structure 202 .
  • the second structure 202 may be referred to as, for example, a second housing, a main unit, or a main housing, and may accommodate various electrical and electronic components such as a main circuit board or a battery.
  • a portion of the display 203 (eg, the first area A1 ) may be seated on the first structure 201 .
  • another portion of the display 203 may move (eg, slide) with respect to the first structure 201 relative to the second structure 202 , such as the second area A2 . It may be accommodated inside the second structure 202 (eg, a slide-in operation) or exposed to the outside of the second structure 202 (eg, a slide-out operation). .
  • the first structure 201 may include a first plate 211a (eg, a slide plate), and a first surface and a first surface formed by including at least a portion of the first plate 211a. It may include a second surface facing in a direction opposite to the surface.
  • a first plate 211a eg, a slide plate
  • the second structure 202 includes a second plate 221a (eg, a rear case), a first sidewall 223a extending from the second plate 221a, a first sidewall 223a and a a second sidewall 223b extending from the second plate 221a and a third sidewall 223c extending from the second plate 221a and parallel to the second sidewall 223b, and/ Alternatively, it may include a rear plate 221b (eg, a rear window). In some embodiments, the second sidewall 223b and the third sidewall 223c may be formed perpendicular to the first sidewall 223a.
  • the second plate 221a , the first sidewall 223a , the second sidewall 223b , and the third sidewall 223c are configured to receive (or surround) at least a portion of the first structure 201 .
  • one side eg, a front face
  • the first structure 201 is coupled to the second structure 202 in a state where it is at least partially wrapped, and while being guided by the second structure 202, a direction parallel to the first surface or the second surface, for example, For example, you can slide in the direction of arrow 1.
  • the second sidewall 223b or the third sidewall 223c may be omitted.
  • the second plate 221a, the first sidewall 223a, the second sidewall 223b, and/or the third sidewall 223c may be formed as separate structures and combined or assembled.
  • the rear plate 221b may be coupled to surround at least a portion of the second plate 221a.
  • the back plate 221b may be formed substantially integrally with the second plate 221a.
  • the second plate 221a or the rear plate 221b may cover at least a portion of the flexible display 203 .
  • the flexible display 203 may be at least partially accommodated inside the second structure 202
  • the second plate 221a or the rear plate 221b may be accommodated inside the second structure 202 .
  • a portion of the display 203 may be covered.
  • the first structure 201 may move the second structure 202 in a first direction (eg, direction 1) parallel to the second plate 221a (eg, the rear case) and the second sidewall 223b. . It can be moved to lie at a larger second distance. In some embodiments, in the closed state, the first structure 201 may be positioned to surround a portion of the first sidewall 223a.
  • the second structure 202 may include at least a portion of a non-conductive material (eg, a polymer material (eg, plastic), glass, or ceramic).
  • a non-conductive material eg, a polymer material (eg, plastic), glass, or ceramic.
  • the second structure 202 may be formed by combining a conductive housing and a plate formed of a polymer material.
  • the electronic device 101 may include a display 203 , a key input device 241 , a connector hole 243 , audio modules 245a , 245b , 247a , 247b , or a camera module 249 .
  • the electronic device 101 may further include an indicator (eg, an LED device) or various sensor modules.
  • the display 203 may include a first area A1 and a second area A2 .
  • the first area A1 may extend substantially across at least a portion of the first surface to be disposed on the first surface.
  • the second area A2 extends from the first area A1 and is inserted or accommodated into the second structure 202 (eg, a housing) according to the sliding movement of the first structure 201 , or the second area A2 . It may be exposed to the outside of the structure 202 .
  • the second area A2 may be substantially moved while being guided by a roller (not shown) mounted on the second structure 202 to be accommodated in the second structure 202 or exposed to the outside. .
  • a portion of the second area A2 may be deformed into a curved shape at a position corresponding to the roller.
  • the second area A2 when the first structure 201 moves from the closed state to the open state when viewed from the top of the first plate 211a (eg, a slide plate), the second area A2 gradually becomes the second area A2. 2 While being exposed to the outside of the structure 202 , a substantially flat surface may be formed together with the first area A1 .
  • the display 203 may be coupled to or disposed adjacent to a touch sensing circuit, a pressure sensor capable of measuring the intensity (pressure) of a touch, and/or a digitizer that detects a magnetic field type stylus pen.
  • the second area A2 may be at least partially accommodated in the interior of the second structure 202 , and a portion of the second area A2 may be in a state (eg, a closed state) shown in FIG. 1 . can be visually exposed to the outside.
  • a portion of the exposed second area A2 may be positioned on a roller, and a portion of the second area A2 at a position corresponding to the roller has a curved shape.
  • the key input device 241 may be disposed on the second sidewall 223b or the third sidewall 223c of the second structure 202 . Depending on the appearance and usage state, the illustrated key input device 241 may be omitted or the electronic device 101 may be designed to include additional key input device(s). In some embodiments, the electronic device 101 may include a key input device (not shown), for example, a home key button or a touch pad disposed around the home key button. According to another embodiment, at least a portion of the key input device 241 may be located in one area of the first structure 201 .
  • the connector hole 243 may be omitted, and may accommodate a connector (eg, a USB connector) for transmitting/receiving power and/or data to and from an external electronic device.
  • the electronic device 101 may include a plurality of connector holes 243, and some of the plurality of connector holes 243 function as connector holes for transmitting and receiving audio signals to and from an external electronic device.
  • the connector hole 243 is disposed on the third sidewall 223c, but is not limited thereto, and the connector hole 243 or an unillustrated connector hole is disposed on the first sidewall 223a or the second sidewall 223c. 223b may be disposed.
  • the audio modules 245a, 245b, 247a, and 247b may include speaker holes 245a and 245b or microphone holes 247a and 247b.
  • One of the speaker holes 245a and 245b may be provided as a receiver hole for a voice call, and the other may be provided as an external speaker hole.
  • a microphone for acquiring an external sound may be disposed therein, and in some embodiments, a plurality of microphones may be disposed to detect the direction of the sound.
  • the speaker holes 245a and 245b and the microphone holes 247a and 247b may be implemented as a single hole, or a speaker may be included without the speaker holes 245a and 245b.
  • the speaker hole indicated by the reference number "245b” is disposed in the first structure 201 and can be used as a receiver hole for a voice call
  • the speaker hole indicated by the reference number "245a” eg, an external speaker hole
  • the microphone holes 247a and 247b may be disposed in the second structure 202 (eg, one of the side surfaces 223a, 223b, and 223c).
  • the camera module 249 is provided in the second structure 202 and may photograph a subject in a direction opposite to the first area A1 of the display 203 .
  • the electronic device 101 may include a plurality of camera modules 249 .
  • the electronic device 101 may include a wide-angle camera, a telephoto camera, or a close-up camera, and according to an embodiment, may measure a distance to a subject by including an infrared projector and/or an infrared receiver.
  • the camera module 249 may include one or more lenses, an image sensor, and/or an image signal processor.
  • the electronic device 101 may further include a camera module (eg, a front camera) for photographing a subject in a direction opposite to the first area A1 of the display 203 .
  • the front camera may be disposed around the first area A1 or in an area overlapping the display 203 , and when disposed in the area overlapping the display 203 , the front camera may pass through the display 203 to You can take a picture of a subject.
  • an indicator (not shown) of the electronic device 101 may be disposed on the first structure 201 or the second structure 202 , and includes a light emitting diode to provide state information of the electronic device 101 .
  • a sensor module (not shown) of the electronic device 101 may generate an electrical signal or data value corresponding to an internal operating state of the electronic device 101 or an external environmental state.
  • the sensor module may include, for example, a proximity sensor, a fingerprint sensor, or a biometric sensor (eg, an iris/face recognition sensor or an HRM sensor).
  • a sensor module eg, at least one of a gesture sensor, a gyro sensor, a barometric pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a color sensor, an IR (infrared) sensor, a temperature sensor, a humidity sensor, or an illuminance sensor It may include one more.
  • FIG. 4 is a block diagram of an electronic device 101 according to various embodiments of the present disclosure.
  • the electronic device 101 may include a display 410 , a sensor 420 , a memory 430 , and a processor 440 .
  • the electronic device 101 is the second device of FIGS. 2 and 3 , in which a display 410 , a sensor 420 , a memory 430 , and a processor 440 are disposed.
  • a first structure 201 and a second structure 202 may be further included.
  • the display 410 may be the same as the display module 160 of FIG. 1 or the display 203 of FIGS. 2 and 3 .
  • the display 410 may be a flexible display including a first area mounted on the first surface of the first structure 201 and a second area extending from the first area.
  • the display 410 may be at least partially accommodated in the second structure 202 from one side of the second structure 202 or the second structure ( 202) may be visually exposed.
  • a 'first part of the display' at least a portion of the portion of the display 410 visually exposed to the outside is referred to as a 'first part of the display', and accommodated in the second structure 202 ( or inserted), at least a portion of a portion of the display 410 will be referred to as a 'second portion of the display'.
  • the first portion of the display may be configured such that the first structure 201 is closed with respect to the second structure 202 , the first structure 201 is open with respect to the second structure 202 , and In an intermediate state between the closed state and the open state of the first structure 201 with respect to the second structure 202 (hereinafter referred to as an 'intermediate state'), the portion of the display 410 visually exposed to the outside It may be at least a part.
  • the second portion of the display may be at least a portion of a portion of the display 410 that is not visually exposed to the outside in the closed state, the open state, and the intermediate state.
  • the display 410 is exemplified as a slidable display, but is not limited thereto.
  • the display 410 may be a display that is foldable, bendable, or rollable.
  • the senor 420 may be at least partially the same as or similar to the sensor module 176 of FIG. 1 or the sensor module (not shown) of FIG. 2 .
  • the senor 420 may include a touch sensor (also referred to as a 'touch panel').
  • the touch sensor may detect a touch by a user.
  • the touch sensor may include a user (eg, a user's finger) located within a specified distance from the electronic device 101 in addition to a touch sensed when the user (eg, a user's finger) touches the electronic device 101 . It is possible to detect hovering by a user.
  • the touch sensor may be included in the display 410 .
  • the touch sensor may be included in the display 410 .
  • it will be described on the assumption that the touch sensor is included in the display 410 .
  • the touch sensor may obtain (eg, generate) information about a state (eg, a closed state, an intermediate state, or an open state) of the first structure 201 with respect to the second structure 202 .
  • the touch sensor may slide along with the display 410 according to the sliding movement of the first structure 201 .
  • a portion eg, point M
  • the electric field sensed by the flat part eg, the touch sensor part included in the display part 1011 or the display part 1032 in FIG.
  • an electric field sensed by a portion of the touch sensor covered by the second plate 221a is a touch sensor that is not covered by the second plate 221a.
  • the portion of may be different from the detected electric field.
  • the touch sensor may obtain information about the electric field sensed by each part of the touch sensor as information about the state of the first structure 201 with respect to the second structure 202 .
  • the senor 420 may include, in addition to the touch sensor, a sensor for obtaining information about the state of the first structure 201 with respect to the second structure 202 .
  • the sensor 420 may include a hall sensor capable of acquiring information about the state of the first structure 201 with respect to the second structure 202 .
  • a plurality of Hall sensors may be disposed on the second structure 202 , and a magnet may be disposed on the first structure 201 . As the first structure 201 slides, it may be changed according to a position of a magnet disposed on the first structure 201 .
  • the plurality of Hall sensors disposed in the second structure 202 may detect a magnetic field formed by a magnet and changed according to a position of the magnet.
  • the Hall sensor may acquire information on the state of the first structure 201 with respect to the second structure 202 by sensing the magnetic field formed by the magnets of the plurality of Hall sensors.
  • the sensor 420 may include an optical sensor capable of obtaining information about the state of the first structure 201 with respect to the second structure 202 .
  • an optical pattern may be disposed on the second structure 202
  • an optical sensor eg, a photo detector
  • the position of the optical sensor disposed on the first structure 201 may be moved.
  • the photo detector detects the optical pattern disposed on the second structure 202 , information on the state of the first structure 201 with respect to the second structure 202 may be obtained.
  • the sensor 420 includes an inertial sensor (also referred to as a 'motion sensor') capable of obtaining information about the state of the first structure 201 with respect to the second structure 202 .
  • an inertial sensor also referred to as a 'motion sensor'
  • acceleration sensors eg, 6-axis acceleration sensors
  • the acceleration sensors are information about the state of the first structure 201 with respect to the second structure 202 , and include information about the relative position (or change of position) of the first structure 201 with respect to the second structure 202 . information can be obtained.
  • the sensor 420 may include a pressure sensor capable of obtaining information about the state of the first structure 201 with respect to the second structure 202 .
  • a pressure sensor may be included in the display 410 .
  • the pressure sensor may obtain information about the pressure sensed by the pressure sensor as information about the state of the first structure 201 with respect to the second structure 202 .
  • the sensor 420 may include an illuminance sensor capable of acquiring information about the state of the first structure 201 with respect to the second structure 202 .
  • each of the plurality of portions of the display 410 may transmit a different amount of external light (eg, each of the plurality of portions of the display 410 may have a different blocking rate for external light). It can be implemented to have).
  • the at least one illuminance sensor disposed on the second structure 202 senses an amount of external light (or a change in the amount of external light) sensed by the illuminance sensor as the first structure 201 slides, so that the second structure It is possible to obtain information about the state of the first structure 201 for 202 .
  • the sensor 420 may include a rotation angle sensor capable of acquiring information about the state of the first structure 201 with respect to the second structure 202 .
  • at least one rotation angle sensor disposed on the roller 251 detects the amount of rotation angle (or change in rotation angle) sensed by the rotation angle sensor as the first structure 201 slides. By doing so, information on the state of the first structure 201 with respect to the second structure 202 may be obtained.
  • the electronic device 101 includes the sensor 420 . In addition, it may include devices for obtaining information about the state of the first structure 201 with respect to the second structure 202 .
  • the first structure 201 may include a mechanical switch element and the second structure 202 may include a recess or protrusion that may engage or interfere with the mechanical switch element. While the first structure 201 is slid with respect to the second structure 202, the position of the groove or protrusion that engages or interferes with the mechanical switch element included in the first structure 201 is confirmed, so that the second structure ( Information on the state of the first structure 201 for 202 may be obtained.
  • the memory 430 may be the same as the memory 130 of FIG. 1 .
  • the memory may store various information related to the operation of the electronic device 101 , and various information stored in the memory 430 will be described later in detail.
  • the processor 440 may be the same as the processor 120 of FIG. 1 .
  • the processor 440 may control the overall operation of the electronic device 101 , and the operation of the processor 440 will be described below in detail.
  • the electronic device 101 is illustrated as including a display 410 , a sensor 420 , a memory 430 , and a processor 440 , but is not limited thereto. According to an embodiment, the electronic device 101 may further include additional components or not include some components other than those illustrated in FIG. 4 .
  • the electronic device 101 may further include a communication module (eg, the communication module 190 of FIG. 1 ) or may not include some of the components included in the sensor 420 described above.
  • FIG. 5 is a diagram 500 for explaining a method of operating the electronic device 101 according to various embodiments of the present disclosure.
  • FIG. 5 may be a logic block diagram for explaining the operation logic of the electronic device 101 .
  • the electronic device 101 includes a framework/application 510 , a hardware abstraction layer (HAL) 520 , and a kernel 530 . , and hardware 540 .
  • HAL hardware abstraction layer
  • the touch sensor 542 may sense a touch by a user. In one embodiment, the touch sensor 542 may sense hovering in addition to the touch.
  • the touch sensor 542 may obtain (eg, generate) information about the state of the first structure 201 with respect to the second structure 202 .
  • the touch controller 541 may control the operation of the touch sensor 542 .
  • the touch controller 541 may control the touch sensor 542 such that the touch sensor 542 is driven based on a set driving frequency and driving timing.
  • the touch controller 541 may obtain information about a touch or hovering from the touch sensor 542 . In an embodiment, the touch controller 541 may obtain information about the state of the first structure 201 with respect to the second structure 202 from the touch sensor 542 .
  • the touch controller 541 may obtain information about a location (coordinate) touched (or hovering) by the user on the touch sensor 542 based on the information obtained from the touch sensor 542 .
  • the touch controller 541 includes at least one of information about a location touched by a user on the touch sensor 542 or information about a state of the first structure 201 with respect to the second structure 202 . may be transmitted to the touch driver 531 .
  • the touch sensor 542 and the touch controller 541 may be integrated and referred to as a touch sensor.
  • the senor 544 may represent a sensor capable of acquiring information about the state of the first structure 201 with respect to the second structure 202 illustrated in FIG. 4 .
  • the sensor 544 may represent at least one of a Hall sensor, an inertial sensor, a light sensor, a pressure sensor, an illuminance sensor, or a mechanical switch element.
  • the sensor controller 543 may control the operation of the sensor 544 . In an embodiment, the sensor controller 543 may obtain, from the sensor 544 , information on information about the state of the first structure 201 with respect to the second structure 202 .
  • the senor 544 and the sensor controller 543 may be collectively referred to as a sensor.
  • the touch driver 531 (also referred to as an 'input driver') may transmit information obtained from the touch controller 541 to the input HAL 521 .
  • the touch driver 531 is configured to be connected to a first portion in the display 410 (at least a portion of the portion of the display 410 visually exposed to the outside according to the sliding movement of the first structure 201 ).
  • a touch input to the touch input and a touch input to the second portion of the display (at least a portion of the portion of the display 410 accommodated (or inserted) in the second structure 202 ) may be distinguished.
  • the touch driver 531 may transmit information about a touch input to the first portion of the display (eg, a location on the touch sensor 542 where the touch is input) to the input HAL 521 .
  • the touch driver 531 is, when receiving a touch input for a second portion of the display (eg, a portion of the touch sensor 542 corresponding to the second portion of the display), the received touch input It can be converted into a touch input for the first part of the display.
  • the touch driver 531 may convert a touched position (coordinate) with respect to the second portion of the display into a position of the first portion of the display.
  • the touch driver 531 when a cursor is displayed through the first portion of the display (eg, when a cursor is displayed on a screen displayed through the first portion of the display), the touch driver 531 is configured to Based on this, the touched position with respect to the second part of the display may be converted into the position of the first part of the display.
  • a method of converting a position touched with respect to the second portion of the display to a position of the first portion of the display based on the position of the cursor will be referred to as a 'first method'.
  • the touch driver 531 is configured to determine the touched position relative to the second portion of the display, the position of the first portion of the display corresponding (eg, mapped) to the touched position relative to the second portion of the display. can be converted to Hereinafter, a method of converting the touched position with respect to the second part of the display to the position of the first part of the display corresponding to the touched position with respect to the second part of the display will be referred to as a 'second scheme'.
  • the touch driver 531 is configured to respond to the state of the first structure 201 relative to the second structure 202 obtained from a sensor (eg, at least one of the touch sensor 542 or the sensor 544 ). Based on the information about the display 410 , a part touched by the user with respect to the display 410 may be identified among the first part of the display and the second part of the display. For example, the touch driver 531 may obtain information about the state of the first structure 201 with respect to the second structure 202 from the touch sensor 542 .
  • the touch driver 531 from the sensor 544, via the sensor controller 543, the sensor driver 532, the sensor HAL 522, the sensor manager 515, and the input HAL 521, the second structure ( It is possible to obtain information on information about the state of the first structure 201 for 202).
  • the touch driver 531 based on the information about the information about the state of the first structure 201 with respect to the second structure 202, obtained from at least one of the touch sensor 542 or the sensor 544, The first part of the display and the second part of the display may be checked.
  • the touch driver 531 based on the information on the position touched by the user, obtained from the touch sensor 542, determines that the position touched by the user is selected from among the first part of the display and the second part of the display, You can check which part is included.
  • the first portion of the display Based on the information about the state of the first structure 201 with respect to the second structure 202 obtained from a sensor (eg, at least one of the touch sensor 542 or the sensor 544 ), the first portion of the display and An operation of confirming a portion touched by the user with respect to the display 410 among the second portions of the display will be described later in detail.
  • a sensor eg, at least one of the touch sensor 542 or the sensor 544
  • the touch driver 531 may identify a mode related to the input of the electronic device 101 .
  • the function of the electronic device 101 is performed based on a touch input to the second part of the display (and the touch input to the first part of the display).
  • a function of the electronic device 101 is performed based on a first mode (hereinafter referred to as a 'first mode') (also referred to as a 'touch pad mode') and a touch input to the first portion of the display It may include a second mode (hereinafter, referred to as a 'second mode') in which the function of the electronic device 101 is not performed by a touch input to the second part (also referred to as a 'normal mode').
  • a 'first mode' also referred to as a 'touch pad mode'
  • It may include a second mode (hereinafter, referred to as a 'second mode') in which the function of the electronic device 101 is not performed by a touch input to the second part (also referred to as a 'normal mode').
  • a function of the electronic device 101 may be performed based on a touch input to a second portion of the display in addition to the first portion of the display.
  • a function of the electronic device 101 is executed by a touch input to the first portion of the display, but the touch input to the second portion of the display is can be ignored.
  • the present invention is not limited thereto, and in an embodiment, when the electronic device 101 is in the second mode, a designated touch input for the second portion of the display (eg, a touch input for entering the first mode) is obtained In this case, a function of the electronic device 101 (eg, an operation of entering the first mode from the second mode) may be performed based on the specified touch input.
  • the touch driver 531 touches the second portion of the display in the first mode or the second mode, the mode in which the electronic device 101 currently operates among the first mode and the second mode can be checked.
  • the touch driver 531 provides information about the acquired information (information about a location touched by the user on the touch sensor 542 or the state of the first structure 201 with respect to the second structure 202 ). At least one of the information) may be changed to an event form (eg, format), and event form information may be transmitted to the input manager 514 or the input HAL 521 .
  • an event form eg, format
  • the touch driver 531 is, when a touch on the second portion of the display 410 is input, information about the input touch (eg, a touchdown is input with respect to the second portion of the display 410 ) coordinates, or moved touch coordinates when a touch is moved with respect to the second part of the display, mouse information in the form of an event (eg, information about the position of the cursor or information related to the movement of the cursor) (or 'mouse event') ') and may be transmitted to an application (eg, at least one of application 1 511 to application N 512).
  • information about the input touch eg, a touchdown is input with respect to the second portion of the display 410
  • moved touch coordinates when a touch is moved with respect to the second part of the display
  • mouse information in the form of an event eg, information about the position of the cursor or information related to the movement of the cursor
  • an application eg, at least one of application 1 511 to application N 512.
  • the sensor driver 532 may provide information about the state of the first structure 201 with respect to the second structure 202 obtained from the sensor 544 (or the sensor controller 543 ) in the form of an event. , and event-type information may be transmitted to the sensor HAL 522 .
  • the input HAL 521 may transmit information obtained from the touch driver 531 to the input manager 514 .
  • the input HAL 521 is from the sensor 544 , via the sensor controller 543 , the sensor driver 532 , the sensor HAL 522 , and the sensor manager 515 , to the second structure 202 . ) to obtain information on the information on the state of the first structure 201 , and transfer the obtained information on the state of the first structure 201 for the second structure 202 to the touch driver 531 .
  • the sensor HAL 522 provides information about the state of the first structure 201 relative to the second structure 202 , from the sensor 544 , via the sensor controller 543 and the sensor driver 532 . Information on the information may be acquired, and information on the state of the first structure 201 with respect to the acquired second structure 202 may be transmitted to the sensor manager 515 .
  • the input manager 514 may perform a function of the electronic device 101 based on information obtained from the touch driver 531 or the input HAL 521 . For example, when the input manager 514 obtains, from the touch driver 531 , information on a touch input for a second part of the display (or a touch input for a first part of the display), A function of the corresponding electronic device 101 may be performed. In an embodiment, when an execution screen of an application (eg, application 1 511 and application N 512 ) is displayed through the first part of the display, the input manager 514 touches the second part of the display. Based on the input, a function related to the execution screen of the application may be performed.
  • an application eg, application 1 511 and application N 512
  • the sensor manager 515 may perform a function of the electronic device 101 based on information obtained from the sensor HAL 522 . In an embodiment, the sensor manager 515 may be included in the framework 513 .
  • the electronic device 101 may include a configuration in which the components illustrated in FIG. 5 are subdivided, or a configuration in which some of the components illustrated in FIG. 5 are integrated.
  • each of the components included in the electronic device 101 has been described with reference to FIG. 5 , but a function performed by each of the components included in the electronic device 101 is not limited to the above-described example.
  • some of the functions performed by the touch driver 531 may be performed by the input manager 514 or the input HAL 521 .
  • At least some functions performed by the processor 440 may be referred to as functions performed by the processor 440 .
  • the electronic device 101 includes a first structure 201 , a second structure 202 guiding the sliding movement of the first structure 201 , and sliding movement of the first structure 201 .
  • the A portion of the flexible display 410 in which a touch input is detected is checked, and when the checked portion is the second portion, a function related to a screen displayed through the first portion is performed based on the touch input can be set to
  • the state of the first structure 201 with respect to the second structure 202 is a state in which the first structure 201 is closed with respect to the second structure 202 , the second structure With respect to 202 , the first structure 201 may be in an open state, or an intermediate state between the closed state and the open state.
  • the at least one processor 440 transmits the second response to the second structure 202 via at least one of a touch sensor, a Hall sensor, an inertial sensor, a pressure sensor, an optical sensor, or an illuminance sensor. 1 may be set to obtain information about the state of the structure 201 .
  • the at least one processor 440 converts the touch input for the second part into a touch input for the first part based on the position of the cursor displayed through the first part can be set to
  • the at least one processor 440 may be configured to convert a touched position with respect to the second part into a position for the first part corresponding to the touched position with respect to the second part.
  • the at least one processor 440 performs the function based on a first mode and a touch input on the second part, in which the function is performed based on a touch input to the second part Among the not-noted second modes, the mode of the electronic device 101 is checked, and when the mode of the electronic device 101 is the first mode and the checked part is the second part, based on the touch input Thus, it may be set to perform the function related to the screen displayed through the first part.
  • the at least one processor 440 is configured to convert the second mode to the first mode while the electronic device 101 operates in the second mode. It may be configured to detect a touch input to the second part and to switch the second mode to the first mode based on the touch input to the second part.
  • the at least one processor 440 may be configured to set the function corresponding to the touch input to the second portion based on a user input.
  • the at least one processor 440 receives a hovering input for a portion where the flexible display 410 is not disposed within the second structure 202 through the at least one sensor 420 . , and based on the hovering input, it may be set to perform a function related to the screen displayed through the first part.
  • the at least one processor 440 forms a curved surface around the rotation axis of the roller of the electronic device 101 in the second part through the at least one sensor 420 . It may be configured to detect a touch input to a portion and perform a function related to a screen displayed through the first portion based on the touch input to the portion forming the curved surface.
  • FIG. 6 is a flowchart 600 for explaining a method of operating the electronic device 101 according to various embodiments of the present disclosure.
  • the processor 440 may obtain information about the state of the first structure 201 with respect to the second structure 202 through a sensor.
  • the processor 440 receives information about the state of the first structure 201 with respect to the second structure 202 through at least one of a touch sensor and a pressure sensor included in the display 410 . can be obtained
  • the processor 440 determines the state of the first structure 201 with respect to the second structure 202 via at least one of a Hall sensor, an inertial sensor, an optical sensor, an illuminance sensor, or a mechanical switch element. information can be obtained.
  • the state of the first structure 201 with respect to the second structure 202 is the closed state of the first structure 201 with respect to the second structure 202 , with respect to the second structure 202 .
  • the first structure 201 may include an open state and an intermediate state between the closed state and the open state.
  • the state of the first structure 201 with respect to the second structure 202 will be described in detail with reference to FIG. 7 .
  • FIG. 7 is an exemplary view 700 for explaining the state of the first structure 201 with respect to the second structure 202 according to the sliding movement of the first structure 201, according to various embodiments.
  • reference numeral 710 may indicate the electronic device 101 in which the first structure 201 is closed with respect to the second structure 202 .
  • the state in which the first structure 201 is closed with respect to the second structure 202 is a state in which the first structure 201 is maximally accommodated in the second structure 202 (eg, no longer accommodated). impossible) may be present.
  • the portion 411 of the display 410 that is visually exposed to the outside is the first portion of the display, and visually leaks to the outside.
  • the portion 412 of the non-display 410 may be the second portion of the display.
  • the second portion of the display may be a portion of the display 410 housed (or inserted) in the second structure 202 .
  • reference numeral 720 denotes the electronic device 101 in which the first structure 201 is in an intermediate state with respect to the second structure 202 .
  • the display 410 may slide. As the display 410 slides, a portion visually exposed to the outside may be changed.
  • the portion 421 of the display 410 that is visually exposed to the outside is the first portion of the display, and the display that is not visually leaked to the outside ( Portion 422 of 410 may be a second portion of the display.
  • reference numeral 720 denotes one example of an intermediate state of the first structure 201 with respect to the second structure 202 , wherein the first structure 201 with respect to the second structure 202 is Depending on the degree to which the slide is moved (eg, the distance moved by the slide), a first portion of the display (eg, an area of the display 410 that is visually exposed to the outside) and a second portion of the display (eg, visually exposed to the outside) The area of the display 410 that is not displayed) may be different.
  • reference numeral 730 denotes the electronic device 101 in which the first structure 201 is opened with respect to the second structure 202 .
  • the state in which the first structure 201 is open to the second structure 202 is the state in which the first structure 201 is maximally open to the second structure 202 (eg, no longer open to the second structure 202 ). impossible) may be present.
  • the portion 431 of the display 410 that is visually exposed to the outside is the first portion of the display, and the display that is not visually leaked to the outside ( Portion 432 of 410 may be a second portion of the display.
  • the processor 440 while the screen is displayed through the first portion of the display, through the sensor 420, information about the state of the first structure 201 with respect to the second structure 202 can be obtained.
  • the processor 440 may display an execution screen of an application through the first portion of the display.
  • the processor 440 obtains information about the state of the first structure 201 with respect to the second structure 202 through the sensor 420 while the execution screen of the application is displayed through the first portion of the display. can do.
  • the processor 440 obtains information about the state of the display 410 with respect to the second structure 202 through the sensor 420 while the screen is displayed through the first portion of the display. can do.
  • the processor 440 through the sensor 420, information on the sliding state of the display 410 with respect to the second structure 202 (eg, whether sliding, sliding degree, and / or sliding distance) can be obtained
  • the information about the state of the first structure 201 with respect to the second structure 202 may include information about the state of the display 410 with respect to the second structure 202 .
  • the processor 440 when the processor 440 obtains information about the state of the first structure 201 with respect to the second structure 202 while the screen is displayed through the first portion of the display, The displayed screen can be changed through the first part.
  • the processor 440 may display a home screen including N icons through the first portion of the display in a state where the first structure 201 is closed with respect to the second structure 202 .
  • the processor 440 is configured to configure a first portion of the display corresponding to the intermediate state (eg, reference numeral 720 ).
  • a home screen including N or more icons may be displayed through the display 410 ( 421 ) of the .
  • the screen displayed through the first portion of the display is changed Examples to be described are not limited to the above-described examples.
  • the processor 440 may detect a touch input through the sensor 420 .
  • the processor 440 may detect a touch input through a touch sensor. For example, the processor 440 may detect a touch on at least one of a first portion of the display and a second portion of the display through a touch sensor included in the display 410 . The processor 440 may identify a touched position (coordinate) with respect to at least one of the first part of the display and the second part of the display based on the sensed touch.
  • the touch on the second portion of the display is performed on the rear surface of the electronic device 101 (eg, the second plate 221a (eg, a rear case) or the rear plate 221b (eg, the rear window))).
  • the touch on the second portion of the display is performed on the rear surface of the electronic device 101 (eg, the second plate 221a (eg, a rear case) or the rear plate 221b (eg, the rear window)).
  • the touch on the second portion of the display is performed on the rear surface of the electronic device 101 (eg, the second plate 221a (eg, a rear case) or the rear plate 221b (eg, the rear window)).
  • the touch on the second portion of the display is performed on the rear surface of the electronic device 101 (eg, the second plate 221a (eg, a rear case) or the rear plate 221b (eg, the rear window)).
  • the touch on the first portion of the display may include a touch on the front surface of the electronic device 101 .
  • FIG. 6 illustrates that the processor 440 performs operation 603 after performing operation 601, but is not limited thereto.
  • the processor 440 may perform operation 601 .
  • the processor 440 is configured to: based on the information about the state of the first structure 201 with respect to the second structure 202 , one of the first portion of the display and the second portion of the display. , it is possible to check the portion where the touch input is detected.
  • the processor 440 is, based on the information about the state of the first structure 201 with respect to the second structure 202 obtained through the examples of operation 601, the touched position on the display 410 It can be confirmed which part is included among the first part of the display and the second part of the display.
  • the processor 440 may identify the first portion of the display and the second portion of the display based on the information about the state of the first structure 201 with respect to the second structure 202 .
  • the processor 440 may determine which part is included in the touched position on the display 410 among the checked first part and the second part of the display.
  • the processor 440 when the portion where the touch input is detected is the second portion of the display, the processor 440 performs a function related to the screen displayed through the first portion of the display based on the touch input can do.
  • the processor 440 may convert the received touch input for the second portion of the display into a touch input for the first portion of the display. have.
  • the processor 440 may convert a touched position (coordinate) with respect to the second portion of the display into a position of the first portion of the display.
  • the processor 440 may convert the received touch input into a touch input for the first portion of the display when receiving a touch input for the second portion of the display using the first method. have.
  • a method of converting a touch input for the second part of the display into a touch input for the first part of the display using the first method will be described in detail with reference to FIG. 8 .
  • FIG. 8 is an exemplary diagram 800 for explaining a method of converting a touch input for a second portion of a display into a touch input for a first portion of a display using a first method, according to various embodiments of the present disclosure; to be.
  • reference numeral 810 may indicate a state in which the first structure 201 is opened with respect to the second structure 202 .
  • the intermediate state of the first structure 201 with respect to the second structure 202 or the first structure 202 with respect to the second structure 202 may be equally or similarly applied.
  • the portion 811 of the display 410 that is visually exposed to the outside is the first portion of the display, and the display that is not visually leaked to the outside ( Portion 812 of 410 may be a second portion of the display.
  • the processor 440 displays the cursor 831 through the first portion of the display. can do.
  • the processor 440 may display the cursor 831 through the first portion of the display while the electronic device 101 operates in the first mode.
  • the processor 440 may not display the cursor 831 through the first portion of the display while the electronic device 101 operates in the second mode.
  • the processor 440 may display the cursor 831 through the first portion of the display.
  • the present invention is not limited thereto.
  • the processor 440 may display the cursor 831 over the first portion of the display, in both the first mode and the second mode.
  • reference numeral 820 reference numeral 821 denotes a portion of the display 410 that is visually exposed to the outside with the first structure 201 closed with respect to the second structure 202
  • Reference numeral 822 denotes a state in which the first structure 201 is not visually exposed to the outside in a closed state with respect to the second structure 202
  • the state of the first structure 201 with respect to the second structure 202 is open. may indicate a portion of the display 410 that is visually exposed to the outside as it is changed to .
  • the processor 440 may convert a touch input for the second portion of the display into an input for the cursor 831 displayed on the first portion of the display.
  • the processor 440 may convert a touch input for the location 814 on the second portion of the display into a touch input for the location of the cursor 831 on the first portion of the display.
  • the processor 440 is configured to, when a touch input (eg, a drag input) to move with respect to the second portion of the display is obtained, with respect to the axis of rotation of the roller 251 , for the second portion of the display. in the same direction as the movement direction of the touch input, such that the touch input to the first portion of the display (eg, the touch input to the first portion of the display in which the touch input to the second portion of the display is converted) is moved, A touch input for the second portion may be converted into a touch input for the first portion of the display.
  • a touch input eg, a drag input
  • the processor 440 may be configured to apply a drag input from a position 814 to a position 813 on the second portion of the display to a position of the cursor 832 from a position of the cursor 831 on the first portion of the display. can be converted to a drag input for .
  • the processor 440 may be configured to: The position of the cursor 831 on the first portion of the display may be moved to the position of the cursor 832 in the same direction as the direction of the display.
  • the processor 440 when a touch input (eg, a drag input) to move with respect to the second part of the display is obtained, the processor 440 is configured to move by a moving distance equal to the moving distance of the touch input with respect to the second part of the display. , the touch input to the second portion of the display, such that the touch input to the first portion of the display (eg, the touch input to the first portion of the display converted from the touch input to the second portion of the display) is moved; It can be converted into a touch input for the first part of the display.
  • the processor 440 may display a display by a movement distance equal to a movement distance from the position 814 to which the drag input moves to the position 813 .
  • the position of the cursor 831 on the first part of may be moved to the position of the cursor 832 .
  • the processor 440 may be configured to move by a moving distance different from the moving distance of the touch input with respect to the second part of the display. , the touch input to the second portion of the display, such that the touch input to the first portion of the display (eg, the touch input to the first portion of the display converted from the touch input to the second portion of the display) is moved; It can be converted into a touch input for the first part of the display.
  • a touch input eg, a drag input
  • the processor 440 may be configured to move by a moving distance different from the moving distance of the touch input with respect to the second part of the display.
  • the processor 440 may be configured by a movement distance longer than the movement distance from the position 814 to which the drag input moves to the position 813 (eg, : by scaling the distance moved by the touch relative to the second portion of the display or by multiplying the distance moved by the touch relative to the second portion of the display by a specified ratio), a cursor 831 on the first portion of the display may be moved to the position of the cursor 832 .
  • the processor 440 when receiving a touch input for a second portion of the display, using the second scheme, the processor 440 converts the received touch input to the first portion of the display. It can be converted to touch input.
  • a method of converting a touch input for a second part of the display into a touch input for a first part of the display using the second method will be described in detail with reference to FIG. 9 .
  • FIG. 9 is an exemplary diagram 900 for explaining a method of converting a touch input for a second portion of a display into a touch input for a first portion of the display by a second method, according to various embodiments .
  • reference numeral 910 may indicate a state in which the first structure 201 is opened with respect to the second structure 202 .
  • the intermediate state of the first structure 201 with respect to the second structure 202 or the first structure 202 with respect to the second structure 202 may be equally or similarly applied.
  • the portion 911 of the display 410 that is visually exposed to the outside is the first portion of the display, and the display that is not visually leaked to the outside ( Portion 912 of 410 may be a second portion of the display.
  • reference numeral 921 denotes a portion of the display 410 that is visually exposed to the outside with the first structure 201 closed with respect to the second structure 202
  • Reference numeral 922 denotes a state in which the first structure 201 is not visually exposed to the outside in a closed state with respect to the second structure 202
  • the state of the first structure 201 with respect to the second structure 202 is open. may indicate a portion of the display 410 that is visually exposed to the outside as it is changed to .
  • the processor 440 is configured to move the touched location relative to the second portion of the display to a location in the first portion of the display that corresponds (eg, mapped) to the touched location relative to the second portion of the display. can be converted
  • the processor 440 may convert the touched position 1013 with respect to the second portion of the display into a position 1015 of the first portion of the display corresponding to the position 1013 .
  • the processor 440 when a hovering input is obtained (eg, inputted) with respect to the second portion of the display, the processor 440 is configured to, via the first portion of the display, position the hovering input on the second portion of the display.
  • the corresponding object may be displayed at the position of the first portion of the display, the object related to the position of the hovering input with respect to the second portion of the display. For example, if the hovering input is obtained at a location 914 spaced apart from the first portion of the display, the processor 440 may determine a location 914 (or location 914) of the hovering input on a second portion of the display.
  • a position 915 of the display 410 corresponding to a position 913 of the second portion of the display (eg, vertical) corresponding to (eg, perpendicular) to a position 914 of the hovering input, as shown by reference numeral 920 .
  • a position 915 of the display 410 corresponding to a position 913 of the second portion of the display (eg, vertical) corresponding to (eg, perpendicular) to a position 914 of the hovering input, as shown by reference numeral 920 . ) may be displayed as a floating object 931 .
  • the processor 440 is configured to, when a touch input (eg, a drag input) moves with respect to the second portion of the display is obtained using the second method, the same as or similar to the first method, a roller With respect to the rotation axis of 251, in the same direction as the movement direction of the touch input to the second portion of the display, the touch input to the first portion of the display (eg, the touch input to the second portion of the display is converted
  • the touch input to the second part of the display may be converted into a touch input to the first part of the display so that the touch input to the first part of the display is moved.
  • the processor 440 may perform a touch input (eg, a touch down input) is obtained, a cursor may be displayed at a position of the first part of the display (mapped) corresponding to the touched position of the second part of the display.
  • a touch input eg, a touch down input
  • the processor 440 may be configured to, when a hover input is obtained at a location 914 spaced apart from the second portion of the display, and then obtain a touch input to a location 913 of the second portion of the display, display A cursor may be displayed at a position 915 of the first portion of the display corresponding to a position 913 of the second portion of .
  • the processor 440 may perform a hovering input on the second portion of the display while a hovering input on the second portion of the display or a touch input on the second portion of the display is obtained.
  • the cursor may be displayed at the position of the first part of the display corresponding to the position of the touch input with respect to the position of the second part of the display.
  • the processor 440 may select the first method or the second method based on the user input. For example, the processor 440 may convert a touch input for the second portion of the display into a touch input for the first portion of the display using a method selected by the user from among the first method and the second method. have.
  • the processor 440 is configured to: when the touch input to the second portion of the display is converted to the touch input to the first portion of the display, corresponding to the converted touch input to the first portion of the display, A function related to the displayed screen may be performed through the first portion of the display. For example, on the screen displayed through the first part of the display, the processor 440 may perform a touch input (eg, one time When a tap input) is detected, an application corresponding to the icon may be executed.
  • a method of performing a function related to a screen displayed through the first portion of the display based on a touch input to the second portion of the display is not limited to the above-described example.
  • the processor 440 may set a touch input to the second portion of the display and a function corresponding to the touch input to the second portion of the display based on the user input. For example, as shown in [Table 1] below, the processor 440 sets a touch input to the second part of the display and a function corresponding to the touch input to the second part of the display based on the user input.
  • examples of setting a touch input to the second portion of the display and a function corresponding to the touch input to the second portion of the display based on the user input are not limited to [Table 1].
  • the processor 440 when a gesture is set for the first portion of the display to perform the first function of the electronic device 101, the processor 440 performs the first function of the electronic device 101, For the second part of the display, the same gesture as the gesture set on the first part of the display may be set. For example, when a swipe for a first portion of the display is set to perform a screen scroll function, the processor 440 may perform a swipe for a second portion of the display to perform a screen scroll function. can be set.
  • the processor 440 may identify a mode in which the electronic device 101 is currently operating from among the first mode and the second mode.
  • the present invention is not limited thereto, and for example, the processor 440 before or after acquiring information about the state of the first structure 201 with respect to the second structure 202 in operation 601 or in operation 603 .
  • a mode in which the electronic device 101 currently operates among the first mode and the second mode may be checked.
  • the processor 440 when the portion in which the touch input is detected is the second portion of the display while the electronic device 101 is operating in the first mode, the processor 440 is configured to perform a first display of the display based on the touch input. Functions related to the displayed screen can be performed through the part.
  • the processor 440 is configured to display a screen displayed through the first portion of the display and a screen displayed through the first portion of the display when the portion where the touch input is detected is the second portion of the display while the electronic device 101 operates in the second mode. It may not perform related functions.
  • the first mode and the second mode of the electronic device 101 will be described later in detail with reference to FIG. 11 .
  • the processor 440 may perform a function based on the touch input.
  • FIG. 10 is an exemplary diagram 1000 for explaining a method of performing a function related to a screen displayed on a first portion of a display based on an input for a second portion of the display, according to various embodiments of the present disclosure.
  • FIG. 10 may show the electronic device 101 in an open state with a first structure 201 with respect to a second structure 202 .
  • the state in which the first structure 201 is open to the second structure 202 is the state in which the first structure 201 is maximally open to the second structure 202 (eg, no longer open to the second structure 202 ). impossible) may be present.
  • the portion 1011 of the display 410 visually exposed to the outside is the first portion of the display, and the display 410 that is not visually exposed to the outside is the first portion. ) may be the second portion of the display 1012 .
  • the second portion of the display includes a portion 1031 that forms a curved surface about a roller 251 (eg, a portion of the display from point M to point N) and a flat portion 1032 .
  • a roller 251 eg, a portion of the display from point M to point N
  • a flat portion 1032 may include
  • the processor 440 may set other functions of the electronic device 101 with respect to the portion 1031 forming a curved surface around the roller 251 and the flat portion 1032 (eg: can be mapped (or mapped).
  • the processor 440 controls the electronic device 101 when, in the first mode, a drag input is obtained with respect to the portion 1031 forming a curved surface centered on the roller in the second portion of the display. You can increase or decrease the output volume.
  • the processor 440 may, in the first mode, scroll the displayed screen through the first portion of the display when a drag input is obtained with respect to the flat portion 1032 within the second portion of the display. have.
  • the processor 440 operates in the first mode, in the second portion of the display, the functions set for the portion 1031 forming a curved surface around the roller 251 and the flat portion 1032 are It is not limited to the above-mentioned example.
  • the processor 440 may set the same functions of the electronic device 101 with respect to the portion 1031 forming a curved surface around the roller 251 and the flat portion 1032 (eg: can be mapped (or mapped).
  • the processor based on a touch input (eg, a drag input) to the portion 1031 forming a curved surface around the roller 251, scrolls the screen displayed through the first portion of the display, or The screen may be switched (eg, from the first menu screen to the second menu screen).
  • the processor 440 is configured to display a display in a rear surface (eg, a second plate 221a (eg, a rear case) or a rear plate 221b (eg, a rear window)) of the electronic device 101 . Based on an input to a portion in which the 410 is not disposed (eg, a portion in which the display 410 is not disposed as the first structure 201 is slid with respect to the second structure 202), the display The function of the screen displayed through the first part may be performed.
  • the processor 440 is configured on the portion 1020 where the display 410 is not disposed (eg, the portion 1020 where the display 410 is not disposed within the second structure 202 ).
  • a hovering input may be acquired at a location spaced apart by a specified distance from .
  • the processor 440 may perform a function of a screen displayed through the first portion of the display based on the obtained hovering input.
  • FIG. 11 is a flowchart 1100 for explaining a method in which the electronic device 101 operates in a first mode or a second mode, according to various embodiments of the present disclosure.
  • the processor 440 may perform an operation in the second mode.
  • the processor 440 may perform a function of the electronic device 101 based on a touch input to the first portion of the display. For example, the processor 440 may perform a function related to a screen displayed through the first portion of the display.
  • the processor 440 may ignore the touch input to the second portion of the display while operating in the second mode. In an embodiment, the processor 440, while operating in the second mode, touches the second portion of the display except for an input for changing the mode of the electronic device 101 from the second mode to the first mode. input can be ignored.
  • the processor 440 may obtain an input for entering the first mode.
  • the processor 440 may switch the mode of the electronic device 101 from the second mode to the first mode based on a designated touch input to switch from the second mode to the first mode. For example, the processor 440 may, via a second portion of the display (eg, via a portion of a touch sensor corresponding to the second portion of the display), use a designated touch input to switch the second mode to the first mode. When (eg, a double tap) is obtained, the mode of the electronic device 101 may be switched from the second mode to the first mode. As another example, the processor 440 may display the electronic device ( 101) can be switched from the second mode to the first mode.
  • the processor 440 may switch the mode of the electronic device 101 from the second mode to the first mode based on an input of the physical key of the electronic device 101 .
  • the method for changing the mode of the electronic device 101 from the second mode to the first mode is not limited to the above-described example.
  • the processor 440 may perform an operation in the first mode. For example, when obtaining an input for entering the first mode in operation 1103 , the processor 440 may enter the first mode and perform an operation in the first mode.
  • the processor 440 while operating in the first mode, performs a function of the electronic device 101 based on a touch input to a second portion of the display (and a touch input to the first portion of the display). can be performed.
  • the processor 440 may perform a function related to a screen displayed through the first portion of the display based on the touch input for the touch input for the second portion of the display.
  • the processor 440 may perform a function related to a screen displayed through the first portion of the display based on the touch input for the touch input on the first portion of the display.
  • the processor 440 may set different sensitivities of portions in the touch sensor while operating in the first mode. For example, the processor 440 may, while operating in the first mode, have a touch sensor corresponding to the first portion of the display compared to the sensitivity of the portion of the touch sensor corresponding to the first portion of the display to sense a touch input. You can set the sensitivity for detecting a touch input to be high (or sensitive).
  • the processor 440 selects the mode of the electronic device 101 based on an input for switching the mode of the electronic device 101 from the first mode to the second mode. It is possible to switch from the first mode to the second mode. For example, when the processor 440 obtains a touch input for the first portion of the display while operating in the first mode, the processor 440 releases the first mode and sets the mode of the electronic device 101 to the first mode. can be switched to the second mode. As another example, the processor 440 may display the electronic device ( 101) can be switched from the first mode to the second mode. As another example, the processor 440 may switch the mode of the electronic device 101 from the first mode to the second mode based on an input of the physical key of the electronic device 101 .
  • the processor 440 in the first mode and the second mode, is configured to:
  • a driving frequency (eg, a scan frequency) for obtaining a touch input for a corresponding touch sensor region) may be set differently.
  • the processor 440 may set a driving frequency for obtaining a touch input by the touch sensor included in the second portion of the display to be higher in the first mode than in the second mode.
  • FIG. 12 is an exemplary diagram 1200 for explaining a method of operating the electronic device 101 according to various embodiments of the present disclosure.
  • the processor 440 is configured to, from a user (eg, a user's finger 1213 ), via a sensor 420 , to the electronic device 101 . ) of the rear surface 1211 (eg, the second plate 221a (eg, a rear case) or the rear plate 221b (eg, a rear window)) may be acquired.
  • the processor 440 may obtain a touch input (eg, a touch-down input or a drag input) with respect to the rear surface 1211 of the electronic device 101 through the touch sensor 542 .
  • the processor 440 may be configured to generate a cursor 1221 ('mouse point (also referred to as 'mouse point)', a function of the electronic device 101 may be performed. For example, in a state in which the cursor 1221 is positioned on an object (eg, an icon to which a function is mapped), the processor 440 may perform a touch-down input (eg, When tap input) is obtained, a function mapped to an object may be performed (eg, an application corresponding to the object is executed). As another example, when a drag input to the rear surface 1211 of the electronic device 101 is obtained, the processor 440 moves the cursor 1221 based on the drag input (eg, a dragged distance or a drag). can be moved by the scaled distance).
  • a touch-down input eg, When tap input
  • a function mapped to an object eg, an application corresponding to the object is executed.
  • the processor 440 moves the cursor 1221 based on the drag input (eg
  • reference numeral 1210 and reference numeral 1220 of FIG. 12 denote an electronic device ( 101), but is not limited thereto.
  • the electronic device 101 while the electronic device 101 is in an open state or an intermediate state, a function of the electronic device may be performed based on a touch on the rear surface 1211 of the electronic device.
  • FIG. 13 is an exemplary diagram 1300 for explaining a method of setting a function to be executed based on a touch on the rear surface of the electronic device 101, according to various embodiments of the present disclosure.
  • the processor 440 performs a touch input on the rear surface of the electronic device 101 (eg, a touch input on the second portion of the display 410 ) and the electronic device 101 . You can set the function corresponding to the touch input on the back of the .
  • the processor 440 performs a function of the electronic device 101 based on a touch on the rear surface of the electronic device 101 (hereinafter, 'back touch function'). ') may be displayed through the display 410 for setting a screen 1310 .
  • the processor 440 may display an object 1312 for setting whether to activate the back touch function, along with the information 1311 indicating the back touch function, through the display 410 .
  • the processor 440 is, in the rear touch function, information 1320 indicating rear touch inputs (eg, touch inputs for the second portion of the display 410 ) set by a user input. and information 1331 indicating functions of the electronic device 101 corresponding to each of the rear touch inputs may be displayed through the display 410 .
  • the method of setting the back touch function is not limited to the example described with reference to FIG. 13 .
  • FIG. 14 is a diagram 1400 illustrating an electronic device 101 according to various embodiments of the present disclosure.
  • the electronic device 101 includes a first structure 1411 and a third structure movable in both directions (eg, movable in the directions of arrows 1431 and 1433 ) and a third structure. It may include a 1415 and a second structure 1413 in which the first structure 1411 and the third structure 1415 are accommodated or expanded.
  • the first structure 1411 and the third structure 1415 when the first structure 1411 and the third structure 1415 are in a closed state with respect to the second structure 1413 , the first structure 1411 is visually exposed to the outside according to the sliding movement of the structure.
  • the first portion 1421 of the possible display 410 and the third portion 1425 of the display 410 that can be visually exposed to the outside according to the sliding movement of the third structure may not be visually exposed to the outside.
  • the display 410 when the first structure 1411 and the third structure 1415 are in an open state (or an intermediate state between a closed state and an open state) with respect to the second structure 1413 , the display 410 . ) of the first portion 1421 , the second portion 1423 , and the third portion 1425 may be visually exposed to the outside.
  • FIGS. even when the electronic device 101 includes the first structure 1411 and the third structure 1415 slidable in both directions with respect to the second structure 1413, FIGS.
  • the above-described examples may be applied identically or similarly.
  • the electronic device 101 in a closed state, an intermediate state, or an open state, the electronic device 101 may perform a function of the electronic device 101 based on a touch input to the rear surface of the electronic device 101 . have.
  • 15 is an exemplary diagram 1500 for explaining a method of operating the electronic device 101 including the foldable display 410 according to various embodiments of the present disclosure.
  • the electronic device 101 may be implemented in a form that can be folded or unfolded.
  • the first area 1521 of the display 1520 and the display The direction of the second region 1523 of 1520 may be the same.
  • the direction in which the first area of the display 1520 faces is that the second area of the display 1520 is It may be in the opposite direction to the facing direction.
  • Reference numeral 1520 denotes an intermediate state (hereinafter, referred to as an 'intermediate state') between a fully unfolded state and a fully folded state of the electronic device 101 .
  • the processor 440 may display an unfolded state, a folded state, or You can check if you are in an intermediate state.
  • the processor 440 may operate in the first mode or the second mode, as described above with reference to FIGS. 4 to 11 .
  • the processor 440 may perform a function of the electronic device 101 in the first mode.
  • the processor 440 is, in the first mode, in the unfolded state of the electronic device 101 , the display 1520 is visually exposed to the outside as the opposite surface of the front of the electronic device 101 .
  • a function related to a screen displayed through the display 1520 may be performed based on a touch input to the rear surface of the 101 .
  • the processor 440 may generate a cursor 1531 displayed through the display 1520 based on a touch input to the rear surface of the electronic device 101 .
  • a function related to a screen displayed through the display 1520 may be performed.
  • the processor 440 in the first mode, in the folded state of the electronic device 101 , the processor 440 may be configured to display a portion of the display 1520 exposed in a direction opposite to the direction facing the user within the display 1520 . Based on the touch input, a function related to the screen displayed through the portion of the display 1520 exposed in the direction toward the user in the display 1520 may be performed. For example, in the first mode, in a state in which the electronic device 101 is folded, the processor 440 may touch a portion of the display 1520 exposed in a direction facing the user in a direction opposite to that of the user in the display 1520 . Based on the input, a function related to the screen displayed through the display 1520 may be performed using the cursor 1533 displayed through the display 1520 .
  • the processor 440 in the first mode, in the folded state while the electronic device 101 is in the intermediate state, includes the portion of the display 1520 exposed in the display 1520 in the direction toward the user; Based on a touch input to the portion of the display 1520 forming a predetermined angle, a function related to the screen displayed through the portion of the display 1520 exposed in the direction toward the user in the display 1520 may be performed.
  • the processor 440 forms a predetermined angle with the portion of the display 1520 exposed in the direction toward the user in the display 1520 .
  • a function related to a screen displayed through the display 1520 may be performed by using the cursor 1532 displayed through the display 1520 based on a touch input to the portion of the display 1520 .
  • the processor 440 may convert a touch input to the display 1520 using at least one of the first method and the second method as described above with reference to FIGS. 4 to 11 .
  • the processor 440 may perform a function of the electronic device 101 based on the converted touch input.
  • FIG. 15 in a state in which the electronic device 101 is fully folded, out-folding is performed so that the first area 1521 of the display 1520 and the second area 1523 of the display 1520 face each other.
  • the electronic device 101 folded in this way is illustrated, it is not limited thereto.
  • the direction in which the first area of the display 1520 faces and the direction the second area of the display 1520 faces are opposite to each other.
  • the above-described examples may be equally or similarly applied to the electronic device 101 that is folded in a folding method.
  • the electronic device 101 is illustrated in which at least one of the first housing 1511 or the second housing 1513 rotates with respect to one hinge axis (eg, the hinge axis 1515 ).
  • the above-described examples may be equally or similarly applied to the electronic device 101 in which a plurality of housings are rotatable based on a plurality of hinge axes.
  • the above-described examples are the same or can be applied similarly.
  • 16 is an exemplary diagram for explaining a method of operating an electronic device 101 including a multi-foldable display according to various embodiments of the present disclosure.
  • the electronic device 101 may be implemented in a form that can be folded or unfolded.
  • the electronic device 101 may be in a state in which the first housing 1611 , the second housing 1613 , and the third housing 1615 are fully unfolded.
  • the first housing 1611 is rotated with respect to the second housing 1613 with respect to the first hinge axis 1631 in the direction indicated by the arrow 1641 or the arrow 1643 is
  • the third housing 1615 may be rotated with respect to the second housing 1613 based on the second hinge axis 1633 in the indicated direction.
  • the electronic device 101 may be in a fully folded state as the first housing 1611 and the third housing 1615 are rotated with respect to the second housing 1613 .
  • the first region 1621 of the display 1620 is a portion of the display 1620 corresponding to the first housing 1611
  • the second region 1623 of the display 1620 is the second housing 1611
  • a portion of the display 1620 corresponding to 1613 may be a portion of the display 1620
  • the third region 1625 of the display 1620 may be a portion of the display 1620 corresponding to the third housing 1615 .
  • the electronic device 101 rotates the first housing 1611 and/or the third housing 1615 with respect to the second housing 1613 about two hinge axes as shown in FIG. 16 .
  • the examples described above with reference to FIG. 15 may be applied in the same or similar manner.
  • the electronic device 101 is in a fully unfolded state, a fully folded state, or an intermediate state (eg, the first housing 1611 is unfolded with respect to the second housing 1613 and the third housing 1615 is the second housing Electronic device 101 in a folded state relative to 1613 , or in a state in which the third housing 1615 is unfolded relative to the second housing 1613 and the first housing 1611 is folded relative to the second housing 1613 )
  • a function of the electronic device 101 may be performed based on a touch input to the rear surface of the .
  • the first area 1621 and the third area of the display 1621 are opposite to the direction in which the second area 1623 of the display 1620 faces from the fully unfolded state of the electronic device 101 .
  • the electronic device 101 that is folded in an out-folding manner is illustrated to face 1625 , it is not limited thereto.
  • the above-described examples may be equally or similarly applied to an electronic device that is folded or unfolded in an in-folding manner.
  • the first housing 1611 and/or the third housing 1615 rotate with respect to the second housing 1613 with respect to two hinge axes (eg, the hinge axes 1631 and 1633 ).
  • the electronic device 101 is illustrated, it is not limited thereto.
  • the above-described examples may be equally or similarly applied to the electronic device 101 in which a plurality of housings are rotatable based on three or more hinge axes.
  • the above-described examples are the same or can be applied similarly.
  • a method of operating the electronic device 101 includes a first structure 201 , a second structure 202 guiding a slide movement of the first structure 201 , and the first structure 201 .
  • a flexible display 410 that is at least partially accommodated in the interior of the second structure 202 or is visually exposed to the outside of the second structure 202 according to the slide movement of the at least one sensor 420 .
  • obtaining information on the state of the first structure 201 with respect to the second structure 202 through the at least one sensor 420 of the electronic device 101, the at least one sensor Through 420 based on the operation of detecting a touch input and information on the state of the first structure 201 with respect to the second structure 202 , the flexible display 410 is visually displayed to the outside.
  • an operation of performing a function related to a screen displayed through the first part based on the touch input may be included.
  • the state of the first structure 201 with respect to the second structure 202 is a state in which the first structure 201 is closed with respect to the second structure 202 , the second structure With respect to 202 , the first structure 201 may be in an open state, or an intermediate state between the closed state and the open state.
  • the operation of obtaining information about the state of the first structure 201 with respect to the second structure 202 may include a touch sensor, a hall sensor, an inertial sensor, a pressure sensor, an optical sensor, or an illuminance sensor. through at least one of, obtaining information about the state of the first structure 201 with respect to the second structure 202 .
  • the performing of the function related to the screen displayed through the first portion includes: receiving the touch input for the second portion based on a position of a cursor displayed through the first portion; It may include an operation of converting a touch input for the first part.
  • the performing of the function related to the screen displayed through the first part may include determining a touched position with respect to the second part and the first corresponding to a touched position with respect to the second part. It may include an operation of converting a position to a part.
  • the method may include one of a first mode in which the function is performed based on a touch input to the second part and a second mode in which the function is not performed based on a touch input to the second part.
  • confirming the mode of the electronic device 101 wherein the performing the function related to the screen displayed through the first part may include: the mode of the electronic device 101 is the first mode and when the identified part is the second part, performing the function related to the screen displayed through the first part based on the touch input.
  • the method includes detecting a touch input for the second part, which is set to switch the second mode to the first mode, while the electronic device 101 operates in the second mode.
  • the operation and the operation of switching the second mode to the first mode based on the touch input to the second portion may be further included.
  • the method may further include setting the function corresponding to the touch input to the second portion based on the user input.
  • the method includes, through the at least one sensor 420 , detecting a hovering input for a portion in the second structure 202 where the flexible display 410 is not disposed, and The method may further include performing a function related to the screen displayed through the first portion based on the hovering input.
  • the method includes receiving, through the at least one sensor 420 , a touch input to a portion forming a curved surface about a rotation axis of a roller of the electronic device 101 within the second portion. It may include an operation of detecting and performing a function related to a screen displayed through the first portion based on a touch input to the portion forming the curved surface.
  • the data structure used in the above-described embodiment of the present disclosure may be recorded in a computer-readable recording medium through various means.
  • the computer-readable recording medium includes a storage medium such as a magnetic storage medium (eg, ROM, floppy disk, hard disk) and an optically readable medium (eg, CD-ROM, DVD).

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

다양한 실시예들에 따른 전자 장치는, 제 1 구조물, 제 2 구조물, 플렉서블 디스플레이, 적어도 하나의 센서, 및 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는, 상기 적어도 하나의 센서를 통하여, 상기 제 2 구조물에 대한 상기 제 1 구조물의 상태에 대한 정보를 획득하고, 상기 적어도 하나의 센서를 통하여, 터치 입력을 검출하고, 상기 제 2 구조물에 대한 상기 제 1 구조물의 상태에 대한 정보에 기반하여, 상기 플렉서블 디스플레이 내에서 상기 외부에 시각적으로 노출된 제 1 부분 및 상기 제 2 구조물의 내부에 수용된 제 2 부분 중에서, 상기 터치 입력이 검출된 상기 플렉서블 디스플레이의 부분을 확인하고, 및 상기 확인된 부분이 상기 제 2 부분인 경우, 상기 터치 입력에 기반하여, 상기 제 1 부분을 통하여 표시된 화면과 관련된 기능을 수행하도록 설정될 수 있다.

Description

플렉서블 디스플레이를 포함하는 전자 장치 및 이의 동작 방법
본 개시의 다양한 실시예들은, 플렉서블 디스플레이를 포함하는 전자 장치 및 이의 동작 방법에 관한 것이다.
이동통신의 수요가 증가하고 전자 장치의 집적도가 높아짐에 따라, 이동통신 단말기와 같은 전자 장치의 휴대성이 향상되고, 멀티미디어 기능의 사용에 있어 편의성이 향상될 수 있다. 예를 들어, 터치스크린 기능이 통합된 디스플레이가 전통적인 기계식(버튼식) 키패드를 대체함으로써, 전자 장치는 입력 장치의 기능을 유지하면서도 소형화될 수 있다.
웹 서핑이나 멀티미디어 기능을 이용함에 있어, 더 큰 화면을 출력하는 전자 장치를 사용하는 것이 보다 편리할 수 있다. 더 큰 화면을 출력하기 위해 더 큰 디스플레이를 전자 장치에 탑재할 수 있지만, 전자 장치의 휴대성을 고려하면, 디스플레이의 크기를 확장하는데 제약이 따를 수 있다.
최근, 플렉서블 디스플레이에 대한 개발이 활발하게 진행되고 있다. 플렉서블 디스플레이는, 슬라이드 이동 가능한(slidable), 접철 가능한(foldable or bendable), 또는 말아질 수 있는(rollable) 형태로 전자 장치에 탑재될 수 있다. 플렉서블 디스플레이를 포함하는 전자 장치는, 사용자의 필요에 따라, 확장 또는 수축된 화면을 제공할 수 있다.
외부로 시각적으로 노출되는 영역이 확장 가능한 플렉서블 디스플레이(예: 슬라이더블 디스플레이)를 포함하는 전자 장치에서, 사용자가 한 손을 이용하여, 전자 장치를 사용하기 어려울 수 있다. 예를 들어, 사용자는, 플렉서블 디스플레이가 확장된 상태에서, 전자 장치를 파지한 손(예: 손가락)을 이용하여, 확장된 상태에 있는 플렉서블 디스플레이의 일부를 터치하기 어려울 수 있다.
본 개시의 다양한 실시예들은, 전자 장치의 후면에 대한 입력에 기반하여, 전자 장치의 기능(예: 전자 장치의 플렉서블 디스플레이를 통해 표시된 화면과 관련된 기능)을 수행할 수 있도록 할 수 있는, 플렉서블 디스플레이를 포함하는 전자 장치 및 이의 동작 방법에 관한 것이다.
본 개시가 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
다양한 실시예들에 따른 전자 장치는, 제 1 구조물, 상기 제 1 구조물의 슬라이드 이동을 안내하는 제 2 구조물, 상기 제 1 구조물의 슬라이드 이동에 따라 적어도 부분적으로 상기 제 2 구조물의 내부로 수용되거나 상기 제 2 구조물의 외부로 시각적으로 노출되는 플렉서블 디스플레이, 적어도 하나의 센서, 및 상기 플렉서블 디스플레이 및 상기 적어도 하나의 센서와 기능적으로 연결된 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는, 상기 적어도 하나의 센서를 통하여, 상기 제 2 구조물에 대한 상기 제 1 구조물의 상태에 대한 정보를 획득하고, 상기 적어도 하나의 센서를 통하여, 터치 입력을 검출하고, 상기 제 2 구조물에 대한 상기 제 1 구조물의 상태에 대한 정보에 기반하여, 상기 플렉서블 디스플레이 내에서 상기 외부에 시각적으로 노출된 제 1 부분 및 상기 제 2 구조물의 내부에 수용된 제 2 부분 중에서, 상기 터치 입력이 검출된 상기 플렉서블 디스플레이의 부분을 확인하고, 및 상기 확인된 부분이 상기 제 2 부분인 경우, 상기 터치 입력에 기반하여, 상기 제 1 부분을 통하여 표시된 화면과 관련된 기능을 수행하도록 설정될 수 있다.
다양한 실시예들에 따른 전자 장치의 동작 방법은, 제 1 구조물, 상기 제 1 구조물의 슬라이드 이동을 안내하는 제 2 구조물, 상기 제 1 구조물의 슬라이드 이동에 따라 적어도 부분적으로 상기 제 2 구조물의 내부로 수용되거나 상기 제 2 구조물의 외부로 시각적으로 노출되는 플렉서블 디스플레이, 및 적어도 하나의 센서를 포함하는 상기 전자 장치의 상기 적어도 하나의 센서를 통하여, 상기 제 2 구조물에 대한 상기 제 1 구조물의 상태에 대한 정보를 획득하는 동작, 상기 적어도 하나의 센서를 통하여, 터치 입력을 검출하는 동작, 상기 제 2 구조물에 대한 상기 제 1 구조물의 상태에 대한 정보에 기반하여, 상기 플렉서블 디스플레이 내에서 상기 외부에 시각적으로 노출된 제 1 부분 및 상기 제 2 구조물의 내부에 수용된 제 2 부분 중에서, 상기 터치 입력이 검출된 상기 플렉서블 디스플레이의 부분을 확인하는 동작, 및 상기 확인된 부분이 상기 제 2 부분인 경우, 상기 터치 입력에 기반하여, 상기 제 1 부분을 통하여 표시된 화면과 관련된 기능을 수행하는 동작을 포함할 수 있다.
본 개시의 다양한 실시예에 따른 플렉서블 디스플레이를 포함하는 전자 장치 및 이의 동작 방법은, 전자 장치의 후면에 대한 입력에 기반하여, 전자 장치의 기능을 수행함으로써, 사용자가 한 손을 이용하여, 전자 장치를 사용할 수 있도록 할 수 있다.
또한, 본 개시의 다양한 실시예에 따른 플렉서블 디스플레이를 포함하는 전자 장치 및 이의 동작 방법은, 전자 장치의 후면에 대한 사용자 입력에 대응하는 전자 장치의 기능을 설정하도록 할 수 있다.
도 1은, 다양한 실시예들에 따른, 네트워크 환경 내의 전자 장치의 블록도이다.
도 2는 본 문서에 개시된 다양한 실시예에 따른 전자 장치를 나타내는 도면으로서, 플렉서블 디스플레이의 대부분이 제2 구조물의 외부로 노출된 상태를 나타내는 도면이다.
도 3은 본 문서에 개시된 다양한 실시예에 따른 전자 장치를 나타내는 분리 사시도이다.
도 4는, 다양한 실시예들에 따른, 전자 장치의 블록도이다.
도 5는, 다양한 실시예들에 따른, 전자 장치의 동작 방법을 설명하기 위한 도면이다.
도 6은, 다양한 실시예들에 따른, 전자 장치의 동작 방법을 설명하기 위한 흐름도이다.
도 7은, 다양한 실시예들에 따른, 제 1 구조물의 슬라이드 이동에 따른, 제 2 구조물에 대한 제 1 구조물의 상태를 설명하기 위한 예시도이다.
도 8은, 다양한 실시예들에 따른, 제 1 방식에 의해, 디스플레이의 제 2 부분에 대한 입력에 기반하여, 디스플레이의 제 1 부분에 표시된 화면과 관련된 기능을 수행하는 방법을 설명하기 위한 예시도이다.
도 9는, 다양한 실시예들에 따른, 제 2 방식에 의해, 디스플레이의 제 2 부분에 대한 터치 입력을 디스플레이의 제 1 부분에 대한 터치 입력으로 변환하는 방법을 설명하기 위한 예시도이다.
도 10은, 다양한 실시예들에 따른, 디스플레이의 제 2 부분에 대한 입력에 기반하여, 디스플레이의 제 1 부분에 표시된 화면과 관련된 기능을 수행하는 방법을 설명하기 위한 예시도이다.
도 11은, 다양한 실시예들에 따른, 전자 장치가 제 1 모드 또는 제 2 모드에서 동작하는 방법을 설명하기 위한 흐름도이다.
도 12는, 다양한 실시예들에 따른, 전자 장치의 동작 방법을 설명하기 위한 예시도이다.
도 13은, 다양한 실시예들에 따른, 전자 장치의 후면에 대한 터치에 기반하여 실행되는 기능을 설정하는 방법을 설명하기 위한 예시도이다.
도 14는, 다양한 실시예들에 따른, 전자 장치를 나타내는 도면이다.
도 15는, 다양한 실시예들에 따른, 폴더블 디스플레이를 포함하는 전자 장치의 동작 방법을 설명하기 위한 예시도이다.
도 16은, 다양한 실시예들에 따른, 다중 폴더블 디스플레이를 포함하는 전자 장치의 동작 방법을 설명하기 위한 예시도이다.
도 1은, 다양한 실시예들에 따른, 네트워크 환경(100) 내의 전자 장치(101)의 블록도이다.
도 1을 참조하면, 네트워크 환경(100)에서 전자 장치(101)는 제 1 네트워크(198)(예: 근거리 무선 통신 네트워크)를 통하여 전자 장치(102)와 통신하거나, 또는 제 2 네트워크(199)(예: 원거리 무선 통신 네트워크)를 통하여 전자 장치(104) 또는 서버(108) 중 적어도 하나와 통신할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 서버(108)를 통하여 전자 장치(104)와 통신할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 프로세서(120), 메모리(130), 입력 모듈(150), 음향 출력 모듈(155), 디스플레이 모듈(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 연결 단자(178), 햅틱 모듈(179), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 가입자 식별 모듈(196), 또는 안테나 모듈(197)을 포함할 수 있다. 어떤 실시예에서는, 전자 장치(101)에는, 이 구성요소들 중 적어도 하나(예: 연결 단자(178))가 생략되거나, 하나 이상의 다른 구성요소가 추가될 수 있다. 어떤 실시예에서는, 이 구성요소들 중 일부들(예: 센서 모듈(176), 카메라 모듈(180), 또는 안테나 모듈(197))은 하나의 구성요소(예: 디스플레이 모듈(160))로 통합될 수 있다.
프로세서(120)는, 예를 들면, 소프트웨어(예: 프로그램(140))를 실행하여 프로세서(120)에 연결된 전자 장치(101)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)를 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일 실시예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(120)는 다른 구성요소(예: 센서 모듈(176) 또는 통신 모듈(190))로부터 수신된 명령 또는 데이터를 휘발성 메모리(132)에 저장하고, 휘발성 메모리(132)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리(134)에 저장할 수 있다. 일 실시예에 따르면, 프로세서(120)는 메인 프로세서(121)(예: 중앙 처리 장치 또는 어플리케이션 프로세서) 또는 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(123)(예: 그래픽 처리 장치, 신경망 처리 장치(NPU: neural processing unit), 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 예를 들어, 전자 장치(101)가 메인 프로세서(121) 및 보조 프로세서(123)를 포함하는 경우, 보조 프로세서(123)는 메인 프로세서(121)보다 저전력을 사용하거나, 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서(123)는 메인 프로세서(121)와 별개로, 또는 그 일부로서 구현될 수 있다.
보조 프로세서(123)는, 예를 들면, 메인 프로세서(121)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(121)를 대신하여, 또는 메인 프로세서(121)가 액티브(예: 어플리케이션 실행) 상태에 있는 동안 메인 프로세서(121)와 함께, 전자 장치(101)의 구성요소들 중 적어도 하나의 구성요소(예: 디스플레이 모듈(160), 센서 모듈(176), 또는 통신 모듈(190))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일 실시예에 따르면, 보조 프로세서(123)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성요소(예: 카메라 모듈(180) 또는 통신 모듈(190))의 일부로서 구현될 수 있다. 일 실시예에 따르면, 보조 프로세서(123)(예: 신경망 처리 장치)는 인공지능 모델의 처리에 특화된 하드웨어 구조를 포함할 수 있다. 인공지능 모델은 기계 학습을 통해 생성될 수 있다. 이러한 학습은, 예를 들어, 인공지능 모델이 수행되는 전자 장치(101) 자체에서 수행될 수 있고, 별도의 서버(예: 서버(108))를 통해 수행될 수도 있다. 학습 알고리즘은, 예를 들어, 지도형 학습(supervised learning), 비지도형 학습(unsupervised learning), 준지도형 학습(semi-supervised learning) 또는 강화 학습(reinforcement learning)을 포함할 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은, 복수의 인공 신경망 레이어들을 포함할 수 있다. 인공 신경망은 심층 신경망(DNN: deep neural network), CNN(convolutional neural network), RNN(recurrent neural network), RBM(restricted boltzmann machine), DBN(deep belief network), BRDNN(bidirectional recurrent deep neural network), 심층 Q-네트워크(deep Q-networks) 또는 상기 중 둘 이상의 조합 중 하나일 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은 하드웨어 구조 이외에, 추가적으로 또는 대체적으로, 소프트웨어 구조를 포함할 수 있다.
메모리(130)는, 전자 장치(101)의 적어도 하나의 구성요소(예: 프로세서(120) 또는 센서 모듈(176))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램(140)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(130)는, 휘발성 메모리(132) 또는 비휘발성 메모리(134)를 포함할 수 있다.
프로그램(140)은 메모리(130)에 소프트웨어로서 저장될 수 있으며, 예를 들면, 운영 체제(142), 미들 웨어(144) 또는 어플리케이션(146)을 포함할 수 있다.
입력 모듈(150)은, 전자 장치(101)의 구성요소(예: 프로세서(120))에 사용될 명령 또는 데이터를 전자 장치(101)의 외부(예: 사용자)로부터 수신할 수 있다. 입력 모듈(150)은, 예를 들면, 마이크, 마우스, 키보드, 키(예: 버튼), 또는 디지털 펜(예: 스타일러스 펜)을 포함할 수 있다.
음향 출력 모듈(155)은 음향 신호를 전자 장치(101)의 외부로 출력할 수 있다. 음향 출력 모듈(155)은, 예를 들면, 스피커 또는 리시버를 포함할 수 있다. 스피커는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있다. 리시버는 착신 전화를 수신하기 위해 사용될 수 있다. 일 실시예에 따르면, 리시버는 스피커와 별개로, 또는 그 일부로서 구현될 수 있다.
디스플레이 모듈(160)은 전자 장치(101)의 외부(예: 사용자)로 정보를 시각적으로 제공할 수 있다. 디스플레이 모듈(160)은, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일 실시예에 따르면, 디스플레이 모듈(160)은 터치를 감지하도록 설정된 터치 센서, 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 압력 센서를 포함할 수 있다.
오디오 모듈(170)은 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 일 실시예에 따르면, 오디오 모듈(170)은, 입력 모듈(150)을 통해 소리를 획득하거나, 음향 출력 모듈(155), 또는 전자 장치(101)와 직접 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(102))(예: 스피커 또는 헤드폰)를 통해 소리를 출력할 수 있다.
센서 모듈(176)은 전자 장치(101)의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 사용자 상태)를 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 일 실시예에 따르면, 센서 모듈(176)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다.
인터페이스(177)는 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 직접 또는 무선으로 연결되기 위해 사용될 수 있는 하나 이상의 지정된 프로토콜들을 지원할 수 있다. 일 실시예에 따르면, 인터페이스(177)는, 예를 들면, HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.
연결 단자(178)는, 그를 통해서 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 물리적으로 연결될 수 있는 커넥터를 포함할 수 있다. 일 실시예에 따르면, 연결 단자(178)는, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.
햅틱 모듈(179)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 일 실시예에 따르면, 햅틱 모듈(179)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.
카메라 모듈(180)은 정지 영상 및 동영상을 촬영할 수 있다. 일 실시예에 따르면, 카메라 모듈(180)은 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다.
전력 관리 모듈(188)은 전자 장치(101)에 공급되는 전력을 관리할 수 있다. 일 실시예에 따르면, 전력 관리 모듈(188)은, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구현될 수 있다.
배터리(189)는 전자 장치(101)의 적어도 하나의 구성요소에 전력을 공급할 수 있다. 일 실시예에 따르면, 배터리(189)는, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.
통신 모듈(190)은 전자 장치(101)와 외부 전자 장치(예: 전자 장치(102), 전자 장치(104), 또는 서버(108)) 간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(190)은 프로세서(120)(예: 어플리케이션 프로세서)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일 실시예에 따르면, 통신 모듈(190)은 무선 통신 모듈(192)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(194)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제 1 네트워크(198)(예: 블루투스, WiFi(wireless fidelity) direct 또는 IrDA(infrared data association)와 같은 근거리 통신 네트워크) 또는 제 2 네트워크(199)(예: 레거시 셀룰러 네트워크, 5G 네트워크, 차세대 통신 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부의 전자 장치(104)와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성요소(예: 단일 칩)로 통합되거나, 또는 서로 별도의 복수의 구성요소들(예: 복수 칩들)로 구현될 수 있다. 무선 통신 모듈(192)은 가입자 식별 모듈(196)에 저장된 가입자 정보(예: 국제 모바일 가입자 식별자(IMSI))를 이용하여 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크 내에서 전자 장치(101)를 확인 또는 인증할 수 있다.
무선 통신 모듈(192)은 4G 네트워크 이후의 5G 네트워크 및 차세대 통신 기술, 예를 들어, NR 접속 기술(new radio access technology)을 지원할 수 있다. NR 접속 기술은 고용량 데이터의 고속 전송(eMBB(enhanced mobile broadband)), 단말 전력 최소화와 다수 단말의 접속(mMTC(massive machine type communications)), 또는 고신뢰도와 저지연(URLLC(ultra-reliable and low-latency communications))을 지원할 수 있다. 무선 통신 모듈(192)은, 예를 들어, 높은 데이터 전송률 달성을 위해, 고주파 대역(예: mmWave 대역)을 지원할 수 있다. 무선 통신 모듈(192)은 고주파 대역에서의 성능 확보를 위한 다양한 기술들, 예를 들어, 빔포밍(beamforming), 거대 배열 다중 입출력(massive MIMO(multiple-input and multiple-output)), 전차원 다중입출력(FD-MIMO: full dimensional MIMO), 어레이 안테나(array antenna), 아날로그 빔형성(analog beam-forming), 또는 대규모 안테나(large scale antenna)와 같은 기술들을 지원할 수 있다. 무선 통신 모듈(192)은 전자 장치(101), 외부 전자 장치(예: 전자 장치(104)) 또는 네트워크 시스템(예: 제 2 네트워크(199))에 규정되는 다양한 요구사항을 지원할 수 있다. 일 실시예에 따르면, 무선 통신 모듈(192)은 eMBB 실현을 위한 Peak data rate(예: 20Gbps 이상), mMTC 실현을 위한 손실 Coverage(예: 164dB 이하), 또는 URLLC 실현을 위한 U-plane latency(예: 다운링크(DL) 및 업링크(UL) 각각 0.5ms 이하, 또는 라운드 트립 1ms 이하)를 지원할 수 있다.
안테나 모듈(197)은 신호 또는 전력을 외부(예: 외부의 전자 장치)로 송신하거나 외부로부터 수신할 수 있다. 일 실시예에 따르면, 안테나 모듈(197)은 서브스트레이트(예: PCB) 위에 형성된 도전체 또는 도전성 패턴으로 이루어진 방사체를 포함하는 안테나를 포함할 수 있다. 일 실시예에 따르면, 안테나 모듈(197)은 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다. 이런 경우, 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 적어도 하나의 안테나가, 예를 들면, 통신 모듈(190)에 의하여 상기 복수의 안테나들로부터 선택될 수 있다. 신호 또는 전력은 상기 선택된 적어도 하나의 안테나를 통하여 통신 모듈(190)과 외부의 전자 장치 간에 송신되거나 수신될 수 있다. 어떤 실시예에 따르면, 방사체 이외에 다른 부품(예: RFIC(radio frequency integrated circuit))이 추가로 안테나 모듈(197)의 일부로 형성될 수 있다.
다양한 실시예에 따르면, 안테나 모듈(197)은 mmWave 안테나 모듈을 형성할 수 있다. 일 실시예에 따르면, mmWave 안테나 모듈은 인쇄 회로 기판, 상기 인쇄 회로 기판의 제 1 면(예: 아래 면)에 또는 그에 인접하여 배치되고 지정된 고주파 대역(예: mmWave 대역)을 지원할 수 있는 RFIC, 및 상기 인쇄 회로 기판의 제 2 면(예: 윗 면 또는 측 면)에 또는 그에 인접하여 배치되고 상기 지정된 고주파 대역의 신호를 송신 또는 수신할 수 있는 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다.
상기 구성요소들 중 적어도 일부는 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input and output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))을 통해 서로 연결되고 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.
일 실시예에 따르면, 명령 또는 데이터는 제 2 네트워크(199)에 연결된 서버(108)를 통해서 전자 장치(101)와 외부의 전자 장치(104)간에 송신 또는 수신될 수 있다. 외부의 전자 장치(102, 또는 104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 일 실시예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 외부의 전자 장치들(102, 104, 또는 108) 중 하나 이상의 외부의 전자 장치들에서 실행될 수 있다. 예를 들면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로, 또는 사용자 또는 다른 장치로부터의 요청에 반응하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 하나 이상의 외부의 전자 장치들에게 그 기능 또는 그 서비스의 적어도 일부를 수행하라고 요청할 수 있다. 상기 요청을 수신한 하나 이상의 외부의 전자 장치들은 요청된 기능 또는 서비스의 적어도 일부, 또는 상기 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행의 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 상기 결과를, 그대로 또는 추가적으로 처리하여, 상기 요청에 대한 응답의 적어도 일부로서 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 모바일 에지 컴퓨팅(MEC: mobile edge computing), 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다. 전자 장치(101)는, 예를 들어, 분산 컴퓨팅 또는 모바일 에지 컴퓨팅을 이용하여 초저지연 서비스를 제공할 수 있다. 다른 실시예에 있어서, 외부의 전자 장치(104)는 IoT(internet of things) 기기를 포함할 수 있다. 서버(108)는 기계 학습 및/또는 신경망을 이용한 지능형 서버일 수 있다. 일 실시예에 따르면, 외부의 전자 장치(104) 또는 서버(108)는 제 2 네트워크(199) 내에 포함될 수 있다. 전자 장치(101)는 5G 통신 기술 및 IoT 관련 기술을 기반으로 지능형 서비스(예: 스마트 홈, 스마트 시티, 스마트 카, 또는 헬스 케어)에 적용될 수 있다.
본 문서에 개시된 다양한 실시예들에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치(예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 또는 가전 장치를 포함할 수 있다. 본 문서의 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.
본 문서의 다양한 실시예들 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시예들로 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나", "A 또는 B 중 적어도 하나", "A, B 또는 C", "A, B 및 C 중 적어도 하나", 및 "A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에, "기능적으로" 또는 "통신적으로"라는 용어와 함께 또는 이런 용어 없이, "커플드" 또는 "커넥티드"라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 제 3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.
본 문서의 다양한 실시예들에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로와 같은 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일 실시예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다.
본 문서의 다양한 실시예들은 기기(machine)(예: 전자 장치(101)) 의해 읽을 수 있는 저장 매체(storage medium)(예: 내장 메모리(136) 또는 외장 메모리(138))에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예: 프로그램(140))로서 구현될 수 있다. 예를 들면, 기기(예: 전자 장치(101))의 프로세서(예: 프로세서(120))는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장 매체는, 비일시적(non-transitory) 저장 매체의 형태로 제공될 수 있다. 여기서, ‘비일시적’은 저장 매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장 매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.
일 실시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory(CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두 개의 사용자 장치들(예: 스마트 폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.
다양한 실시예들에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있으며, 복수의 개체 중 일부는 다른 구성요소에 분리 배치될 수도 있다. 다양한 실시예들에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시예들에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.
도 2는 본 문서에 개시된 다양한 실시예에 따른 전자 장치(101)를 나타내는 도면으로서, 플렉서블 디스플레이(203)의 일부분(예: 제 2 영역(A2))이 제 2 구조물(202)에 수납된 상태를 나타내는 도면이다.
도 3은 본 문서에 개시된 다양한 실시예에 따른 전자 장치(101)를 나타내는 도면으로서, 플렉서블 디스플레이(203)의 대부분이 제 2 구조물(202)의 외부로 노출된 상태를 나타내는 도면이다.
도 2에 도시된 상태는 제 2 구조물(202)에 대하여 제 1 구조물(201)이 폐쇄(closed)된 것으로 정의될 수 있으며, 도 3에 도시된 상태는 제 2 구조물(202)에 대하여 제 1 구조물(201)이 개방(open)된 것으로 정의될 수 있다. 실시예에 따라, "폐쇄된 상태(closed state)" 또는 "개방된 상태(opened state)"는 전자 장치가 폐쇄되거나 개방된 상태로 정의될 수 있다.
도 2과 도 3을 참조하면, 전자 장치(101)는 제 1 구조물(201)과 제 1 구조물(201)에서 이동 가능하게 배치되는 제 2 구조물(202)을 포함할 수 있다. 어떤 실시예에서는, 전자 장치(101)에서 제 1 구조물(201)이 제 2 구조물(202) 상에서 슬라이드 이동 가능하게 배치된 구조로 해석될 수 있다. 한 실시예에 따르면, 제 1 구조물(201)은 제 2 구조물(202)을 기준으로 도시된 방향, 예를 들어, 화살표 ①로 지시된 방향으로 일정 거리만큼 왕복 운동이 가능하게 배치될 수 있다.
다양한 실시예에 따르면, 제 1 구조물(201)은, 예를 들면, 제 1 하우징, 슬라이드부 또는 슬라이드 하우징으로 칭해질 수 있으며, 제 2 구조물(202) 상에서 왕복 운동 가능하게 배치될 수 있다. 한 실시예에서, 제 2 구조물(202)은, 예를 들면, 제 2 하우징, 메인부 또는 메인 하우징으로 칭해질 수 있으며, 주회로 기판이나 배터리와 같은 각종 전기, 전자 부품을 수용할 수 있다. 디스플레이(203)의 일부분(예: 제 1 영역(A1))이 제 1 구조물(201)에 안착될 수 있다. 어떤 실시예에서, 디스플레이(203)의 다른 일부분(예: 제 2 영역(A2))은, 제 1 구조물(201)이 제 2 구조물(202)에 대하여 이동(예: 슬라이드 이동)함에 따라, 제 2 구조물(202)의 내부로 수납(예: 슬라이드-인(slide-in) 동작)되거나, 제 2 구조물(202)의 외부로 노출(예: 슬라이드-아웃(slide-out) 동작)될 수 있다.
다양한 실시예에 따르면, 제 1 구조물(201)은 제 1 플레이트(211a)(예: 슬라이드 플레이트)를 포함할 수 있으며, 제 1 플레이트(211a)의 적어도 일부분을 포함하여 형성된 제 1 면 및 제 1 면과 반대 방향으로 향하는 제 2 면을 포함할 수 있다. 한 실시예에 따르면, 제 2 구조물(202)은 제 2 플레이트(221a)(예: 후면 케이스), 제 2 플레이트(221a)에서 연장된 제 1 측벽(223a), 제 1 측벽(223a)과 제 2 플레이트(221a)에서 연장된 제 2 측벽(223b) 및 제 1 측벽(223a)과 제 2 플레이트(221a)에서 연장되고, 제 2 측벽(223b)에 평행한 제 3 측벽(223c), 및/또는 후면 플레이트(221b)(예: 리어 윈도우)를 포함할 수 있다. 어떤 실시예에서, 제 2 측벽(223b)과 제 3 측벽(223c)은 제 1 측벽(223a)과 수직하게 형성될 수 있다. 한 실시예에 따르면, 제 2 플레이트(221a), 제 1 측벽(223a), 제 2 측벽(223b) 및 제 3 측벽(223c)은 제 1 구조물(201)의 적어도 일부를 수용하도록(또는 감싸도록) 일측(예: 전면(front face))이 오픈되게 형성할 수 있다. 예컨대, 제 1 구조물(201)은 적어도 부분적으로 감싸지는 상태로 제 2 구조물(202)에 결합하며, 제 2 구조물(202)의 안내를 받으면서 제 1 면 또는 제 2 면과 평행한 방향, 예를 들어, 화살표 ①방향으로 슬라이드 이동할 수 있다.
다양한 실시예에 따르면, 제 2 측벽(223b) 또는 제 3 측벽(223c)은 생략될 수 있다. 한 실시예에 따르면, 제 2 플레이트(221a), 제 1 측벽(223a), 제 2 측벽(223b) 및/또는 제 3 측벽(223c)은 별개의 구조물로 형성되어 결합 또는 조립될 수 있다. 후면 플레이트(221b)는 제 2 플레이트(221a)의 적어도 일부를 감싸게 결합할 수 있다. 어떤 실시예에서, 후면 플레이트(221b)는 실질적으로 제 2 플레이트(221a)와 일체형으로 형성될 수 있다. 한 실시예에 따르면, 제 2 플레이트(221a) 또는 후면 플레이트(221b)는 플렉서블 디스플레이(203)의 적어도 일부를 덮을 수 있다. 예컨대, 플렉서블 디스플레이(203)는 적어도 부분적으로 제 2 구조물(202)의 내부로 수납될 수 있으며, 제 2 플레이트(221a) 또는 후면 플레이트(221b)는 제 2 구조물(202)의 내부로 수납된 플렉서블 디스플레이(203)의 일부를 덮을 수 있다.
다양한 실시예에 따르면, 제 1 구조물(201)은 제 2 플레이트(221a)(예: 후면 케이스) 및 제 2 측벽(223b)에 평행한 제 1 방향(예: ① 방향)으로 제 2 구조물(202)에 대하여 개방 상태 및 폐쇄 상태로 이동 가능하며, 제 1 구조물(201)이 폐쇄 상태에서 제 1 측벽(223a)으로부터 제 1 거리에 놓여지고, 개방 상태에서 제 1 측벽(223a)으로부터 제 1 거리보다 큰 제 2 거리에 놓여지도록 이동할 수 있다. 어떤 실시예에서, 폐쇄 상태일 때, 제 1 구조물(201)은 제 1 측벽(223a)의 일부분을 감싸게 위치할 수 있다.
다양한 실시예에 따르면, 제 2 구조물(202)는 비도전성 물질(예: 고분자물질(예: 플라스틱), 유리, 세라믹)을 적어도 일부 포함할 수 있다. 예를 들어, 제 2 구조물(202)는 도전성 하우징과 고분자물질로 형성된 플레이트를 결합하여 형성될 수 있다.
다양한 실시예에 따르면, 전자 장치(101)는 디스플레이(203), 키 입력 장치(241), 커넥터 홀(243), 오디오 모듈(245a, 245b, 247a, 247b) 또는 카메라 모듈(249)을 포함할 수 있다. 도시되지는 않지만, 전자 장치(101)는 인디케이터(예: LED 장치) 또는 각종 센서 모듈을 더 포함할 수 있다.
다양한 실시예에 따르면, 디스플레이(203)는 제 1 영역(A1)과 제 2 영역(A2)을 포함할 수 있다. 한 실시예에서, 제 1 영역(A1)은 실질적으로 제 1 면의 적어도 일부를 가로질러 연장되어 제 1 면에 배치될 수 있다. 제 2 영역(A2)은 제 1 영역(A1)으로부터 연장되며, 제 1 구조물(201)의 슬라이드 이동에 따라 제 2 구조물(202)(예: 하우징)의 내부로 삽입 또는 수납되거나, 상기 제 2 구조물(202)의 외부로 노출될 수 있다. 후술하겠지만, 제 2 영역(A2)은 실질적으로 제 2 구조물(202)에 장착된 롤러(미도시)의 안내를 받으면서 이동하여 상기 제 2 구조물(202)의 내부로 수납되거나 외부로 노출될 수 있다. 예컨대, 제 1 구조물(201)이 슬라이드 이동하는 동안 제 2 영역(A2)의 일부분이 롤러에 대응하는 위치에서 곡면 형태로 변형될 수 있다.
다양한 실시예에 따르면, 제 1 플레이트(211a)(예: 슬라이드 플레이트)의 상부에서 바라볼 때, 제 1 구조물(201)이 폐쇄 상태에서 개방 상태로 이동하면, 제 2 영역(A2)이 점차 제 2 구조물(202)의 외부로 노출되면서 제 1 영역(A1)과 함께 실질적으로 평면을 형성할 수 있다. 디스플레이(203)는 터치 감지 회로, 터치의 세기(압력)을 측정할 수 있는 압력 센서, 및/또는 자기장 방식의 스타일러스 펜을 검출하는 디지타이저와 결합되거나 인접하여 배치될 수 있다. 한 실시예에서, 제 2 영역(A2)은 적어도 부분적으로 제 2 구조물(202)의 내부로 수납될 수 있으며, 도 1에 도시된 상태(예: 폐쇄 상태)에서도 제 2 영역(A2)의 일부는 외부로 시각적으로 노출될 수 있다. 어떤 실시예에서, 폐쇄 상태 또는 개방 상태와 무관하게, 노출된 제 2 영역(A2)의 일부는 롤러 상에 위치될 수 있으며, 롤러에 대응하는 위치에서 제 2 영역(A2)의 일부는 곡면 형태를 유지할 수 있다.
키 입력 장치(241)는 제 2 구조물(202)의 제 2 측벽(223b) 또는 제 3 측벽(223c)에 배치될 수 있다. 외관과 사용 상태에 따라, 도시된 키 입력 장치(241)가 생략되거나, 추가의 키 입력 장치(들)을 포함하도록 전자 장치(101)가 설계될 수 있다. 어떤 실시예에서, 전자 장치(101)는 도시되지 않은 키 입력 장치, 예를 들면, 홈 키 버튼, 또는 홈 키 버튼 주변에 배치되는 터치 패드를 포함할 수 있다. 다른 실시예에 따르면, 키 입력 장치(241)의 적어도 일부는 제 1 구조물(201)의 일 영역에 위치할 수 있다.
다양한 실시예에 따르면, 커넥터 홀(243)은, 실시예에 따라 생략될 수 있으며, 외부 전자 장치와 전력 및/또는 데이터를 송수신하기 위한 커넥터(예: USB 커넥터)를 수용할 수 있다. 도시되지 않지만, 전자 장치(101)는 복수의 커넥터 홀(243)을 포함할 수 있으며, 복수의 커넥터 홀(243) 중 일부는 외부 전자 장치와 오디오 신호를 송수신하기 위한 커넥터 홀로서 기능을 수행할 수 있다. 도시된 실시예에서, 커넥터 홀(243)은 제 3 측벽(223c)에 배치되어 있지만, 이에 한정되지 않으며, 커넥터 홀(243) 또는 도시되지 않은 커넥터 홀이 제 1 측벽(223a) 또는 제 2 측벽(223b)에 배치될 수 있다.
다양한 실시예에 따르면, 오디오 모듈(245a, 245b, 247a, 247b)은 스피커 홀(245a, 245b), 또는 마이크 홀(247a, 247b)을 포함할 수 있다. 스피커 홀(245a, 245b) 중 하나는 음성 통화용 리시버 홀로서 제공될 수 있으며, 다른 하나는 외부 스피커 홀로서 제공될 수 있다. 마이크 홀(247a, 247b)은 외부의 소리를 획득하기 위한 마이크가 내부에 배치될 수 있고, 어떤 실시예에서는 소리의 방향을 감지할 수 있도록 복수 개의 마이크가 배치될 수 있다. 어떤 실시예에서는, 스피커 홀(245a, 245b)과 마이크 홀(247a, 247b)이 하나의 홀로 구현되거나, 스피커 홀(245a, 245b) 없이 스피커가 포함될 수 있다.(예: 피에조 스피커) 한 실시예에 따르면, 참조번호 "245b"로 지시된 스피커 홀은 제 1 구조물(201)에 배치되어 음성 통화용 리시버 홀로 활용될 수 있으며, 참조번호 "245a"로 지시된 스피커 홀(예: 외부 스피커 홀), 또는 마이크 홀(247a, 247b)은 제 2 구조물(202)(예: 측면들(223a, 223b, 223c) 중 하나)에 배치될 수 있다.
카메라 모듈(249)은 제 2 구조물(202)에 제공되며 디스플레이(203)의 제 1 영역(A1)과는 반대 방향에서 피사체를 촬영할 수 있다. 전자 장치(101)는 복수의 카메라 모듈(249)을 포함할 수 있다. 예컨대, 전자 장치(101)는 광각 카메라, 망원 카메라 또는 접사 카메라를 포함할 수 있으며, 실시예에 따라, 적외선 프로젝터 및/또는 적외선 수신기를 포함함으로써 피사체까지의 거리를 측정할 수 있다. 카메라 모듈(249)은 하나 또는 복수의 렌즈들, 이미지 센서, 및/또는 이미지 시그널 프로세서를 포함할 수 있다. 도시되지는 않지만, 전자 장치(101)는 디스플레이(203)의 제 1 영역(A1)과는 반대 방향에서 피사체를 촬영하는 카메라 모듈(예: 전면 카메라)을 더 포함할 수 있다. 예를 들어, 전면 카메라는 제 1 영역(A1)의 주위에 또는 디스플레이(203)와 중첩하는 영역에 배치될 수 있으며, 디스플레이(203)와 중첩하는 영역에 배치된 경우 디스플레이(203)를 투과하여 피사체를 촬영할 수 있다.
다양한 실시예에 따르면, 전자 장치(101)의 인디케이터(미도시)는 제 1 구조물(201) 또는 제 2 구조물(202)에 배치될 수 있으며, 발광 다이오드를 포함함으로써 전자 장치(101)의 상태 정보를 시각적인 신호로 제공할 수 있다. 전자 장치(101)의 센서 모듈(미도시)은, 전자 장치(101)의 내부의 작동 상태, 또는 외부의 환경 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 센서 모듈은, 예를 들어, 근접 센서, 지문 센서 또는 생체 센서(예: 홍채/안면 인식 센서 또는 HRM 센서)를 포함할 수 있다. 다른 실시예에서, 센서 모듈, 예를 들어, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 컬러 센서, IR(infrared) 센서, 온도 센서, 습도 센서, 또는 조도 센서 중 적어도 하나를 더 포함할 수 있다.
도 4는, 다양한 실시예들에 따른, 전자 장치(101)의 블록도이다.
도 4를 참조하면, 일 실시예에서, 전자 장치(101)는, 디스플레이(410), 센서(420), 메모리(430), 및 프로세서(440)를 포함할 수 있다. 일 실시예에서, 도 4에 도시하지는 않았지만, 전자 장치(101)는, 디스플레이(410), 센서(420), 메모리(430), 및 프로세서(440)가 배치되는, 도 2 및 도 3의 제 1 구조물(201) 및 제 2 구조물(202)을 더 포함할 수 있다.
일 실시예에서, 디스플레이(410)는, 도 1의 디스플레이 모듈(160) 또는 도 2 및 도 3의 디스플레이(203)와 동일할 수 있다. 예를 들어, 디스플레이(410)는, 제 1 구조물(201)의 제 1 면에 장착된 제 1 영역과, 상기 제 1 영역으로부터 연장된 제 2 영역을 포함하는 플렉서블 디스플레이일 수 있다. 디스플레이(410)는, 상기 제 2 영역이 제 1 구조물(201)의 슬라이드 이동에 따라 적어도 부분적으로 제 2 구조물(202)의 일측에서 제 2 구조물(202)의 내부로 수용되거나, 제 2 구조물(202)의 외부로 시각적으로 노출될 수 있다.
이하, 제 1 구조물(201)의 슬라이드 이동에 따라, 외부에 시각적으로 노출된 디스플레이(410)의 일부의 적어도 일부분을 '디스플레이의 제 1 부분'으로 지칭하고, 제 2 구조물(202)에 수납(또는 삽입)된 디스플레이(410)의 일부의 적어도 일부분을 '디스플레이의 제 2 부분'으로 지칭하기로 한다. 예를 들어, 디스플레이의 제 1 부분은, 제 2 구조물(202)에 대하여 제 1 구조물(201)이 폐쇄된 상태, 제 2 구조물(202)에 대하여 제 1 구조물(201)이 개방된 상태, 및 제 2 구조물(202)에 대하여 제 1 구조물(201)이 폐쇄된 상태 및 개방된 상태의 중간 상태(이하, '중간 상태'로 지칭함)에서, 외부에 시각적으로 노출된 디스플레이(410)의 일부의 적어도 일부분일 수 있다. 디스플레이의 제 2 부분은, 상기 폐쇄된 상태, 상기 개방된 상태, 및 상기 중간 상태에서, 외부에 시각적으로 노출되지 않은 디스플레이(410)의 일부의 적어도 일부일 수 있다.
일 실시예에서, 도 2 및 도 3의 예시들과 전술한 예시에서는, 디스플레이(410)가 슬라이드 이동 가능한 디스플레이인 것으로 예시하고 있지만, 이에 제한되지 않는다. 예를 들어, 디스플레이(410)는, 접히거나(foldable), 구부려지거나(bendable), 또는 말아질 수 있는(rollable) 디스플레이일 수 있다.
일 실시예에서, 센서(420)는, 도 1의 센서 모듈(176) 또는 도 2의 센서 모듈(미도시)과 적어도 일부가 동일 또는 유사할 수 있다.
일 실시예에서, 센서(420)는, 터치 센서(또는 '터치 패널'로도 지칭됨)을 포함할 수 있다.
일 실시예에서, 터치 센서는, 사용자에 의한, 터치를 감지할 수 있다. 일 실시예에서, 터치 센서는, 사용자(예: 사용자의 손가락)가 전자 장치(101)를 접촉함으로써 감지되는 터치 이외에, 전자 장치(101)로부터 지정된 거리 이내에 위치하는 사용자(예: 사용자의 손가락)에 의한 호버링(hovering)을 감지할 수 있다.
전술한 예시에서 터치 센서가 센서(420)에 포함되는 것으로 예시하고 있지만, 일 실시예에서, 터치 센서는 디스플레이(410)에 포함될 수 있다. 이하에서, 터치 센서가 디스플레이(410)에 포함된 것으로 가정하여 설명하도록 한다.
일 실시예에서, 터치 센서는 제 2 구조물(202)에 대한 제 1 구조물(201)의 상태(예: 폐쇄 상태, 중간 상태, 또는 개방 상태)에 대한 정보를 획득(예: 생성)할 수 있다. 예를 들어, 터치 센서는, 제 1 구조물(201)의 슬라이드 이동에 따라, 디스플레이(410)와 함께 슬라이드 이동될 수 있다. 터치 센서가 정전 용량 방식으로 구현되는 경우, 터치 센서 내에서 롤러(예: 도 7의 롤러(251))의 회전축을 중심으로 곡면을 형성하는 부분(예: 도 10에서 포인트(M)(또는 라인) 및 포인트(N)(또는 라인) 사이의 디스플레이 부분(1031)에 포함된 터치 센서 부분)이 감지하는 전기장(electric field)(또는 정전 용량)(예: 전기장의 변화)과, 터치 센서 내에서 평평한 부분(예: 도 10에서 디스플레이 부분(1011) 또는 디스플레이 부분(1032)에 포함된 터치 센서 부분)이 감지하는 전기장은 다를 수 있다. 또한, 터치 센서가 정전 용량 방식으로 구현되는 경우, 예를 들어, 제 2 플레이트(221a)에 의해 덮여진 터치 센서의 부분이 감지하는 전기장은, 제 2 플레이트(221a)에 의해 덮여지지 않은 터치 센서의 부분이 감지하는 전기장과 다를 수 있다. 터치 센서는, 제 2 구조물(202)에 대한 제 1 구조물(201)의 상태에 대한 정보로서, 터치 센서의 각 부분들이 감지한 전기장에 대한 정보를 획득할 수 있다.
일 실시예에서, 센서(420)는, 터치 센서 이외에, 제 2 구조물(202)에 대한 제 1 구조물(201)의 상태에 대한 정보를 획득하기 위한 센서를 포함할 수 있다.
일 실시예에서, 센서(420)는 제 2 구조물(202)에 대한 제 1 구조물(201)의 상태에 대한 정보를 획득할 수 있는 홀 센서(hall sensor)를 포함할 수 있다. 일 실시예에서, 제 2 구조물(202)에 복수의 홀 센서들이 배치되고, 제 1 구조물(201)에 마그네트(magnet)가 배치될 수 있다. 제 1 구조물(201)이 슬라이드 이동됨에 따라 제 1 구조물(201)에 배치된 마그네트의 위치에 따라 변경될 수 있다. 제 2 구조물(202)에 배치된 복수의 홀 센서들은, 마그네트에 의해 형성되고 마그네트의 위치에 따라 변경되는 자기장을 감지할 수 있다. 홀 센서는, 복수의 홀 센서들이 마그네트에 의해 형성된 자기장을 감지함으로써, 제 2 구조물(202)에 대한 제 1 구조물(201)의 상태에 대한 정보를 획득할 수 있다.
일 실시예에서, 센서(420)는 제 2 구조물(202)에 대한 제 1 구조물(201)의 상태에 대한 정보를 획득할 수 있는 광 센서를 포함할 수 있다. 일 실시예에서, 제 2 구조물(202)에 광학 패턴(optical pattern)이 배치되고, 제 1 구조물(201)에 광 센서(예: 포토 디텍터(photo detector))가 배치될 수 있다. 제 1 구조물(201)이 슬라이드 이동됨에 따라 제 1 구조물(201)에 배치된 광 센서의 위치가 이동될 수 있다. 포토 디텍터가 제 2 구조물(202)에 배치된 광학 패턴을 감지함으로써, 제 2 구조물(202)에 대한 제 1 구조물(201)의 상태에 대한 정보를 획득할 수 있다.
일 실시예에서, 센서(420)는 제 2 구조물(202)에 대한 제 1 구조물(201)의 상태에 대한 정보를 획득할 수 있는 관성 센서('모션(motion) 센서'로도 지칭됨)를 포함할 수 있다. 일 실시예에서, 제 1 구조물(201) 및 제 2 구조물(202) 각각에 가속도 센서들(예: 6축 가속도 센서들)이 배치될 수 있다. 가속도 센서들은, 제 2 구조물(202)에 대한 제 1 구조물(201)의 상태에 대한 정보로서, 제 2 구조물(202)에 대한 제 1 구조물(201)의 상대적인 위치(또는 위치의 변화)에 대한 정보를 획득할 수 있다.
일 실시예에서, 센서(420)는, 제 2 구조물(202)에 대한 제 1 구조물(201)의 상태에 대한 정보를 획득할 수 있는 압력 센서를 포함할 수 있다. 일 실시예에서, 압력 센서는 디스플레이(410)에 포함될 수 있다. 일 실시예에서, 제 2 구조물(202)에 대하여 제 1 구조물(201)이 이동됨에 따라, 디스플레이(410) 내에서 곡면을 형성하는 부분에서 감지되는 압력 및 디스플레이(410) 내에서 평평한 부분에서 감지되는 압력은 다를 수 있다. 압력 센서는, 제 2 구조물(202)에 대한 제 1 구조물(201)의 상태에 대한 정보로서, 압력 센서가 감지한 압력에 대한 정보를 획득할 수 있다.
일 실시예에서, 센서(420)는, 제 2 구조물(202)에 대한 제 1 구조물(201)의 상태에 대한 정보를 획득할 수 있는 조도 센서를 포함할 수 있다. 일 실시예에서, 디스플레이(410)의 복수의 부분들 각각은, 서로 다른 양의 외부 광을 투과시킬 수 있다(예: 디스플레이(410)의 복수의 부분들 각각은 외부 광에 대한 서로 다른 차단율을 가지도록 구현될 수 있다). 제 2 구조물(202)에 배치된 적어도 하나의 조도 센서는, 제 1 구조물(201)이 슬라이드 이동됨에 따라 조도 센서에 감지되는 외부 광의 양(또는 외부 광의 양의 변화)을 감지함으로써, 제 2 구조물(202)에 대한 제 1 구조물(201)의 상태에 대한 정보를 획득할 수 있다.
일 실시예에서, 센서(420)는, 제 2 구조물(202)에 대한 제 1 구조물(201)의 상태에 대한 정보를 획득할 수 있는 회전각 센서를 포함할 수 있다. 일 실시예에서, 롤러(251)에 배치된 적어도 하나의 회전각 센서는, 제 1 구조물(201)이 슬라이드 이동됨에 따라 회전각 센서에 감지되는 회전각의 양(또는 회전각의 변화)을 감지함으로써, 제 2 구조물(202)에 대한 제 1 구조물(201)의 상태에 대한 정보를 획득할 수 있다.일 실시예에서, 도 4에 도시하지는 않았지만, 전자 장치(101)는, 센서(420) 외에, 제 2 구조물(202)에 대한 제 1 구조물(201)의 상태에 대한 정보를 획득하기 위한 장치들을 포함할 수 있다. 예를 들어, 제 1 구조물(201)이 기계식 스위치 소자를 포함하고, 제 2 구조물(202)이 기계식 스위치 소자와 맞물리거나 간섭될 수 있는 홈(recess) 또는 돌기(protrusion)을 포함할 수 있다. 제 2 구조물(202)에 대하여 제 1 구조물(201)이 슬라이드 이동되는 동안, 제 1 구조물(201)에 포함된 기계식 스위치 소자와 맞물리거나 간섭되는 홈 또는 돌기의 위치가 확인됨으로써, 제 2 구조물(202)에 대한 제 1 구조물(201)의 상태에 대한 정보를 획득될 수 있다.
일 실시예에서, 메모리(430)는, 도 1의 메모리(130)와 동일할 수 있다. 메모리는, 전자 장치(101)의 동작과 관련된 다양한 정보를 저장할 수 있으며, 메모리(430)가 저장하는 다양한 정보에 대해서는 상세히 후술하도록 한다.
일 실시예에서, 프로세서(440)는 도 1의 프로세서(120)와 동일할 수 있다. 프로세서(440)는 전자 장치(101)의 동작을 전반적으로 제어할 수 있으며, 이하에서, 프로세서(440)의 동작에 대하여 상세히 후술하도록 한다.
도 4에서, 전자 장치(101)가, 디스플레이(410), 센서(420), 메모리(430), 및 프로세서(440)를 포함하는 것으로 예시하고 있지만, 이에 제한되지 않는다. 일 실시예에서, 전자 장치(101)는, 도 4에 도시된 구성들 외에 추가적인 구성을 더 포함하거나 일부 구성을 포함하지 않을 수 있다. 예를 들어, 전자 장치(101)는, 통신 모듈(예: 도 1의 통신 모듈(190))을 더 포함하거나, 전술한 센서(420)에 포함되는 구성들 중 일부를 포함하지 않을 수 있다.
도 5는, 다양한 실시예들에 따른, 전자 장치(101)의 동작 방법을 설명하기 위한 도면(500)이다. 예를 들어, 도 5는, 전자 장치(101)의 동작 로직(logic)을 설명하기 위한 논리 블록 도면일 수 있다.
도 5를 참조하면, 일 실시예에서, 전자 장치(101)는, 프레임워크/어플리케이션(framework/application)(510), HAL(hardware abstraction layer; HAL)(520), 커널(kernel)(530), 및 하드웨어(540)를 포함할 수 있다.
일 실시예에서, 터치 센서(542)(예: 터치 패널)는, 사용자에 의한, 터치를 감지할 수 있다. 일 실시예에서, 터치 센서(542)는, 터치 이외에, 호버링을 감지할 수도 있다.
일 실시예에서, 터치 센서(542)는, 제 2 구조물(202)에 대한 제 1 구조물(201)의 상태에 대한 정보를 획득(예: 생성)할 수 있다.
터치 센서(542)에 대해서는 상세히 전술하였으므로, 터치 센서(542)에 대한 상세한 설명은 생략하기로 한다.
일 실시예에서, 터치 콘트롤러(541)는 터치 센서(542)의 동작을 제어할 수 있다. 예를 들어, 터치 콘트롤러(541)는, 터치 센서(542)가 설정된 구동 주파수 및 구동 타이밍에 기반하여 구동되도록, 터치 센서(542)를 제어할 수 있다.
일 실시예에서, 터치 콘트롤러(541)는, 터치 센서(542)로부터, 터치 또는 호버링에 대한 정보를 획득할 수 있다. 일 실시예에서, 터치 콘트롤러(541)는, 터치 센서(542)로부터, 제 2 구조물(202)에 대한 제 1 구조물(201)의 상태에 대한 정보에 대한 정보를 획득할 수 있다.
일 실시예에서, 터치 콘트롤러(541)는, 터치 센서(542)로부터 획득된 정보에 기반하여, 터치 센서(542) 상에서 사용자에 의해 터치된(또는 호버링) 위치(좌표)에 대한 정보를 획득할 수 있다.
일 실시예에서, 터치 콘트롤러(541)는, 터치 센서(542) 상에서 사용자에 의해 터치된 위치에 대한 정보 또는 제 2 구조물(202)에 대한 제 1 구조물(201)의 상태에 대한 정보 중 적어도 하나를, 터치 드라이버(531)로 전달할 수 있다.
일 실시예에서, 터치 센서(542) 및 터치 콘트롤러(541)를 통합하여, 터치 센서로 지칭할 수도 있다.
일 실시예에서, 센서(544)는, 도 4를 통하여 예시한, 제 2 구조물(202)에 대한 제 1 구조물(201)의 상태에 대한 정보를 획득할 수 있는 센서를 나타낼 수 있다. 예를 들어, 센서(544)는, 홀 센서, 관성 센서, 광 센서, 압력 센서, 조도 센서, 또는 기계식 스위치 소자 중 적어도 하나를 나타낼 수 있다.
일 실시예에서, 센서 콘트롤러(543)는 센서(544)의 동작을 제어할 수 있다. 일 실시예에서, 센서 콘트롤러(543)는, 센서(544)로부터, 제 2 구조물(202)에 대한 제 1 구조물(201)의 상태에 대한 정보에 대한 정보를 획득할 수 있다.
일 실시예에서, 센서(544) 및 센서 콘트롤러(543)를 통합하여, 센서로 지칭할 수도 있다.
일 실시예에서, 터치 드라이버(531)(또는 '입력 드라이버'로도 지칭됨)는, 터치 콘트롤러(541)로부터 획득한 정보를, 입력 HAL(521)로 전달할 수 있다.
일 실시예에서, 터치 드라이버(531)는, 디스플레이(410) 내의 제 1 부분(제 1 구조물(201)의 슬라이드 이동에 따라, 외부에 시각적으로 노출된 디스플레이(410)의 일부의 적어도 일부분)에 대한 터치 입력 및 디스플레이의 제 2 부분(제 2 구조물(202)에 수납(또는 삽입)된 디스플레이(410)의 일부의 적어도 일부분)에 대한 터치 입력을 구분할 수 있다.
일 실시예에서, 터치 드라이버(531)는, 디스플레이의 제 1 부분에 대한 터치 입력에 대한 정보(예: 터치가 입력된 터치 센서(542) 상의 위치)를 입력 HAL(521)로 전달할 수 있다. 일 실시예에서, 터치 드라이버(531)는, 디스플레이의 제 2 부분(예: 디스플레이의 제 2 부분에 대응하는 터치 센서(542)의 부분)에 대한 터치 입력을 수신한 경우, 수신된 터치 입력을 디스플레이의 제 1 부분에 대한 터치 입력으로 변환할 수 있다. 예를 들어, 터치 드라이버(531)는, 디스플레이의 제 2 부분에 대하여 터치된 위치(좌표)를 디스플레이의 제 1 부분의 위치로 변환할 수 있다.
일 실시예에서, 터치 드라이버(531)는, 디스플레이의 제 1 부분을 통하여 커서(cursor)가 표시된 경우(예: 디스플레이의 제 1 부분을 통하여 표시된 화면 상에 커서가 표시된 경우), 커서의 위치에 기반하여, 디스플레이의 제 2 부분에 대하여 터치된 위치를 디스플레이의 제 1 부분의 위치로 변환할 수 있다. 이하, 커서의 위치에 기반하여, 디스플레이의 제 2 부분에 대하여 터치된 위치를 디스플레이의 제 1 부분의 위치로 변환하는 방식을 '제 1 방식'으로 지칭하기로 한다.
일 실시예에서, 터치 드라이버(531)는, 디스플레이의 제 2 부분에 대하여 터치된 위치를, 디스플레이의 제 2 부분에 대하여 터치된 위치에 대응하는(예: 매핑된) 디스플레이의 제 1 부분의 위치로 변환할 수 있다. 이하, 디스플레이의 제 2 부분에 대하여 터치된 위치를, 디스플레이의 제 2 부분에 대하여 터치된 위치에 대응하는 디스플레이의 제 1 부분의 위치로 변환하는 방식을 '제 2 방식'으로 지칭하기로 한다.
전술한, 제 1 방식 및 제 2 방식에 대해서는, 도 8 및 도 9를 참조하여, 상세히 후술하도록 한다.
일 실시예에서, 터치 드라이버(531)는, 센서(예: 터치 센서(542) 또는 센서(544) 중 적어도 하나)로부터 획득된 제 2 구조물(202)에 대한 제 1 구조물(201)의 상태에 대한 정보에 기반하여, 디스플레이의 제 1 부분 및 디스플레이의 제 2 부분 중에서, 디스플레이(410)에 대하여 사용자에 의해 터치된 부분을 확인할 수 있다. 예를 들어, 터치 드라이버(531)는, 터치 센서(542)로부터, 제 2 구조물(202)에 대한 제 1 구조물(201)의 상태에 대한 정보를 획득할 수 있다. 터치 드라이버(531)는, 센서(544)로부터, 센서 콘트롤러(543), 센서 드라이버(532), 센서 HAL(522), 센서 매니저(515), 및 입력 HAL(521)을 거쳐, 제 2 구조물(202)에 대한 제 1 구조물(201)의 상태에 대한 정보에 대한 정보를 획득할 수 있다. 터치 드라이버(531)는, 터치 센서(542) 또는 센서(544) 중 적어도 하나로부터 획득된, 제 2 구조물(202)에 대한 제 1 구조물(201)의 상태에 대한 정보에 대한 정보에 기반하여, 디스플레이의 제 1 부분 및 디스플레이의 제 2 부분을 확인할 수 있다. 터치 드라이버(531)는, 터치 센서(542)로부터 획득한, 사용자에 의해 터치된 위치에 대한 정보에 기반하여, 사용자에 의해 터치된 위치가, 디스플레이의 제 1 부분 및 디스플레이의 제 2 부분 중에서, 어느 부분에 포함되는지를 확인할 수 있다.
센서(예: 터치 센서(542) 또는 센서(544) 중 적어도 하나)로부터 획득된 제 2 구조물(202)에 대한 제 1 구조물(201)의 상태에 대한 정보에 기반하여, 디스플레이의 제 1 부분 및 디스플레이의 제 2 부분 중에서, 디스플레이(410)에 대하여 사용자에 의해 터치된 부분을 확인하는 동작과 관련하여, 상세히 후술하도록 한다.
일 실시예에서, 터치 드라이버(531)는, 디스플레이의 제 2 부분에 대하여 터치된 경우, 전자 장치(101)의 입력과 관련된 모드를 확인할 수 있다. 일 실시예에서, 전자 장치(101)의 입력과 관련된 모드는, 디스플레이의 제 2 부분에 대한 터치 입력(및 디스플레이의 제 1 부분에 대한 터치 입력)에 기반하여 전자 장치(101)의 기능이 수행되는 제 1 모드(이하, '제 1 모드'로 지칭함)('터치 패드 모드'로도 지칭됨)와, 디스플레이의 제 1 부분에 대한 터치 입력에 기반하여 전자 장치(101)의 기능이 수행하고 디스플레이의 제 2 부분에 대한 터치 입력에 의해 전자 장치(101)의 기능이 수행되지 않는 제 2 모드(이하, '제 2 모드'로 지칭함)('일반 모드'로도 지칭됨)를 포함할 수 있다.
일 실시예에서, 전자 장치(101)가 제 1 모드에 있는 경우, 디스플레이의 제 1 부분 이외에, 디스플레이의 제 2 부분에 대한 터치 입력에 기반하여, 전자 장치(101)의 기능이 수행될 수 있다.
일 실시예에서, 전자 장치(101)가 제 2 모드에 있는 경우, 디스플레이의 제 1 부분에 대한 터치 입력에 의해 전자 장치(101)의 기능이 실행되지만, 디스플레이의 제 2 부분에 대한 터치 입력은 무시될 수 있다. 다만, 이에 제한되지 않으며, 일 실시예에서, 전자 장치(101)가 제 2 모드에 있는 경우, 디스플레이의 제 2 부분에 대하여 지정된 터치 입력(예: 제 1 모드로 진입하기 위한 터치 입력)이 획득된 경우, 지정된 터치 입력에 기반하여 전자 장치(101)의 기능(예: 제 2 모드로부터 제 1 모드로 진입하는 동작)이 수행될 수 있다.
일 실시예에서, 터치 드라이버(531)는, 제 1 모드 또는 제 2 모드에서, 디스플레이의 제 2 부분에 대하여 터치된 경우, 제 1 모드 및 제 2 모드 중에서 전자 장치(101)가 현재 동작하는 모드를 확인할 수 있다.
일 실시예에서, 터치 드라이버(531)는, 획득한 정보(터치 센서(542) 상에서 사용자에 의해 터치된 위치에 대한 정보 또는 제 2 구조물(202)에 대한 제 1 구조물(201)의 상태에 대한 정보 중 적어도 하나)를, 이벤트(event) 형태로(예: 포맷(format)으로) 변경하고, 이벤트 형태의 정보를 입력 매니저(514) 또는 입력 HAL(521)로 전달할 수 있다.
일 실시예에서, 터치 드라이버(531)는, 디스플레이(410)의 제 2 부분에 대한 터치가 입력되면, 입력된 터치에 대한 정보(예: 디스플레이(410)의 제 2 부분에 대하여 터치 다운이 입력된 좌표, 또는 디스플레이의 제 2 부분에 대하여 터치가 이동된 경우 이동된 터치 좌표)를, 이벤트 형태의 마우스 정보(예: 커서의 위치에 대한 정보 또는 커서의 이동과 관련된 정보)(또는 '마우스 이벤트'로도 지칭됨)로 변환하여, 어플리케이션(예: 어플리케이션 1(511) 내지 어플리케이션 N(512) 중 적어도 하나의 어플리케이션)으로 전달할 수 있다.
일 실시예에서, 센서 드라이버(532)는, 센서(544)(또는 센서 콘트롤러(543))로부터 획득한 제 2 구조물(202)에 대한 제 1 구조물(201)의 상태에 대한 정보를, 이벤트 형태로 변경하고, 이벤트 형태의 정보를 센서 HAL(522)로 전달할 수 있다.
일 실시예에서, 입력 HAL(521)은, 터치 드라이버(531)로부터 획득한 정보를, 입력 매니저(514)로 전달할 수 있다. 일 실시예에서, 입력 HAL(521)은, 센서(544)로부터, 센서 콘트롤러(543), 센서 드라이버(532), 센서 HAL(522), 및 센서 매니저(515)를 거쳐, 제 2 구조물(202)에 대한 제 1 구조물(201)의 상태에 대한 정보에 대한 정보를 획득하고, 획득된 제 2 구조물(202)에 대한 제 1 구조물(201)의 상태에 대한 정보를 터치 드라이버(531)로 전달할 수 있다.
일 실시예에서, 센서 HAL(522)은, 센서(544)로부터, 센서 콘트롤러(543) 및 센서 드라이버(532)를 거쳐, 제 2 구조물(202)에 대한 제 1 구조물(201)의 상태에 대한 정보에 대한 정보를 획득하고, 획득된 제 2 구조물(202)에 대한 제 1 구조물(201)의 상태에 대한 정보를 센서 매니저(515)로 전달할 수 있다.
일 실시예에서, 입력 매니저(514)는, 터치 드라이버(531) 또는 입력 HAL(521)로부터, 획득한 정보에 기반하여, 전자 장치(101)의 기능을 수행할 수 있다. 예를 들어, 입력 매니저(514)는, 터치 드라이버(531)로부터, 디스플레이의 제 2 부분에 대한 터치 입력(또는 디스플레이의 제 1 부분에 대한 터치 입력)에 대한 정보를 획득한 경우, 터치 입력에 대응하는 전자 장치(101)의 기능을 수행할 수 있다. 일 실시예에서, 입력 매니저(514)는, 디스플레이의 제 1 부분을 통하여 어플리케이션(예: 어플리케이션 1(511) 및 어플리케이션 N(512))의 실행 화면이 표시된 경우, 디스플레이의 제 2 부분에 대한 터치 입력에 기반하여, 어플리케이션의 실행 화면과 관련된 기능을 수행할 수 있다.
일 실시예에서, 센서 매니저(515)는, 센서 HAL(522)로부터, 획득한 정보에 기반하여, 전자 장치(101)의 기능을 수행할 수 있다. 일 실시예에서, 센서 매니저(515)는, 프레임워크(513)에 포함될 수 있다.
일 실시예에서, 전자 장치(101)는, 도 5에 도시된 구성들이 세분화된 구성들을 포함하거나, 도 5에 도시된 구성들 중 일부가 통합된 구성을 포함할 수 있다.
일 실시예에서, 도 5를 통하여, 전자 장치(101)에 포함된 구성들 각각에 대하여 설명하였지만, 전자 장치(101)에 포함된 구성들 각각이 수행하는 기능은 전술한 예시에 제한되지 않는다. 예를 들어, 터치 드라이버(531)가 수행하는 기능의 일부는, 입력 매니저(514) 또는 입력 HAL(521)에서 수행될 수 있다.
일 실시예에서, 프레임워크(513), 입력 HAL(521), 센서 HAL(522), 터치 드라이버(531), 센서 드라이버(532), 터치 콘트롤러(541), 또는 센서 콘트롤러(543) 중 적어도 하나가 수행하는 적어도 일부 기능은 프로세서(440)에 의해 수행되는 기능으로 지칭될 수 있다.
다양한 실시예들에 따른 전자 장치(101)는, 제 1 구조물(201), 상기 제 1 구조물(201)의 슬라이드 이동을 안내하는 제 2 구조물(202), 상기 제 1 구조물(201)의 슬라이드 이동에 따라 적어도 부분적으로 상기 제 2 구조물(202)의 내부로 수용되거나 상기 제 2 구조물(202)의 외부로 시각적으로 노출되는 플렉서블 디스플레이(410), 적어도 하나의 센서(420), 및 상기 플렉서블 디스플레이(410) 및 상기 적어도 하나의 센서(420)와 기능적으로 연결된 적어도 하나의 프로세서(440)를 포함하고, 상기 적어도 하나의 프로세서(440)는, 상기 적어도 하나의 센서(420)를 통하여, 상기 제 2 구조물(202)에 대한 상기 제 1 구조물(201)의 상태에 대한 정보를 획득하고, 상기 적어도 하나의 센서(420)를 통하여, 터치 입력을 검출하고, 상기 제 2 구조물(202)에 대한 상기 제 1 구조물(201)의 상태에 대한 정보에 기반하여, 상기 플렉서블 디스플레이(410) 내에서 상기 외부에 시각적으로 노출된 제 1 부분 및 상기 제 2 구조물(202)의 내부에 수용된 제 2 부분 중에서, 상기 터치 입력이 검출된 상기 플렉서블 디스플레이(410)의 부분을 확인하고, 및 상기 확인된 부분이 상기 제 2 부분인 경우, 상기 터치 입력에 기반하여, 상기 제 1 부분을 통하여 표시된 화면과 관련된 기능을 수행하도록 설정될 수 있다.
다양한 실시예에서, 상기 제 2 구조물(202)에 대한 상기 제 1 구조물(201)의 상태는, 상기 제 2 구조물(202)에 대하여 상기 제 1 구조물(201)이 폐쇄된 상태, 상기 제 2 구조물(202)에 대하여 상기 제 1 구조물(201)이 개방된 상태, 또는 상기 폐쇄된 상태 및 상기 개방된 상태의 중간 상태일 수 있다.
다양한 실시예에서, 상기 적어도 하나의 프로세서(440)가, 터치 센서, 홀 센서, 관성 센서, 압력 센서, 광 센서, 또는 조도 센서 중 적어도 하나를 통하여, 상기 제 2 구조물(202)에 대한 상기 제 1 구조물(201)의 상태에 대한 정보를 획득하도록 설정될 수 있다.
다양한 실시예에서, 상기 적어도 하나의 프로세서(440)가, 상기 제 1 부분을 통하여 표시된 커서의 위치에 기반하여, 상기 제 2 부분에 대한 상기 터치 입력을, 상기 제 1 부분에 대한 터치 입력으로 변환하도록 설정될 수 있다.
다양한 실시예에서, 상기 적어도 하나의 프로세서(440)가, 상기 제 2 부분에 대하여 터치된 위치를, 상기 제 2 부분에 대하여 터치된 위치에 대응하는 상기 제 1 부분에 대한 위치로 변환하도록 설정될 수 있다.
다양한 실시예에서, 상기 적어도 하나의 프로세서(440)가, 상기 제 2 부분에 대한 터치 입력에 기반하여 상기 기능을 수행하는 제 1 모드 및 상기 제 2 부분에 대한 터치 입력에 기반하여 상기 기능을 수행하지 않는 제 2 모드 중에서, 상기 전자 장치(101)의 모드를 확인하고, 상기 전자 장치(101)의 모드가 상기 제 1 모드이고 상기 확인된 부분이 상기 제 2 부분인 경우, 상기 터치 입력에 기반하여, 상기 제 1 부분을 통하여 표시된 상기 화면과 관련된 상기 기능을 수행하도록 설정될 수 있다.
다양한 실시예에서, 상기 적어도 하나의 프로세서(440)는, 상기 전자 장치(101)가 제 2 모드로 동작하는 동안, 상기 제 2 모드를 상기 제 1 모드로 전환하기 위하여 설정된, 상기 제 2 부분에 대한 터치 입력을 검출하고, 및 상기 제 2 부분에 대한 상기 터치 입력에 기반하여, 상기 제 2 모드를 상기 제 1 모드로 전환하도록 설정될 수 있다.
다양한 실시예에서, 상기 적어도 하나의 프로세서(440)는, 사용자 입력에 기반하여, 상기 제 2 부분에 대한 터치 입력에 대응하는 상기 기능을 설정하도록 설정될 수 있다.
다양한 실시예에서, 상기 적어도 하나의 프로세서(440)는, 상기 적어도 하나의 센서(420)를 통하여, 상기 제 2 구조물(202) 내에서 상기 플렉서블 디스플레이(410)가 배치되지 않은 부분에 대한 호버링 입력을 검출하고, 및 상기 호버링 입력에 기반하여, 상기 제 1 부분을 통하여 표시된 화면과 관련된 기능을 수행하도록 설정될 수 있다.
다양한 실시예에서, 상기 적어도 하나의 프로세서(440)는, 상기 적어도 하나의 센서(420)를 통하여, 상기 제 2 부분 내에서, 상기 전자 장치(101)의 롤러의 회전축을 중심으로 곡면을 형성하는 부분에 대한 터치 입력을 검출하고, 및 상기 곡면을 형성하는 부분에 대한 터치 입력에 기반하여, 상기 제 1 부분을 통하여 표시된 화면과 관련된 기능을 수행하도록 설정될 수 있다.
도 6은, 다양한 실시예들에 따른, 전자 장치(101)의 동작 방법을 설명하기 위한 흐름도(600)이다.
도 6을 참조하면, 동작 601에서, 일 실시예에서, 프로세서(440)는, 센서를 통하여, 제 2 구조물(202)에 대한 제 1 구조물(201)의 상태에 대한 정보를 획득할 수 있다.
일 실시예에서, 프로세서(440)는, 디스플레이(410)에 포함된, 터치 센서 또는 압력 센서 중 적어도 하나를 통하여, 제 2 구조물(202)에 대한 제 1 구조물(201)의 상태에 대한 정보를 획득할 수 있다.
일 실시예에서, 프로세서(440)는, 홀 센서, 관성 센서, 광 센서, 조도 센서, 또는 기계식 스위치 소자 중 적어도 하나를 통하여, 제 2 구조물(202)에 대한 제 1 구조물(201)의 상태에 대한 정보를 획득할 수 있다.
일 실시예에서, 제 2 구조물(202)에 대한 제 1 구조물(201)의 상태는, 제 2 구조물(202)에 대하여 제 1 구조물(201)이 폐쇄된 상태, 제 2 구조물(202)에 대하여 제 1 구조물(201)이 개방된 상태, 및 상기 패쇄된 상태 및 개방된 상태의 중간 상태를 포함할 수 있다. 이하, 도 7을 참조하여, 제 2 구조물(202)에 대한 제 1 구조물(201)의 상태에 대하여 상세히 설명하도록 한다.
도 7은, 다양한 실시예들에 따른, 제 1 구조물(201)의 슬라이드 이동에 따른, 제 2 구조물(202)에 대한 제 1 구조물(201)의 상태를 설명하기 위한 예시도(700)이다.
도 7을 참조하면, 일 실시예에서, 참조 부호 710은, 제 2 구조물(202)에 대하여 제 1 구조물(201)이 폐쇄된 상태에 있는 전자 장치(101)를 나타낼 수 있다. 일 실시예에서, 제 2 구조물(202)에 대하여 제 1 구조물(201)이 폐쇄된 상태는, 제 1 구조물(201)이 제 2 구조물(202)에 최대로 수납된 상태(예: 더이상 수납될 수 없는) 상태일 수 있다.
일 실시예에서, 참조 부호 710에서, 포인트(M)(또는 라인)을 기준으로, 외부에 시각적으로 노출된 디스플레이(410)의 부분(411)이 디스플레이의 제 1 부분이고, 외부에 시각적으로 누출되지 않은 디스플레이(410)의 부분(412)이 디스플레이의 제 2 부분일 수 있다. 일 실시예에서, 디스플레이의 제 2 부분은, 제 2 구조물(202)에 수납(또는 삽입)된 디스플레이(410)의 부분일 수 있다.
일 실시예에서, 참조 부호 720은, 제 2 구조물(202)에 대하여 제 1 구조물(201)이 중간 상태에 있는 전자 장치(101)를 나타낼 수 있다.
일 실시예에서, 제 2 구조물(202)에 대하여 제 1 구조물(201)이 슬라이드 이동됨에 따라, 디스플레이(410)가 슬라이드 이동될 수 있다. 디스플레이(410)가 슬라이드 이동됨에 따라, 외부에 시각적으로 노출되는 부분이 변경될 수 있다.
일 실시예에서, 참조 부호 720에서, 포인트(M)을 기준으로, 외부에 시각적으로 노출된 디스플레이(410)의 부분(421)이 디스플레이의 제 1 부분이고, 외부에 시각적으로 누출되지 않은 디스플레이(410)의 부분(422)이 디스플레이의 제 2 부분일 수 있다.
일 실시예에서, 참조 부호 720은, 제 2 구조물(202)에 대한 제 1 구조물(201)의 중간 상태의 하나의 예시를 나타낸 것으로서, 제 2 구조물(202)에 대하여 제 1 구조물(201)이 슬라이드 이동된 정도(예: 슬라이드 이동된 거리)에 따라, 디스플레이의 제 1 부분(예: 외부에 시각적으로 노출되는 디스플레이(410)의 영역) 및 디스플레이의 제 2 부분(예: 외부에 시각적으로 노출되지 않은 디스플레이(410)의 영역)은 달라질 수 있다.
일 실시예에서, 참조 부호 730은, 제 2 구조물(202)에 대하여 제 1 구조물(201)이 개방된 상태에 있는 전자 장치(101)를 나타낼 수 있다. 일 실시예에서, 제 2 구조물(202)에 대하여 제 1 구조물(201)이 개방된 상태는, 제 1 구조물(201)이 제 2 구조물(202)에 최대로 개방된 상태(예: 더이상 개방될 수 없는) 상태일 수 있다.
일 실시예에서, 참조 부호 730에서, 포인트(M)을 기준으로, 외부에 시각적으로 노출된 디스플레이(410)의 부분(431)이 디스플레이의 제 1 부분이고, 외부에 시각적으로 누출되지 않은 디스플레이(410)의 부분(432)이 디스플레이의 제 2 부분일 수 있다.
일 실시예에서, 프로세서(440)는, 디스플레이의 제 1 부분을 통하여 화면이 표시되는 동안, 센서(420)를 통하여, 제 2 구조물(202)에 대한 제 1 구조물(201)의 상태에 대한 정보를 획득할 수 있다. 예를 들어, 프로세서(440)는, 디스플레이의 제 1 부분을 통하여 어플리케이션의 실행 화면을 표시할 수 있다. 프로세서(440)는, 디스플레이의 제 1 부분을 통하여 어플리케이션의 실행 화면이 표시되는 동안, 센서(420)를 통하여, 제 2 구조물(202)에 대한 제 1 구조물(201)의 상태에 대한 정보를 획득할 수 있다.
일 실시예에서, 프로세서(440)는, 디스플레이의 제 1 부분을 통하여 화면이 표시되는 동안, 센서(420)를 통하여, 제 2 구조물(202)에 대한 디스플레이(410)의 상태에 대한 정보를 획득할 수 있다. 예를 들어, 프로세서(440)는, 센서(420)를 통하여, 제 2 구조물(202)에 대한 디스플레이(410)의 슬라이딩 상태에 대한 정보(예: 슬라이딩 여부, 슬라이딩 정도, 및/또는 슬라이딩 거리)를 회득할 수 있다. 일 실시예에서, 제 2 구조물(202)에 대한 제 1 구조물(201)의 상태에 대한 정보는 제 2 구조물(202)에 대한 디스플레이(410)의 상태에 대한 정보를 포함할 수 있다.
일 실시예에서, 프로세서(440)는, 디스플레이의 제 1 부분을 통하여 화면이 표시되는 동안, 제 2 구조물(202)에 대한 제 1 구조물(201)의 상태에 대한 정보를 획득한 경우, 디스플레이의 제 1 부분을 통하여 표시된 화면을 변경할 수 있다. 예를 들어, 프로세서(440)는, 제 2 구조물(202)에 대하여 제 1 구조물(201)가 폐쇄된 상태에서 디스플레이의 제 1 부분을 통하여 N개의 아이콘들을 포함하는 홈 화면을 표시할 수 있다. 프로세서(440)는, 제 2 구조물(202)에 대하여 제 1 구조물(201)에 대한 상태가 폐쇄된 상태로부터 중간 상태로 변경된 경우, 중간 상태에 대응하는 디스플레이의 제 1 부분(예: 참조 부호 720의 디스플레이(410) 부분(421))을 통하여 N개 이상의 아이콘들을 포함하는 홈 화면을 표시할 수 있다. 다만, 디스플레이의 제 1 부분을 통하여 화면이 표시되는 동안, 제 2 구조물(202)에 대한 제 1 구조물(201)의 상태에 대한 정보를 획득한 경우, 디스플레이의 제 1 부분을 통하여 표시된 화면을 변경하는 예시는 전술한 예시에 제한되지 않는다.
동작 603에서, 일 실시예에서, 프로세서(440)는, 센서(420)를 통하여, 터치 입력을 검출할 수 있다.
일 실시예에서, 프로세서(440)는, 터치 센서를 통하여, 터치 입력을 검출할 수 있다. 예를 들어, 프로세서(440)는, 디스플레이(410)에 포함된 터치 센서를 통하여, 디스플레이의 제 1 부분 또는 디스플레이의 제 2 부분 중 적어도 하나에 대한 터치를 감지할 수 있다. 프로세서(440)는, 상기 감지된 터치에 기반하여, 디스플레이의 제 1 부분 또는 디스플레이의 제 2 부분 중 적어도 하나에 대하여 터치된 위치(좌표)를 확인할 수 있다.
일 실시예에서, 디스플레이의 제 2 부분에 대한 터치는, 전자 장치(101)의 후면(예: 제 2 플레이트(221a)(예: 후면 케이스) 또는 후면 플레이트(221b)(예: 리어 윈도우))에 대한 터치를 포함할 수 있다.
일 실시예에서, 디스플레이의 제 1 부분에 대한 터치는, 전자 장치(101)의 전면에 대한 터치를 포함할 수 있다.
도 6에서는, 프로세서(440)가 동작 601을 수행한 후 동작 603을 수행하는 것으로 도시하고 있지만 이에 제한되지 않는다. 예를 들어, 프로세서(440)는 동작 603을 수행한 후, 동작 601을 수행할 수 있다.
동작 605에서, 일 실시예에서, 프로세서(440)는, 제 2 구조물(202)에 대한 제 1 구조물(201)의 상태에 대한 정보에 기반하여, 디스플레이의 제 1 부분 및 디스플레이의 제 2 부분 중에서, 터치 입력이 검출된 부분을 확인할 수 있다.
일 실시예에서, 프로세서(440)는, 동작 601의 예시들을 통하여 획득된 제 2 구조물(202)에 대한 제 1 구조물(201)의 상태에 대한 정보에 기반하여, 디스플레이(410)에서 터치된 위치가, 디스플레이의 제 1 부분 및 디스플레이의 제 2 부분 중에서, 어느 부분에 포함되는지를 확인할 수 있다.
일 실시예에서, 프로세서(440)는, 제 2 구조물(202)에 대한 제 1 구조물(201)의 상태에 대한 정보에 기반하여, 디스플레이의 제 1 부분 및 디스플레이의 제 2 부분을 확인할 수 있다. 프로세서(440)는, 디스플레이(410)에서 터치된 위치가, 확인된 디스플레이의 제 1 부분 및 디스플레이의 제 2 부분 중에서, 어느 부분에 포함되는지를 확인할 수 있다.
동작 607에서, 일 실시예에서, 프로세서(440)는, 터치 입력이 검출된 부분이 디스플레이의 제 2 부분인 경우, 터치 입력에 기반하여, 디스플레이의 제 1 부분을 통하여 표시된 화면과 관련된 기능을 수행할 수 있다.
일 실시예에서, 프로세서(440)는, 디스플레이의 제 2 부분에 대한 터치 입력을 수신한 경우, 수신된 디스플레이의 제 2 부분에 대한 터치 입력을 디스플레이의 제 1 부분에 대한 터치 입력으로 변환할 수 있다. 예를 들어, 프로세서(440)는, 디스플레이의 제 2 부분에 대하여 터치된 위치(좌표)를 디스플레이의 제 1 부분의 위치로 변환할 수 있다.
일 실시예에서, 프로세서(440)는, 제 1 방식을 이용하여, 디스플레이의 제 2 부분에 대한 터치 입력을 수신한 경우, 수신된 터치 입력을 디스플레이의 제 1 부분에 대한 터치 입력으로 변환할 수 있다. 이하, 도 8을 참조하여, 제 1 방식을 이용하여, 디스플레이의 제 2 부분에 대한 터치 입력을 디스플레이의 제 1 부분에 대한 터치 입력으로 변환하는 방법을 상세히 설명하도록 한다.
도 8은, 다양한 실시예들에 따른, 제 1 방식을 이용하여, 디스플레이의 제 2 부분에 대한 터치 입력을 디스플레이의 제 1 부분에 대한 터치 입력으로 변환하는 방법을 설명하기 위한 예시도(800)이다.
도 8을 참조하면, 일 실시예에서, 참조 부호 810은, 제 2 구조물(202)에 대하여 제 1 구조물(201)이 개방된 상태를 나타낼 수 있다. 다만, 제 2 구조물(202)에 대하여 제 1 구조물(201)이 개방된 상태 이외에, 제 2 구조물(202)에 대한 제 1 구조물(201)의 중간 상태 또는 제 2 구조물(202)에 대하여 제 1 구조물(201)이 폐쇄된 상태에 대해서도, 이하의 예시들이 동일 또는 유사하게 적용될 수 있다.
일 실시예에서, 참조 부호 810에서, 포인트(M)을 기준으로, 외부에 시각적으로 노출된 디스플레이(410)의 부분(811)이 디스플레이의 제 1 부분이고, 외부에 시각적으로 누출되지 않은 디스플레이(410)의 부분(812)이 디스플레이의 제 2 부분일 수 있다.
일 실시예에서, 참조 부호 820에서, 제 2 구조물(202)에 대하여 제 1 구조물(201)이 개방된 상태에서, 프로세서(440)는, 디스플레이의 제 1 부분을 통하여, 커서(831)를 표시할 수 있다. 일 실시예에서, 프로세서(440)는, 전자 장치(101)가 제 1 모드로 동작하는 동안, 디스플레이의 제 1 부분을 통하여, 커서(831)를 표시할 수 있다. 예를 들어, 프로세서(440)는, 전자 장치(101)가 제 2 모드로 동작하는 동안, 디스플레이의 제 1 부분을 통하여, 커서(831)를 표시하지 않을 수 있다. 프로세서(440)는, 전자 장치(101)의 모드가 제 2 모드로부터 제 1 모드로 전환된 경우, 디스플레이의 제 1 부분을 통하여, 커서(831)를 표시할 수 있다. 다만, 이에 제한되지 않는다. 예를 들어, 프로세서(440)는, 제 1 모드 및 제 2 모드 모두에서, 디스플레이의 제 1 부분을 통하여, 커서(831)를 표시할 수 있다. 일 실시예에서, 참조 부호 820에서, 참조 부호 821은, 제 2 구조물(202)에 대하여 제 1 구조물(201)이 폐쇄된 상태에서 외부에 시각적으로 노출된 디스플레이(410)의 부분을 나타내고, 참조 부호 822는, 제 2 구조물(202)에 대하여 제 1 구조물(201)이 폐쇄 상태에서 외부에 시각적으로 노출되지 않고, 제 2 구조물(202)에 대한 제 1 구조물(201)의 상태가 개방된 상태로 변경됨에 따라 외부에 시각적으로 노출되는 디스플레이(410)의 부분을 나타낼 수 있다.
일 실시예에서, 프로세서(440)는, 디스플레이의 제 2 부분에 대한 터치 입력을, 디스플레이의 제 1 부분에 표시된 커서(831)에 대한 입력으로 변환할 수 있다. 예를 들어, 프로세서(440)는, 디스플레이의 제 2 부분 상의 위치(814)에 대한 터치 입력을, 디스플레이의 제 1 부분 상의 커서(831)의 위치에 대한 터치 입력으로 변환할 수 있다.
일 실시예에서, 프로세서(440)는, 디스플레이의 제 2 부분에 대하여 이동하는 터치 입력(예: 드래그 입력)이 획득된 경우, 롤러(251)의 회전 축에 대하여, 디스플레이의 제 2 부분에 대한 터치 입력의 이동 방향과 동일한 방향으로, 디스플레이의 제 1 부분에 대한 터치 입력(예: 디스플레이의 제 2 부분에 대한 터치 입력이 변환된 디스플레이의 제 1 부분에 대한 터치 입력)이 이동되도록, 디스플레이의 제 2 부분에 대한 터치 입력을, 디스플레이의 제 1 부분에 대한 터치 입력으로 변환할 수 있다. 예를 들어, 프로세서(440)는, 디스플레이의 제 2 부분 상의 위치(814)로부터 위치(813)으로의 드래그 입력을, 디스플레이의 제 1 부분 상의 커서(831)의 위치로부터 커서(832)의 위치에 대한 드래그 입력으로 변환할 수 있다. 다른 예를 들어, 프로세서(440)는, 위치(814)로부터 위치(813)로 드래그가 입력된 경우, 롤러(251)의 회전 축에 대하여 드래그 입력이 이동하는 위치(814)로부터 위치(813)로의 방향과 동일한 방향으로, 디스플레이의 제 1 부분 상의 커서(831)의 위치를 커서(832)의 위치로 이동시킬 수 있다.
일 실시예에서, 프로세서(440)는, 디스플레이의 제 2 부분에 대하여 이동하는 터치 입력(예: 드래그 입력)이 획득된 경우, 디스플레이의 제 2 부분에 대하여 터치 입력의 이동 거리와 동일한 이동 거리 만큼, 디스플레이의 제 1 부분에 대한 터치 입력(예: 디스플레이의 제 2 부분에 대한 터치 입력이 변환된 디스플레이의 제 1 부분에 대한 터치 입력)이 이동되도록, 디스플레이의 제 2 부분에 대한 터치 입력을, 디스플레이의 제 1 부분에 대한 터치 입력으로 변환할 수 있다. 예를 들어, 프로세서(440)는, 위치(814)로부터 위치(813)로의 드래그가 입력된 경우, 드래그 입력이 이동하는 위치(814)로부터 위치(813)로의 이동 거리와 동일한 이동 거리 만큼, 디스플레이의 제 1 부분 상의 커서(831)의 위치를 커서(832)의 위치로 이동시킬 수 있다.
일 실시예에서, 프로세서(440)는, 디스플레이의 제 2 부분에 대하여 이동하는 터치 입력(예: 드래그 입력)이 획득된 경우, 디스플레이의 제 2 부분에 대하여 터치 입력의 이동 거리와 다른 이동 거리 만큼, 디스플레이의 제 1 부분에 대한 터치 입력(예: 디스플레이의 제 2 부분에 대한 터치 입력이 변환된 디스플레이의 제 1 부분에 대한 터치 입력)이 이동되도록, 디스플레이의 제 2 부분에 대한 터치 입력을, 디스플레이의 제 1 부분에 대한 터치 입력으로 변환할 수 있다. 예를 들어, 프로세서(440)는, 위치(814)로부터 위치(813)로의 드래그가 입력된 경우, 드래그 입력이 이동하는 위치(814)로부터 위치(813)로의 이동 거리 보다 긴 이동 거리 만큼(예: 디스플레이의 제 2 부분에 대하여 터치가 이동된 거리를 스케일링(scaling)함으로써 또는 디스플레이의 제 2 부분에 대하여 터치가 이동된 거리를 지정된 비율로 곱함으로써), 디스플레이의 제 1 부분 상의 커서(831)의 위치를 커서(832)의 위치로 이동시킬 수 있다.
도 6으로 리턴하면, 일 실시예에서, 프로세서(440)는, 제 2 방식을 이용하여, 디스플레이의 제 2 부분에 대한 터치 입력을 수신한 경우, 수신된 터치 입력을 디스플레이의 제 1 부분에 대한 터치 입력으로 변환할 수 있다. 이하, 도 9를 참조하여, 제 2 방식을 이용하여, 디스플레이의 제 2 부분에 대한 터치 입력을 디스플레이의 제 1 부분에 대한 터치 입력으로 변환하는 방법을 상세히 설명하도록 한다.
도 9는, 다양한 실시예들에 따른, 제 2 방식에 의해, 디스플레이의 제 2 부분에 대한 터치 입력을 디스플레이의 제 1 부분에 대한 터치 입력으로 변환하는 방법을 설명하기 위한 예시도(900)이다.
도 9를 참조하면, 일 실시예에서, 참조 부호 910은, 제 2 구조물(202)에 대하여 제 1 구조물(201)이 개방된 상태를 나타낼 수 있다. 다만, 제 2 구조물(202)에 대하여 제 1 구조물(201)이 개방된 상태 이외에, 제 2 구조물(202)에 대한 제 1 구조물(201)의 중간 상태 또는 제 2 구조물(202)에 대하여 제 1 구조물(201)이 폐쇄된 상태에 대해서도, 이하의 예시들이 동일 또는 유사하게 적용될 수 있다.
일 실시예에서, 참조 부호 910에서, 포인트(M)을 기준으로, 외부에 시각적으로 노출된 디스플레이(410)의 부분(911)이 디스플레이의 제 1 부분이고, 외부에 시각적으로 누출되지 않은 디스플레이(410)의 부분(912)이 디스플레이의 제 2 부분일 수 있다.
일 실시예에서, 참조 부호 920에서, 참조 부호 921은, 제 2 구조물(202)에 대하여 제 1 구조물(201)이 폐쇄된 상태에서 외부에 시각적으로 노출된 디스플레이(410)의 부분을 나타내고, 참조 부호 922는, 제 2 구조물(202)에 대하여 제 1 구조물(201)이 폐쇄 상태에서 외부에 시각적으로 노출되지 않고, 제 2 구조물(202)에 대한 제 1 구조물(201)의 상태가 개방된 상태로 변경됨에 따라 외부에 시각적으로 노출되는 디스플레이(410)의 부분을 나타낼 수 있다.
일 실시예에서, 프로세서(440)는, 디스플레이의 제 2 부분에 대하여 터치된 위치를, 디스플레이의 제 2 부분에 대하여 터치된 위치에 대응하는(예: 매핑된) 디스플레이의 제 1 부분의 위치로 변환할 수 있다. 예를 들어, 프로세서(440)는, 디스플레이의 제 2 부분에 대하여 터치된 위치(1013)를, 위치(1013)에 대응하는 디스플레이의 제 1 부분의 위치(1015)로 변환할 수 있다.
일 실시예에서, 프로세서(440)는, 디스플레이의 제 2 부분에 대하여 호버링 입력이 획득된(예: 입력된) 경우, 디스플레이의 제 1 부분을 통하여, 디스플레이의 제 2 부분 상에서 호버링 입력의 위치에 대응하는, 디스플레이의 제 1 부분의 위치에, 디스플레이의 제 2 부분에 대한 호버링 입력의 위치와 관련된 오브젝트를 표시할 수 있다. 예를 들어, 프로세서(440)는, 디스플레이의 제 1 부분으로부터 이격된 위치(914)에서 호버링 입력이 획득된 경우, 디스플레이의 제 2 부분 상에서의 호버링 입력의 위치(914)(또는 위치(914)에 대응하는(예: 수직한) 디스플레이의 제 2 부분의 위치(913))에 대응하는, 디스플레이(410)의 위치(915)에, 참조 부호 920에 도시된 바와 같이, 호버링 입력의 위치(914)를 나타내는 플로팅(floating) 오브젝트(931)를 표시할 수 있다.
일 실시예에서, 프로세서(440)는, 제 1 방식과 동일 또는 유사하게, 제 2 방식을 이용하여, 디스플레이의 제 2 부분에 대하여 이동하는 터치 입력(예: 드래그 입력)이 획득된 경우, 롤러(251)의 회전 축에 대하여, 디스플레이의 제 2 부분에 대한 터치 입력의 이동 방향과 동일한 방향으로, 디스플레이의 제 1 부분에 대한 터치 입력(예: 디스플레이의 제 2 부분에 대한 터치 입력이 변환된 디스플레이의 제 1 부분에 대한 터치 입력)이 이동되도록, 디스플레이의 제 2 부분에 대한 터치 입력을, 디스플레이의 제 1 부분에 대한 터치 입력으로 변환할 수 있다.
도 9에 도시하는 않았지만, 일 실시예에서, 프로세서(440)는, 디스플레이의 제 2 부분에 대한 호버링 입력 후(예: 호버링 입력에 연속적으로) 디스플레이의 제 2 부분에 대하여 터치 입력(예: 터치 다운 입력)이 획득된 경우, 디스플레이의 제 2 부분의 터치된 위치에 대응하는(매핑된), 디스플레이의 제 1 부분의 위치에 커서를 표시할 수 있다. 예를 들어, 프로세서(440)는, 디스플레이의 제 2 부분으로부터 이격된 위치(914)에서 호버링 입력이 획득된 후, 디스플레이의 제 2 부분의 위치(913)에 대한 터치 입력이 획득된 경우, 디스플레이의 제 2 부분의 위치(913)에 대응하는 디스플레이의 제 1 부분의 위치(915)에 커서를 표시할 수 있다. 다만, 이에 제한되지 않으며, 예를 들어, 프로세서(440)는, 디스플레이의 제 2 부분에 대한 호버링 입력 또는 디스플레이의 제 2 부분에 대한 터치 입력이 획득되는 동안, 디스플레이의 제 2 부분에 대한 호버링 입력의 위치 또는 디스플레이의 제 2 부분에 대하여 터치 입력의 위치에 대응하는 디스플레이의 제 1 부분의 위치에, 커서를 표시할 수 있다.
도 6으로 리턴하면, 일 실시예에서, 프로세서(440)는, 사용자 입력에 기반하여, 제 1 방식 또는 제 2 방식을 선택할 수 있다. 예를 들어, 프로세서(440)는, 제 1 방식 및 제 2 방식 중에서 사용자에 의해 선택된 방식을 이용하여, 디스플레이의 제 2 부분에 대한 터치 입력을 디스플레이의 제 1 부분에 대한 터치 입력으로 변환할 수 있다.
일 실시예에서, 프로세서(440)는, 디스플레이의 제 2 부분에 대한 터치 입력이 디스플레이의 제 1 부분에 대한 터치 입력으로 변환된 경우, 변환된 디스플레이의 제 1 부분에 대한 터치 입력에 대응하는, 디스플레이의 제 1 부분을 통하여 표시된 화면과 관련된 기능을 수행할 수 있다. 예를 들어, 프로세서(440)는, 디스플레이의 제 1 부분을 통하여 표시된 화면 상에서, 아이콘의 적어도 일부 및 커서의 적어도 일부가 중첩된 상태에서, 디스플레이의 제 2 부분에 대한 터치 입력(예: 한 번의 탭(tap) 입력)이 검출된 경우, 아이콘에 대응하는 어플리케이션을 실행할 수 있다. 다만, 디스플레이의 제 2 부분에 대한 터치 입력에 기반하여, 디스플레이의 제 1 부분을 통하여 표시된 화면과 관련된 기능을 수행하는 방법은 전술한 예시에 제한되지 않는다. 일 실시예에서, 프로세서(440)는, 사용자 입력에 기반하여, 디스플레이의 제 2 부분에 대한 터치 입력과, 디스플레이의 제 2 부분에 대한 터치 입력에 대응하는 기능을 설정할 수 있다. 예를 들어, 프로세서(440)는, 아래 [표 1]과 같이, 사용자 입력에 기반하여, 디스플레이의 제 2 부분에 대한 터치 입력과, 디스플레이의 제 2 부분에 대한 터치 입력에 대응하는 기능을 설정할 수 있다.
디스플레이의 제 2 부분에 대한 터치 입력 기능
탭(tap) 기능 실행
(예: 아이콘 대응하는 어플리케이션을 실행)
탭 후 및 드래그 오브젝트 이동
더블 탭 후 롱 프레스(long press) 오브젝트 선택
더블 탭 후 롱 프레스 및 드래그 화면 스크롤
더블 탭 제 1 모드 진입
다만, 사용자 입력에 기반하여, 디스플레이의 제 2 부분에 대한 터치 입력과, 디스플레이의 제 2 부분에 대한 터치 입력에 대응하는 기능을 설정하는 예시는 [표 1]에 제한되지 않는다. 일 실시예에서, 프로세서(440)는, 전자 장치(101)의 제 1 기능을 수행하기 위하여 디스플레이의 제 1 부분에 대하여 제스처가 설정된 경우, 전자 장치(101)의 제 1 기능을 수행하기 위하여, 디스플레이의 제 2 부분에 대하여, 디스플레이의 제 1 부분에 설정된 상기 제스처와 동일한 제스처를 설정할 수 있다. 예를 들어, 프로세서(440)는, 화면 스크롤 기능을 수행하기 위하여 디스플레이의 제 1 부분에 대한 스와이프(swipe)가 설정된 경우, 화면 스크롤 기능을 수행하기 위하여 디스플레이의 제 2 부분에 대한 스와이프를 설정할 수 있다.
일 실시예에서, 프로세서(440)는, 터치 입력이 검출된 부분이 디스플레이의 제 2 부분인 경우, 제 1 모드 및 제 2 모드 중에서 전자 장치(101)가 현재 동작하는 모드를 확인할 수 있다. 다만, 이에 제한되지 않으며, 예를 들어, 프로세서(440)는, 동작 601의 제 2 구조물(202)에 대한 제 1 구조물(201)의 상태에 대한 정보를 획득하기 전 또는 후, 또는 동작 603의 터치 입력이 검출된 후, 제 1 모드 및 제 2 모드 중에서 전자 장치(101)가 현재 동작하는 모드를 확인할 수 있다.
일 실시예에서, 프로세서(440)는, 전자 장치(101)가 제 1 모드에서 동작하는 동안, 터치 입력이 검출된 부분이 디스플레이의 제 2 부분인 경우, 터치 입력에 기반하여, 디스플레이의 제 1 부분을 통하여 표시된 화면과 관련된 기능을 수행할 수 있다.
일 실시예에서, 프로세서(440)는, 전자 장치(101)가 제 2 모드에서 동작하는 동안, 터치 입력이 검출된 부분이 디스플레이의 제 2 부분인 경우, 디스플레이의 제 1 부분을 통하여 표시된 화면과 관련된 기능을 수행하지 않을 수 있다.
전자 장치(101)의 제 1 모드 및 제 2 모드에 대해서는, 도 11을 참조하여, 상세히 후술하도록 한다.
도 6에 도시하지는 않았지만, 일 실시예에서, 프로세서(440)는, 터치 입력이 검출된 부분이 디스플레이의 제 1 부분인 경우, 터치 입력에 기반하여, 기능을 수행할 수 있다.
도 10은, 다양한 실시예들에 따른, 디스플레이의 제 2 부분에 대한 입력에 기반하여, 디스플레이의 제 1 부분에 표시된 화면과 관련된 기능을 수행하는 방법을 설명하기 위한 예시도(1000)이다.
도 10을 참조하면, 일 실시예에서, 도 10은, 제 2 구조물(202)에 대하여 제 1 구조물(201)이 개방된 상태에 있는 전자 장치(101)를 나타낼 수 있다. 일 실시예에서, 제 2 구조물(202)에 대하여 제 1 구조물(201)이 개방된 상태는, 제 1 구조물(201)이 제 2 구조물(202)에 최대로 개방된 상태(예: 더이상 개방될 수 없는) 상태일 수 있다.
일 실시예에서, 도 10에서, 포인트(M)을 기준으로, 외부에 시각적으로 노출된 디스플레이(410)의 부분(1011)이 디스플레이의 제 1 부분이고, 외부에 시각적으로 노출되지 않은 디스플레이(410)의 부분(1012)이 디스플레이의 제 2 부분일 수 있다.
일 실시예에서, 디스플레이의 제 2 부분은, 롤러(251)를 중심으로 곡면을 형성하는 부분(1031)(예: 포인트(M)으로부터 포인트(N)까지의 디스플레이 부분) 및 평평한 부분(1032)를 포함할 수 있다.
일 실시예에서, 프로세서(440)는, 롤러(251)를 중심으로 곡면을 형성하는 부분(1031) 및 평평한 부분(1032)에 대하여, 전자 장치(101)의 다른 기능들을 설정할 수 있다(예: 대응(또는 매핑)시킬 수 있다).
일 실시예에서, 프로세서(440)는, 제 1 모드에서, 디스플레이의 제 2 부분 내에서 롤러를 중심으로 곡면을 형성하는 부분(1031)에 대하여 드래그 입력이 획득된 경우, 전자 장치(101)를 통해 출력되는 볼륨을 증가시키거나 감소시킬 수 있다.
일 실시예에서, 프로세서(440)는, 제 1 모드에서, 디스플레이의 제 2 부분 내에서 평평한 부분(1032)에 대하여 드래그 입력이 획득된 경우, 디스플레이의 제 1 부분을 통하여 표시된 화면을 스크롤할 수 있다.
다만, 프로세서(440)가, 제 1 모드로 동작하는 동안, 디스플레이의 제 2 부분 내에서, 롤러(251)를 중심으로 곡면을 형성하는 부분(1031) 및 평평한 부분(1032) 대하여 설정하는 기능들은 전술한 예시에 제한되지 않는다. 일 실시예에서, 프로세서(440)는, 롤러(251)를 중심으로 곡면을 형성하는 부분(1031) 및 평평한 부분(1032)에 대하여, 전자 장치(101)의 동일한 기능들을 설정할 수 있다(예: 대응(또는 매핑)시킬 수 있다). 일 실시예에서, 프로세서는, 롤러(251)를 중심으로 곡면을 형성하는 부분(1031)에 대한 터치 입력(예: 드래그 입력)에 기반하여, 디스플레이의 제 1 부분을 통하여 표시된 화면을 스크롤하거나, 화면을 전환(예: 제 1 메뉴 화면으로부터 제 2 메뉴 화면으로 전환)할 수 있다.
일 실시예에서, 프로세서(440)는, 전자 장치(101)의 후면(예: 제 2 플레이트(221a)(예: 후면 케이스) 또는 후면 플레이트(221b)(예: 리어 윈도우)) 내에서, 디스플레이(410)가 배치되지 않은 부분(예: 제 1 구조물(201)이 제 2 구조물(202)에 대하여 슬라이드 이동됨에 따라 디스플레이(410)가 배치되지 않게 되는 부분)에 대한 입력에 기반하여, 디스플레이의 제 1 부분을 통하여 표시되는 화면의 기능을 수행할 수 있다. 예를 들어, 프로세서(440)는, 도 10에서, 디스플레이(410)가 배치되지 않은 부분(1020) 상에서(예: 제 2 구조물(202) 내에서 디스플레이(410)가 배치되지 않은 부분(1020)으로부터 지정된 거리 만큼 이격된 위치에서) 호버링 입력을 획득할 수 있다. 프로세서(440)는, 획득된 호버링 입력에 기반하여, 디스플레이의 제 1 부분을 통하여 표시된 화면의 기능 수행할 수도 있다.
도 11은, 다양한 실시예들에 따른, 전자 장치(101)가 제 1 모드 또는 제 2 모드에서 동작하는 방법을 설명하기 위한 흐름도(1100)이다.
도 11을 참조하면, 동작 1101에서, 일 실시예에서, 프로세서(440)는 제 2 모드에서 동작을 수행할 수 있다.
일 실시예에서, 프로세서(440)는 디스플레이의 제 1 부분에 대한 터치 입력에 기반하여 전자 장치(101)의 기능이 수행할 수 있다. 예를 들어, 프로세서(440)는, 디스플레이의 제 1 부분을 통하여 표시된 화면과 관련된 기능을 수행할 수 있다.
일 실시예에서, 프로세서(440)는, 제 2 모드로 동작하는 동안, 디스플레이의 제 2 부분에 대한 터치 입력을 무시할 수 있다. 일 실시예에서, 프로세서(440)는, 제 2 모드로 동작하는 동안, 전자 장치(101)의 모드를 제 2 모드로부터 제 1 모드로 전환하기 위한 입력을 제외한, 디스플레이의 제 2 부분에 대한 터치 입력을 무시할 수 있다.
동작 1103에서, 일 실시예에서, 프로세서(440)는 제 1 모드로 진입하기 위한 입력을 획득할 수 있다.
일 실시예에서, 프로세서(440)는, 제 2 모드로부터 제 1 모드로 전환하기 위하여 지정된 터치 입력에 기반하여, 전자 장치(101)의 모드를 제 2 모드로부터 제 1 모드로 전환할 수 있다. 예를 들어, 프로세서(440)는, 디스플레이의 제 2 부분을 통하여(예: 디스플레이의 제 2 부분에 대응하는 터치 센서의 부분을 통하여), 제 2 모드를 제 1 모드로 전환하기 위하여 지정된 터치 입력(예: 더블 탭)이 획득된 경우, 전자 장치(101)의 모드를 제 2 모드로부터 제 1 모드로 전환할 수 있다. 다른 예를 들어, 프로세서(440)는, 디스플레이의 제 1 부분을 통하여 표시되고 제 2 모드를 제 1 모드로 전환하는 기능이 설정된 오브젝트(예: 아이콘)에 대한 터치 입력에 기반하여, 전자 장치(101)의 모드를 제 2 모드로부터 제 1 모드로 전환할 수 있다. 또 다른 예를 들어, 프로세서(440)는, 전자 장치(101)의 물리 키에 대한 입력에 기반하여, 전자 장치(101)의 모드를 제 2 모드로부터 제 1 모드로 전환할 수도 있다. 다만, 전자 장치(101)의 모드를 제 2 모드로부터 제 1 모드로 전환하기 위한 방법은 전술한 예시에 제한되지 않는다.
동작 1105에서, 일 실시예에서, 프로세서(440)는 제 1 모드에서 동작을 수행할 수 있다. 예를 들어, 프로세서(440)는, 동작 1103에서 제 1 모드로 진입하기 위한 입력을 획득한 경우, 제 1 모드로 진입하고, 제 1 모드에서 동작을 수행할 수 있다.
일 실시예에서, 프로세서(440)는, 제 1 모드로 동작하는 동안, 디스플레이의 제 2 부분에 대한 터치 입력(및 디스플레이의 제 1 부분에 대한 터치 입력)에 기반하여 전자 장치(101)의 기능을 수행할 수 있다. 예를 들어, 프로세서(440)는, 디스플레이의 제 2 부분에 대한 터치 입력에 대한 터치 입력에 기반하여, 디스플레이의 제 1 부분을 통하여 표시된 화면과 관련된 기능을 수행할 수 있다. 다른 예를 들어, 프로세서(440)는, 디스플레이의 제 1 부분에 대한 터치 입력에 대한 터치 입력에 기반하여, 디스플레이의 제 1 부분을 통하여 표시된 화면과 관련된 기능을 수행할 수 있다.
일 실시예에서, 프로세서(440)는, 제 1 모드로 동작하는 동안, 터치 센서 내의 부분들의 감도를 다르게 설정할 수 있다. 예를 들어, 프로세서(440)는, 제 1 모드로 동작하는 동안, 디스플레이의 제 1 부분에 대응하는 터치 센서의 부분이 터치 입력을 감지하는 감도에 비하여, 디스플레이의 제 1 부분에 대응하는 터치 센서의 부분이 터치 입력을 감지하는 감도를, 높게(또는 민감하게) 설정할 수 있다.
도 11에 도시하지는 않았지만, 일 실시예에서, 프로세서(440)는, 전자 장치(101)의 모드를 제 1 모드로부터 제 2 모드로 전환하기 위한 입력에 기반하여, 전자 장치(101)의 모드를 제 1 모드로부터 제 2 모드로 전환할 수 있다. 예를 들어, 프로세서(440)는, 제 1 모드로 동작하는 동안, 디스플레이의 제 1 부분에 대한 터치 입력을 획득한 경우, 제 1 모드를 해제하고, 전자 장치(101)의 모드를 제 1 모드로부터 제 2 모드로 전환할 수 있다. 다른 예를 들어, 프로세서(440)는, 디스플레이의 제 1 부분을 통하여 표시되고 제 1 모드를 제 2 모드로 전환하는 기능이 설정된 오브젝트(예: 아이콘)에 대한 터치 입력에 기반하여, 전자 장치(101)의 모드를 제 1 모드로부터 제 2 모드로 전환할 수 있다. 또 다른 예를 들어, 프로세서(440)는, 전자 장치(101)의 물리 키에 대한 입력에 기반하여, 전자 장치(101)의 모드를 제 1 모드로부터 제 2 모드로 전환할 수도 있다.
도 11에 도시하지는 않았지만, 일 실시예에서, 프로세서(440)는, 제 1 모드 및 제 2 모드에서, 디스플레이의 제 2 부분에 포함된 터치 센서의 부분(예: 디스플레이의 제 2 부분의 영역에 대응하는 터치 센서의 영역)이 터치 입력을 획득하기 위한 구동 주파수(예: 스캔(scan) 주파수)를 다르게 설정할 수 있다. 예를 들어, 프로세서(440)는, 제 2 모드에 비하여, 제 1 모드에서, 디스플레이의 제 2 부분에 포함된 터치 센서의 부분이 터치 입력을 획득하기 위한 구동 주파수를 높게 설정할 수 있다.
도 12는, 다양한 실시예들에 따른, 전자 장치(101)의 동작 방법을 설명하기 위한 예시도(1200)이다.
도 12를 참조하면, 일 실시예에서, 참조 부호 1210에 도시된 바와 같이, 프로세서(440)는, 센서(420)를 통하여, 사용자(예: 사용자의 손가락(1213))로부터, 전자 장치(101)의 후면(1211)(예: 제 2 플레이트(221a)(예: 후면 케이스) 또는 후면 플레이트(221b)(예: 리어 윈도우))에 대한 입력을 획득할 수 있다. 예를 들어, 프로세서(440)는, 터치 센서(542)를 통하여, 전자 장치(101)의 후면(1211)에 대한 터치 입력(예: 터치 다운 입력 또는 드래그 입력)을 획득할 수 있다.
일 실시예에서, 프로세서(440)는, 전자 장치(101)의 후면(1211)에 대한 터치 입력이 획득된 경우, 디스플레이(410)의 제 1 부분을 통하여 표시된 커서(1221)('마우스 포인트(mouse point)'로도 지칭됨)를 이용하여, 전자 장치(101)의 기능을 수행할 수 있다. 예를 들어, 프로세서(440)는, 커서(1221)가 오브젝트(예: 기능이 매핑된 아이콘) 상에 위치하는 상태에서, 전자 장치(101)의 후면(1211)에 대한 터치 다운 입력(예: 탭 입력)이 획득된 경우, 오브젝트에 매핑된 기능을 수행(예: 오브젝트에 대응하는 어플리케이션 실행)할 수 있다. 다른 예를 들어, 프로세서(440)는, 전자 장치(101)의 후면(1211)에 대한 드래그 입력이 획득된 경우, 드래그 입력에 기반하여, 커서(1221)를 이동(예: 드래그된 거리 또는 드래그된 거리를 스케일링한 거리 만큼 이동)시킬 수 있다.
일 실시예에서, 도 12의 참조 부호 1210 및 참조 부호 1220은, 전자 장치(101)가 폐쇄된 상태에 있는 동안, 전자 장치(101)의 후면(1211)에 대한 터치에 기반하여, 전자 장치(101)의 기능을 수행하는 것으로 예시하고 있지만, 이에 제한되지 않는다. 예를 들어, 전자 장치(101)가 개방된 상태 또는 중간 상태에 있는 동안, 전자 장치의 후면(1211)에 대한 터치에 기반하여, 전자 장치의 기능을 수행할 수 있다.
도 13은, 다양한 실시예들에 따른, 전자 장치(101)의 후면에 대한 터치에 기반하여 실행되는 기능을 설정하는 방법을 설명하기 위한 예시도(1300)이다.
도 13을 참조하면, 일 실시예에서, 프로세서(440)는, 전자 장치(101)의 후면에 대한 터치 입력(예: 디스플레이(410)의 제 2 부분에 대한 터치 입력) 및 전자 장치(101)의 후면에 대한 터치 입력에 대응하는 기능을 설정할 수 있다.
일 실시예에서, 프로세서(440)는, 도 13에 도시된 바와 같이, 전자 장치(101)의 후면에 대한 터치에 기반하여 전자 장치(101)의 기능을 수행하는 기능(이하, '후면 터치 기능'으로도 지칭함)을 설정하기 위한 화면(1310)을 디스플레이(410)를 통하여 표시할 수 있다.
일 실시예에서, 프로세서(440)는, 후면 터치 기능을 나타내는 정보(1311)과 함께, 후면 터치 기능을 활성화할지 여부를 설정하기 위한 오브젝트(1312)를 디스플레이(410)를 통하여 표시할 수 있다.
일 실시예에서, 프로세서(440)는, 후면 터치 기능에 있어서, 사용자 입력에 의해 설정된, 후면 터치 입력들(예: 디스플레이(410)의 제 2 부분에 대한 터치 입력들)을 나타내는 정보(1320) 및 후면 터치 입력들 각각에 대응하는 전자 장치(101)의 기능들을 나타내는 정보(1331)를 디스플레이(410)를 통하여 표시할 수 있다.
다만, 후면 터치 기능을 설정하는 방법은, 도 13을 통하여 설명한 예시에 제한되지 않는다.
도 14는, 다양한 실시예들에 따른, 전자 장치(101)를 나타내는 도면(1400)이다.
도 14를 참조하면, 일 실시예에서, 전자 장치(101)는, 양 방향으로 슬라이드 이동 가능한(예: 화살표들(1431, 1433) 방향들로 이동 가능한) 제 1 구조물(1411) 및 제 3 구조물(1415)과, 제 1 구조물(1411) 및 제 3 구조물(1415)이 수납 또는 확장되도록 하는 제 2 구조물(1413)을 포함할 수 있다.
일 실시예에서, 제 1 구조물(1411) 및 제 3 구조물(1415)이 제 2 구조물(1413)에 대하여 폐쇄된 상태에 있는 경우, 제 1 구조물(1411)의 슬라이드 이동에 따라 외부에 시각적으로 노출 가능한 디스플레이(410)의 제 1 부분(1421) 및 제 3 구조물의 슬라이드 이동에 따라 외부에 시각적으로 노출 가능한 디스플레이(410)의 제 3 부분(1425)은, 외부에 시각적으로 노출되지 않을 수 있다.
일 실시예에서, 제 1 구조물(1411) 및 제 3 구조물(1415)이 제 2 구조물(1413)에 대하여 개방된 상태(또는 폐쇄된 상태 및 개방된 상태의 중간 상태)에 있는 경우, 디스플레이(410)의 제 1 부분(1421), 제 2 부분(1423), 및 제 3 부분(1425)이, 외부에 시각적으로 노출될 수 있다.
일 실시예에서, 전자 장치(101)가 제 2 구조물(1413)에 대하여 양 방향으로 슬라이드 이동 가능한 제 1 구조물(1411) 및 제 3 구조물(1415)을 포함하는 경우에도, 도 2 내지 도 13을 통하여 전술한 예시들이 동일 또는 유사하게 적용될 수 있다. 예를 들어, 전자 장치(101)는, 폐쇄된 상태, 중간 상태, 또는 개방된 상태에서, 전자 장치(101)의 후면에 대한 터치 입력에 기반하여, 전자 장치(101)의 기능을 수행할 수 있다.
도 15는, 다양한 실시예들에 따른, 폴더블 디스플레이(410)를 포함하는 전자 장치(101)의 동작 방법을 설명하기 위한 예시도(1500)이다.
도 15를 참조하면, 일 실시예에서, 전자 장치(101)는 접히거나 펼쳐질 수 있는 형태로 구현될 수 있다.
예를 들어, 참조 부호 1510에 도시된 바와 같이, 전자 장치(101)가 완전히(fully) 펼쳐진 상태(이하, '펼쳐진 상태'로 지칭함)에서, 디스플레이(1520)의 제 1 영역(1521) 및 디스플레이(1520)의 제 2 영역(1523)의 방향은 동일할 수 있다. 참조 부호 1530에 도시된 바와 같이, 전자 장치(101)가 힌지 축(1515)를 기준으로 회전됨에 따라(제 1 하우징(1511) 또는 제 2 하우징(1513) 중 적어도 하나가 힌지 축(1515)를 기준으로 회전됨에 따라), 전자 장치(101)가 완전히 접힌 상태(이하, '접힌 상태'로 지칭함)에서, 디스플레이(1520)의 제 1 영역이 향하는 방향은, 디스플레이(1520)의 제 2 영역이 향하는 방향의 반대 방향일 수 있다. 예를 들어, 전자 장치(101)가 완전히 접힌 상태에서, 디스플레이(1520)의 제 1 영역 및 디스플레이(1520)의 제 2 영역은 대면할 수 있다. 참조 부호 1520은, 전자 장치(101)가 완전히 펼쳐진 상태 및 완전히 접힌 상태의 중간 상태(이하, '중간 상태'로 지칭함)를 나타낼 수 있다.
일 실시예에서, 프로세서(440)는, 센서(예: 전자 장치(101)에 포함된 가속도 센서 또는 홀 센서 중 적어도 하나)를 통하여, 전자 장치(101)의 상태가 펼쳐진 상태, 접힌 상태, 또는 중간 상태에 있는지를 확인할 수 있다.
일 실시예에서, 프로세서(440)는, 도 4 내지 도 11에서 전술한 바와 같은, 제 1 모드 또는 제 2 모드에서, 동작할 수 있다. 예를 들어, 프로세서(440)는, 제 1 모드에서, 전자 장치(101)의 기능을 수행할 수 있다.
일 실시예에서, 프로세서(440)는, 제 1 모드에서, 전자 장치(101)가 펼쳐진 상태에서, 디스플레이(1520)가 외부에 시각적으로 노출된 전자 장치(101)의 전면의 반대 면으로서 전자 장치(101)의 후면에 대한 터치 입력에 기반하여, 디스플레이(1520)를 통하여 표시된 화면과 관련된 기능을 수행할 수 있다. 예를 들어, 프로세서(440)는, 제 1 모드에서, 전자 장치(101)가 펼쳐진 상태에서, 전자 장치(101)의 후면에 대한 터치 입력에 기반하여, 디스플레이(1520)를 통해 표시된 커서(1531)를 이용하여, 디스플레이(1520)를 통하여 표시된 화면과 관련된 기능을 수행할 수 있다.
일 실시예에서, 프로세서(440)는, 제 1 모드에서, 전자 장치(101)가 접힌 상태에서, 디스플레이(1520) 내에서 사용자를 향하는 방향과 반대 방향으로 노출된 디스플레이(1520)의 부분에 대한 터치 입력에 기반하여, 디스플레이(1520) 내에서 사용자를 향하는 방향으로 노출된 디스플레이(1520)의 부분을 통하여 표시된 화면과 관련된 기능을 수행할 수 있다. 예를 들어, 프로세서(440)는, 제 1 모드에서, 전자 장치(101)가 접힌 상태에서, 디스플레이(1520) 내에서 사용자를 향하는 방향과 반대 방향으로 노출된 디스플레이(1520)의 부분에 대한 터치 입력에 기반하여, 디스플레이(1520)를 통해 표시된 커서(1533)를 이용하여, 디스플레이(1520)를 통하여 표시된 화면과 관련된 기능을 수행할 수 있다.
일 실시예에서, 프로세서(440)는, 제 1 모드에서, 전자 장치(101)가 중간 상태에 있는 동안 접힌 상태에서, 디스플레이(1520) 내에서 사용자를 향하는 방향으로 노출된 디스플레이(1520) 부분과 일정 각도를 형성하는 디스플레이(1520) 부분에 대한 터치 입력에 기반하여, 디스플레이(1520) 내에서 사용자를 향하는 방향으로 노출된 디스플레이(1520)의 부분을 통하여 표시된 화면과 관련된 기능을 수행할 수 있다. 예를 들어, 프로세서(440)는, 제 1 모드에서, 전자 장치(101)가 중간 상태에 있는 동안, 디스플레이(1520) 내에서 사용자를 향하는 방향으로 노출된 디스플레이(1520) 부분과 일정 각도를 형성하는 디스플레이(1520) 부분에 대한 터치 입력에 기반하여, 디스플레이(1520)를 통해 표시된 커서(1532)를 이용하여, 디스플레이(1520)를 통하여 표시된 화면과 관련된 기능을 수행할 수 있다.
일 실시예에서, 프로세서(440)는, 도 4 내지 도 11에서 전술한 바와 같은, 제 1 방식 또는 제 2 방식 중 적어도 하나를 이용하여, 디스플레이(1520)에 대한 터치 입력을 변환할 수 있다. 프로세서(440)는, 변환된 터치 입력에 기반하여, 전자 장치(101)의 기능을 수행할 수 있다.
도 15에서는, 전자 장치(101)가 완전히 접힌 상태에서, 디스플레이(1520)의 제 1 영역(1521) 및 디스플레이(1520)의 제 2 영역(1523)이 대면하도록, 아웃-폴딩(out-folding) 방식으로 접히는 전자 장치(101)를 예시하였지만, 이에 제한되지 않는다. 예를 들어, 전자 장치(101)가 완전히 접힌 상태에서, 디스플레이(1520)의 제 1 영역이 향하는 방향 및 디스플레이(1520)의 제 2 영역이 방하는 방향이 반대가 되도록, 인-폴딩(in-folding) 방식으로 접히는 전자 장치(101)에도, 전술한 예시들이 동일 또는 유사하게 적용될 수 있다.
도 15에서는, 하나의 힌지 축(예: 힌지 축(1515))을 기준으로, 제 1 하우징(1511) 또는 제 2 하우징(1513) 중 적어도 하나가 회전하는 전자 장치(101)를 예시하였지만, 이에 제한되지 않는다. 예를 들어, 복수의 힌지 축들을 기준으로, 복수의 하우징들이 회전 가능하도록 구현된 전자 장치(101)에 대해서도, 전술한 예시들이 동일 또는 유사하게 적용될 수 있다. 다른 예를 들어, 힌지 축 없이, 디스플레이(1520)가 플렉서블하게 변형 가능한(예: 디스플레이(1520) 전체가 플렉서블하게 접히거나 구부려질 수 있는) 전자 장치(101)에 대해서도, 전술한 예시들이 동일 또는 유사하게 적용될 수 있다.
도 16은, 다양한 실시예들에 따른, 다중 폴더블 디스플레이를 포함하는 전자 장치(101)의 동작 방법을 설명하기 위한 예시도이다.
도 16을 참조하면, 일 실시예에서, 전자 장치(101)는 접히거나 펼쳐질 수 있는 형태로 구현될 수 있다.
일 실시예에서, 도 16에 도시된 바와 같이, 전자 장치(101)는, 제 1 하우징(1611), 제 2 하우징(1613), 및 제 3 하우징(1615)이 완전히 펼쳐진 상태에 있을 수 있다. 전자 장치(101)는, 화살표(1641)가 지시하는 방향과 같이 제 1 힌지 축(1631)을 기준으로 제 2 하우징(1613)에 대하여 제 1 하우징(1611)이 회전되거나, 화살표(1643)가 지시하는 방향과 같이 제 2 힌지 축(1633)을 기준으로 제 2 하우징(1613)에 대하여 제 3 하우징(1615)이 회전될 수 있다. 일 실시예에서, 전자 장치(101)는, 제 2 하우징(1613)에 대하여, 제 1 하우징(1611) 및 제 3 하우징(1615)이 회전됨에 따라, 완전히 접힌 상태가 될 수 있다.
일 실시예에서, 디스플레이(1620)의 제 1 영역(1621)은 제 1 하우징(1611)에 대응하는 디스플레이(1620)의 부분이고, 디스플레이(1620)의 제 2 영역(1623)은 제 2 하우징(1613)에 대응하는 디스플레이(1620)의 부분이고, 디스플레이(1620)의 제 3 영역(1625)은 제 3 하우징(1615)에 대응하는 디스플레이(1620)의 부분일 수 있다.
일 실시예에서, 전자 장치(101)가 도 16에 도시된 바와 같이 2개의 힌지 축들을 기준으로 제 2 하우징(1613)에 대하여 제 1 하우징(1611) 및/또는 제 3 하우징(1615)이 회전되는 경우에도, 도 15를 통하여 전술한 예시들이 동일 또는 유사하게 적용될 수 있다. 예를 들어, 전자 장치(101)가 완전히 펼쳐진 상태, 완전히 접힌 상태, 또는 중간 상태(예: 제 1 하우징(1611)이 제 2 하우징(1613)에 대하여 펼쳐지고 제 3 하우징(1615)이 제 2 하우징(1613)에 대하여 접힌 상태, 또는 제 3 하우징(1615)이 제 2 하우징(1613)에 대하여 펼쳐지고 제 1 하우징(1611)이 제 2 하우징(1613)에 대하여 접힌 상태)에서, 전자 장치(101)의 후면에 대한 터치 입력에 기반하여, 전자 장치(101)의 기능을 수행할 수 있다.
일 실시예에서, 도 16에서는, 전자 장치(101)가 완전히 펼쳐진 상태로부터, 디스플레이(1620)의 제 2 영역(1623)이 향하는 방향과 반대 방향으로 디스플레이의 제 1 영역(1621) 및 제 3 영역(1625)으로 향하도록, 아웃-폴딩 방식으로 접히는 전자 장치(101)를 예시하였지만, 이에 제한되지 않는다. 예를 들어, 인-폴딩 방식으로 접히거나 펼쳐지는 전자 장치에도, 전술한 예시들이 동일 또는 유사하게 적용될 수 있다.
도 16에서는, 두 개의 힌지 축들(예: 힌지 축들(1631, 1633))을 기준으로, 제 2 하우징(1613)에 대하여, 제 1 하우징(1611) 및/또는 제 3 하우징(1615)이 회전하는 전자 장치(101)를 예시하였지만, 이에 제한되지 않는다. 예를 들어, 3 개 이상의 힌지 축들을 기준으로, 복수의 하우징들이 회전 가능하도록 구현된 전자 장치(101)에 대해서도, 전술한 예시들이 동일 또는 유사하게 적용될 수 있다. 다른 예를 들어, 힌지 축 없이, 디스플레이(1620)가 플렉서블하게 변형 가능한(예: 디스플레이(1620) 전체가 플렉서블하게 접히거나 구부려질 수 있는) 전자 장치(101)에 대해서도, 전술한 예시들이 동일 또는 유사하게 적용될 수 있다.
다양한 실시예들에 따른 전자 장치(101)의 동작 방법은, 제 1 구조물(201), 상기 제 1 구조물(201)의 슬라이드 이동을 안내하는 제 2 구조물(202), 상기 제 1 구조물(201)의 슬라이드 이동에 따라 적어도 부분적으로 상기 제 2 구조물(202)의 내부로 수용되거나 상기 제 2 구조물(202)의 외부로 시각적으로 노출되는 플렉서블 디스플레이(410), 및 적어도 하나의 센서(420)를 포함하는 상기 전자 장치(101)의 상기 적어도 하나의 센서(420)를 통하여, 상기 제 2 구조물(202)에 대한 상기 제 1 구조물(201)의 상태에 대한 정보를 획득하는 동작, 상기 적어도 하나의 센서(420)를 통하여, 터치 입력을 검출하는 동작, 상기 제 2 구조물(202)에 대한 상기 제 1 구조물(201)의 상태에 대한 정보에 기반하여, 상기 플렉서블 디스플레이(410) 내에서 상기 외부에 시각적으로 노출된 제 1 부분 및 상기 제 2 구조물(202)의 내부에 수용된 제 2 부분 중에서, 상기 터치 입력이 검출된 상기 플렉서블 디스플레이(410)의 부분을 확인하는 동작, 및 상기 확인된 부분이 상기 제 2 부분인 경우, 상기 터치 입력에 기반하여, 상기 제 1 부분을 통하여 표시된 화면과 관련된 기능을 수행하는 동작을 포함할 수 있다.
다양한 실시예에서, 상기 제 2 구조물(202)에 대한 상기 제 1 구조물(201)의 상태는, 상기 제 2 구조물(202)에 대하여 상기 제 1 구조물(201)이 폐쇄된 상태, 상기 제 2 구조물(202)에 대하여 상기 제 1 구조물(201)이 개방된 상태, 또는 상기 폐쇄된 상태 및 상기 개방된 상태의 중간 상태일 수 있다.
다양한 실시예에서, 상기 제 2 구조물(202)에 대한 상기 제 1 구조물(201)의 상태에 대한 정보를 획득하는 동작은, 터치 센서, 홀 센서, 관성 센서, 압력 센서, 광 센서, 또는 조도 센서 중 적어도 하나를 통하여, 상기 제 2 구조물(202)에 대한 상기 제 1 구조물(201)의 상태에 대한 정보를 획득하는 동작을 포함할 수 있다.
다양한 실시예에서, 상기 제 1 부분을 통하여 표시된 상기 화면과 관련된 상기 기능을 수행하는 동작은, 상기 제 1 부분을 통하여 표시된 커서의 위치에 기반하여, 상기 제 2 부분에 대한 상기 터치 입력을, 상기 제 1 부분에 대한 터치 입력으로 변환하는 동작을 포함할 수 있다.
다양한 실시예에서, 상기 제 1 부분을 통하여 표시된 상기 화면과 관련된 상기 기능을 수행하는 동작은, 상기 제 2 부분에 대하여 터치된 위치를, 상기 제 2 부분에 대하여 터치된 위치에 대응하는 상기 제 1 부분에 대한 위치로 변환하는 동작을 포함할 수 있다.
다양한 실시예에서, 상기 방법은, 상기 제 2 부분에 대한 터치 입력에 기반하여 상기 기능을 수행하는 제 1 모드 및 상기 제 2 부분에 대한 터치 입력에 기반하여 상기 기능을 수행하지 않는 제 2 모드 중에서, 상기 전자 장치(101)의 모드를 확인하는 동작을 더 포함하고, 상기 제 1 부분을 통하여 표시된 상기 화면과 관련된 상기 기능을 수행하는 동작은, 상기 전자 장치(101)의 모드가 상기 제 1 모드이고 상기 확인된 부분이 상기 제 2 부분인 경우, 상기 터치 입력에 기반하여, 상기 제 1 부분을 통하여 표시된 상기 화면과 관련된 상기 기능을 수행하는 동작을 포함할 수 있다.
다양한 실시예에서, 상기 방법은, 상기 전자 장치(101)가 제 2 모드로 동작하는 동안, 상기 제 2 모드를 상기 제 1 모드로 전환하기 위하여 설정된, 상기 제 2 부분에 대한 터치 입력을 검출하는 동작, 및 상기 제 2 부분에 대한 상기 터치 입력에 기반하여, 상기 제 2 모드를 상기 제 1 모드로 전환하는 동작을 더 포함할 수 있다.
다양한 실시예에서, 상기 방법은, 사용자 입력에 기반하여, 상기 제 2 부분에 대한 터치 입력에 대응하는 상기 기능을 설정하는 동작을 더 포함할 수 있다.
다양한 실시예에서, 상기 방법은, 상기 적어도 하나의 센서(420)를 통하여, 상기 제 2 구조물(202) 내에서 상기 플렉서블 디스플레이(410)가 배치되지 않은 부분에 대한 호버링 입력을 검출하는 동작, 및 상기 호버링 입력에 기반하여, 상기 제 1 부분을 통하여 표시된 화면과 관련된 기능을 수행하는 동작을 더 포함할 수 있다.
다양한 실시예에서, 상기 방법은, 상기 적어도 하나의 센서(420)를 통하여, 상기 제 2 부분 내에서, 상기 전자 장치(101)의 롤러의 회전축을 중심으로 곡면을 형성하는 부분에 대한 터치 입력을 검출하는 동작, 및 상기 곡면을 형성하는 부분에 대한 터치 입력에 기반하여, 상기 제 1 부분을 통하여 표시된 화면과 관련된 기능을 수행하는 동작을 포함할 수 있다.
또한, 상술한 본 개시의 실시예에서 사용된 데이터의 구조는 컴퓨터로 읽을 수 있는 기록매체에 여러 수단을 통하여 기록될 수 있다. 상기 컴퓨터로 읽을 수 있는 기록매체는 마그네틱 저장매체(예를 들면, 롬, 플로피 디스크, 하드 디스크), 광학적 판독 매체(예를 들면, CD-ROM, DVD)와 같은 저장매체를 포함한다.
이제까지 본 개시에 대하여 그 바람직한 실시예들을 중심으로 살펴보았다. 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자는 본 개시가 본 개시의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 개시의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 개시에 포함된 것으로 해석되어야 할 것이다.

Claims (15)

  1. 전자 장치에 있어서,
    제 1 구조물;
    상기 제 1 구조물의 슬라이드 이동을 안내하는 제 2 구조물;
    상기 제 1 구조물의 슬라이드 이동에 따라 적어도 부분적으로 상기 제 2 구조물의 내부로 수용되거나 상기 제 2 구조물의 외부로 시각적으로 노출되는 플렉서블 디스플레이;
    적어도 하나의 센서; 및
    상기 플렉서블 디스플레이 및 상기 적어도 하나의 센서와 기능적으로 연결된 적어도 하나의 프로세서를 포함하고,
    상기 적어도 하나의 프로세서는,
    상기 적어도 하나의 센서를 통하여, 상기 제 2 구조물에 대한 상기 제 1 구조물의 상태에 대한 정보를 획득하고,
    상기 적어도 하나의 센서를 통하여, 터치 입력을 검출하고,
    상기 제 2 구조물에 대한 상기 제 1 구조물의 상태에 대한 정보에 기반하여, 상기 플렉서블 디스플레이 내에서 상기 외부에 시각적으로 노출된 제 1 부분 및 상기 제 2 구조물의 내부에 수용된 제 2 부분 중에서, 상기 터치 입력이 검출된 상기 플렉서블 디스플레이의 부분을 확인하고, 및
    상기 확인된 부분이 상기 제 2 부분인 경우, 상기 터치 입력에 기반하여, 상기 제 1 부분을 통하여 표시된 화면과 관련된 기능을 수행하도록 설정된 전자 장치.
  2. 제 1 항에 있어서,
    상기 제 2 구조물에 대한 상기 제 1 구조물의 상태는,
    상기 제 2 구조물에 대하여 상기 제 1 구조물이 폐쇄된 상태, 상기 제 2 구조물에 대하여 상기 제 1 구조물이 개방된 상태, 또는 상기 폐쇄된 상태 및 상기 개방된 상태의 중간 상태인 전자 장치.
  3. 제 1 항에 있어서,
    상기 적어도 하나의 프로세서는,
    상기 제 1 부분을 통하여 표시된 커서의 위치에 기반하여, 상기 제 2 부분에 대한 상기 터치 입력을, 상기 제 1 부분에 대한 터치 입력으로 변환하도록 설정된 전자 장치.
  4. 제 1 항에 있어서,
    상기 적어도 하나의 프로세서가,
    상기 제 2 부분에 대하여 터치된 위치를, 상기 제 2 부분에 대하여 터치된 위치에 대응하는 상기 제 1 부분에 대한 위치로 변환하도록 설정된 전자 장치.
  5. 제 1 항에 있어서,
    상기 적어도 하나의 프로세서가,
    상기 제 2 부분에 대한 터치 입력에 기반하여 상기 기능을 수행하는 제 1 모드 및 상기 제 2 부분에 대한 터치 입력에 기반하여 상기 기능을 수행하지 않는 제 2 모드 중에서, 상기 전자 장치의 모드를 확인하고, 및
    상기 전자 장치의 모드가 상기 제 1 모드이고 상기 확인된 부분이 상기 제 2 부분인 경우, 상기 터치 입력에 기반하여, 상기 제 1 부분을 통하여 표시된 상기 화면과 관련된 상기 기능을 수행하도록 설정된 전자 장치.
  6. 제 5 항에 있어서,
    상기 적어도 하나의 프로세서가,
    상기 전자 장치가 제 2 모드로 동작하는 동안, 상기 제 2 모드를 상기 제 1 모드로 전환하기 위하여 설정된, 상기 제 2 부분에 대한 터치 입력을 검출하고, 및
    상기 제 2 부분에 대한 상기 터치 입력에 기반하여, 상기 제 2 모드를 상기 제 1 모드로 전환하도록 설정된 전자 장치.
  7. 제 1 항에 있어서,
    상기 적어도 하나의 프로세서가,
    상기 적어도 하나의 센서를 통하여, 상기 제 2 구조물 내에서 상기 플렉서블 디스플레이가 배치되지 않은 부분에 대한 호버링 입력을 검출하고, 및
    상기 호버링 입력에 기반하여, 상기 제 1 부분을 통하여 표시된 화면과 관련된 기능을 수행하도록 설정된 전자 장치.
  8. 제 1 항에 있어서,
    상기 적어도 하나의 프로세서가,
    상기 적어도 하나의 센서를 통하여, 상기 제 2 부분 내에서, 상기 전자 장치의 롤러의 회전축을 중심으로 곡면을 형성하는 부분에 대한 터치 입력을 검출하고, 및
    상기 곡면을 형성하는 부분에 대한 터치 입력에 기반하여, 상기 제 1 부분을 통하여 표시된 화면과 관련된 기능을 수행하도록 설정된 전자 장치.
  9. 전자 장치의 동작 방법에 있어서,
    제 1 구조물, 상기 제 1 구조물의 슬라이드 이동을 안내하는 제 2 구조물, 상기 제 1 구조물의 슬라이드 이동에 따라 적어도 부분적으로 상기 제 2 구조물의 내부로 수용되거나 상기 제 2 구조물의 외부로 시각적으로 노출되는 플렉서블 디스플레이, 및 적어도 하나의 센서를 포함하는 상기 전자 장치의 상기 적어도 하나의 센서를 통하여, 상기 제 2 구조물에 대한 상기 제 1 구조물의 상태에 대한 정보를 획득하는 동작;
    상기 적어도 하나의 센서를 통하여, 터치 입력을 검출하는 동작;
    상기 제 2 구조물에 대한 상기 제 1 구조물의 상태에 대한 정보에 기반하여, 상기 플렉서블 디스플레이 내에서 상기 외부에 시각적으로 노출된 제 1 부분 및 상기 제 2 구조물의 내부에 수용된 제 2 부분 중에서, 상기 터치 입력이 검출된 상기 플렉서블 디스플레이의 부분을 확인하는 동작; 및
    상기 확인된 부분이 상기 제 2 부분인 경우, 상기 터치 입력에 기반하여, 상기 제 1 부분을 통하여 표시된 화면과 관련된 기능을 수행하는 동작을 포함하는 방법.
  10. 제 9 항에 있어서,
    상기 제 2 구조물에 대한 상기 제 1 구조물의 상태는,
    상기 제 2 구조물에 대하여 상기 제 1 구조물이 폐쇄된 상태, 상기 제 2 구조물에 대하여 상기 제 1 구조물이 개방된 상태, 또는 상기 폐쇄된 상태 및 상기 개방된 상태의 중간 상태인 방법.
  11. 제 9 항에 있어서,
    상기 제 1 부분을 통하여 표시된 상기 화면과 관련된 상기 기능을 수행하는 동작은,
    상기 제 1 부분을 통하여 표시된 커서의 위치에 기반하여, 상기 제 2 부분에 대한 상기 터치 입력을, 상기 제 1 부분에 대한 터치 입력으로 변환하는 동작을 포함하는 방법.
  12. 제 9 항에 있어서,
    상기 제 1 부분을 통하여 표시된 상기 화면과 관련된 상기 기능을 수행하는 동작은,
    상기 제 2 부분에 대하여 터치된 위치를, 상기 제 2 부분에 대하여 터치된 위치에 대응하는 상기 제 1 부분에 대한 위치로 변환하는 동작을 포함하는 방법.
  13. 제 9 항에 있어서,
    상기 제 2 부분에 대한 터치 입력에 기반하여 상기 기능을 수행하는 제 1 모드 및 상기 제 2 부분에 대한 터치 입력에 기반하여 상기 기능을 수행하지 않는 제 2 모드 중에서, 상기 전자 장치의 모드를 확인하는 동작을 더 포함하고,
    상기 제 1 부분을 통하여 표시된 상기 화면과 관련된 상기 기능을 수행하는 동작은,
    상기 전자 장치의 모드가 상기 제 1 모드이고 상기 확인된 부분이 상기 제 2 부분인 경우, 상기 터치 입력에 기반하여, 상기 제 1 부분을 통하여 표시된 상기 화면과 관련된 상기 기능을 수행하는 동작을 포함하는 방법.
  14. 제 13 항에 있어서,
    상기 전자 장치가 제 2 모드로 동작하는 동안, 상기 제 2 모드를 상기 제 1 모드로 전환하기 위하여 설정된, 상기 제 2 부분에 대한 터치 입력을 검출하는 동작; 및
    상기 제 2 부분에 대한 상기 터치 입력에 기반하여, 상기 제 2 모드를 상기 제 1 모드로 전환하는 동작을 더 포함하는 방법.
  15. 제 9 항에 있어서,
    상기 적어도 하나의 센서를 통하여, 상기 제 2 구조물 내에서 상기 플렉서블 디스플레이가 배치되지 않은 부분에 대한 호버링 입력을 검출하는 동작; 및
    상기 호버링 입력에 기반하여, 상기 제 1 부분을 통하여 표시된 화면과 관련된 기능을 수행하는 동작을 더 포함하는 방법.
PCT/KR2021/016412 2020-11-18 2021-11-11 플렉서블 디스플레이를 포함하는 전자 장치 및 이의 동작 방법 WO2022108239A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US18/116,078 US11983355B2 (en) 2020-11-18 2023-03-01 Electronic device comprising flexible display and operation method thereof

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR20200154740 2020-11-18
KR10-2020-0154740 2020-11-18
KR1020210004919A KR20220068093A (ko) 2020-11-18 2021-01-13 플렉서블 디스플레이를 포함하는 전자 장치 및 이의 동작 방법
KR10-2021-0004919 2021-01-13

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US18/116,078 Continuation US11983355B2 (en) 2020-11-18 2023-03-01 Electronic device comprising flexible display and operation method thereof

Publications (1)

Publication Number Publication Date
WO2022108239A1 true WO2022108239A1 (ko) 2022-05-27

Family

ID=81709347

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2021/016412 WO2022108239A1 (ko) 2020-11-18 2021-11-11 플렉서블 디스플레이를 포함하는 전자 장치 및 이의 동작 방법

Country Status (1)

Country Link
WO (1) WO2022108239A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150065415A (ko) * 2013-12-05 2015-06-15 삼성전자주식회사 곡형 디스플레이 모듈을 갖는 전자 장치 및 그 운용 방법
KR20170082926A (ko) * 2016-01-07 2017-07-17 엘지전자 주식회사 이동 단말기 및 그 제어방법
KR20170100485A (ko) * 2014-12-30 2017-09-04 엘지전자 주식회사 디지털 디바이스 및 그 제어 방법
KR20190101184A (ko) * 2018-02-22 2019-08-30 삼성전자주식회사 디스플레이 영역의 크기 변경이 가능한 플렉시블 디스플레이를 포함하는 전자 장치 및 그 제어 방법
US20190302984A1 (en) * 2016-12-30 2019-10-03 Shenzhen Royole Technologies Co., Ltd. Method and device for controlling a flexible display device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150065415A (ko) * 2013-12-05 2015-06-15 삼성전자주식회사 곡형 디스플레이 모듈을 갖는 전자 장치 및 그 운용 방법
KR20170100485A (ko) * 2014-12-30 2017-09-04 엘지전자 주식회사 디지털 디바이스 및 그 제어 방법
KR20170082926A (ko) * 2016-01-07 2017-07-17 엘지전자 주식회사 이동 단말기 및 그 제어방법
US20190302984A1 (en) * 2016-12-30 2019-10-03 Shenzhen Royole Technologies Co., Ltd. Method and device for controlling a flexible display device
KR20190101184A (ko) * 2018-02-22 2019-08-30 삼성전자주식회사 디스플레이 영역의 크기 변경이 가능한 플렉시블 디스플레이를 포함하는 전자 장치 및 그 제어 방법

Similar Documents

Publication Publication Date Title
WO2022030990A1 (ko) 복수의 디스플레이를 통해 다양한 사용자 인터페이스를 제공하는 전자 장치 및 그 방법
WO2022025450A1 (ko) 슬라이딩 가능한 전자 장치 및 이의 제어 방법
WO2022154500A1 (ko) 전자 장치 및 전자 장치의 폴딩 상태에 기반하여 레이아웃 구성 방법
WO2022085961A1 (ko) 컨텐츠를 출력하는 전자 장치 및 전자 장치의 동작 방법
WO2022108271A1 (ko) 플렉서블 디스플레이를 포함하는 전자 장치 및 그의 터치 제어 방법
WO2022103174A1 (ko) 표시 영역이 가변되는 디스플레이를 포함하는 전자 장치 및 앱 아이콘을 이용하여 화면 비율을 가변적으로 운용하는 방법
WO2022102880A1 (en) Electronic device including flexible display and method of operating same
WO2022025451A1 (ko) 슬라이딩 가능한 전자 장치 및 이의 제어 방법
WO2022119398A1 (ko) 플랙서블 전자 장치 및 이의 아바타 서비스 운용 방법
WO2022092652A1 (ko) 사용자 인터페이스를 제공하는 전자 장치
WO2022025400A1 (ko) 전자 펜과 연동된 화면 분할 제공 방법 및 이를 이용한 폴더블 전자 장치
WO2022108239A1 (ko) 플렉서블 디스플레이를 포함하는 전자 장치 및 이의 동작 방법
WO2023017954A1 (ko) 플렉서블 디스플레이를 포함하는 전자 장치 및 이의 제어 방법
WO2023191303A1 (ko) 플렉서블 디스플레이를 포함하는 전자 장치 및 이의 제어 방법
WO2023068468A1 (ko) 전자 장치의 그립 상태를 식별하기 위한 전자 장치 및 방법
WO2024117558A1 (ko) 플렉서블 디스플레이를 포함하는 전자 장치 및 이의 제어 방법
WO2024063432A1 (ko) 전자 장치의 어플리케이션 실행 화면 제어 방법 및 그 전자 장치
WO2022119259A1 (ko) 플렉서블 디스플레이를 포함하는 전자 장치 및 이의 동작 방법
WO2023200178A1 (ko) 롤러블 디스플레이를 포함하는 전자 장치 및 이의 제어 방법
WO2022080806A1 (ko) 플렉서블 디스플레이를 포함하는 전자 장치 및 이를 이용한 전자 장치의 상태에 따른 온도 제어 방법
WO2022080698A1 (ko) 플렉서블 디스플레이를 이용하여 화면을 제공하는 방법 및 이를 지원하는 전자 장치
WO2022119115A1 (ko) 마이크를 포함하는 전자 장치 및 그 제어 방법
WO2023182689A1 (ko) 화면을 제공하는 방법 및 이를 지원하는 플렉서블 디스플레이를 포함하는 전자 장치
WO2024128544A1 (ko) 전자 장치 및 이를 이용한 액세서리 인식 방법
WO2024034838A1 (ko) 복수의 디스플레이들을 통해 화면을 표시하기 위한 전자 장치 및 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21895008

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21895008

Country of ref document: EP

Kind code of ref document: A1