WO2024071658A1 - 플렉서블 디스플레이를 포함하는 전자 장치, 그 동작 방법 및 저장 매체 - Google Patents

플렉서블 디스플레이를 포함하는 전자 장치, 그 동작 방법 및 저장 매체 Download PDF

Info

Publication number
WO2024071658A1
WO2024071658A1 PCT/KR2023/011762 KR2023011762W WO2024071658A1 WO 2024071658 A1 WO2024071658 A1 WO 2024071658A1 KR 2023011762 W KR2023011762 W KR 2023011762W WO 2024071658 A1 WO2024071658 A1 WO 2024071658A1
Authority
WO
WIPO (PCT)
Prior art keywords
window
display
area
electronic device
folding
Prior art date
Application number
PCT/KR2023/011762
Other languages
English (en)
French (fr)
Inventor
이종기
김은석
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020220123420A external-priority patent/KR20240043619A/ko
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Publication of WO2024071658A1 publication Critical patent/WO2024071658A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72448User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
    • H04M1/72454User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions according to context-related or environment-related conditions

Definitions

  • An embodiment disclosed in this document relates to an electronic device including a flexible display, a method of operating the same, and a storage medium.
  • a flexible electronic device can change its shape by applying force to the user, providing a foldable or bendable display or a rollable display.
  • Electronic devices including foldable flexible displays can display screens on displays (or display areas) of various sizes. For example, when the electronic device is folded in half and stands upright, the user can look at the screen (e.g., the content screen) in a hands-free state. Therefore, if it is possible to provide a variety of user interfaces that reflect the user's intention for bending an electronic device including a flexible display, the usability of the electronic device can be improved.
  • the electronic device 101 may include flexible displays 160, 260, and 560 and at least one processor 120 and 520.
  • the at least one processor may be set to display the first window of the application through the display when the display is unfolded.
  • the at least one processor may be set to display the second window on an area of the first window based on an input for displaying the second window.
  • the at least one processor divides the first window and the second window into each of the first display area and the second display area divided according to the folding, when the display is at least partially folded. It can be set to display.
  • a method of operating an electronic device including a flexible display may include displaying a first window of an application while the display is in an unfolded state.
  • the method may include displaying the second window on an area of the first window based on an input for displaying the second window.
  • the method includes displaying the first window and the second window separately in each of the first display area and the second display area divided according to the folding, in a state where the display is at least partially folded. Can include actions.
  • the instructions when executed by at least one processor 120 or 520 of the electronic device 101, cause the electronic device to perform at least one operation.
  • the at least one operation may include displaying a first window of an application when the flexible display of the electronic device is unfolded.
  • the at least one operation may include displaying the second window on an area of the first window based on an input for displaying the second window.
  • the at least one operation is performed when the flexible display is at least partially folded, and the first window and the second window are opened in each of the first display area and the second display area divided according to the folding. It may include the operation of distinguishing and displaying.
  • FIG. 1 is a block diagram of an electronic device in a network environment according to an embodiment.
  • FIG. 2 is a diagram illustrating an unfolded state and a folded state of a first type of electronic device according to an embodiment.
  • FIG. 3A is a diagram illustrating a state in which a second type of electronic device is folded in portrait mode, according to an embodiment.
  • FIG. 3B is a diagram illustrating a state in which a second type of electronic device is folded in landscape mode, according to an embodiment.
  • Figure 4 is a perspective view to explain various folding states of an electronic device according to an embodiment.
  • Figure 5 is an internal block diagram of an electronic device according to an embodiment.
  • FIG. 6 is a diagram illustrating a method of operating a multi-window in an unfolded state and a partially folded state in an electronic device according to an embodiment.
  • FIG. 7 is a flowchart of an operation of an electronic device according to an embodiment.
  • Figure 8 is an operation flowchart for operating a multi-window in response to a folding event according to an embodiment.
  • Figure 9 is a diagram for explaining multiple layers according to an embodiment.
  • Figure 10 is a diagram for explaining multiple interactions according to an embodiment.
  • FIG. 11 is a diagram illustrating a case in which inputs to areas divided corresponding to folding are independent from each other while a multi-window is displayed according to an embodiment.
  • FIG. 12 is a diagram illustrating a case where inputs to divided areas corresponding to folding are independent from each other in a state in which divided areas are displayed according to an embodiment.
  • Figure 13 is a flowchart of an operation of an electronic device when folding when there are different interaction inputs on one screen, according to an embodiment.
  • Figure 14 is an example of a screen in which the execution screen of the first application according to an embodiment is independently displayed through each divided area when folded.
  • Figure 15 is an example of a screen in which the execution screen of a second application according to an embodiment is independently displayed through each divided area when folded.
  • Figure 16 is an example of a screen in which the execution screen of a second application according to an embodiment is independently displayed through each divided area when folded.
  • FIG. 17 is an example of a screen in which the execution screen of an application is independently displayed through each divided area when the application execution screen is folded in the landscape mode of the second type of electronic device according to an embodiment.
  • Figure 18 is an example of a screen in which the execution screen of an application is independently displayed through each divided area when the application execution screen is folded in the portrait mode of the first type of electronic device according to an embodiment.
  • Figure 19 is an example of a screen in which the execution screen of an application is independently displayed through each divided area when the application execution screen is folded in the landscape mode of the first type of electronic device according to an embodiment.
  • FIG. 1 is a block diagram of an electronic device 101 in a network environment 100, according to one embodiment.
  • the electronic device 101 communicates with the electronic device 102 through a first network 198 (e.g., a short-range wireless communication network) or a second network 199. It is possible to communicate with at least one of the electronic device 104 or the server 108 through (e.g., a long-distance wireless communication network).
  • the electronic device 101 may communicate with the electronic device 104 through the server 108.
  • the electronic device 101 includes a processor 120, a memory 130, an input module 150, an audio output module 155, a display module 160, an audio module 170, and a sensor module ( 176), interface 177, connection terminal 178, haptic module 179, camera module 180, power management module 188, battery 189, communication module 190, subscriber identification module 196 , or may include an antenna module 197.
  • at least one of these components eg, the connection terminal 178) may be omitted or one or more other components may be added to the electronic device 101.
  • some of these components e.g., sensor module 176, camera module 180, or antenna module 197) are integrated into one component (e.g., display module 160). It can be.
  • the processor 120 for example, executes software (e.g., program 140) to operate at least one other component (e.g., hardware or software component) of the electronic device 101 connected to the processor 120. It can be controlled and various data processing or calculations can be performed. According to one embodiment, as at least part of data processing or computation, the processor 120 stores commands or data received from another component (e.g., sensor module 176 or communication module 190) in volatile memory 132. The commands or data stored in the volatile memory 132 can be processed, and the resulting data can be stored in the non-volatile memory 134.
  • software e.g., program 140
  • the processor 120 stores commands or data received from another component (e.g., sensor module 176 or communication module 190) in volatile memory 132.
  • the commands or data stored in the volatile memory 132 can be processed, and the resulting data can be stored in the non-volatile memory 134.
  • the processor 120 includes a main processor 121 (e.g., a central processing unit or an application processor) or an auxiliary processor 123 that can operate independently or together (e.g., a graphics processing unit, a neural network processing unit ( It may include a neural processing unit (NPU), an image signal processor, a sensor hub processor, or a communication processor).
  • a main processor 121 e.g., a central processing unit or an application processor
  • auxiliary processor 123 e.g., a graphics processing unit, a neural network processing unit ( It may include a neural processing unit (NPU), an image signal processor, a sensor hub processor, or a communication processor.
  • the electronic device 101 includes a main processor 121 and a secondary processor 123
  • the secondary processor 123 may be set to use lower power than the main processor 121 or be specialized for a designated function. You can.
  • the auxiliary processor 123 may be implemented separately from the main processor 121 or as part of it.
  • the auxiliary processor 123 may, for example, act on behalf of the main processor 121 while the main processor 121 is in an inactive (e.g., sleep) state, or while the main processor 121 is in an active (e.g., application execution) state. ), together with the main processor 121, at least one of the components of the electronic device 101 (e.g., the display module 160, the sensor module 176, or the communication module 190) At least some of the functions or states related to can be controlled.
  • co-processor 123 e.g., image signal processor or communication processor
  • may be implemented as part of another functionally related component e.g., camera module 180 or communication module 190. there is.
  • the auxiliary processor 123 may include a hardware structure specialized for processing artificial intelligence models.
  • Artificial intelligence models can be created through machine learning. For example, such learning may be performed in the electronic device 101 itself on which the artificial intelligence model is performed, or may be performed through a separate server (e.g., server 108).
  • Learning algorithms may include, for example, supervised learning, unsupervised learning, semi-supervised learning, or reinforcement learning, but It is not limited.
  • An artificial intelligence model may include multiple artificial neural network layers.
  • Artificial neural networks include deep neural network (DNN), convolutional neural network (CNN), recurrent neural network (RNN), restricted boltzmann machine (RBM), belief deep network (DBN), bidirectional recurrent deep neural network (BRDNN), It may be one of deep Q-networks or a combination of two or more of the above, but is not limited to the examples described above.
  • artificial intelligence models may additionally or alternatively include software structures.
  • the memory 130 may store various data used by at least one component (eg, the processor 120 or the sensor module 176) of the electronic device 101. Data may include, for example, input data or output data for software (e.g., program 140) and instructions related thereto.
  • Memory 130 may include volatile memory 132 or non-volatile memory 134.
  • the program 140 may be stored as software in the memory 130 and may include, for example, an operating system 142, middleware 144, or application 146.
  • the input module 150 may receive commands or data to be used in a component of the electronic device 101 (e.g., the processor 120) from outside the electronic device 101 (e.g., a user).
  • the input module 150 may include, for example, a microphone, mouse, keyboard, keys (eg, buttons), or digital pen (eg, stylus pen).
  • the sound output module 155 may output sound signals to the outside of the electronic device 101.
  • the sound output module 155 may include, for example, a speaker or a receiver. Speakers can be used for general purposes such as multimedia playback or recording playback.
  • the receiver can be used to receive incoming calls. According to one embodiment, the receiver may be implemented separately from the speaker or as part of it.
  • the display module 160 can visually provide information to the outside of the electronic device 101 (eg, a user).
  • the display module 160 may include, for example, a display, a hologram device, or a projector, and a control circuit for controlling the device.
  • the display module 160 may include a touch sensor configured to detect a touch, or a pressure sensor configured to measure the intensity of force generated by the touch.
  • the audio module 170 can convert sound into an electrical signal or, conversely, convert an electrical signal into sound. According to one embodiment, the audio module 170 acquires sound through the input module 150, the sound output module 155, or an external electronic device (e.g., directly or wirelessly connected to the electronic device 101). Sound may be output through the electronic device 102 (e.g., speaker or headphone).
  • the electronic device 102 e.g., speaker or headphone
  • the sensor module 176 detects the operating state (e.g., power or temperature) of the electronic device 101 or the external environmental state (e.g., user state) and generates an electrical signal or data value corresponding to the detected state. can do.
  • the sensor module 176 includes, for example, a gesture sensor, a gyro sensor, an air pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, a color sensor, an IR (infrared) sensor, a biometric sensor, It may include a temperature sensor, humidity sensor, or light sensor.
  • the interface 177 may support one or more designated protocols that can be used to connect the electronic device 101 directly or wirelessly with an external electronic device (eg, the electronic device 102).
  • the interface 177 may include, for example, a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, an SD card interface, or an audio interface.
  • HDMI high definition multimedia interface
  • USB universal serial bus
  • SD card interface Secure Digital Card interface
  • audio interface audio interface
  • connection terminal 178 may include a connector through which the electronic device 101 can be physically connected to an external electronic device (eg, the electronic device 102).
  • the connection terminal 178 may include, for example, an HDMI connector, a USB connector, an SD card connector, or an audio connector (eg, a headphone connector).
  • the haptic module 179 can convert electrical signals into mechanical stimulation (e.g., vibration or movement) or electrical stimulation that the user can perceive through tactile or kinesthetic senses.
  • the haptic module 179 may include, for example, a motor, a piezoelectric element, or an electrical stimulation device.
  • the camera module 180 can capture still images and moving images.
  • the camera module 180 may include one or more lenses, image sensors, image signal processors, or flashes.
  • the power management module 188 can manage power supplied to the electronic device 101.
  • the power management module 188 may be implemented as at least a part of, for example, a power management integrated circuit (PMIC).
  • PMIC power management integrated circuit
  • the battery 189 may supply power to at least one component of the electronic device 101.
  • the battery 189 may include, for example, a non-rechargeable primary battery, a rechargeable secondary battery, or a fuel cell.
  • Communication module 190 is configured to provide a direct (e.g., wired) communication channel or wireless communication channel between electronic device 101 and an external electronic device (e.g., electronic device 102, electronic device 104, or server 108). It can support establishment and communication through established communication channels. Communication module 190 operates independently of processor 120 (e.g., an application processor) and may include one or more communication processors that support direct (e.g., wired) communication or wireless communication.
  • processor 120 e.g., an application processor
  • the communication module 190 is a wireless communication module 192 (e.g., a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module) or a wired communication module 194 (e.g., : LAN (local area network) communication module, or power line communication module) may be included.
  • a wireless communication module 192 e.g., a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module
  • GNSS global navigation satellite system
  • wired communication module 194 e.g., : LAN (local area network) communication module, or power line communication module
  • the corresponding communication module is a first network 198 (e.g., a short-range communication network such as Bluetooth, wireless fidelity (WiFi) direct, or infrared data association (IrDA)) or a second network 199 (e.g., legacy It may communicate with an external electronic device 104 through a telecommunication network such as a cellular network, a 5G network, a next-generation communication network, the Internet, or a computer network (e.g., LAN or WAN).
  • a telecommunication network such as a cellular network, a 5G network, a next-generation communication network, the Internet, or a computer network (e.g., LAN or WAN).
  • a telecommunication network such as a cellular network, a 5G network, a next-generation communication network, the Internet, or a computer network (e.g., LAN or WAN).
  • a telecommunication network such as a cellular network, a 5G network, a next-generation communication network
  • the wireless communication module 192 uses subscriber information (e.g., International Mobile Subscriber Identifier (IMSI)) stored in the subscriber identification module 196 within a communication network such as the first network 198 or the second network 199.
  • subscriber information e.g., International Mobile Subscriber Identifier (IMSI)
  • IMSI International Mobile Subscriber Identifier
  • the wireless communication module 192 may support 5G networks after 4G networks and next-generation communication technologies, for example, NR access technology (new radio access technology).
  • NR access technology provides high-speed transmission of high-capacity data (eMBB (enhanced mobile broadband)), minimization of terminal power and access to multiple terminals (mMTC (massive machine type communications)), or high reliability and low latency (URLLC (ultra-reliable and low latency). -latency communications)) can be supported.
  • the wireless communication module 192 may support high frequency bands (eg, mmWave bands), for example, to achieve high data rates.
  • the wireless communication module 192 uses various technologies to secure performance in high frequency bands, for example, beamforming, massive array multiple-input and multiple-output (MIMO), and full-dimensional multiplexing. It can support technologies such as input/output (FD-MIMO: full dimensional MIMO), array antenna, analog beam-forming, or large scale antenna.
  • the wireless communication module 192 may support various requirements specified in the electronic device 101, an external electronic device (e.g., electronic device 104), or a network system (e.g., second network 199).
  • the wireless communication module 192 supports Peak data rate (e.g., 20 Gbps or more) for realizing eMBB, loss coverage (e.g., 164 dB or less) for realizing mmTC, or U-plane latency (e.g., 164 dB or less) for realizing URLLC.
  • Peak data rate e.g., 20 Gbps or more
  • loss coverage e.g., 164 dB or less
  • U-plane latency e.g., 164 dB or less
  • the antenna module 197 may transmit or receive signals or power to or from the outside (eg, an external electronic device).
  • the antenna module 197 may include an antenna including a radiator made of a conductor or a conductive pattern formed on a substrate (eg, PCB).
  • the antenna module 197 may include a plurality of antennas (eg, an array antenna). In this case, at least one antenna suitable for a communication method used in a communication network such as the first network 198 or the second network 199 is, for example, connected to the plurality of antennas by the communication module 190. can be selected. Signals or power may be transmitted or received between the communication module 190 and an external electronic device through the at least one selected antenna.
  • other components eg, radio frequency integrated circuit (RFIC) may be additionally formed as part of the antenna module 197.
  • RFIC radio frequency integrated circuit
  • the antenna module 197 may form a mmWave antenna module.
  • a mmWave antenna module includes: a printed circuit board, an RFIC disposed on or adjacent to a first side (e.g., bottom side) of the printed circuit board and capable of supporting a designated high frequency band (e.g., mmWave band); And a plurality of antennas (e.g., array antennas) disposed on or adjacent to the second side (e.g., top or side) of the printed circuit board and capable of transmitting or receiving signals in the designated high frequency band. can do.
  • a mmWave antenna module includes: a printed circuit board, an RFIC disposed on or adjacent to a first side (e.g., bottom side) of the printed circuit board and capable of supporting a designated high frequency band (e.g., mmWave band); And a plurality of antennas (e.g., array antennas) disposed on or adjacent to the second side (e.g., top or side)
  • peripheral devices e.g., bus, general purpose input and output (GPIO), serial peripheral interface (SPI), or mobile industry processor interface (MIPI)
  • signal e.g. commands or data
  • commands or data may be transmitted or received between the electronic device 101 and the external electronic device 104 through the server 108 connected to the second network 199.
  • Each of the external electronic devices 102 or 104 may be of the same or different type as the electronic device 101.
  • all or part of the operations performed in the electronic device 101 may be executed in one or more of the external electronic devices 102, 104, or 108.
  • the electronic device 101 may perform the function or service instead of executing the function or service on its own.
  • one or more external electronic devices may be requested to perform at least part of the function or service.
  • One or more external electronic devices that have received the request may execute at least part of the requested function or service, or an additional function or service related to the request, and transmit the result of the execution to the electronic device 101.
  • the electronic device 101 may process the result as is or additionally and provide it as at least part of a response to the request.
  • cloud computing distributed computing, mobile edge computing (MEC), or client-server computing technology can be used.
  • the electronic device 101 may provide an ultra-low latency service using, for example, distributed computing or mobile edge computing.
  • the external electronic device 104 may include an Internet of Things (IoT) device.
  • Server 108 may be an intelligent server using machine learning and/or neural networks.
  • the external electronic device 104 or server 108 may be included in the second network 199.
  • the electronic device 101 may be applied to intelligent services (e.g., smart home, smart city, smart car, or healthcare) based on 5G communication technology and IoT-related technology.
  • FIG. 2 is a diagram illustrating an unfolded state and a folded state of a first type of electronic device according to an embodiment.
  • the electronic device 101 may include a foldable housing and a flexible or foldable display 260 disposed in a space formed by the foldable housing.
  • the foldable housing may have a substantially symmetrical shape about a folding axis (eg, A axis).
  • the surface on which the first display 260 is disposed is defined as the first surface 210a of the electronic device 101, and the surface opposite to the first surface 210a is defined as the second surface 220a.
  • the side on which the first display 260 is placed is defined as the first side 210a or the front of the electronic device 101, and the side opposite to the front is defined as the second side 220a or the back of the electronic device 101. It can be defined as:
  • the electronic device 101 may have a first shape in which the length is longer than the width based on the front surface.
  • the first type of electronic device 101 may be referred to as a fold electronic device, and the lower side of the main body with respect to the folding axis (e.g., A axis) in the first type of electronic device 101 The state in which they face downward can be called vertical mode.
  • a state in which one of the two sides of the main body faces downward based on the folding axis (eg, A axis) may be referred to as a landscape mode.
  • the first display 260 may be formed to occupy the entire first side 210a of the electronic device 101, and as shown in FIG. 2(b), the second display 260 may be formed to occupy the entire first surface 210a of the electronic device 101.
  • the display 261 may be formed to occupy at least a portion of the second surface 220a.
  • the first display 260 can pivot through a separate hinge module, and the second display 261 can be fixed to the housing.
  • the hinge structure may be configured to fold or unfold inward or outward.
  • a free stop hinge can maintain the folded state of the electronic device 101 at various angles.
  • the second display 261 may be disposed in one of a pair of housings disposed on both sides of the folding axis (eg, A axis).
  • the first display 260 may refer to a flexible display in which at least some areas can be transformed into a flat or curved surface.
  • the first display 260 includes a first area (or first display area) 260a disposed on one side with respect to the folding axis (e.g., A axis) and a second area (or second display area) disposed on the other side. )(260b).
  • the surface of the first area 260a and the surface of the second area 260b form an angle of 180 degrees with each other, They may face the same direction (e.g., toward the front of the electronic device 101).
  • the surface of the first area 260a and the surface of the second area 260b of the first display 260 are They may face each other at a narrow angle (e.g. between 0 and 10 degrees).
  • the second display 261 may be placed in one of a pair of housings disposed on both sides of the folding axis (e.g., A axis). This is an example, and the second display 261 may constitute most of the rear surface 220a depending on its structure or function.
  • the electronic device 101 may include a second display 261, at least a portion of which is visually exposed through the rear cover.
  • the size and shape of the first display 260 and the second display 261 are not limited thereto. Additionally, the division of the area of the first display 260 shown in FIG. 2(a) is an example, and may be divided into a plurality of areas (eg, four or more or two) depending on the structure or function.
  • FIG. 3A is a diagram illustrating a state in which a second type of electronic device is folded in portrait mode, according to an embodiment
  • FIG. 3B is a diagram illustrating a state in which a second type of electronic device is folded in landscape mode, according to an embodiment. It is a drawing.
  • the second type of electronic device 101 may be referred to as a flip electronic device, and as shown in FIG. 3A, the second type of electronic device 101 has a folding axis (e.g., A-A '), for example, the state in which the device is folded in half and standing upright, such as in a compact form, can be referred to as portrait mode.
  • a state in which the electronic device 101 is folded inward relative to the folding axis eg, A-A'
  • a horizontal mode may be referred to as a horizontal mode.
  • the electronic device 101 when the electronic device 101 is folded in all directions 330 by a user, it may be in a partially unfolded state based on the folding axis (eg, A-A').
  • This folding method may be referred to as an in-folding method.
  • the electronic device 101 may be in a state in which the first housing structure 320 is in contact with a contact surface (eg, floor, table) and the second housing structure 310 is erected based on the contact surface. In this way, the electronic device 101 including a flexible display can be folded or bended around one axis. According to one embodiment, when the electronic device 101 is partially folded in portrait mode, the first display 260 is divided into a first display area 260a and a second display area 260b vertically based on the folding axis. can be distinguished.
  • a contact surface eg, floor, table
  • the first display area 260a corresponding to the upper side when the user looks based on the folding axis may be referred to as the upper area of the first display 260 (or internal display), and the second display corresponding to the lower side
  • the area 260b may be referred to as the bottom area of the first display 260 (or internal display).
  • At least one of the first display area 260a or the second display area 260b may include a front camera.
  • the electronic device 101 may be in a partially unfolded state based on the folding axis (eg, A-A') by bending the electronic device 101 by applying force to both hands.
  • the folding axis eg, A-A'
  • the first display 260 when the electronic device 101 is partially folded in landscape mode, the first display 260 is divided into the first display area 260a and the second display area 260b to the left and right with respect to the folding axis. can be distinguished.
  • the first display area 260a corresponding to the left when the user looks based on the folding axis may be referred to as the left area of the first display 260 (or internal display), and the second display area corresponding to the right
  • the area 260b may be referred to as the right area of the first display 260 (or internal display).
  • the electronic device 101 shown in FIG. 2 is in various folded states as shown in FIG. 4 depending on the mounting state (or pose).
  • Figure 4 is a perspective view to explain various folding states of an electronic device according to an embodiment.
  • the electronic device 101 may have various partially folded states 400a, 400b, and 400c as shown in FIG. 4 .
  • the electronic device 101 may be folded in half in a standing state, for example, in a compact form.
  • the first display area and the second display area of the first display are divided according to folding. All may be in an activated state where user input is possible.
  • interaction input through the first display area and interaction input through the second display area may be independent of each other. For example, when the first display area is controlled based on an interaction input in a designated direction, the second display area may be controlled based on an interaction input in the designated direction or another direction.
  • the electronic device 101 is between the first housing structure (e.g., 320 in FIG. 3a) and the second housing structure (e.g., 310 in FIG. 3a), as shown in 400c of FIG. 4.
  • the electronic device 101 may be in a standing state (400c) as an angle is formed to support the surface where the side surfaces of the main body are in contact.
  • This folding method may be referred to as an out-folding method. Even when the electronic device 101 is folded out, the interaction input for one area (or one side) of the display and the interaction input for the other area (or other side) of the display may be independent of each other.
  • a second window partially overlapping the first window may be displayed through the first display 260.
  • the electronic device 101 displays a first window and a second window in each of the first and second display areas divided by folding in response to a folding event.
  • a second window can be displayed.
  • the execution screen of the application may be displayed in the first window, and content related to the execution screen of the application may be displayed in the second window.
  • different windows can be placed in the first display area and the second display area, and various user interfaces related to the running application can be implemented on the windows.
  • a first area and a second area capable of independent interaction input may be displayed through the first display 260.
  • a first window may include the first area and the second area.
  • the electronic device 101 displays a first area and a second display area in each of the first and second display areas divided by folding in response to a folding event. The second area can be displayed separately.
  • a state in which at least a portion of the display is folded may be referred to as a flex mode, and the folded state of the electronic device 101 may be maintained at various angles.
  • the folding ratio of the electronic device may be such that it is folded in half based on the center of the electronic device, but the folding ratio may be implemented differently based on the axis.
  • one axis may be preset or may be arbitrary.
  • the fact that the axis is preset may mean that only a specific area (for example, a partial area including the axis) of the flexible display of the electronic device 101 is bendable.
  • an arbitrary axis may mean that the entire display area of the electronic device 101 is bendable.
  • FIGS. 2 to 4 the electronic device 101 is shown as being folded in half based on an axis passing through the center, but those skilled in the art will easily understand that there are no restrictions on the position of the axis.
  • the 'front face' or 'rear face' of the electronic device 101 may be referred to, which refers to the first housing structure (e.g., 320 in FIG. 3A) and the first housing structure (e.g., 320 in FIG. 3A). 2 Regardless of the relative positions (e.g., unfolded or folded) of the housing structures (e.g., 310 in FIG. 3A), the surface on which the first display 260 of FIG. 2 is disposed is referred to as the ‘front of the electronic device 101’.
  • display may mean a flexible display.
  • first display 260 of FIG. 2, 3A, or 3B may refer to a flexible display.
  • Figure 5 is an internal block diagram 500 of an electronic device according to an embodiment.
  • the electronic device 101 (e.g., the electronic device 101 of FIG. 1) according to an embodiment includes a processor 520 (e.g., the processor 120 of FIG. 1) and a memory 530. (e.g., memory 130 in FIG. 1), display 560 (e.g., display module 160 in FIG. 1), sensor 576 (e.g., sensor module 176 in FIG. 1), and/or communication module. It may include 590 (e.g., communication module 190 of FIG. 1).
  • the electronic device 101 may be implemented with more or fewer components than those shown in FIG. 5 .
  • Display 560 may refer to a flexible display.
  • the display 560 may include a first display 260 and a second display 261 as shown in FIGS. 2 to 3B.
  • the following description takes the case where the display 560 is folded in the omni-directional direction 330 of FIG. 3A as an example, so the display 560 should be understood as corresponding to the first display 260.
  • the display 560 may be divided into a first display area and a second display area as the display 560 is at least partially folded.
  • a state in which the display 560 is partially folded may mean a state in which at least a portion of the display 560 is visually exposed to the outside.
  • the entire screen of the display 560 may be composed of a first display area and a second display area.
  • the first display area can be controlled based on an interaction input in a designated direction
  • the second display area can be controlled based on an interaction input in a designated direction or another direction.
  • simultaneous input and simultaneous control may be possible.
  • interaction inputs such as navigation and scrolling according to the running application can be made independently of each other, and the interaction inputs include various user inputs such as text input in addition to four-way navigation and vertical or horizontal scroll input. may include.
  • Sensor 576 may include a sensor (e.g., digital Hall sensor, 6-axis sensor) for determining the operating state (e.g., unfolded state, folded state, and/or intermediate state) and folded angle of the electronic device 101. You can.
  • the sensor 576 may include a strain sensor that outputs a strain value used to indirectly measure the folded angle of the electronic device 101.
  • the processor 520 may detect the physical state and/or physical state change of the electronic device 101 based on data received from the sensor 576.
  • Processor 520 may detect a change (e.g., a folded event, an unfolded event) in an operating state (e.g., an unfolded state, a collapsed state, and/or a partially collapsed intermediate state). For example, based on a sensor capable of detecting a change in operating state, the angle between the first housing structure (e.g., 320 in FIG. 3A) and the second housing structure (e.g., 310 in FIG. 3A) is within a specified angle range. If applicable, the electronic device 101 may be determined to be in a partially unfolded (or partially folded) state.
  • the processor 520 can execute at least one application and visually output content corresponding to the application through the display 560.
  • the processor 520 may execute an application in response to an application execution request by a user.
  • the processor 520 may output an execution screen of the application through at least a portion (e.g., the entire screen) of the display 560 in response to execution of the application in the unfolded state of the display 560.
  • the execution screen of the application is an output result of the currently executing application and may include at least one of data objects generated while the application is being executed, such as video data, audio data, or display information.
  • the application execution screen through the display 560 may be referred to as content, and may also be referred to as data related to the application being executed or screen data.
  • the screen interface to support a multi-window environment includes a method in which two or more windows are displayed overlapping on one screen when the display 560 is unfolded, and one screen is divided into two or more areas. It can be configured to be divided and displayed. To explain this in detail, reference may be made to FIG. 6.
  • FIG. 6 is a diagram illustrating a method of operating a multi-window in an unfolded state and a partially folded state in an electronic device according to an embodiment.
  • the display 560 when the display 560 is unfolded, it has a layer structure on one layout 660.
  • a plurality of windows 610 and 620 may be provided.
  • one of the two or more windows 610 and 620 may be in an activated state in which interaction input is possible.
  • input to the window 620 located at the top may be possible, and if a window 610 that is obscured by the window 620 located at the top is selected, the window 620 located at the top may be interacted with. It may be in a deactivated state where input is not possible, and the selected window 610 may be in an activated state where interactive input is possible.
  • one window 610 may be provided on the window 610.
  • the one window 610 is configured to include areas 610a and 610b where different interaction inputs are possible is explained as an example, but this is only an example.
  • the first area 610a and the second area 610b may be referred to as a first window and a second window, respectively.
  • one of the two or more areas 610a and 610b may be in an activated state where interaction input is possible. Therefore, selective control rather than simultaneous control of the two areas may be possible.
  • a folding event of the display 560 occurs, if a screen interface is implemented to allow independent interaction input rather than simply optimizing the layout and displaying the areas divided according to the folding, the divided screen can be efficiently controlled. You can do it. According to one embodiment, by dividing one screen into two areas according to a folding event that bends the flexible display, intuitive screen control for each divided area is possible, thereby improving usability.
  • the processor 520 displays the first window of the application ( 610) can be displayed through the display 560.
  • the first window 610 may correspond to an execution screen of the application.
  • the processor 520 displays the second window 620 on at least a portion of the first window 610. can do.
  • the first window 610 is a window displayed in the entire area of the display 560 and may be referred to as a main window.
  • the main window may include data generated as an application (or task) is executed, and may refer to an image output on the display 560 by an application running in the foreground environment.
  • the second window 620 is a sub-window displayed as a window smaller than the area of the display 560, and is a partial area of the main window as functions (or items) provided by the application are selected while executing the application. It can be displayed overlapping on the screen. Since the first window 610 corresponds to the execution screen of the application, the user can manipulate a specific item displayed on the execution screen or navigate the execution screen. Accordingly, the first window 610 can be controlled based on an interaction input in a designated direction. Additionally, the second window 620 displayed overlapping the first window 610 may be controlled based on interaction input in the designated direction or another direction.
  • the processor 520 may detect a folding event of the display 560 using the sensor 576 while the second window 620 is displayed on the first window 610. .
  • the processor 520 may detect a folding event of the display 560 using the sensor 576 while the second window 620 is displayed on the first window 610. .
  • the processor 520 may display separately in the first display area 660a and the second display area 660b of the display 560, respectively.
  • the processor 520 detects a folding event of the display 560 while one screen is divided into two or more areas 610a and 610b and displayed. can do. For example, when different interaction inputs are possible in the first area 610a and the second area 610b, in response to the folding event, as shown in FIG. 6(c), the processor 520 The first area 610a and the second area 610b may be displayed separately in the first display area 660a and the second display area 660b of the display 560, respectively.
  • the first area 610a and the second area 610b are areas included on, for example, the first window 610, and the first area 610a is based on an interaction input in a designated direction. controlled, and the second area 610b can be controlled based on interaction input from a different direction.
  • interaction inputs such as navigation and scrolling depending on the running application can be performed independently of each other in each display area divided by folding.
  • the electronic device 101 may include flexible displays 160, 260, and 560 and at least one processor 120 and 520.
  • the at least one processor may be set to display the first window of the application through the display when the display is unfolded.
  • the at least one processor may be set to display the second window on an area of the first window based on an input for displaying the second window.
  • the at least one processor divides the first window and the second window into each of the first display area and the second display area divided according to the folding, when the display is at least partially folded. It can be set to display.
  • the first window may be controlled based on an interaction input in a designated direction
  • the second window may be controlled based on an interaction input in the designated direction or another direction.
  • one of the first window or the second window when the display is in an unfolded state, one of the first window or the second window is in an activated state in which interaction input is possible, and when the display is at least partially folded, the first window and the second window are in an active state in which interaction input is possible.
  • Each window may be in an activated state where interaction input is possible.
  • the at least one processor detects a folding event of the display, and in response to detection of the folding event, the first display area and the second display area of the display, respectively. It can be set to display the window and the second window separately.
  • the first window may correspond to an execution screen of the application
  • the second window may include content related to the execution screen of the application
  • the at least one processor detects a folding event of the display, and in response to detection of the folding event, identifies whether the first window and the second window are capable of different interaction inputs, and , In response to the identification of the first window and the second window capable of different interaction inputs, the first window and the second window are separately displayed in the first display area and the second display area, respectively. can be set.
  • the at least one processor detects a folding event of the display, and in response to detection of the folding event, the first window of the application displayed when the display is unfolded receives different interaction inputs.
  • the entire area of the display according to the folding is divided into the first display area and It can be set to be divided into the second display area.
  • the at least one processor detects a folding event of the display, and in response to detection of the folding event, the first window of the application displayed when the display is unfolded receives different interaction inputs. identify whether the first window includes a possible first area and a second area, and in response to the identification of the first window including the first area and the second area where the different interaction inputs are possible, the display is at least partially In a folded state, each of the first display area and the second display area divided according to the folding may be set to display the first area and the second area separately.
  • the first window of the application when the first window of the application includes a first area and a second area where different interaction inputs are possible, the first area is controlled based on an interaction input in a designated direction, and the second area is controlled based on an interaction input in a designated direction. Areas can be controlled based on interaction inputs from different directions.
  • the at least one processor controls the first area of the first window in the unfolded state based on an interaction input in a designated direction, and the second area of the first window is controlled in the designated direction.
  • each of the first display area and the second display area divided according to folding receives an interaction input in the specified direction. It may be set to display the first area controlled based on the first area and the second area controlled based on an interaction input in a direction different from the designated direction.
  • a method of operating an electronic device including a flexible display may include operations 705 to 715.
  • Each operation of the operation method of FIG. 7 is performed by an electronic device (e.g., the electronic device 101 of FIGS. 1 to 5), at least one processor of the electronic device (e.g., the processor 120 of FIG. 1 or the processor of FIG. 5 (e.g., It may be performed by at least one of 520)).
  • at least one of operations 705 to 715 may be omitted, the order of some operations may be changed, or another operation may be added.
  • the electronic device 101 may display the first window of the application while the flexible display of the electronic device 101 is unfolded.
  • the first window of the application may correspond to an execution screen of the application.
  • the electronic device 101 may display the second window on an area of the first window based on an input for displaying the second window. For example, the electronic device 101 may receive a selection of one of the items included in the execution screen. For example, the electronic device 101 may detect selection of an item (eg, a specific area, icon, text, number) on the first window. Here, the selection may include hovering or a touch event of a touch input (eg, finger, stylus pen). Based on the selection, the electronic device 101 may display a second window providing content (or detailed information) related to the execution screen.
  • an item eg, a specific area, icon, text, number
  • the selection may include hovering or a touch event of a touch input (eg, finger, stylus pen).
  • the electronic device 101 may display a second window providing content (or detailed information) related to the execution screen.
  • the first window may be controlled based on an interaction input in a designated direction
  • the second window may be controlled based on an interaction input in the designated direction or another direction.
  • one of the first window or the second window may be in an activated state in which interaction input is possible.
  • the electronic device 101 divides the first window and the second window into each of the first display area and the second display area divided according to the folding. It can be displayed.
  • the first window and the second window may be disposed in each of the first and second display areas.
  • the electronic device 101 detects a folding event of the display, and in response to detection of the folding event, displays the first window and the The second window can be displayed separately.
  • the first window may correspond to an execution screen of the application
  • the second window may include content associated with the execution screen of the application
  • each of the first window and the second window may be in an activated state in which interaction input is possible.
  • the first window displayed through the first display area is controlled based on an interaction input in a designated direction
  • the second window displayed through the second display area is controlled in the specified direction or another direction. It can be controlled based on interaction input.
  • the electronic device 101 may detect a folding event of the display. In response to detection of the folding event, the electronic device 101 may identify whether the first window and the second window allow different interaction inputs.
  • the electronic device 101 displays the first display area and the second display area in each of the first display area and the second display area in response to identification of the first window and the second window capable of different interaction inputs.
  • the window and the second window can be displayed separately.
  • the electronic device 101 detects a folding event of the display, and in response to detection of the folding event, the first window of the application displayed when the display is unfolded receives different interaction inputs. It is possible to identify whether this area includes a possible first area and a second area. In response to the identification of the first window including the first area and the second area in which the different interaction inputs are possible, the electronic device 101 displays a screen divided by folding in a state in which the display is at least partially folded. The first area and the second area may be displayed separately in each of the first display area and the second display area.
  • the first window of the application when the first window of the application includes a first area and a second area where different interaction inputs are possible, the first area is controlled based on an interaction input in a designated direction, and the second area is controlled based on an interaction input in a designated direction. Areas can be controlled based on interaction inputs from different directions.
  • FIG. 8 is an operation flowchart for operating a multi-window in response to a folding event according to an embodiment.
  • a method of operating an electronic device including a flexible display may include operations 805 to 835.
  • Each operation of the operation method of FIG. 8 is performed by an electronic device (e.g., the electronic device 101 of FIGS. 1 to 5), at least one processor of the electronic device (e.g., the processor 120 of FIG. 1 or the processor of FIG. 5) It may be performed by at least one of 520)).
  • at least one of operations 805 to 835 may be omitted, the order of some operations may be changed, or another operation may be added.
  • FIGS. 9 to 12 may be referred to.
  • FIG. 9 to 12 may be referred to.
  • FIG. 9 is a diagram for explaining multiple layers according to an embodiment
  • FIG. 10 is a diagram for explaining multiple interactions according to an embodiment
  • FIG. 11 is a diagram showing a multi-window according to an embodiment.
  • This is a diagram to explain a case where inputs to areas divided corresponding to folding are independent of each other
  • FIG. 12 shows that in a state in which divided areas according to an embodiment are displayed, inputs to areas divided corresponding to folding are mutually independent. This is a drawing to explain an independent case.
  • the operations in FIG. 8 include operations for operating a multi-window as the electronic device 101 detects the occurrence of a folding event.
  • the electronic device 101 may identify whether it is multi-layered. For example, the electronic device 101 may identify whether there are multiple layers by detecting the occurrence of a folding event. In response to the identification of multiple layers, the electronic device 101 may identify whether the number of layers is two in operation 810. On the other hand, if multiple layers are not identified in operation 805, the electronic device 101 may perform operation 815.
  • the electronic device 101 displays as shown in FIG. 9(b).
  • a second window 920 may be displayed overlapping at least a portion of the first window 910.
  • the electronic device 101 can be identified as a multi-layer.
  • input may be possible for either the first window 910 or the second window 920. Therefore, when a user input 940 occurs on the first window 910 as shown in FIG. 9(b), the electronic device 101 removes the display of the second window 920 as shown in FIG. 9(a). You can.
  • the electronic device 101 may identify multiple interactions in operation 815. If multiple interactions are identified, the electronic device 101 may identify whether the number of interactions is two in operation 820. On the other hand, if multiple interactions are not identified, the electronic device 101 may end the operation for operating the multi-window in response to the folding event.
  • the electronic device 101 may perform multi-window preparation in operation 825. For example, the electronic device 101 may detect whether a folding event for multi-window operation occurs. For example, as shown in FIG. 10(a), when one screen (e.g., application execution screen) includes a first area 1010 and a second area 1020, the first area 1010 is located in a designated direction. It is controlled based on the interaction input 1040, and the second area 1020 can be controlled based on the interaction input 1030 in a different direction. Therefore, based on the interaction input 1030 in the different direction, the size of the second area 1020 may vary as shown in FIG. 10(b).
  • one screen e.g., application execution screen
  • the first area 1010 is located in a designated direction. It is controlled based on the interaction input 1040, and the second area 1020 can be controlled based on the interaction input 1030 in a different direction. Therefore, based on the interaction input 1030 in the different direction, the size of the second area 1020 may vary as shown in FIG. 10
  • the flexible display has two areas divided as it is folded in half, so the number of layers is two and the number of interactions is two, but the electronic device 101 has a different form factor ( If it has a foam factor, there may be two or more regions divided according to folding.
  • a form factor in which one part of a flexible display is in-folded and another part is out-folded may be referred to as a Z-folding structure.
  • the electronic device 101 includes both in-folding and out-folding. It can have any form factor. Therefore, since there may be multiple areas divided according to the Z-folding structure, in this case, it goes without saying that multiple layers and windows according to multiple interactions can be arranged in each divided area.
  • the electronic device 101 may identify whether the folding angle exceeds a specified angle (eg, 30 degrees). If the folding event is not detected or the folding angle is less than the specified angle, the operation of detecting the folding event may be performed continuously or periodically. Alternatively, if the folding angle is less than the specified angle, the operation for operating the multi-window may be terminated in response to the folding event.
  • a specified angle eg, 30 degrees
  • the electronic device 101 may perform multi-window switching in operation 835.
  • a specified angle e.g, 30 degrees
  • the input 1130 for displaying the second window 1120 on the first window 1110 is input as shown in FIG. 11(a).
  • the electronic device 101 may display a second window 1120 overlapping at least a portion of the first window 1110 as shown in FIG. 11(b).
  • the electronic device 101 arranges the first window 1110 in the first display area 1160a divided according to the fold, as shown in FIG. 11(c), and places the first window 1110 in the second display area.
  • a second window 1120 can be placed at 1160b. Accordingly, the first display area 1160a may be controlled based on an interaction input 1140 in a designated direction, and the second display area 1160b may be controlled based on an interaction input 1150 in a different direction.
  • one screen is divided into a first area 1210 and a second area 1220 as shown in FIG. 12(a).
  • the first area 1210 can be controlled based on the interaction input 1230 in the designated direction.
  • the second area 1220 may be controlled based on an interaction input 1240 in a direction different from the designated direction.
  • the electronic device 101 arranges the first area 1210 in the first display area 1260a divided according to the fold, as shown in FIG. 12(c), and the second display area
  • the second area 1220 can be placed at 1260b. Accordingly, the first display area 1260a may be controlled based on an interaction input 1230 in a designated direction, and the second display area 1260b may be controlled based on an interaction input 1240 in a different direction.
  • FIG. 13 is a flowchart of an operation of an electronic device when folding when there are different interaction inputs on one screen, according to an embodiment.
  • Each operation in FIG. 13 is performed by an electronic device (e.g., the electronic device 101 of FIGS. 1 to 5) or at least one processor of the electronic device (e.g., the processor 120 of FIG. 1 or the processor 520 of FIG. 5). It can be performed by at least one of: In one embodiment, at least one of operations 1305 to 1325 may be omitted, the order of some operations may be changed, or another operation may be added. To help understand FIG. 13, it will be described with reference to FIG. 14.
  • Figure 14 is an example of a screen in which the execution screen of the first application according to an embodiment is independently displayed through each divided area when folded.
  • the electronic device 101 may display an application execution screen.
  • the application execution screen may be displayed to occupy the entire screen of the display, as shown in FIG. 14(a).
  • the first area of the application execution screen may be controlled based on an interaction input in a first direction.
  • the second area of the application can be controlled based on the interaction input in the second direction.
  • the electronic device 101 may identify whether a folding event occurs. If the occurrence of a folding event is not detected, the display of the application execution screen can be maintained.
  • the electronic device 101 may determine whether a listview and a horizontal scrollview are identified in the execution screen.
  • the list view may correspond to the first area of the application execution screen that is controlled based on the interaction input in the first direction.
  • the horizontal scroll view may correspond to the second area of the application execution screen that is controlled based on the interaction input in the second direction.
  • the application execution screen may include areas where different interaction inputs are possible.
  • the electronic device 101 may create an additional view.
  • the electronic device 101 may place a list view in the first view and a horizontal scroll view in the second view.
  • each of the list view and horizontal scroll view may be provided through separate layers (e.g., first view, second view).
  • the first view and the second view may refer to areas divided according to folding in a multi-window environment.
  • the first view is the first display area
  • the second view corresponds to the second display area
  • each view e.g., list view, horizontal scroll view
  • each view is It may be provided in the form of an overlay through the first display area and the second display area.
  • each view e.g., list view, horizontal scroll view placed in each area (e.g., top area and bottom area) divided according to folding has different interaction inputs independently. It can be done. Therefore, different interaction inputs can be received simultaneously through areas divided according to folding.
  • Figure 15 is an example of a screen in which the execution screen of a second application according to an embodiment is independently displayed through each divided area when folded.
  • a second application e.g., a map application
  • the user navigates in four directions or manipulates the map display area in a random direction on the area where the map is displayed (or the first window). can do. If the user selects an item (e.g., a specific location) related to the second application, an area containing content (or detailed information) related to the map application is displayed on the map display area, as shown in FIG. 15(b) ( or a second window) may be displayed.
  • the electronic device 101 may distinguish and display a first window and a second window in each area divided according to the folding, as shown in FIG. 15(c). Accordingly, different interaction inputs may be possible through each area.
  • Figure 16 is an example of a screen in which the execution screen of a second application according to an embodiment is independently displayed through each divided area when folded.
  • FIG. 16(a) when the execution screen of the second application (e.g., map application) is displayed and the user selects an item (e.g., a specific location) related to the second application, FIG. 16(b) ), an area (or second window) containing content (or location information) related to the map application may be displayed. Depending on the user's selection, the second window may be displayed to overlap all or at least part of the first window.
  • the electronic device 101 may distinguish and display a first window and a second window in each area divided according to the folding, as shown in FIG. 16(c).
  • the lower area may be controllable based on interaction input in the same direction as the specified direction or in a direction different from the specified direction. .
  • FIG. 17 is an example of a screen in which the execution screen of an application is independently displayed through each divided area when the application execution screen is folded in the landscape mode of the second type of electronic device according to an embodiment.
  • FIG. 17 illustrates the landscape mode of the second type of electronic device 101 as shown in FIG. 3A.
  • the first window (or upper area) 1710 and the second window (or lower area) 1720 of the electronic device 101 as shown in FIG. 17(a) This may be displayed.
  • the electronic device 101 detects a folding state in which the electronic device 101 is folded inward by a bending motion from both sides, the first display area 1760a divided based on the folding axis, as shown in FIG. 17(b), displays the first display area 1760a.
  • a window 1710 may be disposed, and a second window 1720 may be disposed in the second display area 1760b.
  • the first window 1710 and the second window 1720 allow different interaction inputs, so when the first display area 1760a is controlled based on the interaction input in a specified direction, the second display area 1760b can also be controlled based on interaction input from different directions.
  • Figure 18 is an example of a screen in which the execution screen of an application is independently displayed through each divided area when the application execution screen is folded in the portrait mode of the first type of electronic device according to an embodiment.
  • FIG. 18 illustrates the portrait mode of the first type of electronic device 101 as shown in FIG. 2 .
  • the electronic device 101 may have a first shape in which the length is longer than the width based on the front surface.
  • the first window 1810 and the second window 1820 of the electronic device 101 may be displayed, as shown in FIG. 18(a).
  • the first window 1810 and the second window 1820 allow different interaction inputs, but in the unfolded state, only one window may be in an activated state in which interaction inputs are possible.
  • the first display area 1860a When the electronic device 101 detects a folding state in which the electronic device 101 is folded inward by a bending motion from both sides, the first display area 1860a divided based on the folding axis, as shown in FIG. 18(b), displays the first display area 1860a.
  • a window 1810 may be disposed, and a second window 1820 may be disposed in the second display area 1860b.
  • the first window 1810 and the second window 1820 allow different interaction inputs, so when the first display area 1860a is controlled based on the interaction input in a specified direction, the second display area 1860b can also be controlled based on interaction input from different directions.
  • Figure 19 is an example of a screen in which the execution screen of an application is independently displayed through each divided area when the application execution screen is folded in the landscape mode of the first type of electronic device according to an embodiment.
  • FIG. 19 illustrates the landscape mode of the first type of electronic device 101 as shown in FIG. 2 .
  • a state in which one of the two sides of the main body faces downward with respect to the folding axis may be referred to as a landscape mode.
  • the first window 1910 and the second window 1920 of the electronic device 101 may be displayed, as shown in FIG. 19(a).
  • the first window 1910 and the second window 1920 allow different interaction inputs, but in the unfolded state, only one window may be in an active state in which interaction inputs are possible.
  • the electronic device 101 When the electronic device 101 detects an inward folding state caused by a user's bending motion, the electronic device 101 displays a first window ( 1910) may be disposed, and a second window 1920 may be disposed in the second display area 1960b.
  • the first window 1910 and the second window 1920 allow different interaction inputs, so when the first display area 1960a is controlled based on the interaction input in a specified direction, the second display area 1960b can also be controlled based on interaction input from different directions.
  • the application execution screen is divided into two areas according to a folding event that bends the flexible display, thereby improving usability by enabling intuitive screen control through independent interaction input for each divided area. You can.
  • Electronic devices may be of various types.
  • Electronic devices may include, for example, portable communication devices (e.g., smartphones), computer devices, portable multimedia devices, portable medical devices, cameras, wearable devices, or home appliances.
  • Electronic devices according to embodiments of this document are not limited to the above-described devices.
  • first, second, or first or second may be used simply to distinguish one component from another, and to refer to that component in other respects (e.g., importance or order) is not limited.
  • One (e.g., first) component is said to be “coupled” or “connected” to another (e.g., second) component, with or without the terms “functionally” or “communicatively.”
  • any of the components can be connected to the other components directly (e.g. wired), wirelessly, or through a third component.
  • module used in various embodiments of this document may include a unit implemented in hardware, software, or firmware, and is interchangeable with terms such as logic, logic block, component, or circuit, for example. It can be used as A module may be an integrated part or a minimum unit of the parts or a part thereof that performs one or more functions. For example, according to one embodiment, the module may be implemented in the form of an application-specific integrated circuit (ASIC).
  • ASIC application-specific integrated circuit
  • Various embodiments of the present document are one or more instructions stored in a storage medium (e.g., built-in memory 136 or external memory 138) that can be read by a machine (e.g., electronic device 101). It may be implemented as software (e.g., program 140) including these.
  • a processor e.g., processor 120
  • the one or more instructions may include code generated by a compiler or code that can be executed by an interpreter.
  • a storage medium that can be read by a device may be provided in the form of a non-transitory storage medium.
  • 'non-transitory' only means that the storage medium is a tangible device and does not contain signals (e.g. electromagnetic waves), and this term refers to cases where data is semi-permanently stored in the storage medium. There is no distinction between temporary storage cases.
  • Computer program products are commodities and can be traded between sellers and buyers.
  • the computer program product may be distributed in the form of a machine-readable storage medium (e.g. compact disc read only memory (CD-ROM)), or through an application store (e.g. Play Store TM ) or on two user devices (e.g. It can be distributed (e.g. downloaded or uploaded) directly between smart phones) or online.
  • a machine-readable storage medium e.g. compact disc read only memory (CD-ROM)
  • an application store e.g. Play Store TM
  • two user devices e.g. It can be distributed (e.g. downloaded or uploaded) directly between smart phones) or online.
  • at least a portion of the computer program product may be at least temporarily stored or temporarily created in a machine-readable storage medium, such as the memory of a manufacturer's server, an application store's server, or a relay server.
  • each component (e.g., module or program) of the above-described components may include a single or plural entity, and some of the plurality of entities may be separately placed in other components. there is.
  • one or more of the components or operations described above may be omitted, or one or more other components or operations may be added.
  • multiple components eg, modules or programs
  • the integrated component may perform one or more functions of each component of the plurality of components identically or similarly to those performed by the corresponding component of the plurality of components prior to the integration. .
  • operations performed by a module, program, or other component may be executed sequentially, in parallel, iteratively, or heuristically, or one or more of the operations may be executed in a different order, or omitted. Alternatively, one or more other operations may be added.
  • the instructions when executed by at least one processor 120 or 520 of the electronic device 101, cause the electronic device to perform at least one operation.
  • the at least one operation may include displaying a first window of an application when the flexible display of the electronic device is unfolded.
  • the at least one operation may include displaying the second window on an area of the first window based on an input for displaying the second window.
  • the at least one operation is performed when the flexible display is at least partially folded, and the first window and the second window are opened in each of the first display area and the second display area divided according to the folding. It may include the operation of distinguishing and displaying.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Environmental & Geological Engineering (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

일 실시 예에 따르면, 전자 장치(101)는, 플렉서블 디스플레이(160, 260, 560) 및 적어도 하나의 프로세서(120, 520)를 포함할 수 있다. 일 실시 예에 따르면, 상기 적어도 하나의 프로세서는, 상기 디스플레이가 펼침 상태에서, 어플리케이션의 제1 윈도우를 상기 디스플레이를 통해 표시하도록 설정될 수 있다. 일 실시 예에 따르면, 상기 적어도 하나의 프로세서는, 제2 윈도우의 표시를 위한 입력에 기반하여, 상기 제1 윈도우의 일 영역 상에 상기 제2 윈도우를 표시하도록 설정될 수 있다. 일 실시 예에 따르면, 상기 적어도 하나의 프로세서는, 상기 디스플레이가 적어도 부분적으로 접힌 상태에서, 접힘에 따라 구분되는 제1 디스플레이 영역 및 제2 디스플레이 영역 각각에는 상기 제1 윈도우 및 상기 제2 윈도우를 구분하여 표시하도록 설정될 수 있다.

Description

플렉서블 디스플레이를 포함하는 전자 장치, 그 동작 방법 및 저장 매체
본 문서에 개시된 일 실시 예는 플렉서블 디스플레이를 포함하는 전자 장치, 그 동작 방법 및 저장 매체에 관한 것이다.
전자 기술의 발달에 힘입어 다양한 유형의 플렉서블 전자 장치가 개발되고 있다. 이러한 플렉서블 전자 장치는 더 큰 디스플레이를 제공하면서도 휴대성을 확보할 수 있다. 예를 들어, 플렉서블 전자 장치는 사용자가 힘을 가해서 형상을 변형시킬 수 있어, 접는 형태(foldable or bendable) 또는 말아질 수 있는 형태(rollable)의 디스플레이를 제공할 수 있다.
접는 방식의 플렉서블 디스플레이를 포함하는 전자 장치에서는, 다양한 크기의 디스플레이(또는, 디스플레이 영역)에 화면을 표시할 수 있다. 예를 들어, 전자 장치가 안쪽으로 반으로 접힌 채로 세워지는 경우 사용자는 핸드 프리 상태로 화면(예: 컨텐트 화면)을 바라볼 수 있다. 따라서 플렉서블 디스플레이를 포함하는 전자 장치를 구부리는 동작에 대한 사용자의 의도를 반영한 다양한 사용자 인터페이스를 제공할 수 있다면, 전자 장치의 사용성을 높일 수 있을 것이다.
일 실시 예에 따르면, 전자 장치(101)는, 플렉서블 디스플레이(160, 260, 560) 및 적어도 하나의 프로세서(120, 520)를 포함할 수 있다. 일 실시 예에 따르면, 상기 적어도 하나의 프로세서는, 상기 디스플레이가 펼침 상태에서, 어플리케이션의 제1 윈도우를 상기 디스플레이를 통해 표시하도록 설정될 수 있다. 일 실시 예에 따르면, 상기 적어도 하나의 프로세서는, 제2 윈도우의 표시를 위한 입력에 기반하여, 상기 제1 윈도우의 일 영역 상에 상기 제2 윈도우를 표시하도록 설정될 수 있다. 일 실시 예에 따르면, 상기 적어도 하나의 프로세서는, 상기 디스플레이가 적어도 부분적으로 접힌 상태에서, 접힘에 따라 구분되는 제1 디스플레이 영역 및 제2 디스플레이 영역 각각에는 상기 제1 윈도우 및 상기 제2 윈도우를 구분하여 표시하도록 설정될 수 있다.
일 실시 예에 따르면, 플렉서블 디스플레이를 포함하는 전자 장치의 동작 방법은, 상기 디스플레이가 펼침 상태에서, 어플리케이션의 제1 윈도우를 표시하는 동작을 포함할 수 있다. 일 실시 예에 따르면, 상기 방법은, 제2 윈도우의 표시를 위한 입력에 기반하여, 상기 제1 윈도우의 일 영역 상에 상기 제2 윈도우를 표시하는 동작을 포함할 수 있다. 일 실시 예에 따르면, 상기 방법은, 상기 디스플레이가 적어도 부분적으로 접힌 상태에서, 접힘에 따라 구분되는 제1 디스플레이 영역 및 제2 디스플레이 영역 각각에는 상기 제1 윈도우 및 상기 제2 윈도우를 구분하여 표시하는 동작을 포함할 수 있다.
일 실시 예에 따르면, 명령들을 저장하고 있는 비휘발성 저장 매체에 있어서, 상기 명령들은 전자 장치(101)의 적어도 하나의 프로세서(120, 520)에 의하여 실행될 때에 상기 전자 장치로 하여금 적어도 하나의 동작을 수행하도록 설정된 것으로서, 상기 적어도 하나의 동작은, 상기 전자 장치의 플렉서블 디스플레이가 펼침 상태에서, 어플리케이션의 제1 윈도우를 표시하는 동작을 포함할 수 있다. 일 실시 예에 따르면, 상기 적어도 하나의 동작은, 제2 윈도우의 표시를 위한 입력에 기반하여, 상기 제1 윈도우의 일 영역 상에 상기 제2 윈도우를 표시하는 동작을 포함할 수 있다. 일 실시 예에 따르면, 상기 적어도 하나의 동작은, 상기 플렉서블 디스플레이가 적어도 부분적으로 접힌 상태에서, 접힘에 따라 구분되는 제1 디스플레이 영역 및 제2 디스플레이 영역 각각에는 상기 제1 윈도우 및 상기 제2 윈도우를 구분하여 표시하는 동작을 포함할 수 있다.
도 1은 일 실시 예에 따른 네트워크 환경 내의 전자 장치의 블럭도이다.
도 2는 일 실시 예에 따른 제1 형태의 전자 장치의 펼쳐진 상태 및 접힌 상태를 도시한 도면이다.
도 3a는 일 실시 예에 따른 제2 형태의 전자 장치에서 세로 모드에서 폴딩되는 상태를 도시한 도면이다.
도 3b는 일 실시 예에 따른 제2 형태의 전자 장치에서 가로 모드에서 폴딩되는 상태를 도시한 도면이다.
도 4는 일 실시예에 따른 전자 장치의 다양한 폴딩 상태를 설명하기 위한 사시도이다.
도 5는 일 실시 예에 따른 전자 장치의 내부 블록 구성도이다.
도 6은 일 실시 예에 따른 전자 장치에서 펼쳐진 상태와 일부 접힌 상태에서의 멀티 윈도우의 운용 방법을 설명하기 위한 도면이다.
도 7은 일 실시 예에 따른 전자 장치의 동작 흐름도이다.
도 8은 일 실시 예에 따른 접힘 이벤트에 대응하여 멀티 윈도우의 운용을 위한 동작 흐름도이다.
도 9는 일 실시 예에 따른 다중 레이어를 설명하기 위한 도면이다.
도 10은 일 실시 예에 따른 다중 인터랙션을 설명하기 위한 도면이다.
도 11은 일 실시 예에 따른 멀티윈도우가 표시되는 상태에서, 폴딩에 대응하여 구분되는 영역에 대한 입력이 서로 독립적인 경우를 설명하기 위한 도면이다.
도 12는 일 실시 예에 따른 분할 영역들이 표시되는 상태에서, 폴딩에 대응하여 구분되는 영역에 대한 입력이 서로 독립적인 경우를 설명하기 위한 도면이다.
도 13은 일 실시 예에 따른 한 화면에 서로 다른 인터랙션 입력이 있는 경우 폴딩 시의 전자 장치의 동작 흐름도이다.
도 14는 일 실시 예에 따른 제1 어플리케이션의 실행 화면이 폴딩 시 구분된 각 영역들을 통해 독립적으로 표시되는 화면 예시도이다.
도 15는 일 실시 예에 따른 제2 어플리케이션의 실행 화면이 폴딩 시 구분된 각 영역들을 통해 독립적으로 표시되는 화면 예시도이다.
도 16은 일 실시 예에 따른 제2 어플리케이션의 실행 화면이 폴딩 시 구분된 각 영역들을 통해 독립적으로 표시되는 화면 예시도이다.
도 17은 일 실시 예에 따른 제2 형태의 전자 장치의 가로 모드에서 어플리케이션의 실행 화면이 폴딩 시 구분된 각 영역들을 통해 독립적으로 표시되는 화면 예시도이다.
도 18은 일 실시 예에 따른 제1 형태의 전자 장치의 세로 모드에서 어플리케이션의 실행 화면이 폴딩 시 구분된 각 영역들을 통해 독립적으로 표시되는 화면 예시도이다.
도 19는 일 실시 예에 따른 제1 형태의 전자 장치의 가로 모드에서 어플리케이션의 실행 화면이 폴딩 시 구분된 각 영역들을 통해 독립적으로 표시되는 화면 예시도이다.
도면의 설명과 관련하여, 동일 또는 유사한 구성 요소에 대해서는 동일 또는 유사한 참조 부호가 사용될 수 있다.
도 1은, 일 실시예에 따른, 네트워크 환경(100) 내의 전자 장치(101)의 블록도이다. 도 1을 참조하면, 네트워크 환경(100)에서 전자 장치(101)는 제 1 네트워크(198)(예: 근거리 무선 통신 네트워크)를 통하여 전자 장치(102)와 통신하거나, 또는 제 2 네트워크(199)(예: 원거리 무선 통신 네트워크)를 통하여 전자 장치(104) 또는 서버(108) 중 적어도 하나와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 서버(108)를 통하여 전자 장치(104)와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 프로세서(120), 메모리(130), 입력 모듈(150), 음향 출력 모듈(155), 디스플레이 모듈(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 연결 단자(178), 햅틱 모듈(179), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 가입자 식별 모듈(196), 또는 안테나 모듈(197)을 포함할 수 있다. 어떤 실시예에서는, 전자 장치(101)에는, 이 구성요소들 중 적어도 하나(예: 연결 단자(178))가 생략되거나, 하나 이상의 다른 구성요소가 추가될 수 있다. 어떤 실시예에서는, 이 구성요소들 중 일부들(예: 센서 모듈(176), 카메라 모듈(180), 또는 안테나 모듈(197))은 하나의 구성요소(예: 디스플레이 모듈(160))로 통합될 수 있다.
프로세서(120)는, 예를 들면, 소프트웨어(예: 프로그램(140))를 실행하여 프로세서(120)에 연결된 전자 장치(101)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)를 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일실시예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(120)는 다른 구성요소(예: 센서 모듈(176) 또는 통신 모듈(190))로부터 수신된 명령 또는 데이터를 휘발성 메모리(132)에 저장하고, 휘발성 메모리(132)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리(134)에 저장할 수 있다. 일실시예에 따르면, 프로세서(120)는 메인 프로세서(121)(예: 중앙 처리 장치 또는 어플리케이션 프로세서) 또는 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(123)(예: 그래픽 처리 장치, 신경망 처리 장치(NPU: neural processing unit), 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 예를 들어, 전자 장치(101)가 메인 프로세서(121) 및 보조 프로세서(123)를 포함하는 경우, 보조 프로세서(123)는 메인 프로세서(121)보다 저전력을 사용하거나, 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서(123)는 메인 프로세서(121)와 별개로, 또는 그 일부로서 구현될 수 있다.
보조 프로세서(123)는, 예를 들면, 메인 프로세서(121)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(121)를 대신하여, 또는 메인 프로세서(121)가 액티브(예: 어플리케이션 실행) 상태에 있는 동안 메인 프로세서(121)와 함께, 전자 장치(101)의 구성요소들 중 적어도 하나의 구성요소(예: 디스플레이 모듈(160), 센서 모듈(176), 또는 통신 모듈(190))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일실시예에 따르면, 보조 프로세서(123)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성요소(예: 카메라 모듈(180) 또는 통신 모듈(190))의 일부로서 구현될 수 있다. 일실시예에 따르면, 보조 프로세서(123)(예: 신경망 처리 장치)는 인공지능 모델의 처리에 특화된 하드웨어 구조를 포함할 수 있다. 인공지능 모델은 기계 학습을 통해 생성될 수 있다. 이러한 학습은, 예를 들어, 인공지능 모델이 수행되는 전자 장치(101) 자체에서 수행될 수 있고, 별도의 서버(예: 서버(108))를 통해 수행될 수도 있다. 학습 알고리즘은, 예를 들어, 지도형 학습(supervised learning), 비지도형 학습(unsupervised learning), 준지도형 학습(semi-supervised learning) 또는 강화 학습(reinforcement learning)을 포함할 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은, 복수의 인공 신경망 레이어들을 포함할 수 있다. 인공 신경망은 심층 신경망(DNN: deep neural network), CNN(convolutional neural network), RNN(recurrent neural network), RBM(restricted boltzmann machine), DBN(deep belief network), BRDNN(bidirectional recurrent deep neural network), 심층 Q-네트워크(deep Q-networks) 또는 상기 중 둘 이상의 조합 중 하나일 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은 하드웨어 구조 이외에, 추가적으로 또는 대체적으로, 소프트웨어 구조를 포함할 수 있다.
메모리(130)는, 전자 장치(101)의 적어도 하나의 구성요소(예: 프로세서(120) 또는 센서 모듈(176))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램(140)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(130)는, 휘발성 메모리(132) 또는 비휘발성 메모리(134)를 포함할 수 있다.
프로그램(140)은 메모리(130)에 소프트웨어로서 저장될 수 있으며, 예를 들면, 운영 체제(142), 미들 웨어(144) 또는 어플리케이션(146)을 포함할 수 있다.
입력 모듈(150)은, 전자 장치(101)의 구성요소(예: 프로세서(120))에 사용될 명령 또는 데이터를 전자 장치(101)의 외부(예: 사용자)로부터 수신할 수 있다. 입력 모듈(150)은, 예를 들면, 마이크, 마우스, 키보드, 키(예: 버튼), 또는 디지털 펜(예: 스타일러스 펜)을 포함할 수 있다.
음향 출력 모듈(155)은 음향 신호를 전자 장치(101)의 외부로 출력할 수 있다. 음향 출력 모듈(155)은, 예를 들면, 스피커 또는 리시버를 포함할 수 있다. 스피커는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있다. 리시버는 착신 전화를 수신하기 위해 사용될 수 있다. 일실시예에 따르면, 리시버는 스피커와 별개로, 또는 그 일부로서 구현될 수 있다.
디스플레이 모듈(160)은 전자 장치(101)의 외부(예: 사용자)로 정보를 시각적으로 제공할 수 있다. 디스플레이 모듈(160)은, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일실시예에 따르면, 디스플레이 모듈(160)은 터치를 감지하도록 설정된 터치 센서, 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 압력 센서를 포함할 수 있다.
오디오 모듈(170)은 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 일실시예에 따르면, 오디오 모듈(170)은, 입력 모듈(150)을 통해 소리를 획득하거나, 음향 출력 모듈(155), 또는 전자 장치(101)와 직접 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(102))(예: 스피커 또는 헤드폰)를 통해 소리를 출력할 수 있다.
센서 모듈(176)은 전자 장치(101)의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 사용자 상태)를 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 일실시예에 따르면, 센서 모듈(176)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다.
인터페이스(177)는 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 직접 또는 무선으로 연결되기 위해 사용될 수 있는 하나 이상의 지정된 프로토콜들을 지원할 수 있다. 일실시예에 따르면, 인터페이스(177)는, 예를 들면, HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.
연결 단자(178)는, 그를 통해서 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 물리적으로 연결될 수 있는 커넥터를 포함할 수 있다. 일실시예에 따르면, 연결 단자(178)는, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.
햅틱 모듈(179)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 일실시예에 따르면, 햅틱 모듈(179)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.
카메라 모듈(180)은 정지 영상 및 동영상을 촬영할 수 있다. 일실시예에 따르면, 카메라 모듈(180)은 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다.
전력 관리 모듈(188)은 전자 장치(101)에 공급되는 전력을 관리할 수 있다. 일실시예에 따르면, 전력 관리 모듈(188)은, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구현될 수 있다.
배터리(189)는 전자 장치(101)의 적어도 하나의 구성요소에 전력을 공급할 수 있다. 일실시예에 따르면, 배터리(189)는, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.
통신 모듈(190)은 전자 장치(101)와 외부 전자 장치(예: 전자 장치(102), 전자 장치(104), 또는 서버(108)) 간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(190)은 프로세서(120)(예: 어플리케이션 프로세서)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일실시예에 따르면, 통신 모듈(190)은 무선 통신 모듈(192)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(194)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제 1 네트워크(198)(예: 블루투스, WiFi(wireless fidelity) direct 또는 IrDA(infrared data association)와 같은 근거리 통신 네트워크) 또는 제 2 네트워크(199)(예: 레거시 셀룰러 네트워크, 5G 네트워크, 차세대 통신 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부의 전자 장치(104)와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성요소(예: 단일 칩)로 통합되거나, 또는 서로 별도의 복수의 구성요소들(예: 복수 칩들)로 구현될 수 있다. 무선 통신 모듈(192)은 가입자 식별 모듈(196)에 저장된 가입자 정보(예: 국제 모바일 가입자 식별자(IMSI))를 이용하여 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크 내에서 전자 장치(101)를 확인 또는 인증할 수 있다.
무선 통신 모듈(192)은 4G 네트워크 이후의 5G 네트워크 및 차세대 통신 기술, 예를 들어, NR 접속 기술(new radio access technology)을 지원할 수 있다. NR 접속 기술은 고용량 데이터의 고속 전송(eMBB(enhanced mobile broadband)), 단말 전력 최소화와 다수 단말의 접속(mMTC(massive machine type communications)), 또는 고신뢰도와 저지연(URLLC(ultra-reliable and low-latency communications))을 지원할 수 있다. 무선 통신 모듈(192)은, 예를 들어, 높은 데이터 전송률 달성을 위해, 고주파 대역(예: mmWave 대역)을 지원할 수 있다. 무선 통신 모듈(192)은 고주파 대역에서의 성능 확보를 위한 다양한 기술들, 예를 들어, 빔포밍(beamforming), 거대 배열 다중 입출력(massive MIMO(multiple-input and multiple-output)), 전차원 다중입출력(FD-MIMO: full dimensional MIMO), 어레이 안테나(array antenna), 아날로그 빔형성(analog beam-forming), 또는 대규모 안테나(large scale antenna)와 같은 기술들을 지원할 수 있다. 무선 통신 모듈(192)은 전자 장치(101), 외부 전자 장치(예: 전자 장치(104)) 또는 네트워크 시스템(예: 제 2 네트워크(199))에 규정되는 다양한 요구사항을 지원할 수 있다. 일실시예에 따르면, 무선 통신 모듈(192)은 eMBB 실현을 위한 Peak data rate(예: 20Gbps 이상), mMTC 실현을 위한 손실 Coverage(예: 164dB 이하), 또는 URLLC 실현을 위한 U-plane latency(예: 다운링크(DL) 및 업링크(UL) 각각 0.5ms 이하, 또는 라운드 트립 1ms 이하)를 지원할 수 있다.
안테나 모듈(197)은 신호 또는 전력을 외부(예: 외부의 전자 장치)로 송신하거나 외부로부터 수신할 수 있다. 일실시예에 따르면, 안테나 모듈(197)은 서브스트레이트(예: PCB) 위에 형성된 도전체 또는 도전성 패턴으로 이루어진 방사체를 포함하는 안테나를 포함할 수 있다. 일실시예에 따르면, 안테나 모듈(197)은 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다. 이런 경우, 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 적어도 하나의 안테나가, 예를 들면, 통신 모듈(190)에 의하여 상기 복수의 안테나들로부터 선택될 수 있다. 신호 또는 전력은 상기 선택된 적어도 하나의 안테나를 통하여 통신 모듈(190)과 외부의 전자 장치 간에 송신되거나 수신될 수 있다. 어떤 실시예에 따르면, 방사체 이외에 다른 부품(예: RFIC(radio frequency integrated circuit))이 추가로 안테나 모듈(197)의 일부로 형성될 수 있다.
일실시예에 따르면, 안테나 모듈(197)은 mmWave 안테나 모듈을 형성할 수 있다. 일실시예에 따르면, mmWave 안테나 모듈은 인쇄 회로 기판, 상기 인쇄 회로 기판의 제 1 면(예: 아래 면)에 또는 그에 인접하여 배치되고 지정된 고주파 대역(예: mmWave 대역)을 지원할 수 있는 RFIC, 및 상기 인쇄 회로 기판의 제 2 면(예: 윗 면 또는 측 면)에 또는 그에 인접하여 배치되고 상기 지정된 고주파 대역의 신호를 송신 또는 수신할 수 있는 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다.
상기 구성요소들 중 적어도 일부는 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input and output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))을 통해 서로 연결되고 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.
일실시예에 따르면, 명령 또는 데이터는 제 2 네트워크(199)에 연결된 서버(108)를 통해서 전자 장치(101)와 외부의 전자 장치(104)간에 송신 또는 수신될 수 있다. 외부의 전자 장치(102, 또는 104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 일실시예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 외부의 전자 장치들(102, 104, 또는 108) 중 하나 이상의 외부의 전자 장치들에서 실행될 수 있다. 예를 들면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로, 또는 사용자 또는 다른 장치로부터의 요청에 반응하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 하나 이상의 외부의 전자 장치들에게 그 기능 또는 그 서비스의 적어도 일부를 수행하라고 요청할 수 있다. 상기 요청을 수신한 하나 이상의 외부의 전자 장치들은 요청된 기능 또는 서비스의 적어도 일부, 또는 상기 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행의 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 상기 결과를, 그대로 또는 추가적으로 처리하여, 상기 요청에 대한 응답의 적어도 일부로서 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 모바일 에지 컴퓨팅(MEC: mobile edge computing), 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다. 전자 장치(101)는, 예를 들어, 분산 컴퓨팅 또는 모바일 에지 컴퓨팅을 이용하여 초저지연 서비스를 제공할 수 있다. 다른 실시예에 있어서, 외부의 전자 장치(104)는 IoT(internet of things) 기기를 포함할 수 있다. 서버(108)는 기계 학습 및/또는 신경망을 이용한 지능형 서버일 수 있다. 일실시예에 따르면, 외부의 전자 장치(104) 또는 서버(108)는 제 2 네트워크(199) 내에 포함될 수 있다. 전자 장치(101)는 5G 통신 기술 및 IoT 관련 기술을 기반으로 지능형 서비스(예: 스마트 홈, 스마트 시티, 스마트 카, 또는 헬스 케어)에 적용될 수 있다.
도 2는 일 실시 예에 따른 제1 형태의 전자 장치의 펼쳐진 상태 및 접힌 상태를 도시한 도면이다.
도 2를 참조하면, 일 실시 예에서, 전자 장치(101)는 폴더블 하우징, 상기 폴더블 하우징에 의해 형성된 공간 내에 배치된 플렉서블(flexible) 또는 폴더블(foldable) 디스플레이(260)를 포함할 수 있다. 폴더블 하우징은 폴딩 축(예: A 축)을 중심으로 실질적으로 대칭적인 형상을 가질 수 있다. 일 실시 예에 따르면, 제1 디스플레이(260)가 배치된 면이 전자 장치(101)의 제1 면(210a)으로 정의되며, 제1 면(210a)의 반대 면이 제2 면(220a)로 정의될 수 있다. 여기서, 제1 디스플레이(260)가 배치된 면을 제1 면(210a) 또는 전자 장치(101)의 전면으로 정의하며, 전면의 반대 면을 제2 면(220a) 또는 전자 장치(101)의 후면으로 정의할 수 있다.
도 2를 참조하면, 전자 장치(101)는 전면을 기준으로 가로보다 세로가 긴 제1 형태를 가질 수 있다. 예를 들어, 제1 형태의 전자 장치(101)는 폴드(fold) 전자 장치라 칭할 수 있으며, 제1 형태의 전자 장치(101)에서 폴딩 축(예: A 축)을 기준으로 본체의 하측면들이 아래를 향하는 상태를 세로 모드라고 칭할 수 있다. 또한 제1 형태의 전자 장치(101)에서 폴딩 축(예: A 축)을 기준으로 본체의 양측면들 중 어느 하나의 측면이 아래를 향하는 상태를 가로 모드라고 칭할 수 있다.
도 2(a)에 도시된 바와 같이 제1 디스플레이(260)는 전자 장치(101)의 제1 면(210a) 전체를 차지하도록 형성될 수 있으며, 도 2(b)에 도시된 바와 같이 제2 디스플레이(261)는 제2 면(220a)의 적어도 일부를 차지하도록 형성될 수 있다. 이러한 경우 제1 디스플레이(260)는 별도의 힌지(hinge) 모듈을 통해 회동(pivot)할 수 있으며, 제2 디스플레이(261)는 하우징에 고정될 수 있다. 예컨대, 힌지 구조는 안쪽 또는 바깥쪽으로 접히거나 펼쳐지도록 구성될 수 있다. 예를 들어, 프리 스탑 힌지(free stop hinge)는 다양한 각도들에서 전자 장치(101)의 접힌 상태를 유지할 수 있다.
예를 들어, 폴딩 축(예: A 축)에 대하여 양측으로 배치되는 한 쌍의 하우징들 중 어느 하나에 제2 디스플레이(261)가 배치될 수 있다. 일 실시 예에 따르면, 제1 디스플레이(260)는, 적어도 일부 영역이 평면 또는 곡면으로 변형될 수 있는 플렉서블 디스플레이를 의미할 수 있다. 제1 디스플레이(260)는, 폴딩 축(예: A 축)을 기준으로 일측에 배치되는 제1 영역(또는 제1 디스플레이 영역)(260a) 및 타측에 배치되는 제2 영역(또는 제2 디스플레이 영역)(260b)을 포함할 수 있다.
예를 들어, 전자 장치(101)가 펼침 상태(예: flat state 또는 unfolded state)일 경우, 제1 영역(260a)의 표면과 제2 영역(260b)의 표면은 서로 180도 각도를 형성하며, 동일한 방향(예: 전자 장치(101)의 전면 방향)을 향할 수 있다.
도 2(c)에 도시된 바와 같이 전자 장치(101)가 접힘 상태(folded state)인 경우, 제1 디스플레이(260)의 제1 영역(260a)의 표면과 제2 영역(260b)의 표면은 서로 좁은 각도(예: 0도에서 10도 사이)를 형성하며, 서로 마주볼 수 있다. 일 실시 예에 따르면, 전자 장치(101)가 접힘 상태에서 제2 디스플레이(261)는 폴딩 축(예: A 축)에 대하여 양측으로 배치되는 한 쌍의 하우징들 중 어느 하나에 배치될 수 있지만, 이는 예시적인 것이며, 제2 디스플레이(261)는 구조 또는 기능에 따라 후면(220a)의 대부분을 구성할 수도 있다. 예를 들어, 전자 장치(101)는 후면 커버를 통해 적어도 일부가 시각적으로 노출되는 제2 디스플레이(261)를 포함할 수 있다. 따라서 제1 디스플레이(260) 및 제2 디스플레이(261)의 크기 및 형상은 이에 한정되지 않음에 유의한다. 또한, 도 2(a)에 도시된 제1 디스플레이(260) 영역 구분은 예시적인 것이며, 구조 또는 기능에 따라 복수(예컨대, 4개 이상 혹은 2개)의 영역으로 구분될 수도 있다.
도 3a는 일 실시 예에 따른 제2 형태의 전자 장치에서 세로 모드에서 폴딩되는 상태를 도시한 도면이며, 도 3b는 일 실시 예에 따른 제2 형태의 전자 장치에서 가로 모드에서 폴딩되는 상태를 도시한 도면이다.
예를 들어, 제2 형태의 전자 장치(101)는 플립(flip) 전자 장치라 칭할 수 있으며, 도 3a에 도시된 바와 같이 제2 형태의 전자 장치(101)에서 폴딩축(예: A-A')을 기준으로 예컨대, 컴팩트(compact) 형태와 같이 안쪽으로 반으로 접힌 채로 세워진 상태를 세로 모드라고 칭할 수 있다. 또한 제2 형태의 전자 장치(101)에서 폴딩축(예: A-A')을 기준으로 안쪽으로 접히는 상태를 가로 모드라고 칭할 수 있다.
도 3a에 도시된 바와 같이 전자 장치(101)는 사용자에 의해 전방향(330)으로 접힐 경우, 폴딩축(예: A-A')에 기반하여 일부 펼쳐진 상태를 가질 수 있다. 이와 같은 접힘 방식은 인폴딩(in-folding) 방식으로 지칭될 수 있다.
전자 장치(101)는 제1 하우징 구조물(320)이 접촉면(예: 바닥, 테이블)과 접촉한 상태로, 제2 하우징 구조물(310)이 접촉면을 기준으로 세워진 상태를 가질 수 있다. 이와 같이 플렉서블 디스플레이를 포함하는 전자 장치(101)는 하나의 축을 기준으로 접힐(folding or bending) 수 있다. 일 실시 예에 따르면, 전자 장치(101)는 세로 모드에서 일부 접힌 상태가 되면, 제1 디스플레이(260)는 폴딩 축을 기준으로 상하로 제1 디스플레이 영역(260a) 및 제2 디스플레이 영역(260b)으로 구분될 수 있다. 세로 모드에서, 사용자가 폴딩 축을 기준으로 바라보는 위측에 해당하는 제1 디스플레이 영역(260a)을 제1 디스플레이(260)(또는 내부 디스플레이)의 상단 영역이라고 칭할 수 있으며, 하측에 해당하는 제2 디스플레이 영역(260b)을 제1 디스플레이(260)(또는 내부 디스플레이)의 하단 영역이라고 칭할 수 있다. 제 1 디스플레이 영역(260a) 또는 제 2 디스플레이 영역(260b) 중 적어도 하나는 전면 카메라를 포함할 수 있다.
도 3b에 도시된 바와 같이 전자 장치(101)는 사용자에 의해 양손에 힘들 가해 구부리는 동작에 의해, 폴딩축(예: A-A')에 기반하여 일부 펼쳐진 상태를 가질 수 있다.
일 실시 예에 따르면, 전자 장치(101)는 가로 모드에서 일부 접힌 상태가 되면, 제1 디스플레이(260)는 폴딩 축을 기준으로 좌우로 제1 디스플레이 영역(260a) 및 제2 디스플레이 영역(260b)으로 구분될 수 있다. 가로 모드에서, 사용자가 폴딩 축을 기준으로 바라보는 왼쪽에 해당하는 제1 디스플레이 영역(260a)을 제1 디스플레이(260)(또는 내부 디스플레이)의 좌측 영역이라고 칭할 수 있으며, 오른쪽에 해당하는 제2 디스플레이 영역(260b)을 제1 디스플레이(260)(또는 내부 디스플레이)의 우측 영역이라고 칭할 수 있다.
일 실시 예에 따르면, 도 2에 도시된 전자 장치(101)는 제1 디스플레이(260)의 적어도 일부가 접힌 상태가 되면, 거치 상태(또는 포즈)에 따라 도 4에 도시된 바와 같이 다양한 접힘 상태를 가질 수 있다. 도 4는 일 실시예에 따른 전자 장치의 다양한 폴딩 상태를 설명하기 위한 사시도이다.
전자 장치(101)는 도 4에 도시된 바와 같이 다양한 일부 접힌 상태(400a, 400b, 400c)를 가질 수 있다. 전자 장치(101)는 예컨대, 컴팩트(compact) 형태와 같이 안쪽으로 반으로 접힌 채로 세워진 상태를 가질 수 있다. 일 실시 예에 따르면, 전자 장치(101)가 도 4의 400a 내지 400c에 도시된 바와 같은 거치 상태(또는 포즈)이면, 접힘에 따라 구분되는 제1 디스플레이의 제1 디스플레이 영역과 제2 디스플레이 영역 둘 다 사용자 입력이 가능한 활성화 상태일 수 있다. 일 실시 예에 따르면, 제1 디스플레이 영역을 통한 인터랙션 입력과, 제2 디스플레이 영역을 통한 인터랙션 입력은 서로 독립적일 수 있다. 예를 들어, 제1 디스플레이 영역이 지정된 방향의 인터랙션 입력에 기반하여 제어되는 경우, 제2 디스플레이 영역은 상기 지정된 방향 또는 다른 방향의 인터랙션 입력에 기반하여 제어될 수 있다.
또한, 일 실시 예에 따르면, 전자 장치(101)는 도 4의 400c에 도시된 바와 같이 제1 하우징 구조물(예: 도 3a의 320)과 제2 하우징 구조물(예: 도 3a의 310) 사이의 각도가 형성되어 본체의 측면들이 접촉하는 표면을 지지함에 따라 전자 장치(101)가 세워지는 상태(400c)일 수 있다. 이러한 접힘 방식은 아웃 폴딩(out-folding) 방식으로 지칭될 수 있다. 전자 장치(101)가 아웃 폴딩으로 접히는 경우에도, 디스플레이의 한 영역(또는 한 면)에 대한 인터랙션 입력과, 다른 한 영역(또는 다른 한 면)에 대한 인터랙션 입력은 서로 독립적일 수 있다.
일 실시 예에 따르면, 전자 장치(101)의 제1 디스플레이(260)가 펼쳐진 상태에서 제1 디스플레이(260)를 통해 제1 윈도우 상에 일부 겹쳐진 제2 윈도우가 표시될 수 있다. 일 실시 예에 따르면, 제1 윈도우 상에 제2 윈도우가 표시되는 동안에, 전자 장치(101)는 접힘 이벤트에 대응하여 접힘에 의해 구분되는 제1 디스플레이 영역과 제2 디스플레이 영역 각각에 제1 윈도우와 제2 윈도우를 표시할 수 있다. 제1 윈도우에는 어플리케이션의 실행 화면이 표시될 수 있으며, 제2 윈도우에는 상기 어플리케이션의 실행 화면과 연관된 컨텐트가 표시될 수 있다.
예를 들면, 제1 디스플레이 영역과 제2 디스플레이 영역에 각각 서로 다른 윈도우를 배치할 수 있으며, 윈도우 상에는 실행 중인 어플리케이션과 관련한 다양한 사용자 인터페이스가 구현될 수 있다.
일 실시 예에 따르면, 전자 장치(101)의 제1 디스플레이(260)가 펼쳐진 상태에서 제1 디스플레이(260)를 통해 서로 독립적인 인터랙션 입력이 가능한 제1 영역 및 제2 영역이 표시될 수 있다. 예를 들어, 제1 윈도우가 상기 제1 영역 및 제2 영역을 포함할 수 있다. 일 실시 예에 따르면, 상기 제1 영역 및 제2 영역이 표시되는 동안에, 전자 장치(101)는 접힘 이벤트에 대응하여 접힘에 의해 구분되는 제1 디스플레이 영역과 제2 디스플레이 영역 각각에 제1 영역과 제2 영역을 구분하여 표시할 수 있다.
상기한 바와 같이 플렉서블 디스플레이를 포함하는 전자 장치(101)를 구부리는 동작에 대한 사용자의 의도를 반영한 다양한 사용자 인터페이스를 제공할 수 있다면, 전자 장치(101)의 사용성을 높일 수 있을 것이다.
일 실시 예에 따르면, 디스플레이의 적어도 일부가 접힌 상태를 플렉스 모드(flex mode)라고 칭할 수 있으며, 다양한 각도들에서 전자 장치(101)의 접힌 상태를 유지할 수 있다. 이때, 전자 장치가 접히는 비율은 전자 장치의 중앙을 기준으로 반으로 접히도록 할 수도 있으나, 축을 기준으로 접히는 비율이 다르게 구현될 수도 있다.
여기서, 하나의 축은 미리 설정될 수 있거나 또는 임의일 수도 있다. 축이 미리 설정된 것은, 전자 장치(101)의 플렉서블 디스플레이의 특정 영역(예를 들어, 축을 포함하는 일부 영역)만이 굴곡 가능한 것을 의미할 수 있다. 반면 축이 임의라는 것은 전자 장치(101)의 디스플레이의 전체 영역이 굴곡 가능한 것을 의미할 수 있다. 도 2 내지 도 4에서는 전자 장치(101)의 중심을 통과하는 축을 기준으로 반으로 접히는 것과 같이 도시되어 있지만, 축의 위치에는 제한이 없음을 당업자는 용이하게 이해할 수 있을 것이다.
아울러, 이하의 상세한 설명에서, 전자 장치(101)의 '전면(front face)' 또는 '후면(rear face)'이 언급될 수 있으며, 이는 제1 하우징 구조물(예: 도 3a의 320)과 제2 하우징 구조물(예: 도 3a의 310)들의 상대적인 위치(예: 펼쳐진 상태 또는 접혀진 상태)와 관계없이, 도 2의 제1 디스플레이(260)가 배치된 면을 '전자 장치(101)의 전면'으로 정의하고, 제1 디스플레이(260)가 배치된 면의 반대 방향을 향하는 제2 디스플레이(261)가 배치된 면을 '전자 장치(101)의 후면'으로 정의하기로 한다. 일 실시예에 따라, "디스플레이"는 플렉서블 디스플레이를 의미할 수 있다. 예를 들어, 도 2, 도 3a 또는 도 3b의 제1 디스플레이(260)는 플렉서블 디스플레이를 의미할 수 있다.
이하의 상세한 설명에서는, 선행 실시예를 통해 용이하게 이해할 수 있는 구성에 관해 도면의 참조번호를 동일하게 부여하거나 생략하고, 그 상세한 설명 또한 생략될 수 있다. 본 문서에 개시된 일 실시예에 따른 전자 장치(101)는 서로 다른 실시예의 구성이 선택적으로 조합되어 구현될 수 있으며, 한 실시예의 구성이 다른 실시예의 구성에 의해 대체될 수 있다. 예컨대, 본 발명이 특정한 도면이나 실시예에 한정되지 않음에 유의한다.
도 5는 일 실시 예에 따른 전자 장치의 내부 블록 구성도(500)이다.
도 5를 참조하면, 일 실시 예에 따른 전자 장치(101)(예: 도 1의 전자 장치(101))는, 프로세서(520)(예: 도 1의 프로세서(120)), 메모리(530)(예: 도 1의 메모리(130)), 디스플레이(560)(예: 도 1의 디스플레이 모듈(160)), 센서(576)(예: 도 1의 센서 모듈(176)) 및/또는 통신 모듈(590)(예: 도 1의 통신 모듈(190))을 포함할 수 있다. 여기서, 도 5에 도시된 모든 구성 요소가 전자 장치(101)의 필수 구성 요소인 것은 아니며, 도 5에 도시된 구성 요소보다 많거나 적은 구성 요소에 의해 전자 장치(101)가 구현될 수도 있다.
디스플레이(560)는 플렉서블 디스플레이를 의미할 수 있다. 일 실시 예에 따르면, 디스플레이(560)는 도 2 내지 도 3b에 도시된 바와 같이 제1 디스플레이(260) 및 제2 디스플레이(261)를 포함할 수 있다. 이하의 설명에는 디스플레이(560)가 도 3a의 전방향(330)으로 접히는 경우를 예로 들어 설명하므로, 디스플레이(560)은 제1 디스플레이(260)에 대응하는 것으로 이해되어야 할 것이다.
예를 들어, 디스플레이(560)는 디스플레이(560)가 적어도 부분적으로 접힘에 따라 상기 디스플레이(560)는 제1 디스플레이 영역 및 제2 디스플레이 영역으로 구분될 수 있다. 일 실시 예에 따르면, 디스플레이(560)가 일부 접힌 상태(예: 플렉스 모드)는 디스플레이(560)의 적어도 일부가 외부로 시각적으로 노출된 상태를 의미할 수 있다.
예를 들어, 공통 경계선을 기준으로 디스플레이(560)가 적어도 부분적으로 접힘 상태에서 디스플레이(560)의 전체 화면은 제1 디스플레이 영역과 제2 디스플레이 영역으로 구성될 수 있다. 제1 디스플레이 영역은 지정된 방향의 인터랙션 입력에 기반하여 제어될 수 있으며, 제2 디스플레이 영역은 지정된 방향 또는 다른 방향의 인터랙션 입력에 기반하여 제어될 수 있다. 예를 들어, 제1 디스플레이 영역과 제2 디스플레이 영역은 독립적인 인터랙션 입력에 기반하여 제어되므로, 동시 입력 및 동시 제어가 가능할 수 있다. 접힘에 따라 구분되는 각 영역은 실행 어플리케이션에 따른 내비게이션, 스크롤과 같은 인터랙션 입력이 서로 독립적으로 이루어질 수 있으며, 상기 인터랙션 입력은 4 방향의 내비게이션, 수직 또는 수평의 스크롤 입력 이외에 텍스트 입력과 같이 다양한 사용자 입력을 포함할 수 있다.
센서(576)는 전자 장치(101)의 동작 상태(예: 펼침 상태, 접힘 상태, 및/또는 중간 상태) 및 접힌 각도를 판단하기 위한 센서(예: 디지털 홀 센서, 6축 센서)를 포함할 수 있다. 상기한 바 이외에 센서(576)는 전자 장치(101)의 접힌 각도를 간접적으로 측정하는데 사용되는 스트레인 값을 출력하는 스트레인(strain) 센서를 포함할 수도 있다.
프로세서(520)는 센서(576)로부터 수신되는 데이터에 기초하여, 전자 장치(101)의 물리적 상태 및/또는 물리적 상태 변화를 감지할 수 있다. 프로세서(520)는 동작 상태(예: 펼침 상태, 접힘 상태, 및/또는 일부 접힌 중간 상태)의 변경(예: 접힘 이벤트, 펼침 이벤트)을 검출할 수 있다. 예를 들어, 동작 상태의 변경을 검출할 수 있는 센서에 기반하여 제1 하우징 구조물(예: 도 3a의 320)과 제2 하우징 구조물(예: 도 3a의 310) 사이의 각도가 지정된 각도 범위에 해당하는 경우, 전자 장치(101)가 일부 펼쳐진(또는 일부 접힌) 상태인 것으로 결정할 수 있다.
프로세서(520)는 적어도 하나의 어플리케이션을 실행할 수 있으며, 상기 어플리케이션에 대응하는 컨텐트를 디스플레이(560)를 통하여 시각적으로 출력할 수 있다. 프로세서(520)는 사용자에 의한 어플리케이션 실행 요청에 대응하여 어플리케이션을 실행할 수 있다. 예를 들어, 프로세서(520)는 디스플레이(560)의 펼침 상태에서 어플리케이션의 실행에 대응하여, 디스플레이(560)의 적어도 일부(예: 전체 화면)를 통해 상기 어플리케이션의 실행 화면을 출력할 수 있다. 여기서, 어플리케이션의 실행 화면은 현재 실행하고 있는 어플리케이션의 출력 결과물로, 어플리케이션이 수행되면서 생성되는 데이터 객체 예컨대, 비디오 데이터, 오디오 데이터 또는 디스플레이 정보 중 적어도 하나를 포함할 수 있다. 또한, 디스플레이(560)를 통한 어플리케이션 실행 화면은, 컨텐트라고 칭할 수 있으며, 이외에 실행 중인 어플리케이션과 관련된 데이터, 또는 화면 데이터라고도 칭할 수도 있다.
일 실시 예에 따르면, 멀티윈도우 환경을 지원하기 위한 화면 인터페이스는 디스플레이(560)가 펼침 상태에서, 하나의 화면에서 두 개 이상의 윈도우가 중첩 표시되는 방식과, 하나의 화면이 두 개 이상의 영역들로 분할되어 표시되는 방식으로 구성될 수 있다. 이를 구체적으로 설명하기 위해 도 6을 참조할 수 있다. 도 6은 일 실시 예에 따른 전자 장치에서 펼쳐진 상태와 일부 접힌 상태에서의 멀티 윈도우의 운용 방법을 설명하기 위한 도면이다.
예를 들어, 도 6(a)에 도시된 바와 같이 두 개 이상의 윈도우(610, 620)가 중첩 표시되는 방식의 경우, 디스플레이(560)가 펼침 상태에서는 하나의 레이아웃(660) 상에 레이어 구조로 복수의 윈도우(610, 620)가 제공될 수 있다. 여기서, 두 개 이상의 윈도우(610, 620) 중 어느 하나가 인터랙션 입력이 가능한 활성화 상태일 수 있다. 예를 들어, 최상단에 위치한 윈도우(620)에 대한 입력이 가능할 수 있으며, 만일 상기 최상단에 위치한 윈도우(620)에 의해 가리지는 윈도우(610)에 대한 선택 시 상기 최상단에 위치한 윈도우(620)는 인터랙션 입력이 가능하지 않은 비활성화 상태로 되고, 상기 선택된 윈도우(610)는 인터랙션 입력이 가능한 활성화 상태가 될 수 있다.
예를 들어, 도 6(b)에 도시된 바와 같이 하나의 화면이 두 개 이상의 영역들(610a, 610b)로 분할되어 표시되는 방식의 경우, 디스플레이(560)가 펼침 상태에서는 하나의 레이아웃(660) 상에 하나의 윈도우(610)가 제공될 수 있다. 도 6(b)에서는 설명의 편의를 위해 상기 하나의 윈도우(610)가 서로 다른 인터랙션 입력이 가능한 영역들(610a, 610b)을 포함하는 형태로 구성되는 경우를 예로 들어 설명하나, 이는 단지 예시일 뿐, 제1 영역(610a) 및 제2 영역(610b)을 각각 제1 윈도우 및 제2 윈도우라고 칭할 수도 있다. 여기서, 두 개 이상의 영역들(610a, 610b) 중 어느 하나가 인터랙션 입력이 가능한 활성화 상태일 수 있다. 따라서, 두 개의 영역들에 대한 동시 제어가 아닌 선택적인 제어가 가능할 수 있다.
한편, 디스플레이(560)의 접힘 이벤트 발생 시, 접힘에 따라 구분되는 영역들에 단순히 레이아웃을 최적화하여 표시하기 보다는 각각 독립적인 인터랙션 입력이 이루어질 수 있도록 화면 인터페이스를 구현한다면, 분할된 화면을 효율적으로 제어할 수 있을 것이다. 일 실시 예에 따르면, 플렉서블 디스플레이를 구부리는 접힘 이벤트에 따라 한 화면을 두 영역으로 분할하여 이용함으로써 분할된 각 영역에 대한 직관적인 화면 제어가 가능하여 사용성을 향상시킬 수 있다.
일 실시 예에 따르면, 도 6(a)에서와 같이 두 개 이상의 윈도우(610, 620)가 중첩 표시되는 방식의 경우 프로세서(520)는 디스플레이(560)가 펼침 상태에서, 어플리케이션의 제1 윈도우(610)를 디스플레이(560)를 통해 표시할 수 있다. 여기서, 제1 윈도우(610)는 상기 어플리케이션의 실행 화면에 대응할 수 있다. 제1 윈도우(610)를 표시하는 동안에 제2 윈도우(620)를 표시하기 위한 입력에 대응하여, 프로세서(520)는 제1 윈도우(610)의 적어도 일부 상에 상기 제2 윈도우(620)를 표시할 수 있다.
예를 들어, 제1 윈도우(610)는 디스플레이(560)의 영역 전체에 표시되는 윈도우로, 메인 윈도우라고 칭할 수 있다. 메인 윈도우는 어플리케이션(또는 태스크(task))이 실행되면서 생성되는 데이터를 포함할 수 있으며, 포어그라운드 환경에서 수행되는 어플리케이션이 디스플레이(560) 상으로 출력되는 이미지를 지칭할 수 있다. 제2 윈도우(620)는 디스플레이(560)의 영역보다 작은 윈도우로 표시되는 서브 윈도우로, 상기 어플리케이션을 실행하는 동안에 상기 어플리케이션에서 제공하는 기능들(또는 아이템)을 선택함에 따라 상기 메인 윈도우의 일부 영역 상에 중첩 표시될 수 있다. 상기 제1 윈도우(610)는 어플리케이션의 실행 화면에 대응하는 것이기 때문에 사용자는 상기 실행 화면에 표시되는 특정 아이템을 조작하거나 상기 실행 화면을 내비게이션하기 위한 조작을 할 수 있다. 따라서, 제1 윈도우(610)는 지정된 방향의 인터랙션 입력에 기반하여 제어될 수 있다. 또한, 제1 윈도우(610) 상에 중첩 표시되는 제2 윈도우(620)는 상기 지정된 방향 또는 다른 방향의 인터랙션 입력에 기반하여 제어될 수 있다.
일 실시 예에 따르면, 프로세서(520)는 제1 윈도우(610) 상에 제2 윈도우(620)가 표시되는 상태에서, 센서(576)를 이용하여 디스플레이(560)의 접힘 이벤트를 감지할 수 있다. 예를 들어, 제1 윈도우(610)와 제2 윈도우(620)에서 서로 다른 인터랙션 입력이 가능한 경우, 상기 접힘 이벤트에 대응하여, 도 6(c)에 도시된 바와 같이 프로세서(520)는 접힘에 따라 구분되는 디스플레이(560)의 제1 디스플레이 영역(660a) 및 제2 디스플레이 영역(660b) 각각에 상기 제1 윈도우(610) 및 상기 제2 윈도우(620)를 구분하여 표시할 수 있다.
일 실시 예에 따르면, 도 6(b)에서와 같이 프로세서(520)는 하나의 화면이 두 개 이상의 영역들(610a, 610b)로 분할되어 표시되는 상태에서, 디스플레이(560)의 접힘 이벤트를 감지할 수 있다. 예를 들어, 제1 영역(610a)과 제2 영역(610b)에서 서로 다른 인터랙션 입력이 가능한 경우, 상기 접힘 이벤트에 대응하여, 도 6(c)에 도시된 바와 같이 프로세서(520)는 접힘에 따라 구분되는 디스플레이(560)의 제1 디스플레이 영역(660a) 및 제2 디스플레이 영역(660b) 각각에 상기 제1 영역(610a) 및 상기 제2 영역(610b)을 구분하여 표시할 수 있다. 여기서, 상기 제1 영역(610a) 및 상기 제2 영역(610b)은 예컨대, 제1 윈도우(610) 상에 포함되는 영역들로, 상기 제1 영역(610a)은 지정된 방향의 인터랙션 입력에 기반하여 제어되며, 상기 제2 영역(610b)은 다른 방향의 인터랙션 입력에 기반하여 제어될 수 있다.
상기한 바와 같이 접힘에 따라 구분되는 각 디스플레이 영역은 실행 어플리케이션에 따른 내비게이션, 스크롤과 같은 인터랙션 입력이 서로 독립적으로 이루어질 수 있다.
일 실시 예에 따르면, 전자 장치(101)는, 플렉서블 디스플레이(160, 260, 560) 및 적어도 하나의 프로세서(120, 520)를 포함할 수 있다. 일 실시 예에 따르면, 상기 적어도 하나의 프로세서는, 상기 디스플레이가 펼침 상태에서, 어플리케이션의 제1 윈도우를 상기 디스플레이를 통해 표시하도록 설정될 수 있다. 일 실시 예에 따르면, 상기 적어도 하나의 프로세서는, 제2 윈도우의 표시를 위한 입력에 기반하여, 상기 제1 윈도우의 일 영역 상에 상기 제2 윈도우를 표시하도록 설정될 수 있다. 일 실시 예에 따르면, 상기 적어도 하나의 프로세서는, 상기 디스플레이가 적어도 부분적으로 접힌 상태에서, 접힘에 따라 구분되는 제1 디스플레이 영역 및 제2 디스플레이 영역 각각에는 상기 제1 윈도우 및 상기 제2 윈도우를 구분하여 표시하도록 설정될 수 있다.
일 실시 예에 따르면, 상기 제1 윈도우는 지정된 방향의 인터랙션 입력에 기반하여 제어되며, 상기 제2 윈도우는 상기 지정된 방향 또는 다른 방향의 인터랙션 입력에 기반하여 제어될 수 있다.
일 실시 예에 따르면, 상기 디스플레이가 펼침 상태에서, 상기 제1 윈도우 또는 상기 제2 윈도우 중 하나가 인터랙션 입력이 가능한 활성화 상태이며, 상기 디스플레이가 적어도 부분적으로 접힌 상태에서, 상기 제1 윈도우 및 상기 제2 윈도우 각각이 인터랙션 입력이 가능한 활성화 상태일 수 있다.
일 실시 예에 따르면, 상기 적어도 하나의 프로세서는, 상기 디스플레이의 접힘 이벤트를 감지하고, 상기 접힘 이벤트의 감지에 대응하여, 상기 디스플레이의 상기 제1 디스플레이 영역 및 상기 제2 디스플레이 영역 각각에 상기 제1 윈도우 및 상기 제2 윈도우를 구분하여 표시하도록 설정될 수 있다.
일 실시 예에 따르면, 상기 제1 윈도우는 상기 어플리케이션의 실행 화면에 대응하며, 상기 제2 윈도우는 상기 어플리케이션의 실행 화면과 연관된 컨텐트를 포함할 수 있다.
일 실시 예에 따르면, 상기 적어도 하나의 프로세서는, 상기 디스플레이의 접힘 이벤트를 감지하고, 상기 접힘 이벤트의 감지에 대응하여, 서로 다른 인터랙션 입력이 가능한 상기 제1 윈도우 및 상기 제2 윈도우인지를 식별하고, 상기 서로 다른 인터랙션 입력이 가능한 상기 제1 윈도우 및 상기 제2 윈도우의 식별에 대응하여, 상기 제1 디스플레이 영역 및 상기 제2 디스플레이 영역 각각에 상기 제1 윈도우 및 상기 제2 윈도우를 구분하여 표시하도록 설정될 수 있다.
일 실시 예에 따르면, 상기 적어도 하나의 프로세서는, 상기 디스플레이의 접힘 이벤트를 감지하고, 상기 접힘 이벤트의 감지에 대응하여, 상기 디스플레이가 펼침 상태에서 표시되는 상기 어플리케이션의 제1 윈도우가 서로 다른 인터랙션 입력이 가능한 2개의 영역을 포함하는지를 식별하고, 상기 서로 다른 인터랙션 입력이 가능한 2개의 영역을 포함하는 상기 제1 윈도우의 식별에 대응하여, 상기 접힘에 따라 상기 디스플레이의 전체 영역을 상기 제1 디스플레이 영역 및 상기 제2 디스플레이 영역으로 구분하도록 설정될 수 있다.
일 실시 예에 따르면, 상기 적어도 하나의 프로세서는, 상기 디스플레이의 접힘 이벤트를 감지하고, 상기 접힘 이벤트의 감지에 대응하여, 상기 디스플레이가 펼침 상태에서 표시되는 상기 어플리케이션의 제1 윈도우가 서로 다른 인터랙션 입력이 가능한 제1 영역 및 제2 영역을 포함하는지를 식별하고, 상기 서로 다른 인터랙션 입력이 가능한 상기 제1 영역 및 상기 제2 영역을 포함하는 상기 제1 윈도우의 식별에 대응하여, 상기 디스플레이가 적어도 부분적으로 접힌 상태에서, 접힘에 따라 구분되는 상기 제1 디스플레이 영역 및 상기 제2 디스플레이 영역 각각에는 상기 제1 영역 및 상기 제2 영역을 구분하여 표시하도록 설정될 수 있다.
일 실시 예에 따르면, 상기 어플리케이션의 제1 윈도우가 서로 다른 인터랙션 입력이 가능한 제1 영역 및 제2 영역을 포함하는 경우, 상기 제1 영역은 지정된 방향의 인터랙션 입력에 기반하여 제어되며, 상기 제2 영역은 다른 방향의 인터랙션 입력에 기반하여 제어될 수 있다.
일 실시 예에 따르면, 상기 적어도 하나의 프로세서는, 상기 디스플레이가 펼침 상태에서 상기 제1 윈도우의 제1 영역이 지정된 방향의 인터랙션 입력에 기반하여 제어되며, 상기 제1 윈도우의 제2 영역이 상기 지정된 방향과는 다른 방향의 인터랙션 입력에 기반하여 제어되는 경우, 상기 디스플레이가 적어도 부분적으로 접힌 상태에서, 접힘에 따라 구분되는 상기 제1 디스플레이 영역 및 상기 제2 디스플레이 영역 각각에는 상기 지정된 방향의 인터랙션 입력에 기반하여 제어되는 상기 제1 영역 및 상기 지정된 방향과는 다른 방향의 인터랙션 입력에 기반하여 제어되는 상기 제2 영역을 구분하여 표시하도록 설정될 수 있다.
도 7은 일 실시 예에 따른 전자 장치에서의 동작 흐름도이다. 도 7을 참조하면, 플렉서블 디스플레이를 포함하는 전자 장치의 동작 방법은, 705 동작 내지 715 동작을 포함할 수 있다. 도 7의 동작 방법의 각 동작은, 전자 장치(예: 도 1 내지 도 5의 전자 장치(101), 전자 장치의 적어도 하나의 프로세서(예: 도 1의 프로세서(120) 또는 도 5의 프로세서(520)) 중 적어도 하나)에 의해 수행될 수 있다. 일 실시 예에서, 705 동작 내지 715 동작 중 적어도 하나가 생략되거나, 일부 동작들의 순서가 바뀌거나, 다른 동작이 추가될 수 있다.
705 동작에서, 전자 장치(101)는, 전자 장치(101)의 플렉서블 디스플레이가 펼침 상태에서, 어플리케이션의 제1 윈도우를 표시할 수 있다. 상기 어플리케이션의 제1 윈도우는 상기 어플리케이션의 실행 화면에 대응할 수 있다.
710 동작에서, 전자 장치(101)는, 제2 윈도우의 표시를 위한 입력에 기반하여, 상기 제1 윈도우의 일 영역 상에 상기 제2 윈도우를 표시할 수 있다. 예를 들어, 전자 장치(101)는 상기 실행 화면에 포함된 아이템들 중 어느 하나에 대한 선택을 수신할 수 있다. 예를 들어, 전자 장치(101)는 제1 윈도우 상의 아이템(예: 특정 영역, 아이콘, 텍스트, 숫자)의 선택을 감지할 수 있다. 여기서, 상기 선택은 터치 입력(예: 손가락, 스타일러스 펜)의 호버링 또는 터치 이벤트를 포함할 수 있다. 전자 장치(101)는 상기 선택에 기반하여, 상기 실행 화면과 관련된 컨텐트(또는 상세 정보)를 제공하는 제2 윈도우를 표시할 수 있다.
일 실시 예에 따르면, 상기 제1 윈도우는 지정된 방향의 인터랙션 입력에 기반하여 제어되며, 상기 제2 윈도우는 상기 지정된 방향 또는 다른 방향의 인터랙션 입력에 기반하여 제어될 수 있다.
일 실시 예에 따르면, 상기 디스플레이가 펼침 상태에서, 상기 제1 윈도우 또는 상기 제2 윈도우 중 하나가 인터랙션 입력이 가능한 활성화 상태일 수 있다.
715 동작에서, 전자 장치(101)는, 상기 플렉서블 디스플레이가 적어도 부분적으로 접힌 상태에서, 접힘에 따라 구분되는 제1 디스플레이 영역 및 제2 디스플레이 영역 각각에는 상기 제1 윈도우 및 상기 제2 윈도우를 구분하여 표시할 수 있다. 예를 들어, 제1 디스플레이 영역 및 제2 디스플레이 영역 각각에 상기 제1 윈도우 및 상기 제2 윈도우가 배치될 수 있다.
일 실시 예에 따르면, 전자 장치(101)는, 상기 디스플레이의 접힘 이벤트를 감지하고, 상기 접힘 이벤트의 감지에 대응하여, 상기 제1 디스플레이 영역 및 상기 제2 디스플레이 영역 각각에 상기 제1 윈도우 및 상기 제2 윈도우를 구분하여 표시할 수 있다.
일 실시 예에 따르면, 상기 제1 윈도우는 상기 어플리케이션의 실행 화면에 대응하며, 상기 제2 윈도우는 상기 어플리케이션의 실행 화면과 연관된 컨텐트를 포함할 수 있다.
일 실시 예에 따르면, 상기 디스플레이가 적어도 부분적으로 접힌 상태에서, 상기 제1 윈도우 및 상기 제2 윈도우 각각이 인터랙션 입력이 가능한 활성화 상태일 수 있다. 일 실시 예에 따르면, 제1 디스플레이 영역을 통해 표시되는 상기 제1 윈도우는 지정된 방향의 인터랙션 입력에 기반하여 제어되며, 상기 제2 디스플레이 영역을 통해 표시되는 상기 제2 윈도우는 상기 지정된 방향 또는 다른 방향의 인터랙션 입력에 기반하여 제어될 수 있다.
일 실시 예에 따르면, 전자 장치(101)는, 상기 디스플레이의 접힘 이벤트를 감지할 수 있다. 전자 장치(101)는, 상기 접힘 이벤트의 감지에 대응하여, 서로 다른 인터랙션 입력이 가능한 상기 제1 윈도우 및 상기 제2 윈도우인지를 식별할 수 있다.
일 실시 예에 따르면, 전자 장치(101)는, 서로 다른 인터랙션 입력이 가능한 상기 제1 윈도우 및 상기 제2 윈도우의 식별에 대응하여, 상기 제1 디스플레이 영역 및 상기 제2 디스플레이 영역 각각에 상기 제1 윈도우 및 상기 제2 윈도우를 구분하여 표시할 수 있다.
일 실시 예에 따르면, 전자 장치(101)는, 상기 디스플레이의 접힘 이벤트를 감지하고, 상기 접힘 이벤트의 감지에 대응하여, 상기 디스플레이가 펼침 상태에서 표시되는 상기 어플리케이션의 제1 윈도우가 서로 다른 인터랙션 입력이 가능한 제1 영역 및 제2 영역을 포함하는지를 식별할 수 있다. 전자 장치(101)는 상기 서로 다른 인터랙션 입력이 가능한 상기 제1 영역 및 상기 제2 영역을 포함하는 상기 제1 윈도우의 식별에 대응하여, 상기 디스플레이가 적어도 부분적으로 접힌 상태에서, 접힘에 따라 구분되는 상기 제1 디스플레이 영역 및 상기 제2 디스플레이 영역 각각에는 상기 제1 영역 및 상기 제2 영역을 구분하여 표시할 수 있다.
일 실시 예에 따르면, 상기 어플리케이션의 제1 윈도우가 서로 다른 인터랙션 입력이 가능한 제1 영역 및 제2 영역을 포함하는 경우, 상기 제1 영역은 지정된 방향의 인터랙션 입력에 기반하여 제어되며, 상기 제2 영역은 다른 방향의 인터랙션 입력에 기반하여 제어될 수 있다.
도 8은 일 실시 예에 따른 접힘 이벤트에 대응하여 멀티 윈도우의 운용을 위한 동작 흐름도이다. 도 8을 참조하면, 플렉서블 디스플레이를 포함하는 전자 장치의 동작 방법은, 805 동작 내지 835 동작을 포함할 수 있다. 도 8의 동작 방법의 각 동작은, 전자 장치(예: 도 1 내지 도 5의 전자 장치(101), 전자 장치의 적어도 하나의 프로세서(예: 도 1의 프로세서(120) 또는 도 5의 프로세서(520)) 중 적어도 하나)에 의해 수행될 수 있다. 일 실시 예에서, 805 동작 내지 835 동작 중 적어도 하나가 생략되거나, 일부 동작들의 순서가 바뀌거나, 다른 동작이 추가될 수 있다. 도 8의 설명의 이해를 돕기 위해 도 9 내지 도 12를 참조할 수 있다. 도 9는 일 실시 예에 따른 다중 레이어를 설명하기 위한 도면이며, 도 10은 일 실시 예에 따른 다중 인터랙션을 설명하기 위한 도면이며, 도 11은 일 실시 예에 따른 멀티윈도우가 표시되는 상태에서, 폴딩에 대응하여 구분되는 영역에 대한 입력이 서로 독립적인 경우를 설명하기 위한 도면이며, 도 12는 일 실시 예에 따른 분할 영역들이 표시되는 상태에서, 폴딩에 대응하여 구분되는 영역에 대한 입력이 서로 독립적인 경우를 설명하기 위한 도면이다.
일 실시 예에 따르면, 도 8에서의 동작은 전자 장치(101)에서 접힘 이벤트의 발생을 감지함에 따른 멀티 윈도우의 운용을 위한 동작들을 포함하고 있다.
805 동작에서, 전자 장치(101)는 다중 레이어인지를 식별할 수 있다. 예를 들어, 전자 장치(101)는 접힘 이벤트의 발생을 감지함에 따라 다중 레이어 여부를 식별할 수 있다. 다중 레이어의 식별에 대응하여, 전자 장치(101)는 810 동작에서 레이어 개수가 2개인지를 식별할 수 있다. 반면, 805 동작에서 다중 레이어가 식별되지 않는 경우, 전자 장치(101)는 815 동작을 수행할 수 있다.
예를 들어, 도 9(a)에서와 같이 제1 윈도우(910) 상에서 제2 윈도우(920)를 표시하기 위한 입력(930)에 대응하여, 전자 장치(101)는 도 9(b)와 같이 제1 윈도우(910)의 적어도 일부 상에 중첩되는 제2 윈도우(920)를 표시할 수 있다. 이와 같이 제1 윈도우(910)와 제2 윈도우(920)가 적층되는 레이어 구조를 가지는 경우 전자 장치(101)는 다중 레이어라고 식별할 수 있다. 여기서, 다중 레이어 구조의 경우 제1 윈도우(910)와 제2 윈도우(920) 중 어느 하나의 윈도우에 대한 입력이 가능할 수 있다. 따라서 도 9(b)와 같이 제1 윈도우(910) 상에 사용자 입력(940)이 발생할 경우, 전자 장치(101)는 도 9(a)에서와 같이 제2 윈도우(920)의 표시를 제거할 수 있다.
810 동작에서 레이어 개수가 2개인 경우, 전자 장치(101)는 815 동작에서 다중 인터랙션을 식별할 수 있다. 만일 다중 인터랙션의 식별에 대응하여, 전자 장치(101)는 820 동작에서 인터랙션 개수가 2개인지를 식별할 수 있다. 반면, 다중 인터랙션이 식별되지 않는 경우, 전자 장치(101)는 접힘 이벤트에 대응하여 멀티 윈도우의 운용을 위한 동작을 종료할 수 있다.
820 동작에서 인터랙션 개수가 2개인 경우, 전자 장치(101)는 825 동작에서 멀티 윈도우 준비를 수행할 수 있다. 예를 들어, 전자 장치(101)는 멀티 윈도우의 운용을 위한 폴딩 이벤트가 발생하는지를 감지할 수 있다. 예를 들어, 도 10(a)에서와 같이 한 화면(예: 어플리케이션 실행 화면)이 제1 영역(1010)과 제2 영역(1020)을 포함하는 경우, 제1 영역(1010)은 지정된 방향의 인터랙션 입력(1040)에 기반하여 제어되며, 제2 영역(1020)은 다른 방향의 인터랙션 입력(1030)에 기반하여 제어될 수 있다. 따라서 상기 다른 방향의 인터랙션 입력(1030)에 기반에 기반하여, 도 10(b)에 도시된 바와 같이 제2 영역(1020)의 크기가 달라질 수 있다.
한편, 도 8에서는 플렉서블 디스플레이가 반으로 접힘에 따라 분할되는 영역이 2개이므로, 레이어 개수가 2개이며, 인터랙션 개수가 2개인 경우를 예로 들어 설명하였으나, 전자 장치(101)가 다른 폼 팩터(foam factor)를 가지는 경우 접힘에 따라 분할되는 영역이 2개 이상일 수도 있다. 예를 들어, 플렉서블 디스플레이의 일 부분이 인폴딩되고, 다른 부분이 아웃폴딩되는 폼 팩터를 Z-폴딩 구조로 지칭할 수 있는데, 이러한 경우 전자 장치(101)는 인폴딩 및 아웃폴딩을 모두 포함하는 폼 팩터를 가질 수 있다. 따라서 Z-폴딩 구조에 따라 분할되는 영역이 복수일 수 있으므로, 이러한 경우 각 분할 영역에 복수의 레이어 및 복수의 인터랙션에 따른 윈도우들이 배치될 수 있음은 물론이다.
830 동작에서, 전자 장치(101)는 폴딩 각도가 지정된 각도(예: 30도)를 초과하는지를 식별할 수 있다. 만일 폴딩 이벤트가 감지되지 않거나 폴딩 각도가 상기 지정된 각도 미만일 경우에는 폴딩 이벤트를 감지하는 동작을 지속적으로 또는 주기적으로 수행할 수 있다. 다르게는 폴딩 각도가 지정된 각도 미만일 경우에는 접힘 이벤트에 대응하여 멀티 윈도우의 운용을 위한 동작을 종료할 수도 있다.
830 동작에서 폴딩 각도가 지정된 각도(예: 30도)를 초과하는 경우, 835 동작에서, 전자 장치(101)는 멀티 윈도우 전환을 수행할 수 있다.
예를 들어, 하나의 화면에서 두 개 이상의 윈도우가 중첩 표시되는 방식의 경우, 도 11(a)에서와 같이 제1 윈도우(1110) 상에서 제2 윈도우(1120)를 표시하기 위한 입력(1130)에 대응하여, 전자 장치(101)는 도 11(b)와 같이 제1 윈도우(1110)의 적어도 일부 상에 중첩되는 제2 윈도우(1120)를 표시할 수 있다.
접힘 이벤트에 대응하여, 전자 장치(101)는 도 11(c)에 도시된 바와 같이, 접힘에 따라 구분되는 제1 디스플레이 영역(1160a)에는 제1 윈도우(1110)를 배치하며, 제2 디스플레이 영역(1160b)에는 제2 윈도우(1120)를 배치할 수 있다. 이에 따라 제1 디스플레이 영역(1160a)은 지정된 방향의 인터랙션 입력(1140)에 기반하여 제어되며, 제2 디스플레이 영역(1160b)은 다른 방향의 인터랙션 입력(1150)에 기반하여 제어될 수 있다.
예를 들어, 하나의 화면이 두 개 이상의 영역들로 분할되어 표시되는 방식의 경우, 도 12(a)에서와 같이 한 화면이 제1 영역(1210)과 제2 영역(1220)으로 분할되어 표시되는 경우, 제1 영역(1210)은 지정된 방향의 인터랙션 입력(1230)에 기반하여 제어될 수 있다. 또한, 도 12(b)에 도시된 바와 같이 제2 영역(1220)은 지정된 방향과는 다른 방향의 인터랙션 입력(1240)에 기반하여 제어될 수 있다.
접힘 이벤트에 대응하여, 전자 장치(101)는 도 12(c)에 도시된 바와 같이, 접힘에 따라 구분되는 제1 디스플레이 영역(1260a)에는 제1 영역(1210)을 배치하며, 제2 디스플레이 영역(1260b)에는 제2 영역(1220)를 배치할 수 있다. 이에 따라 제1 디스플레이 영역(1260a)은 지정된 방향의 인터랙션 입력(1230)에 기반하여 제어되며, 제2 디스플레이 영역(1260b)은 다른 방향의 인터랙션 입력(1240)에 기반하여 제어될 수 있다.
도 13은 일 실시 예에 따른 한 화면에 서로 다른 인터랙션 입력이 있는 경우 폴딩 시의 전자 장치의 동작 흐름도이다. 도 13의 각 동작은, 전자 장치(예: 도 1 내지 도 5의 전자 장치(101), 전자 장치의 적어도 하나의 프로세서(예: 도 1의 프로세서(120) 또는 도 5의 프로세서(520)) 중 적어도 하나)에 의해 수행될 수 있다. 일 실시 예에서, 1305 동작 내지 1325 동작 중 적어도 하나가 생략되거나, 일부 동작들의 순서가 바뀌거나, 다른 동작이 추가될 수 있다. 도 13의 이해를 돕기 위해 도 14를 참조하여 설명하기로 한다. 도 14는 일 실시 예에 따른 제1 어플리케이션의 실행 화면이 폴딩 시 구분된 각 영역들을 통해 독립적으로 표시되는 화면 예시도이다.
1305 동작에서, 전자 장치(101)는 어플리케이션 실행 화면을 표시할 수 있다. 예를 들어, 디스플레이가 펼침 상태에서 어플리케이션 실행 화면은 도 14(a)에 도시된 바와 같이 디스플레이의 전체 화면을 차지하도록 표시될 수 있다. 일 실시 예에 따르면, 상기 어플리케이션 실행 화면의 제1 영역은 제1 방향의 인터랙션 입력에 기반하여 제어될 수 있다. 또한, 도 14(b)에 도시된 바와 같이 상기 어플리케이션의 제2 영역은 제2 방향의 인터랙션 입력에 기반하여 제어될 수 있다.
1310 동작에서, 전자 장치(101)는 접힘 이벤트가 발생하는지를 식별할 수 있다. 접힘 이벤트의 발생이 감지되는 않는 경우 어플리케이션 실행 화면의 표시를 유지할 수 있다.
반면, 접힘 이벤트의 발생이 감지됨에 따라, 1315 동작에서, 전자 장치(101)는 상기 실행 화면에서 리스트뷰(listview)와 수평스크롤뷰(horizontalscrollview)가 식별되는지를 판단할 수 있다. 예를 들어, 도 14(a)를 참조하면, 리스트뷰는 제1 방향의 인터랙션 입력에 기반하여 제어되는 상기 어플리케이션 실행 화면의 제1 영역에 대응할 수 있다. 또한, 도 14(b)를 참조하면, 수평스크롤뷰는 제2 방향의 인터랙션 입력에 기반하여 제어되는 상기 어플리케이션 실행 화면의 제2 영역에 대응할 수 있다. 도 14(a) 및 도 14(b)에 도시된 바와 같이, 상기 어플리케이션 실행 화면은 서로 다른 인터랙션 입력이 가능한 영역들을 포함할 수 있다.
상기 리스트뷰와 상기 수평스크롤뷰를 포함하는 실행 화면에 대응하여, 1320 동작에서, 전자 장치(101)는 추가 뷰를 생성할 수 있다. 1325 동작에서 전자 장치(101)는 제1 뷰에 리스트뷰를 배치하고, 제2 뷰에 수평스크롤뷰를 배치할 수 있다. 예를 들어, 리스트뷰와 수평스크롤뷰 각각은 별도의 레이어(예: 제1 뷰, 제2뷰)를 통해 제공될 수 있다. 여기서, 제1 뷰 및 제2 뷰(view)는 멀티 윈도우 환경에서 접힘에 따라 구분되는 영역을 지칭할 수 있다. 예를 들어, 도 14(c)를 참조하면, 제1 뷰는 제1 디스플레이 영역이며, 제2 뷰는 제2 디스플레이 영역에 대응하는 것으로, 각각의 뷰(예: 리스트뷰, 수평스크롤뷰)는 제1 디스플레이 영역 및 제2 디스플레이 영역을 통해 오버레이 형태로 제공될 수 있다. 도 14(c)에 도시된 바와 같이, 접힘에 따라 구분되는 각 영역(예: 상단 영역 및 하단 영역)에 배치되는 각각의 뷰(예: 리스트뷰, 수평스크롤뷰)는 서로 다른 인터랙션 입력이 독립적으로 이루어질 수 있다. 따라서, 접힘에 따라 분할되는 영역들을 통해 서로 다른 인터랙션 입력을 동시에 입력받을 수 있다.
도 15는 일 실시 예에 따른 제2 어플리케이션의 실행 화면이 폴딩 시 구분된 각 영역들을 통해 독립적으로 표시되는 화면 예시도이다.
도 15(a)를 참조하면, 제2 어플리케이션(예: 지도 어플리케이션)의 실행 시 사용자는 지도가 표시되는 영역(또는 제1 윈도우) 상에서 4 방향의 내비게이션 또는 임의의 방향으로 상기 지도 표시 영역을 조작할 수 있다. 만일 사용자가 상기 제2 어플리케이션과 관련된 아이템(예: 특정 위치)을 선택할 경우, 도 15(b)에 도시된 바와 같이 지도 표시 영역 위에 상기 지도 어플리케이션과 관련된 컨텐트(또는 상세 정보)를 포함하는 영역(또는 제2 윈도우)이 표시될 수 있다.
전자 장치(101)는 접힘 이벤트의 발생을 감지함에 대응하여, 도 15(c)에 도시된 바와 같이 접힘에 따라 구분되는 각 영역에서 제1 윈도우 및 제2 윈도우를 구분하여 표시할 수 있다. 이에 따라 각 영역을 통해 서로 다른 인터랙션 입력이 가능할 수 있다.
도 16은 일 실시 예에 따른 제2 어플리케이션의 실행 화면이 폴딩 시 구분된 각 영역들을 통해 독립적으로 표시되는 화면 예시도이다.
도 16(a)에서와 같이, 제2 어플리케이션(예: 지도 어플리케이션)의 실행 화면이 표시되는 상태에서, 사용자가 상기 제2 어플리케이션과 관련된 아이템(예: 특정 위치)을 선택할 경우, 도 16(b)에 도시된 바와 같이 상기 지도 어플리케이션과 관련된 컨텐트(또는 장소 정보)를 포함하는 영역(또는 제2 윈도우)이 표시될 수 있다. 사용자의 선택에 따라 상기 제2 윈도우는 제1 윈도우 전체 또는 적어도 일부와 중첩되도록 표시될 수 있다. 전자 장치(101)는 접힘 이벤트의 발생을 감지함에 대응하여, 도 16(c)에 도시된 바와 같이 접힘에 따라 구분되는 각 영역에서 제1 윈도우 및 제2 윈도우를 구분하여 표시할 수 있다. 예를 들어, 상단 영역이 지정된 방향(예: 4방향)의 인터랙션 입력에 기반하여 제어 가능한 경우, 하단 영역은 지정된 방향과 동일한 또는 상기 지정된 방향과는 다른 방향의 인터랙션 입력에 기반하여 제어 가능할 수 있다.
도 17은 일 실시 예에 따른 제2 형태의 전자 장치의 가로 모드에서 어플리케이션의 실행 화면이 폴딩 시 구분된 각 영역들을 통해 독립적으로 표시되는 화면 예시도이다.
도 17에서는, 도 3a에 도시된 바와 같은 제2 형태의 전자 장치(101)의 가로 모드를 예시하고 있다. 가로 모드의 경우, 디스플레이의 펼침 상태에서, 도 17(a)에 도시된 바와 같이 전자 장치(101)의 제1 윈도우(또는 상단 영역)(1710)와 제2 윈도우(또는 하단 영역)(1720)이 표시될 수 있다. 전자 장치(101)는 사용자가 양쪽에서 구부리는 동작에 의해 안쪽으로 접히는 폴딩 상태가 감지되면, 도 17(b)에 도시된 바와 같이 폴딩축을 기준으로 구분되는 제1 디스플레이 영역(1760a)에는 제1 윈도우(1710)가 배치되며, 제2 디스플레이 영역(1760b)에는 제2 윈도우(1720)가 배치될 수 있다. 여기서, 제1 윈도우(1710) 및 제2 윈도우(1720)는 서로 다른 인터랙션 입력이 가능하므로, 제1 디스플레이 영역(1760a)이 지정된 방향의 인터랙션 입력에 기반하여 제어되는 경우 제2 디스플레이 영역(1760b)도 다른 방향의 인터랙션 입력에 기반하여 제어될 수 있다.
도 18은 일 실시 예에 따른 제1 형태의 전자 장치의 세로 모드에서 어플리케이션의 실행 화면이 폴딩 시 구분된 각 영역들을 통해 독립적으로 표시되는 화면 예시도이다.
도 18에서는, 도 2에 도시된 바와 같은 제1 형태의 전자 장치(101)의 세로 모드를 예시하고 있다. 도 18에 도시된 바와 같이 전자 장치(101)는 전면을 기준으로 가로보다 세로가 긴 제1 형태를 가질 수 있다. 세로 모드의 경우, 디스플레이의 펼침 상태에서, 도 18(a)에 도시된 바와 같이 전자 장치(101)의 제1 윈도우(1810)와 제2 윈도우(1820)이 표시될 수 있다. 제1 윈도우(1810)와 제2 윈도우(1820)는 서로 다른 인터랙션 입력이 가능하나, 펼침 상태에서는 어느 하나의 윈도우만 인터랙션 입력이 가능한 활성화 상태일 수 있다.
전자 장치(101)는 사용자가 양쪽에서 구부리는 동작에 의해 안쪽으로 접히는 폴딩 상태가 감지되면, 도 18(b)에 도시된 바와 같이 폴딩축을 기준으로 구분되는 제1 디스플레이 영역(1860a)에는 제1 윈도우(1810)가 배치되며, 제2 디스플레이 영역(1860b)에는 제2 윈도우(1820)가 배치될 수 있다. 여기서, 제1 윈도우(1810) 및 제2 윈도우(1820)는 서로 다른 인터랙션 입력이 가능하므로, 제1 디스플레이 영역(1860a)이 지정된 방향의 인터랙션 입력에 기반하여 제어되는 경우 제2 디스플레이 영역(1860b)도 다른 방향의 인터랙션 입력에 기반하여 제어될 수 있다.
도 19는 일 실시 예에 따른 제1 형태의 전자 장치의 가로 모드에서 어플리케이션의 실행 화면이 폴딩 시 구분된 각 영역들을 통해 독립적으로 표시되는 화면 예시도이다.
도 19에서는, 도 2에 도시된 바와 같은 제1 형태의 전자 장치(101)의 가로 모드를 예시하고 있다. 여기서, 제1 형태의 전자 장치(101)에서 폴딩 축을 기준으로 본체의 양측면들 중 어느 하나의 측면이 아래를 향하는 상태를 가로 모드라고 칭할 수 있다. 가로 모드의 경우, 디스플레이의 펼침 상태에서, 도 19(a)에 도시된 바와 같이 전자 장치(101)의 제1 윈도우(1910)와 제2 윈도우(1920)이 표시될 수 있다. 제1 윈도우(1910)와 제2 윈도우(1920)는 서로 다른 인터랙션 입력이 가능하나, 펼침 상태에서는 어느 하나의 윈도우만 인터랙션 입력이 가능한 활성화 상태일 수 있다.
전자 장치(101)는 사용자가 구부리는 동작에 의해 안쪽으로 접히는 폴딩 상태가 감지되면, 도 19(b)에 도시된 바와 같이 폴딩축을 기준으로 구분되는 제1 디스플레이 영역(1960a)에는 제1 윈도우(1910)가 배치되며, 제2 디스플레이 영역(1960b)에는 제2 윈도우(1920)가 배치될 수 있다. 여기서, 제1 윈도우(1910) 및 제2 윈도우(1920)는 서로 다른 인터랙션 입력이 가능하므로, 제1 디스플레이 영역(1960a)이 지정된 방향의 인터랙션 입력에 기반하여 제어되는 경우 제2 디스플레이 영역(1960b)도 다른 방향의 인터랙션 입력에 기반하여 제어될 수 있다.
일 실시 예에 따르면, 어플리케이션의 실행 화면을 플렉서블 디스플레이를 구부리는 접힘 이벤트에 따라 두 영역으로 분할하여 이용함으로써 분할된 각 영역에 대해 독립적인 인터랙션 입력을 통해 직관적인 화면 제어가 가능하여 사용성을 향상시킬 수 있다.
본 문서에 개시된 다양한 실시예들에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치(예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 또는 가전 장치를 포함할 수 있다. 본 문서의 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.
본 문서의 다양한 실시예들 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시예들로 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나", "A 또는 B 중 적어도 하나", "A, B 또는 C", "A, B 및 C 중 적어도 하나", 및 "A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에, "기능적으로" 또는 "통신적으로"라는 용어와 함께 또는 이런 용어 없이, "커플드" 또는 "커넥티드"라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 제 3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.
본 문서의 다양한 실시예들에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로와 같은 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일실시예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다.
본 문서의 다양한 실시예들은 기기(machine)(예: 전자 장치(101)) 의해 읽을 수 있는 저장 매체(storage medium)(예: 내장 메모리(136) 또는 외장 메모리(138))에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예: 프로그램(140))로서 구현될 수 있다. 예를 들면, 기기(예: 전자 장치(101))의 프로세서(예: 프로세서(120))는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장 매체는, 비일시적(non-transitory) 저장 매체의 형태로 제공될 수 있다. 여기서, ‘비일시적’은 저장 매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장 매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.
일실시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory(CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두 개의 사용자 장치들(예: 스마트 폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.
다양한 실시예들에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있으며, 복수의 개체 중 일부는 다른 구성요소에 분리 배치될 수도 있다. 다양한 실시예들에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시예들에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.
일 실시 예에 따르면, 명령들을 저장하고 있는 비휘발성 저장 매체에 있어서, 상기 명령들은 전자 장치(101)의 적어도 하나의 프로세서(120, 520)에 의하여 실행될 때에 상기 전자 장치로 하여금 적어도 하나의 동작을 수행하도록 설정된 것으로서, 상기 적어도 하나의 동작은, 상기 전자 장치의 플렉서블 디스플레이가 펼침 상태에서, 어플리케이션의 제1 윈도우를 표시하는 동작을 포함할 수 있다. 일 실시 예에 따르면, 상기 적어도 하나의 동작은, 제2 윈도우의 표시를 위한 입력에 기반하여, 상기 제1 윈도우의 일 영역 상에 상기 제2 윈도우를 표시하는 동작을 포함할 수 있다. 일 실시 예에 따르면, 상기 적어도 하나의 동작은, 상기 플렉서블 디스플레이가 적어도 부분적으로 접힌 상태에서, 접힘에 따라 구분되는 제1 디스플레이 영역 및 제2 디스플레이 영역 각각에는 상기 제1 윈도우 및 상기 제2 윈도우를 구분하여 표시하는 동작을 포함할 수 있다.

Claims (15)

  1. 전자 장치(101)에 있어서,
    플렉서블 디스플레이(160, 260, 560); 및
    적어도 하나의 프로세서(120, 520)를 포함하고, 상기 적어도 하나의 프로세서는,
    상기 디스플레이가 펼침 상태에서, 어플리케이션의 제1 윈도우를 상기 디스플레이를 통해 표시하고,
    제2 윈도우의 표시를 위한 입력에 기반하여, 상기 제1 윈도우의 일 영역 상에 상기 제2 윈도우를 표시하며,
    상기 디스플레이가 적어도 부분적으로 접힌 상태에서, 접힘에 따라 구분되는 제1 디스플레이 영역 및 제2 디스플레이 영역 각각에는 상기 제1 윈도우 및 상기 제2 윈도우를 구분하여 표시하도록 설정된, 전자 장치.
  2. 제1항에 있어서,
    상기 제1 윈도우는 지정된 방향의 인터랙션 입력에 기반하여 제어되며, 상기 제2 윈도우는 상기 지정된 방향 또는 다른 방향의 인터랙션 입력에 기반하여 제어되는, 전자 장치.
  3. 제1항 또는 제2항에 있어서,
    상기 디스플레이가 펼침 상태에서, 상기 제1 윈도우 또는 상기 제2 윈도우 중 하나가 인터랙션 입력이 가능한 활성화 상태이며,
    상기 디스플레이가 적어도 부분적으로 접힌 상태에서, 상기 제1 윈도우 및 상기 제2 윈도우 각각이 인터랙션 입력이 가능한 활성화 상태인, 전자 장치.
  4. 제1항 내지 제3항 중 어느 한 항에 있어서, 상기 적어도 하나의 프로세서는,
    상기 디스플레이의 접힘 이벤트를 감지하고,
    상기 접힘 이벤트의 감지에 대응하여, 상기 디스플레이의 상기 제1 디스플레이 영역 및 상기 제2 디스플레이 영역 각각에 상기 제1 윈도우 및 상기 제2 윈도우를 구분하여 표시하도록 설정된, 전자 장치.
  5. 제1항 내지 제4항 중 어느 한 항에 있어서, 상기 제1 윈도우는 상기 어플리케이션의 실행 화면에 대응하며,
    상기 제2 윈도우는 상기 어플리케이션의 실행 화면과 연관된 컨텐트를 포함하는, 전자 장치.
  6. 제1항 내지 제5항 중 어느 한 항에 있어서, 상기 적어도 하나의 프로세서는,
    상기 디스플레이의 접힘 이벤트를 감지하고,
    상기 접힘 이벤트의 감지에 대응하여, 서로 다른 인터랙션 입력이 가능한 상기 제1 윈도우 및 상기 제2 윈도우인지를 식별하고,
    상기 서로 다른 인터랙션 입력이 가능한 상기 제1 윈도우 및 상기 제2 윈도우의 식별에 대응하여, 상기 제1 디스플레이 영역 및 상기 제2 디스플레이 영역 각각에 상기 제1 윈도우 및 상기 제2 윈도우를 구분하여 표시하도록 설정된, 전자 장치.
  7. 제1항 내지 제6항 중 어느 한 항에 있어서, 상기 적어도 하나의 프로세서는,
    상기 디스플레이의 접힘 이벤트를 감지하고,
    상기 접힘 이벤트의 감지에 대응하여, 상기 디스플레이가 펼침 상태에서 표시되는 상기 어플리케이션의 제1 윈도우가 서로 다른 인터랙션 입력이 가능한 2개의 영역을 포함하는지를 식별하고,
    상기 서로 다른 인터랙션 입력이 가능한 2개의 영역을 포함하는 상기 제1 윈도우의 식별에 대응하여, 상기 접힘에 따라 상기 디스플레이의 전체 영역을 상기 제1 디스플레이 영역 및 상기 제2 디스플레이 영역으로 구분하도록 설정된, 전자 장치.
  8. 제1항 내지 제7항 중 어느 한 항에 있어서, 상기 적어도 하나의 프로세서는,
    상기 디스플레이의 접힘 이벤트를 감지하고,
    상기 접힘 이벤트의 감지에 대응하여, 상기 디스플레이가 펼침 상태에서 표시되는 상기 어플리케이션의 제1 윈도우가 서로 다른 인터랙션 입력이 가능한 제1 영역 및 제2 영역을 포함하는지를 식별하고,
    상기 서로 다른 인터랙션 입력이 가능한 상기 제1 영역 및 상기 제2 영역을 포함하는 상기 제1 윈도우의 식별에 대응하여, 상기 디스플레이가 적어도 부분적으로 접힌 상태에서, 접힘에 따라 구분되는 상기 제1 디스플레이 영역 및 상기 제2 디스플레이 영역 각각에는 상기 제1 영역 및 상기 제2 영역을 구분하여 표시하도록 설정된, 전자 장치.
  9. 제1항 내지 제8항 중 어느 한 항에 있어서,
    상기 어플리케이션의 제1 윈도우가 서로 다른 인터랙션 입력이 가능한 제1 영역 및 제2 영역을 포함하는 경우, 상기 제1 영역은 지정된 방향의 인터랙션 입력에 기반하여 제어되며, 상기 제2 영역은 다른 방향의 인터랙션 입력에 기반하여 제어되는, 전자 장치.
  10. 제1항 내지 제9항 중 어느 한 항에 있어서, 상기 적어도 하나의 프로세서는,
    상기 디스플레이가 펼침 상태에서 상기 제1 윈도우의 제1 영역이 지정된 방향의 인터랙션 입력에 기반하여 제어되며, 상기 제1 윈도우의 제2 영역이 상기 지정된 방향과는 다른 방향의 인터랙션 입력에 기반하여 제어되는 경우,
    상기 디스플레이가 적어도 부분적으로 접힌 상태에서, 접힘에 따라 구분되는 상기 제1 디스플레이 영역 및 상기 제2 디스플레이 영역 각각에는 상기 지정된 방향의 인터랙션 입력에 기반하여 제어되는 상기 제1 영역 및 상기 지정된 방향과는 다른 방향의 인터랙션 입력에 기반하여 제어되는 상기 제2 영역을 구분하여 표시하도록 설정된, 전자 장치.
  11. 플렉서블 디스플레이를 포함하는 전자 장치의 동작 방법에 있어서,
    상기 디스플레이가 펼침 상태에서, 어플리케이션의 제1 윈도우를 표시하는 동작;
    제2 윈도우의 표시를 위한 입력에 기반하여, 상기 제1 윈도우의 일 영역 상에 상기 제2 윈도우를 표시하는 동작; 및
    상기 디스플레이가 적어도 부분적으로 접힌 상태에서, 접힘에 따라 구분되는 제1 디스플레이 영역 및 제2 디스플레이 영역 각각에는 상기 제1 윈도우 및 상기 제2 윈도우를 구분하여 표시하는 동작을 포함하는, 전자 장치의 동작 방법.
  12. 제11항에 있어서,
    상기 제1 윈도우는 지정된 방향의 인터랙션 입력에 기반하여 제어되며, 상기 제2 윈도우는 상기 지정된 방향 또는 다른 방향의 인터랙션 입력에 기반하여 제어되는, 전자 장치의 동작 방법.
  13. 제11항 또는 제12항에 있어서,
    상기 디스플레이가 펼침 상태에서, 상기 제1 윈도우 또는 상기 제2 윈도우 중 하나가 인터랙션 입력이 가능한 활성화 상태이며,
    상기 디스플레이가 적어도 부분적으로 접힌 상태에서, 상기 제1 윈도우 및 상기 제2 윈도우 각각이 인터랙션 입력이 가능한 활성화 상태이고,
    상기 제1 윈도우는 상기 어플리케이션의 실행 화면에 대응하며,
    상기 제2 윈도우는 상기 어플리케이션의 실행 화면과 연관된 컨텐트를 포함하는, 전자 장치의 동작 방법.
  14. 제11항 내지 제13항 중 어느 한 항에 있어서,
    상기 디스플레이의 접힘 이벤트를 감지하는 동작; 및
    상기 접힘 이벤트의 감지에 대응하여, 서로 다른 인터랙션 입력이 가능한 상기 제1 윈도우 및 상기 제2 윈도우인지를 식별하는 동작; 및
    상기 서로 다른 인터랙션 입력이 가능한 상기 제1 윈도우 및 상기 제2 윈도우의 식별에 대응하여, 상기 제1 디스플레이 영역 및 상기 제2 디스플레이 영역 각각에 상기 제1 윈도우 및 상기 제2 윈도우를 구분하여 표시하는 동작을 포함하는, 전자 장치의 동작 방법.
  15. 명령들을 저장하고 있는 비휘발성 저장 매체에 있어서, 상기 명령들은 전자 장치(101)의 적어도 하나의 프로세서(120, 520)에 의하여 실행될 때에 상기 전자 장치로 하여금 적어도 하나의 동작을 수행하도록 설정된 것으로서, 상기 적어도 하나의 동작은,
    상기 전자 장치의 플렉서블 디스플레이가 펼침 상태에서, 어플리케이션의 제1 윈도우를 표시하는 동작;
    제2 윈도우의 표시를 위한 입력에 기반하여, 상기 제1 윈도우의 일 영역 상에 상기 제2 윈도우를 표시하는 동작; 및
    상기 플렉서블 디스플레이가 적어도 부분적으로 접힌 상태에서, 접힘에 따라 구분되는 제1 디스플레이 영역 및 제2 디스플레이 영역 각각에는 상기 제1 윈도우 및 상기 제2 윈도우를 구분하여 표시하는 동작을 포함하는, 저장 매체.
PCT/KR2023/011762 2022-09-27 2023-08-09 플렉서블 디스플레이를 포함하는 전자 장치, 그 동작 방법 및 저장 매체 WO2024071658A1 (ko)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR10-2022-0122284 2022-09-27
KR20220122284 2022-09-27
KR1020220123420A KR20240043619A (ko) 2022-09-27 2022-09-28 플렉서블 디스플레이를 포함하는 전자 장치, 그 동작 방법 및 저장 매체
KR10-2022-0123420 2022-09-28

Publications (1)

Publication Number Publication Date
WO2024071658A1 true WO2024071658A1 (ko) 2024-04-04

Family

ID=90478315

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2023/011762 WO2024071658A1 (ko) 2022-09-27 2023-08-09 플렉서블 디스플레이를 포함하는 전자 장치, 그 동작 방법 및 저장 매체

Country Status (1)

Country Link
WO (1) WO2024071658A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160108705A (ko) * 2015-03-05 2016-09-20 삼성디스플레이 주식회사 표시 장치
KR20210060874A (ko) * 2019-11-19 2021-05-27 삼성전자주식회사 폴더블 디스플레이를 갖는 전자 장치에서 사용자 인터페이스를 제공하는 방법 및 장치
KR102262721B1 (ko) * 2014-05-12 2021-06-09 엘지전자 주식회사 폴더블 디스플레이 디바이스 및 그 제어 방법
US20210342044A1 (en) * 2018-09-30 2021-11-04 Huawei Technologies Co., Ltd. System navigation bar display method, system navigation bar control method, graphical user interface, and electronic device
KR20220103374A (ko) * 2021-01-15 2022-07-22 삼성전자주식회사 전자 장치 및 전자 장치의 폴딩 상태에 기반하여 레이아웃 구성 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102262721B1 (ko) * 2014-05-12 2021-06-09 엘지전자 주식회사 폴더블 디스플레이 디바이스 및 그 제어 방법
KR20160108705A (ko) * 2015-03-05 2016-09-20 삼성디스플레이 주식회사 표시 장치
US20210342044A1 (en) * 2018-09-30 2021-11-04 Huawei Technologies Co., Ltd. System navigation bar display method, system navigation bar control method, graphical user interface, and electronic device
KR20210060874A (ko) * 2019-11-19 2021-05-27 삼성전자주식회사 폴더블 디스플레이를 갖는 전자 장치에서 사용자 인터페이스를 제공하는 방법 및 장치
KR20220103374A (ko) * 2021-01-15 2022-07-22 삼성전자주식회사 전자 장치 및 전자 장치의 폴딩 상태에 기반하여 레이아웃 구성 방법

Similar Documents

Publication Publication Date Title
WO2021075786A1 (en) Electronic device and method of processing pop-up window using multi-window thereof
WO2022060041A1 (ko) 콘텐트를 생성하기 위한 폴더블 전자 장치 및 그의 동작 방법
WO2021261949A1 (ko) 디스플레이의 폴딩 상태에 따른 이용 방법 및 이를 이용한 전자 장치
WO2022030804A1 (ko) 화면 회전을 제어하기 위한 폴더블 전자 장치 및 그의 동작 방법
WO2022119319A1 (ko) 플렉서블 디스플레이의 확장에 따라 적어도 하나의 객체를 이동하여 디스플레이 하는 전자 장치 및 그 제어 방법
WO2024071658A1 (ko) 플렉서블 디스플레이를 포함하는 전자 장치, 그 동작 방법 및 저장 매체
WO2022030921A1 (ko) 전자 장치 및 그의 화면을 제어하는 방법
WO2024063376A1 (ko) 디스플레이를 이용하여 컨텐츠를 표시하는 방법 및 이를 지원하는 전자 장치
WO2023106830A1 (ko) 한 손 조작 모드를 지원하는 전자 장치 및 전자 장치의 동작 방법
WO2024090959A1 (ko) 전자 장치 및 전자 장치에서 멀티 윈도우 기반의 알림 정보 표시 방법
WO2024063381A1 (ko) 컨트롤러를 표시하는 전자 장치 및 그 동작 방법
WO2024034852A1 (ko) 전자 장치의 멀티 윈도우 제어 방법 및 그 전자 장치
WO2023013904A1 (ko) 화면 제어 방법 및 장치
WO2022119147A1 (ko) 멀티 터치에 기반한 슬라이드 구동 방법 및 장치
WO2024043687A1 (ko) 복수의 스피커를 포함하는 전자 장치
WO2024043532A1 (ko) 제스쳐 입력에 기초한 화면 표시 방법 및 장치
WO2024080727A1 (ko) 플렉서블 디스플레이를 포함하는 전자 장치 및 동작 방법 및 비 일시적 저장 매체
WO2023063752A1 (ko) 폴딩 영역에 위치한 시각적 객체의 위치를 이동하는 전자 장치들 및 그 제어 방법들
WO2024080553A1 (ko) 전자 장치 및 그 동작 방법
WO2024080648A1 (ko) 폴더블 전자 장치 및 폴더블 전자 장치의 사용자 입력 처리 방법
WO2022154449A1 (ko) 전자 장치 및 전자 장치의 동작 방법
WO2022108402A1 (ko) 플렉서블 디스플레이의 동작 방법 및 전자 장치
WO2023063720A1 (ko) 전자 장치의 디스플레이를 확장하는 방법 및 이를 지원하는 전자 장치
WO2024043440A1 (ko) 애플리케이션의 화면을 표시하는 디스플레이를 복수의 디스플레이들 간 전환하기 위한 방법 및 장치
WO2024034851A1 (ko) 외부 전자 장치에 화면을 표시하는 전자 장치 및 그 동작 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23872781

Country of ref document: EP

Kind code of ref document: A1