WO2023048390A1 - 사용자 인터페이스를 제공하는 방법 및 그 전자 장치 - Google Patents

사용자 인터페이스를 제공하는 방법 및 그 전자 장치 Download PDF

Info

Publication number
WO2023048390A1
WO2023048390A1 PCT/KR2022/011359 KR2022011359W WO2023048390A1 WO 2023048390 A1 WO2023048390 A1 WO 2023048390A1 KR 2022011359 W KR2022011359 W KR 2022011359W WO 2023048390 A1 WO2023048390 A1 WO 2023048390A1
Authority
WO
WIPO (PCT)
Prior art keywords
display
screen
area
electronic device
expanded
Prior art date
Application number
PCT/KR2022/011359
Other languages
English (en)
French (fr)
Inventor
이수범
김한곤
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Priority to EP22873095.8A priority Critical patent/EP4336334A4/en
Publication of WO2023048390A1 publication Critical patent/WO2023048390A1/ko
Priority to US18/306,533 priority patent/US20230259217A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1652Details related to the display arrangement, including those related to the mounting of the display in the housing the display being flexible, e.g. mimicking a sheet of paper, or rollable
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1615Constructional details or arrangements for portable computers with several enclosures having relative motions, each enclosure supporting at least one I/O or computing function
    • G06F1/1624Constructional details or arrangements for portable computers with several enclosures having relative motions, each enclosure supporting at least one I/O or computing function with sliding enclosures, e.g. sliding keyboard or display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1641Details related to the display arrangement, including those related to the mounting of the display in the housing the display being formed by a plurality of foldable display components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1675Miscellaneous details related to the relative movement between the different enclosures or enclosure parts
    • G06F1/1677Miscellaneous details related to the relative movement between the different enclosures or enclosure parts for detecting open or closed state or particular intermediate positions assumed by movable parts of the enclosure, e.g. detection of display lid position with respect to main body in a laptop, detection of opening of the cover of battery compartment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • G06F3/1431Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display using a single graphics controller
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/03Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes specially adapted for displays having non-planar surfaces, e.g. curved displays
    • G09G3/035Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes specially adapted for displays having non-planar surfaces, e.g. curved displays for flexible display surfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • H04M1/0202Portable telephone sets, e.g. cordless phones, mobile phones or bar type handsets
    • H04M1/0206Portable telephones comprising a plurality of mechanically joined movable body parts, e.g. hinged housings
    • H04M1/0208Portable telephones comprising a plurality of mechanically joined movable body parts, e.g. hinged housings characterized by the relative motions of the body parts
    • H04M1/0235Slidable or telescopic telephones, i.e. with a relative translation movement of the body parts; Telephones using a combination of translation and other relative motions of the body parts
    • H04M1/0237Sliding mechanism with one degree of freedom
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • H04M1/0202Portable telephone sets, e.g. cordless phones, mobile phones or bar type handsets
    • H04M1/0206Portable telephones comprising a plurality of mechanically joined movable body parts, e.g. hinged housings
    • H04M1/0241Portable telephones comprising a plurality of mechanically joined movable body parts, e.g. hinged housings using relative motion of the body parts to change the operational status of the telephone set, e.g. switching on/off, answering incoming call
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2360/00Aspects of the architecture of display systems
    • G09G2360/04Display device controller operating with a plurality of display units
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • H04M1/0202Portable telephone sets, e.g. cordless phones, mobile phones or bar type handsets
    • H04M1/026Details of the structure or mounting of specific components
    • H04M1/0266Details of the structure or mounting of specific components for a display module assembly
    • H04M1/0268Details of the structure or mounting of specific components for a display module assembly including a flexible display panel

Definitions

  • Various embodiments disclosed in this document relate to a method and apparatus for providing a user interface in an electronic device including a flexible display.
  • a flexible type electronic device may configure a user interface provided after expansion of a display area to be different from a user interface provided before expansion of a display area.
  • an electronic device with an expanded display area provides a user interface by enlarging the size of the content that the user is watching or providing a multi-window function through screen division within the expanded display.
  • the flexible type electronic device expands the display area of the display only in a designated manner without considering the use environment or grip state, user experience may be limited. For example, if an event occurs while a user is watching content, information related to the event may be provided overlapping with the content being viewed, which may act as an obstacle to the content being viewed.
  • a user interface may be provided based on a user's grip state (eg, grip position, screen direction).
  • An electronic device includes a housing, a display that can be accommodated inside the housing, at least one processor (including a processing circuit) operably connected to the display, and operably connected to the at least one processor. and a memory, which, upon execution, determines a user's grip state when the at least one processor detects that the display is extended from the housing while providing a first screen, and determines the grip state of the user. Determines a first area where the first screen is displayed when the display is extended based on the state, determines whether the determined first area corresponds to a drawing direction of the display, and determines whether the first area corresponds to a drawing direction of the display. When corresponding to the drawing direction, instructions for displaying a second screen distinct from the first screen on a display area drawn from the housing may be stored.
  • An operating method of an electronic device includes an operation of checking a user's grip state when detecting that a display is extended from a housing while providing a first screen; An operation of determining a first area on which a first screen is displayed, an operation of determining whether the determined first area corresponds to the drawing direction of the display, and if the first area corresponds to the drawing direction of the display, the An operation of displaying a second screen distinct from the first screen on a display area drawn out from the housing may be included.
  • a user interface supporting a multi-window function may be provided based on a user's grip state (eg, grip position, screen orientation).
  • a user's grip state eg, grip position, screen orientation.
  • information related to the event can be additionally displayed on the display area of the expanded display, so that various experiences can be provided to the user without disturbing the previously viewed content.
  • FIG. 1 is a block diagram of an electronic device in a network environment according to an embodiment.
  • FIG. 2 is a diagram illustrating a display area provided according to a display area expansion state of a display according to an exemplary embodiment.
  • FIG. 3 is a block diagram illustrating a configuration of an electronic device according to an exemplary embodiment.
  • FIG. 4 is a diagram illustrating a detailed configuration of an electronic device according to an exemplary embodiment.
  • 5A, 5B, 5C, and 5D are diagrams illustrating a method of dividing a display area based on a grip state of a user according to an exemplary embodiment.
  • 6A, 6B, and 6C are diagrams illustrating a method of providing a first screen and/or a second screen in consideration of a user's grip state when a display is extended, according to an exemplary embodiment.
  • FIG. 7 is a flowchart illustrating a method of operating an electronic device according to an exemplary embodiment.
  • FIG. 8 is a diagram for explaining a process of determining an area on which a first screen is displayed based on a user's grip state, according to an exemplary embodiment.
  • 9A, 9B, and 9C are diagrams illustrating a method of additionally providing a second screen in response to an event detected while a video application is running, according to an exemplary embodiment.
  • FIGS. 10A, 10B, and 10C are diagrams illustrating a method of additionally providing a second screen in response to an event detected while a camera application is running, according to an exemplary embodiment.
  • 11A, 11B, and 11C are diagrams illustrating a method of additionally providing a second screen in response to an event detected while a web browser application is running, according to an exemplary embodiment.
  • 12A, 12B, and 12C are diagrams illustrating a method of additionally providing a second screen in response to an event detected while an electronic device operates in a landscape mode, according to an embodiment.
  • FIGS. 13A and 13B are diagrams illustrating a method of providing at least one second screen at a display position designated by a user, according to an exemplary embodiment.
  • 14A and 14B are diagrams illustrating a method of providing one or more second screens in response to occurrence of one or more events detected while an application is running, according to an embodiment.
  • FIG. 1 is a diagram illustrating an electronic device within a network environment 100 according to an embodiment.
  • an electronic device 101 communicates with an electronic device 102 through a first network 198 (eg, a short-range wireless communication network) or through a second network 199. It may communicate with at least one of the electronic device 104 or the server 108 through (eg, a long-distance wireless communication network). According to an embodiment, the electronic device 101 may communicate with the electronic device 104 through the server 108 .
  • a first network 198 eg, a short-range wireless communication network
  • a second network 199 e.g., a second network 199. It may communicate with at least one of the electronic device 104 or the server 108 through (eg, a long-distance wireless communication network). According to an embodiment, the electronic device 101 may communicate with the electronic device 104 through the server 108 .
  • the electronic device 101 includes a processor 120, a memory 130, an input module 150, an audio output module 155, a display module 160, an audio module 170, a sensor module ( 176), interface 177, connection terminal 178, haptic module 179, camera module 180, power management module 188, battery 189, communication module 190, subscriber identification module 196 , or the antenna module 197 may be included.
  • at least one of these components eg, the connection terminal 178) may be omitted or one or more other components may be added.
  • some of these components eg, sensor module 176, camera module 180, or antenna module 197) are integrated into one component (eg, display module 160). It can be.
  • the processor 120 for example, executes software (eg, the program 140) to cause at least one other component (eg, hardware or software component) of the electronic device 101 connected to the processor 120. It can control and perform various data processing or calculations. According to one embodiment, as at least part of data processing or operation, the processor 120 transfers commands or data received from other components (eg, sensor module 176 or communication module 190) to volatile memory 132. , processing commands or data stored in the volatile memory 132 , and storing resultant data in the non-volatile memory 134 .
  • software eg, the program 140
  • the processor 120 transfers commands or data received from other components (eg, sensor module 176 or communication module 190) to volatile memory 132. , processing commands or data stored in the volatile memory 132 , and storing resultant data in the non-volatile memory 134 .
  • the processor 120 includes a main processor 121 (eg, a central processing unit or an application processor) or a secondary processor 123 (eg, a graphic processing unit, a neural network processing unit ( NPU: neural processing unit (NPU), image signal processor, sensor hub processor, or communication processor).
  • a main processor 121 eg, a central processing unit or an application processor
  • a secondary processor 123 eg, a graphic processing unit, a neural network processing unit ( NPU: neural processing unit (NPU), image signal processor, sensor hub processor, or communication processor.
  • NPU neural network processing unit
  • the secondary processor 123 may use less power than the main processor 121 or be set to be specialized for a designated function.
  • the secondary processor 123 may be implemented separately from or as part of the main processor 121 .
  • the secondary processor 123 may, for example, take the place of the main processor 121 while the main processor 121 is in an inactive (eg, sleep) state, or the main processor 121 is active (eg, running an application). ) state, together with the main processor 121, at least one of the components of the electronic device 101 (eg, the display module 160, the sensor module 176, or the communication module 190) It is possible to control at least some of the related functions or states.
  • the auxiliary processor 123 eg, an image signal processor or a communication processor
  • the auxiliary processor 123 may include a hardware structure specialized for processing an artificial intelligence model.
  • AI models can be created through machine learning. Such learning may be performed, for example, in the electronic device 101 itself where the artificial intelligence model is performed, or may be performed through a separate server (eg, the server 108).
  • the learning algorithm may include, for example, supervised learning, unsupervised learning, semi-supervised learning or reinforcement learning, but in the above example Not limited.
  • the artificial intelligence model may include a plurality of artificial neural network layers.
  • Artificial neural networks include deep neural networks (DNNs), convolutional neural networks (CNNs), recurrent neural networks (RNNs), restricted Boltzmann machines (RBMs), deep belief networks (DBNs), bidirectional recurrent deep neural networks (BRDNNs), It may be one of deep Q-networks or a combination of two or more of the foregoing, but is not limited to the foregoing examples.
  • the artificial intelligence model may include, in addition or alternatively, software structures in addition to hardware structures.
  • the memory 130 may store various data used by at least one component (eg, the processor 120 or the sensor module 176) of the electronic device 101 .
  • the data may include, for example, input data or output data for software (eg, program 140) and commands related thereto.
  • the memory 130 may include volatile memory 132 or non-volatile memory 134 .
  • the program 140 may be stored as software in the memory 130 and may include, for example, an operating system 142 , middleware 144 , or an application 146 .
  • the input module 150 may receive a command or data to be used for a component (eg, the processor 120) of the electronic device 101 from an outside of the electronic device 101 (eg, a user).
  • the input module 150 may include, for example, a microphone, a mouse, a keyboard, a key (eg, a button), or a digital pen (eg, a stylus pen).
  • the sound output module 155 may output sound signals to the outside of the electronic device 101 .
  • the sound output module 155 may include, for example, a speaker or a receiver.
  • the speaker can be used for general purposes such as multimedia playback or recording playback.
  • a receiver may be used to receive an incoming call. According to one embodiment, the receiver may be implemented separately from the speaker or as part of it.
  • the display module 160 can visually provide information to the outside of the electronic device 101 (eg, a user).
  • the display module 160 may include, for example, a display, a hologram device, or a projector and a control circuit for controlling the device.
  • the display module 160 may include a touch sensor configured to detect a touch or a pressure sensor configured to measure the intensity of force generated by the touch.
  • the audio module 170 may convert sound into an electrical signal or vice versa. According to an embodiment, the audio module 170 acquires sound through the input module 150, the sound output module 155, or an external electronic device connected directly or wirelessly to the electronic device 101 (eg: Sound may be output through the electronic device 102 (eg, a speaker or a headphone).
  • the audio module 170 acquires sound through the input module 150, the sound output module 155, or an external electronic device connected directly or wirelessly to the electronic device 101 (eg: Sound may be output through the electronic device 102 (eg, a speaker or a headphone).
  • the sensor module 176 detects an operating state (eg, power or temperature) of the electronic device 101 or an external environmental state (eg, a user state), and generates an electrical signal or data value corresponding to the detected state. can do.
  • the sensor module 176 may include, for example, a gesture sensor, a gyro sensor, an air pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, a color sensor, an IR (infrared) sensor, a bio sensor, It may include a temperature sensor, humidity sensor, or light sensor.
  • the interface 177 may support one or more specified protocols that may be used to directly or wirelessly connect the electronic device 101 to an external electronic device (eg, the electronic device 102).
  • the interface 177 may include, for example, a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, an SD card interface, or an audio interface.
  • HDMI high definition multimedia interface
  • USB universal serial bus
  • SD card interface Secure Digital Card interface
  • audio interface audio interface
  • connection terminal 178 may include a connector through which the electronic device 101 may be physically connected to an external electronic device (eg, the electronic device 102).
  • the connection terminal 178 may include, for example, an HDMI connector, a USB connector, an SD card connector, or an audio connector (eg, a headphone connector).
  • the haptic module 179 may convert electrical signals into mechanical stimuli (eg, vibration or movement) or electrical stimuli that a user may perceive through tactile or kinesthetic senses.
  • the haptic module 179 may include, for example, a motor, a piezoelectric element, or an electrical stimulation device.
  • the camera module 180 may capture still images and moving images. According to one embodiment, the camera module 180 may include one or more lenses, image sensors, image signal processors, or flashes.
  • the power management module 188 may manage power supplied to the electronic device 101 .
  • the power management module 188 may be implemented as at least part of a power management integrated circuit (PMIC), for example.
  • PMIC power management integrated circuit
  • the battery 189 may supply power to at least one component of the electronic device 101 .
  • the battery 189 may include, for example, a non-rechargeable primary battery, a rechargeable secondary battery, or a fuel cell.
  • the communication module 190 is a direct (eg, wired) communication channel or a wireless communication channel between the electronic device 101 and an external electronic device (eg, the electronic device 102, the electronic device 104, or the server 108). Establishment and communication through the established communication channel may be supported.
  • the communication module 190 may include one or more communication processors that operate independently of the processor 120 (eg, an application processor) and support direct (eg, wired) communication or wireless communication.
  • the communication module 190 is a wireless communication module 192 (eg, a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module) or a wired communication module 194 (eg, : A local area network (LAN) communication module or a power line communication module).
  • a wireless communication module 192 eg, a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module
  • GNSS global navigation satellite system
  • wired communication module 194 eg, : A local area network (LAN) communication module or a power line communication module.
  • the corresponding communication module is a first network 198 (eg, a local area communication network such as Bluetooth, wireless fidelity (Wi-Fi) direct, or infrared data association (IrDA)) or a second network 199 (eg : It can communicate with the external electronic device 104 through a legacy cellular network, a 5G network, a next-generation communication network, the Internet, or a long-distance communication network such as a computer network (eg, LAN or WAN).
  • a first network 198 eg, a local area communication network such as Bluetooth, wireless fidelity (Wi-Fi) direct, or infrared data association (IrDA)
  • a second network 199 eg : It can communicate with the external electronic device 104 through a legacy cellular network, a 5G network, a next-generation communication network, the Internet, or a long-distance communication network such as a computer network (eg, LAN or WAN).
  • a computer network eg, LAN
  • the wireless communication module 192 uses subscriber information (eg, International Mobile Subscriber Identifier (IMSI)) stored in the subscriber identification module 196 within a communication network such as the first network 198 or the second network 199.
  • subscriber information eg, International Mobile Subscriber Identifier (IMSI)
  • IMSI International Mobile Subscriber Identifier
  • the electronic device 101 may be identified or authenticated.
  • the wireless communication module 192 may support a 5G network after a 4G network and a next-generation communication technology, for example, NR access technology (new radio access technology).
  • NR access technologies include high-speed transmission of high-capacity data (eMBB (enhanced mobile broadband)), terminal power minimization and connection of multiple terminals (mMTC (massive machine type communications)), or high reliability and low latency (URLLC (ultra-reliable and low -latency communications)) can be supported.
  • eMBB enhanced mobile broadband
  • mMTC massive machine type communications
  • URLLC ultra-reliable and low -latency communications
  • the wireless communication module 192 may support a high frequency band (eg, mmWave band) to achieve a high data rate, for example.
  • the wireless communication module 192 uses various technologies for securing performance in a high frequency band, such as beamforming, massive multiple-input and multiple-output (MIMO), and full-dimensional multiplexing. Technologies such as input/output (FD-MIMO: full dimensional MIMO), array antenna, analog beam-forming, or large scale antenna may be supported.
  • the wireless communication module 192 may support various requirements defined for the electronic device 101, an external electronic device (eg, the electronic device 104), or a network system (eg, the second network 199).
  • the wireless communication module 192 may include a peak data rate for realizing eMBB (eg, 20 Gbps or more), a loss coverage for realizing mMTC (eg, 164 dB or less), or a U-plane latency for realizing URLLC (eg, Example: downlink (DL) and uplink (UL) each of 0.5 ms or less, or round trip 1 ms or less) may be supported.
  • eMBB eg, 20 Gbps or more
  • a loss coverage for realizing mMTC eg, 164 dB or less
  • U-plane latency for realizing URLLC eg, Example: downlink (DL) and uplink (UL) each of 0.5 ms or less, or round trip 1 ms or less
  • the antenna module 197 may transmit or receive signals or power to the outside (eg, an external electronic device).
  • the antenna module 197 may include an antenna including a radiator formed of a conductor or a conductive pattern formed on a substrate (eg, PCB).
  • the antenna module 197 may include a plurality of antennas (eg, an array antenna). In this case, at least one antenna suitable for a communication method used in a communication network such as the first network 198 or the second network 199 is selected from the plurality of antennas by the communication module 190, for example. It can be.
  • a signal or power may be transmitted or received between the communication module 190 and an external electronic device through the selected at least one antenna.
  • other components eg, a radio frequency integrated circuit (RFIC) may be additionally formed as a part of the antenna module 197 in addition to the radiator.
  • RFIC radio frequency integrated circuit
  • the antenna module 197 may form a mmWave antenna module.
  • the mmWave antenna module includes a printed circuit board, an RFIC disposed on or adjacent to a first surface (eg, a lower surface) of the printed circuit board and capable of supporting a designated high frequency band (eg, mmWave band); and a plurality of antennas (eg, array antennas) disposed on or adjacent to a second surface (eg, a top surface or a side surface) of the printed circuit board and capable of transmitting or receiving signals of the designated high frequency band.
  • a first surface eg, a lower surface
  • a designated high frequency band eg, mmWave band
  • a plurality of antennas eg, array antennas
  • peripheral devices eg, a bus, general purpose input and output (GPIO), serial peripheral interface (SPI), or mobile industry processor interface (MIPI)
  • signal e.g. commands or data
  • commands or data may be transmitted or received between the electronic device 101 and the external electronic device 104 through the server 108 connected to the second network 199 .
  • Each of the external electronic devices 102 or 104 may be the same as or different from the electronic device 101 .
  • all or part of operations executed in the electronic device 101 may be executed in one or more external electronic devices among the external electronic devices 102 , 104 , or 108 .
  • the electronic device 101 when the electronic device 101 needs to perform a certain function or service automatically or in response to a request from a user or another device, the electronic device 101 instead of executing the function or service by itself.
  • one or more external electronic devices may be requested to perform the function or at least part of the service.
  • One or more external electronic devices receiving the request may execute at least a part of the requested function or service or an additional function or service related to the request, and deliver the execution result to the electronic device 101 .
  • the electronic device 101 may provide the result as at least part of a response to the request as it is or additionally processed.
  • cloud computing distributed computing, mobile edge computing (MEC), or client-server computing technology may be used.
  • the electronic device 101 may provide an ultra-low latency service using, for example, distributed computing or mobile edge computing.
  • the external electronic device 104 may include an internet of things (IoT) device.
  • Server 108 may be an intelligent server using machine learning and/or neural networks. According to an embodiment, the external electronic device 104 or server 108 may be included in the second network 199 .
  • the electronic device 101 may be applied to intelligent services (eg, smart home, smart city, smart car, or health care) based on 5G communication technology and IoT-related technology.
  • FIG. 2 is a diagram illustrating a display area provided according to a display area expansion state of a display according to an exemplary embodiment.
  • the electronic device 200 is an electronic device including a flexible display having a variable display shape, and may include a roller 210 and a display 220 .
  • the roller 210 may be implemented in a cylindrical shape to roll or unroll the display 220 and may be disposed within the housing of the electronic device 200 .
  • the display 220 is a flexible display in which the size of a display area of the display exposed to the outside (or shown on the front of the electronic device) can be changed (eg, expanded or reduced), and is a rollable display ( It may be a rollable display or a slideable display.
  • the size of the display area of the display may be changed according to a deformation state of the display 220 (eg, a rolling state, a sliding state, an expansion state, a contraction state, a maximum or large expansion state, a maximum reduction state, and an intermediate state).
  • the display 220 may display a user's input (eg, a roll-in/roll-out input according to a rolling motion or a slide-in input according to a sliding motion). / can be expanded or contracted according to slide-out input).
  • the display 220 may automatically, semi-automatically, or manually expand or contract according to the occurrence of a designated event.
  • the display 220 may be rolled or unrolled in at least one direction (eg, an x-axis direction (horizontal direction) or a y-axis direction (vertical direction)) by the roller 210 .
  • at least a portion of the display 220 may be housed in the housing and the display area may be exposed to the outside.
  • the display 220 is released from rolling in the x-axis direction by the roller 210, at least a portion of the display area accommodated in the housing is pulled out to expand the horizontal size (length in the x-axis direction) of the display area exposed to the outside.
  • the expanded display 230 may be divided into a first area 231 that is always exposed to the outside regardless of whether the display is deformed, and a second area 232 that is additionally exposed after expansion.
  • the size of the first area 231 may correspond to the size of the display 220 in a rolled state by the roller 210 .
  • the size of the second area 232 may correspond to the size of the display area drawn out after being unrolled by the roller 210 .
  • the electronic device 200 may provide content different from that of the first area 231 through the second area 232 .
  • the first area 231 an execution screen of an application that the user was watching or was running before expansion is provided, and in the second area 232, event-related information detected while the application is running or additional information related to the application is provided. information may be provided.
  • the first area 231 and the second area ( 232) may be changed based on the grip state of the user.
  • the electronic device 200 may check the gripping position according to the grip state, and determine the positions of the first area 231 and the second area 232 based on the checked gripping position.
  • the first area 231 is determined based on the left side of the expanded display 230, and the second area 232 based on the right side of the expanded display 230.
  • the electronic device 200 may check the screen direction according to the grip state, and determine the positions of the first area 231 and the second area 232 based on the checked screen direction.
  • the first area 231 is determined based on the lower part of the extended display 230, and the extended display ( The second region 232 may be determined based on the upper portion of 230 .
  • FIG. 3 is a block diagram illustrating a configuration of an electronic device 200 according to an exemplary embodiment.
  • the electronic device 200 is a flexible type device having a variable size of a display area exposed to the outside, and includes a housing (not shown), a display 310, a processor 320, or a memory 330. can do.
  • the electronic device 200 may correspond to the electronic device 101 shown in FIG. 1 or the flexible type electronic device 200 shown in FIG. 2 .
  • the display 310 (eg, the display module 160 of FIG. 1 ) is an output means capable of changing (eg, expanding or contracting) the size of a display area exposed to the outside of the electronic device 200,
  • the user interface may be differently displayed according to the deformation state.
  • the size of the display area of the display 310 may be changed (eg, expanded or reduced) according to a rolling motion or a sliding motion. For example, a rolling-out operation in a state in which a portion of the display 310 is accommodated inside the housing (eg, a rolled-in state or a slide-in state retracted into the housing)
  • the size of the display area may be expanded.
  • the size of the display area may be reduced.
  • the memory 330 when executed, causes at least one processor 320 (eg, the processor 120 of FIG. 1 ) to perform various operations.
  • Controlling instructions can be stored.
  • at least one processor 320 may perform operations to provide a multi-window function when the display 310 is extended.
  • the at least one processor 320 may detect that the display 310 is extended from the housing while providing the first screen. For example, the at least one processor 320 may determine whether the display 310 is expanded by detecting whether the display 310 is rolled or released by a roller included in the housing. When at least a partial area of the display 310 is unrolled by a roller included in the housing while being accommodated in the housing, at least one processor 320 may confirm that the display 310 is extended from the housing.
  • the first screen may include at least one of one or more contents that the user was watching before the expansion of the display 310 or an execution screen of an application.
  • the at least one processor 320 automatically expands the display 310 when a specified event (eg, notification of a phone call, reception of a message, reception of a notification related to an application, or user input) occurs, or performed by a user.
  • a specified event eg, notification of a phone call, reception of a message, reception of a notification related to an application, or user input
  • the roller may be controlled to expand the display 310 by a designated operation (eg, a rolling out operation or a sliding out operation).
  • the at least one processor 320 may check the grip state of the user in response to detecting the expansion of the display 310 .
  • the grip state may include at least one of a direction of the screen exposed through the display 310 or a grip position of the user.
  • At least one processor 320 may determine whether the screen direction is a horizontal direction or a vertical direction. At least one processor 320 may detect in which direction the electronic device 200 is rotated by the user's grip. When the at least one processor 320 confirms that the screen direction is the horizontal direction (eg, the x-axis direction or the landscape mode direction) according to the detection result, the lower part of the display 310 is gripped in consideration of a general user behavior pattern. can be determined to be When the at least one processor 320 confirms that the screen is in a vertical direction (eg, a y-axis direction or a portrait mode direction) according to the detection result, it can additionally confirm the position held by the user.
  • a vertical direction eg, a y-axis direction or a portrait mode direction
  • At least one processor 320 may determine whether the location grasped by the user is the left portion or the right portion of the display 310 . For example, at least one processor 320 may check the gripping position based on a main use direction set by a user. When the one-handed manipulation mode is set for the electronic device 200, at least one processor 320 may check the gripping position based on the main direction (or the dominant hand) selected by the user. For another example, at least one processor 320 may check the grip position using one or more sensors (eg, the sensor module 176 of FIG. 1 ).
  • At least one processor 320 determines which side part of the display 310 is based on sensing data obtained from at least one of a grip sensor, a touch sensor, a pressure sensor, an acceleration sensor, or a gyro sensor included in the electronic device 200 . You can check if it is gripped. At least one processor 320 may check the gripping position based on an edge display area where the gripping by the user is detected. As another example, at least one processor 320 may check the holding position using a wearable device (eg, smart watch) worn by the user or an electronic pen being used by the user.
  • a wearable device eg, smart watch
  • the processor 320 When the at least one processor 320 recognizes which direction the wearable device is worn on the user's wrist, the processor 320 is based on at least one of a communication distance with the wearable device or sensing data obtained from a gyro sensor of the wearable device. As a result, it is possible to check which direction the hand is holding the electronic device 200 . At least one processor 320 controls the electronic pen and the hand holding the electronic pen based on at least one of the direction or angle at which the electronic pen is input when the electronic pen is used, or the sensing data obtained from the gyro sensor inside the electronic pen. The direction of the hand holding the device 200 may be checked, and the holding position may be determined based on the checking result.
  • the at least one processor 320 may determine a first area where the first screen is displayed when the display 310 is extended based on the confirmed grip state. For example, if the screen direction determined based on the grip state is a horizontal direction (eg, an x-axis direction or a landscape mode direction), the at least one processor 320 determines the third direction based on the lower area of the extended display. 1 area can be determined. For another example, if the screen direction is a vertical direction (eg, a y-axis direction or a portrait mode direction), the at least one processor 320 additionally checks the gripping position of the user based on the grip state, and The first area may be determined according to the gripping position.
  • a horizontal direction eg, an x-axis direction or a landscape mode direction
  • the at least one processor 320 determines the third direction based on the lower area of the extended display. 1 area can be determined.
  • the at least one processor 320 additionally checks the gripping position of the user based on the grip state, and The first area
  • At least one processor 320 may determine the first area based on the left area of the expanded display.
  • at least one processor 320 may determine the first area based on the right area of the expanded display.
  • the gripping position may be determined according to the direction of the user's gripping hand.
  • the at least one processor 320 controls the user's grip based on the main use direction (or mainly used hand) set by the user, sensing data obtained from one or more sensors, or an external electronic device (eg, a wearable device or an electronic pen).
  • the direction of one hand may be checked, and the holding position may be determined according to the checking result.
  • At least one processor 320 can confirm that both the left and right portions of the display 310 are gripped by the user when the screen direction is a vertical direction (eg, a y-axis direction or a portrait mode direction). there is.
  • at least one processor 320 may determine the first region based on the side where the grip is maintained for a long time among both sides. For example, the at least one processor 320 may determine the gripping position by checking the side where the grip is continuously maintained when one hand is separated from the gripping state with both hands. For another example, even if the at least one processor 320 detects that the other hand is additionally gripped after the display 310 is extended in the holding state with one hand, the first area is not changed and the existing display state is maintained.
  • the at least one processor 320 confirms that the left portion of the electronic device 200 is gripped by the user, the right portion of the electronic device 200 is determined after the first area is determined based on the left area of the expanded display. If it is confirmed that it is additionally gripped, the determined direction of the first region may be maintained as it is, giving priority to the left gripping state.
  • the at least one processor 320 may determine the user's intention based on sensing data acquired from one or more sensors. For example, the at least one processor 320 may determine the gripping position based on a position where a relatively high gripping pressure is sensed in a gripping state with both hands or a position where the gripping pressure acts in a direction in which the display 310 is pulled. there is. For another example, if the at least one processor 320 determines that the gripping pressure detected by the one or more sensors exceeds a specified threshold level, the display 310 may not be expanded even if the event occurs. .
  • At least one processor 320 may check whether the determined first area corresponds to the drawing direction of the display 310 .
  • the drawing direction of the display 310 may be determined based on a position of a roller that rolls or unrolls at least a portion of the display 310 .
  • At least one processor 320 may determine a direction opposite to the direction in which the roller is positioned based on the display 310 as the drawing direction of the display 310 . For example, if the roller is located on the left side of the display 310 (at least a portion of the display 310 is unrolled and expanded by the roller while being accommodated in the left side), at least one processor ( 320 ) it can be confirmed that the display 310 is drawn out in the right direction.
  • the roller is located in the lower portion of the display 310 (at least a portion of the display 310 is accommodated in the lower portion and is then rolled out and expanded by the roller), at least one processor ( 320 , it can be confirmed that the display 310 is drawn out in an upward direction.
  • the at least one processor 320 controls a direction in which a user input for expanding the display 310 (eg, a roll-out input according to a rolling motion or a slide-out motion according to a sliding motion) is applied.
  • the drawing direction of the display 310 may be determined accordingly.
  • the at least one processor 320 displays a second screen distinct from the first screen drawn out from the housing. can be displayed on the area.
  • the first area determined based on the user's grip state corresponds to the drawing direction of the display 310
  • the first screen displays the original location. It can be continuously displayed while maintaining.
  • the second area which is additionally exposed as the display 310 expands, may be determined to be located on a display area that is received and then drawn out of the housing.
  • a size of the second area may correspond to a size of a display area drawn out from the housing.
  • At least one processor 320 may display a second screen different from the first screen on the second area.
  • the second screen may include information related to an event occurring while the first screen is being provided.
  • the event may include at least one of phone notification, message reception, application-related notification reception, and user input.
  • the second processor 320 detects that the event occurs while providing the first screen in a state where at least a portion of the display 310 is accommodated in the housing, the second processor 320 includes information related to the event. screen can be created.
  • At least one processor 320 withdraws the display 310 from the housing automatically in response to the occurrence of the event or based on a user input or motion detected after the occurrence of the event, and displays the generated second screen as the second screen. It can be displayed on 2 areas.
  • the at least one processor 320 moves the first screen to the first area and draws it out of the housing.
  • the first screen may be displayed on the display area.
  • the location of the first area is a display area stored in the housing and then drawn out, so that the first screen may be displayed by moving to a display area drawn out from the housing.
  • the at least one processor 320 may control the first screen to shift and move to the first area in synchronization with the speed at which the display 310 is withdrawn from the housing.
  • the second area that is additionally exposed as the display 310 is expanded may be determined to be located on the display area that is always exposed to the outside.
  • a size of the second area may correspond to a size of a display area drawn out from the housing.
  • At least one processor 320 may provide the second screen differently according to the extent to which the display 310 is drawn out from the housing and expanded. For example, at least one processor 320 does not display anything on the second area while the display 310 is expanded and maintains an empty state, and after the display 310 is completely drawn out, the second area is displayed in the expanded display. The second screen may be displayed on the second area so that the second screen may be exposed at once after the display 310 is completely drawn out. For another example, the at least one processor 320 may gradually display the second screen according to the size of the second area while the display 310 is extended from the housing.
  • the second screen is not exposed at once, but the second screen may be partially exposed according to the extent of the drawing of the display 310, and after the drawing of the display 310 is completed, the entire second screen is the second screen. It can be displayed in 2 areas.
  • the at least one processor 320 changes the size of the content included in the second screen according to the size of the second area while the display 310 is drawn out from the housing and expanded. can do.
  • the content included in the second screen may be displayed in an abbreviated form or in a size reduced by a certain ratio according to the degree of drawing out of the display 310, and the content of the second area expanded by the drawing out of the display 310. According to the size, the size of the content may be gradually expanded and displayed.
  • At least one processor 320 may display one or more second screens by dividing the second area into a plurality of pieces. For example, the at least one processor 320 generates one or more second screens in response to one or more events detected while providing the first screen, and displays the one or more second screens as the divided second screens. can be displayed on the area. For another example, at least one processor 320 may display the one or more second screens at a location designated by a user. When at least one processor 320 detects a user input indicating a display position for the one or more second screens after the display 310 is drawn out from the housing and expanded, the at least one processor 320 places the display at the position indicated by the user input. It can be controlled to display one or more second screens.
  • At least one processor 320 may confirm that the screen direction of the display 310 is changed while providing the first screen and the second screen through the extended display.
  • the at least one processor 320 rearranges the first screen and the second screen based on the changed screen direction and the holding position after the screen change, and provides the first screen and the second screen according to the user's viewpoint. can do.
  • the at least one processor 320 confirms that the screen orientation of the display 310 is rotated from a vertical direction to a horizontal direction (eg, switching from portrait mode to landscape mode)
  • the lower part of the extended display is used as reference.
  • the first screen may be disposed as, and the second screen may be disposed based on an upper portion of the expanded display.
  • At least one processor 320 when at least one processor 320 confirms that the screen orientation of the display 310 is rotated from a horizontal direction to a vertical direction (eg, conversion from landscape mode to portrait mode), after rotating the screen orientation, the user is informed. It is possible to check the position grasped by If the confirmed grip position is the left portion of the expanded display, at least one processor 320 arranges the first screen based on the left portion of the expanded display, and arranges the first screen based on the right portion of the expanded display. The second screen may be arranged. If the confirmed grip position is the right portion of the expanded display, at least one processor 320 arranges the first screen based on the right portion of the expanded display, and based on the left portion of the expanded display. The second screen may be arranged.
  • FIG. 4 is a diagram illustrating a detailed configuration of an electronic device 200 according to an exemplary embodiment. Each embodiment of the present disclosure may be used in combination with other embodiment(s).
  • the electronic device 200 includes a sensor module 411 including a sensing circuitry, a communication module 412 including a communication circuitry, a camera 413, and a processing circuit ( It may include a processor 420 including processing circuitry, a memory 430, a display 441, or a roller 442. 4 may be understood as illustrating an expanded configuration of the electronic device 200 of FIG. 3 . According to various embodiments, the electronic device 200 may further include components corresponding to functions required by the electronic device 200 among the components shown in FIG. 1 in addition to the components shown in FIG. 4 . there is.
  • the sensor module 411 may detect a grip state of the user with respect to the electronic device 200 .
  • the sensor module 411 may include at least one of a grip sensor, a touch sensor, a pressure sensor, an acceleration sensor, or a gyro sensor.
  • the sensor module 411 may detect which side portion of the display 441 is gripped by the user using the at least one sensor.
  • the sensor module 411 may detect the direction of the screen exposed through the display 441 using the at least one sensor.
  • the sensor module 411 may include a user input for changing the shape of the display 441 (eg, a roll-in/roll-out input according to a rolling motion, A slide-in/slide-out input according to a sliding motion) may be detected.
  • a user input for changing the shape of the display 441 eg, a roll-in/roll-out input according to a rolling motion, A slide-in/slide-out input according to a sliding motion
  • the communication module 412 communicates with one or more external devices (eg, electronic device 102 or electronic device 104 of FIG. 1 ). may be set, and data required to check the grip state may be acquired from the external device.
  • the communication module 412 may receive sensing data related to a hand movement from a wearable device worn by the user (eg, a smart watch) or may measure a communication distance with the wearable device.
  • the communication module 412 may obtain sensing data related to a hand movement from an electronic pen being used by the user.
  • the communication module 412 may include short-range communication such as Bluetooth, Wi-Fi direct, Bluetooth low energy (BLE), or ultra-wide band (UWB) communication.
  • the camera 413 (eg, the camera module 180 of FIG. 1 , including the imaging circuitry) is used to capture one or more images or videos, and the screen direction or extension of the display 441 . can be checked.
  • the camera 413 may check the screen orientation of the display 441 based on a use mode (eg, landscape mode, portrait mode, or selfie mode) under user control.
  • the camera 413 may check an extension direction of the display 441 based on a focus movement direction according to the movement of the display 441 during shooting.
  • At least one processor 420 includes processing circuitry, can control various functions or operations of the electronic device 200, and is the same as the processor 320 shown in FIG. configuration can be understood.
  • the processor 420 checks the user's grip state and/or the deformation state of the display 441 based on the data obtained through the sensor module 411, the communication module 412, or the camera 413, and It may be controlled to configure and provide a user interface in response to the user's grip state and/or the deformation state of the display 441 .
  • the memory 430 (eg, the memory 130 of FIG. 1 ) stores instructions for controlling the processor 420 to perform various operations and programs or contents that may be provided by the electronic device 200 .
  • the memory 430 includes an area for storing one or more applications 431 that are installed and executable in the electronic device 200 and one or more widgets 432 that can be provided separately from the execution screen of the applications.
  • a storage area may be included.
  • the processor 420 may control to display at least one of the execution screen of the application 431 or the widget 432 screen on the display 441 based on the user's grip state and/or the deformation state of the display 441. there is.
  • the display 441 is an output unit capable of changing (eg, expanding or contracting) the size of a display area exposed to the outside of the housing 400 of the electronic device 200, and the display 310 shown in FIG. ) can correspond to.
  • the display 441 may output at least one of an execution screen of the application 431 and a screen of the widget 432 through a space exposed to the outside of the electronic device 200 .
  • the roller 442 may deform the display 441 by rolling or unrolling at least a portion of the display 441 . When the display 441 is rolled by the roller 442, at least a portion of the display 441 is housed in the housing 400 and the display area of the display exposed to the outside may be reduced.
  • the processor 420 automatically expands the display 441 when a specified event (eg, notification of a phone call, reception of a message, reception of a notification related to an application, or user input) occurs, or a specified operation performed by a user.
  • a specified event eg, notification of a phone call, reception of a message, reception of a notification related to an application, or user input
  • the roller may be controlled so that the display 441 is expanded by (eg, a rolling out operation or a sliding out operation).
  • 5A, 5B, 5C, and 5D are diagrams illustrating a method of dividing a display area based on a grip state of a user according to an exemplary embodiment.
  • the electronic device 200 may detect that the display area exposed to the outside is expanded while providing the first screen.
  • the first screen may include at least one of one or more contents or an execution screen of an application that the user was watching before the display area was expanded.
  • the display area is performed automatically, semi-automatically, or by the user when a specified event (eg, phone notification, message reception, application-related notification reception, or user input) occurs while at least a portion of the display is rolled by the roller 210.
  • a specified event eg, phone notification, message reception, application-related notification reception, or user input
  • Rolling can be released and expanded by a designated operation (eg, a rolling out operation or a sliding out operation).
  • a designated operation eg, a rolling out operation or a sliding out operation.
  • the electronic device 200 may additionally provide a second screen distinct from the first screen.
  • the second screen may include information related to the designated event or additional information about content provided through the first screen.
  • the first screen and the second screen may be displayed in different positions according to the user's grip state so as to reduce inconvenience such as a user's gaze change without interfering with the content being watched by the user.
  • the electronic device 200 may check the direction of the screen exposed through the display according to the user's grip, and arrange the first screen and the second screen based on the checked screen direction.
  • the electronic device 200 when the screen direction is a vertical direction (eg, a y-axis direction or a portrait mode direction), the electronic device 200 additionally checks the gripping position of the user according to the grip state, and determines the gripping position. Positions of the first screen and the second screen may be determined based on.
  • the screen direction of the electronic device 200 is a vertical direction (eg, a y-axis direction or a portrait mode direction)
  • the first screen and the second screen may be arranged as shown in FIG. 5A or 5B.
  • the electronic device 200 can confirm that the left part of the display is gripped by the user's left hand 501 while displaying the first screen before the display area of the display is expanded.
  • the electronic device 200 may determine the first area 511 to display the first screen after expanding the display area of the display based on the left portion of the expanded display.
  • the size of the first area 511 may correspond to the size of the display area of the display before expansion.
  • the electronic device 200 may check whether the determined first area 511 corresponds to the drawing direction of the display.
  • the electronic device 200 may determine a direction opposite to the direction in which the roller 210 is positioned based on the display as the drawing direction of the display.
  • the first area 511 is disposed in the left direction of the expanded display, and the display is drawn out and expanded in the right direction by the roller 210, so that the electronic device 200 has the first area 511 It can be confirmed that it does not correspond to the drawing direction of the display.
  • the electronic device 200 may shift and move the first screen in the left direction of the expanded display in synchronization with the display's drawing speed.
  • the electronic device 200 may determine the rest of the display area except for the first area 511 in the expanded display as the second area 512 to display the second screen.
  • the second area 512 may be determined based on the right side of the expanded display, and the size of the second area 512 may correspond to the size of the display area drawn out by the roller 210. there is.
  • the electronic device 200 can confirm that the right part of the display is gripped by the user's right hand 502 while displaying the first screen before the display area of the display is expanded.
  • the electronic device 200 may determine the first area 521 to display the first screen after the display area is expanded based on the right portion of the expanded display.
  • the size of the first area 521 may correspond to the size of the display area before expansion.
  • the electronic device 200 may check whether the determined first area 521 corresponds to the drawing direction of the display.
  • the electronic device 200 may determine a direction opposite to the direction in which the roller 210 is positioned based on the display as the drawing direction of the display. In FIG.
  • the first area 521 is disposed on the right side of the expanded display, and/or the display is pulled out and expanded in the right direction by the roller 210, so that the electronic device 200 has the first area ( 521) corresponds to the drawing direction of the display.
  • the electronic device 200 may determine the rest of the display area except for the first area 521 in the expanded display as the second area 522 to display the second screen.
  • the second area 522 may be determined based on the left portion of the expanded display, and the size of the second area 522 may correspond to the size of the display area drawn out by the roller 210. there is.
  • the electronic device 200 may confirm that both the left and right portions of the display are grasped by the user when the screen direction is a vertical direction (eg, a y-axis direction or a portrait mode direction).
  • the electronic device 200 may determine the direction of the first regions 511 and 521 by giving priority to the side where the grip is maintained for a long time.
  • the electronic device 200 may determine the first regions 511 and 521 based on the side where the grip is continuously maintained when one hand moves away from the gripping state with both hands.
  • the electronic device 200 detects that the other hand is additionally gripped after the display 310 is extended in a gripping state with one hand, the first areas 511 and 521 are not changed and the existing display 310 is expanded. state can be maintained.
  • the electronic device 200 confirms that the left portion of the display is gripped in FIG. 5A, after determining the first area 511 based on the left area of the expanded display, it is confirmed that the right portion of the display is additionally gripped. , the determined first region 511 may be maintained as it is, giving priority to the left gripping state.
  • the electronic device 200 when the screen direction is a horizontal direction (eg, an x-axis direction or a landscape mode direction), the electronic device 200 assumes that the lower portion of the display is gripped in consideration of a general user behavior pattern, and Positions of the first screen and the second screen may be determined.
  • the screen direction of the electronic device 200 is a horizontal direction (eg, an x-axis direction or a landscape mode direction)
  • the first screen and the second screen may be arranged as shown in FIG. 5c or 5d.
  • the electronic device 200 can confirm that the lower part of the display is gripped by the user's left hand 501 and/or right hand 502 while displaying the first screen before the display area of the display is expanded. .
  • the electronic device 200 may determine the first area 531 to display the first screen after the display area of the display is expanded based on the lower portion of the expanded display.
  • the size of the first area 531 may correspond to the size of the display area of the display before expansion.
  • the electronic device 200 may check whether the determined first area 531 corresponds to the drawing direction of the display.
  • the electronic device 200 may determine a direction opposite to the direction in which the roller 210 is positioned based on the display as the drawing direction of the display. In FIG.
  • the first area 531 is disposed in the lower direction of the expanded display, and the display is drawn out and expanded in the upward direction by the roller 210, so that the electronic device 200 has the first area 531 It can be confirmed that it does not correspond to the drawing direction of the display.
  • the electronic device 200 may shift and move the first screen in the lower direction of the expanded display in synchronization with the display's drawing speed.
  • the electronic device 200 may determine the rest of the display area except for the first area 531 in the expanded display as the second area 532 to display the second screen.
  • the second area 532 may be determined based on the upper portion of the expanded display, and the size of the second area 532 may correspond to the size of the display area drawn out by the roller 210. there is.
  • the electronic device 200 can confirm that the lower part of the display is gripped by the user's left hand 501 and/or right hand 502 while displaying the first screen before the display area of the display is expanded. .
  • the electronic device 200 may determine the first area 541 to display the first screen after the display area is expanded based on the lower portion of the expanded display.
  • the size of the first area 541 may correspond to the size of the display area before expansion.
  • the electronic device 200 may check whether the determined first area 541 corresponds to the drawing direction of the display.
  • the electronic device 200 may determine a direction opposite to the direction in which the roller 210 is positioned based on the display as the drawing direction of the display. In FIG.
  • the first area 541 is disposed in the lower direction of the expanded display, and the display is pulled out and expanded in the lower direction by the roller 210, so that the electronic device 200 has the first area 541 It can be confirmed that it corresponds to the drawing direction of the display. In this case, since the user is holding the lower part of the display, even if the display is drawn out in a downward direction, the user can recognize that the display area is expanding upward, and the first screen continues to maintain its original position. can be displayed as In one embodiment, the electronic device 200 may determine the rest of the display area except for the first area 541 in the expanded display as the second area 542 to display the second screen. In FIG. 5D , the second area 542 may be determined based on the left portion of the expanded display, and the size of the second area 542 may correspond to the size of the display area drawn out by the roller 210. there is.
  • FIGS. 6A, 6B, and 6C are diagrams illustrating a method of providing a first screen 610 and/or a second screen 620 in consideration of a user's grip state when a display is extended, according to an exemplary embodiment.
  • the electronic device 200 when the electronic device 200 detects that the display area is expanded while providing the first screen, the electronic device 200 displays the first screen 610 and/or the second screen 620 based on the grip state of the user.
  • the first screen 610 may be an execution screen of a video application being executed before expansion of the display area.
  • the second screen 620 is a screen additionally displayed after the expansion of the display area, and information related to an event occurring while the first screen 610 is being provided or additional content provided through the first screen 610. information may be included.
  • the event may include at least one of phone notification, message reception, application-related notification reception, and user input.
  • the electronic device 200 may display the first screen 610 in a state where at least a portion of the display is accommodated in the housing. While the electronic device 200 displays the first screen 610, it can be confirmed that at least a portion of the display is pulled out from the housing and the display area exposed to the outside is expanded. For example, the electronic device 200 may automatically control the display area to be expanded in response to detecting the occurrence of the event. For another example, the electronic device 200 expands the display area when a user-specified operation (rolling out operation or sliding out operation) is performed after the event occurs or when the electronic device 200 detects a user's touch input. You can control it.
  • a user-specified operation rolling out operation or sliding out operation
  • the electronic device 200 when a roller for rolling or unrolling at least a portion of the display is located on the left side of the display, the electronic device 200 indicates that the display is pulled out in the right direction by the roller while the display area is expanded. You can check.
  • the electronic device 200 confirms that the right part of the display is gripped by the user's right hand 601 while displaying the first screen 610, and the first screen is based on the right part of the expanded display. (610).
  • the electronic device 200 controls the first screen 610 to be continuously displayed while maintaining the original position. can do.
  • the additionally provided second screen 620 may be displayed on the remaining display area except for the area where the first screen 610 is provided within the expanded display.
  • the electronic device 200 may determine to provide the second screen 620 based on a left direction, which is the opposite direction to the position held by the user, and is displayed on the display area drawn out from the housing when the display is extended. 2 screens 620 may be displayed.
  • the electronic device 200 may display the first screen 610 in a state where at least a portion of the display is accommodated in the housing. While the electronic device 200 displays the first screen 610, it can be confirmed that at least a portion of the display is pulled out from the housing and the display area exposed to the outside is expanded. 6B, while displaying the first screen 610, the electronic device 200 confirms that the left portion of the display is gripped by the user's left hand 602, and the first screen is based on the left portion of the expanded display. (610).
  • the electronic device 200 shifts and moves the first screen 610 in the left direction of the expanded display.
  • the electronic device 200 shifts the first screen to the left of the expanded display in synchronization with the display's drawing speed. You can control it to move.
  • the additionally provided second screen 620 may be displayed on the remaining display area except for the area where the first screen 610 is provided within the expanded display.
  • the electronic device 200 may determine to provide the second screen 620 based on the right direction, which is opposite to the position grasped by the user, and the first screen 610 shifts when the display is extended. Accordingly, the second screen 620 can be displayed on the empty display area.
  • the electronic device 200 may display the first screen 610 in a horizontal direction (or landscape direction) with at least a portion of the display accommodated in the housing. While the electronic device 200 displays the first screen 610, it can be confirmed that at least a portion of the display is pulled out from the housing and the display area exposed to the outside is expanded. In FIG. 6C, the electronic device 200 confirms that the lower part of the display is gripped by the user's right hand 601 and/or left hand 602 while displaying the first screen 610, and the lower part of the expanded display is confirmed. It may be determined to provide the first screen 610 on a part-by-part basis.
  • the electronic device 200 may determine a direction opposite to a position of a roller that rolls or unrolls at least a portion of the display as a drawing direction of the display. For example, if the roller is located below the display, the electronic device 200 can confirm that the display is drawn upward by the roller while the display area is expanded. In this case, since the position where the first screen 610 is displayed when the display area is expanded does not correspond to the direction in which the display is drawn, the electronic device 200 shifts and moves the first screen 610 in the lower direction of the expanded display. can In order to minimize or reduce discomfort that a user may feel during the movement of the first screen 610, the electronic device 200 shifts the first screen in the lower direction of the expanded display in synchronization with the display's drawing speed.
  • the electronic device 200 may confirm that the display is drawn downward by the roller while the display area is expanded. In this case, when the display area is expanded, since the displayed position of the first screen 610 corresponds to the display drawing direction, the electronic device 200 controls the first screen 610 to be continuously displayed while maintaining the original position. can do.
  • the additionally provided second screen 620 may be displayed on the remaining display area except for the area where the first screen 610 is provided within the expanded display. For example, the electronic device 200 may determine to provide the second screen 620 based on the upward direction of the expanded display.
  • the electronic device 200 is a flexible type device in which the size of a display area exposed to the outside is variable, and includes the electronic device 101 shown in FIG. 1 or the electronic device 200 shown in FIG. 2 . can correspond to The operations of FIG. 7 may be performed by at least one processor included in the electronic device 200 (eg, processor 120 of FIG. 1 or at least one processor 320 of FIG. 3 ).
  • the electronic device 200 detects that a display (eg, the display module 160 of FIG. 1 or the display 310 of FIG. 3 ) is extended from the housing while providing a first screen.
  • the first screen may include at least one of one or more contents or application execution screens that the user was watching before the expansion of the display 310 .
  • the electronic device 200 may determine whether the display 310 is expanded by detecting whether the display 310 is rolled or released by a roller included in the housing. When at least a partial area of the display 310 is unrolled by a roller included in the housing while being accommodated in the housing, at least one processor 320 may confirm that the display 310 is extended from the housing.
  • the electronic device 200 automatically expands the display 310 when a specified event (eg, notification of a phone call, reception of a message, reception of a notification related to an application, or user input) occurs, or a specified event performed by a user
  • a specified event eg, notification of a phone call, reception of a message, reception of a notification related to an application, or user input
  • the roller may be controlled to expand the display 310 by an operation (eg, a rolling out operation or a sliding out operation).
  • the electronic device 200 may check the grip state of the user.
  • the grip state may include at least one of a direction of the screen exposed through the display 310 and a grip position of the user.
  • the electronic device 200 may determine a first area where the first screen is displayed when the display 310 is extended, based on the checked grip state. Details regarding the determination of the first area in operation 730 will be described with reference to FIG. 8 .
  • the electronic device 200 may check the direction of the screen exposed through the display 310 based on the grip state. For example, the electronic device 200 may detect whether the screen direction of the display 310 is rotated horizontally or vertically by the user's grip.
  • the electronic device 200 may determine whether the checked screen direction is a horizontal direction (eg, an x-axis direction or a landscape mode direction). As a result of the check, if it is determined that the screen direction is the horizontal direction (operation 820 - Yes), the electronic device 200 may determine the first area based on the lower area of the expanded display in operation 825. When the screen direction is the horizontal direction, the electronic device 200 assumes that the lower part of the display 310 is gripped according to a general user behavior pattern, and based on the lower part of the expanded display, the first area location can be determined.
  • a horizontal direction eg, an x-axis direction or a landscape mode direction.
  • the electronic device 200 may additionally check the user's holding position in operation 830.
  • the electronic device 200 may determine whether the position gripped by the user is the left part or the right part of the display 310 based on the grip state. For example, the electronic device 200 may check the holding position based on the main use direction set by the user. When the one-handed manipulation mode is set, the electronic device 200 can check the gripping position based on the main direction (or the dominant hand) selected by the user.
  • the electronic device 200 may check the gripping position using one or more sensors (eg, the sensor module 176 of FIG. 1 ).
  • the one or more sensors may include at least one of a grip sensor, a touch sensor, a pressure sensor, an acceleration sensor, or a gyro sensor.
  • the electronic device 200 may determine which side portion of the display 310 is gripped based on the sensing data obtained from the one or more sensors.
  • the electronic device 200 may check the gripping position based on an edge display area where the gripping by the user is detected.
  • the electronic device 200 may check the holding position using a wearable device (eg, smart watch) worn by the user or an electronic pen being used by the user.
  • a wearable device eg, smart watch
  • the electronic device 200 determines which one is based on at least one of a communication distance with the wearable device and sensing data acquired from a gyro sensor of the wearable device. It may be checked whether the hand in the direction is gripping the electronic device 200 .
  • the electronic device 200 determines the electronic device and the hand holding the electronic pen based on at least one of the direction or angle at which the electronic pen is input when the electronic pen is used, or the sensing data obtained from the gyro sensor inside the electronic pen. 200) may be checked, and the holding position may be determined based on the checking result.
  • the electronic device 200 may determine the first area based on the confirmed gripping position.
  • the electronic device 200 may determine the first area based on the left area of the expanded display. For another example, if the gripping position is identified as the right portion of the display 310, the electronic device 200 may determine the first area based on the right area of the expanded display. According to various embodiments, when confirming that both the left and right portions of the display 310 are gripped, the electronic device 200 may determine the first area based on the side where the grip is maintained for a long time among both sides. For example, the electronic device 200 may determine the gripping position by checking the side where gripping is continuously maintained when one hand is separated from the gripping state with both hands.
  • the electronic device 200 may maintain the existing display state without changing the first area even when the display 310 is extended in a state of holding one hand and detecting that the other hand is additionally holding the display 310 .
  • the electronic device 200 confirms that the left portion of the display 310 is gripped by the user, the electronic device 200 determines that the right portion of the display 310 is additionally gripped after the first area is determined based on the left area of the expanded display. If confirmed, the determined direction of the first region may be maintained as it is, giving priority to the left gripping state.
  • the electronic device 200 may check whether the determined first area corresponds to the drawing direction of the display 310.
  • the drawing direction of the display 310 may be determined based on a position of a roller that rolls or unrolls at least a portion of the display 310 .
  • the electronic device 200 may determine a direction opposite to the direction in which the roller is positioned based on the display 310 as the drawing direction of the display 310 . For example, if the roller is located on the left side of the display 310 (at least a part of the display 310 is unrolled and expanded by the roller while being accommodated in the left side), the electronic device 200 It can be confirmed that the display 310 is drawn out in the right direction.
  • the electronic device 200 responds to a direction in which a user input for expanding the display 310 (eg, a roll-out input according to a rolling motion or a slide-out operation according to a sliding motion) is applied.
  • a drawing direction of the display 310 may be determined.
  • the electronic device 200 displays a second screen distinct from the first screen from the housing in operation 750. It can be displayed on the drawn out display area.
  • the first area determined based on the user's grip state corresponds to the drawing direction of the display 310
  • the first screen displays the original position. It can be continuously displayed while maintaining.
  • the second area which is additionally exposed as the display 310 expands, may be determined to be located on a display area that is received and then drawn out of the housing.
  • a size of the second area may correspond to a size of a display area drawn out from the housing.
  • the electronic device 200 may display a second screen different from the first screen on the second area.
  • the second screen may include information related to an event occurring while the first screen is being provided.
  • the event may include at least one of phone notification, message reception, application-related notification reception, and user input.
  • the electronic device 200 detects that the event occurs while providing the first screen in a state where at least a portion of the display 310 is accommodated in the housing, the electronic device 200 displays a second screen including information related to the event. can create The electronic device 200 withdraws the display 310 from the housing automatically in response to the occurrence of the event or based on a user input or motion detected after the occurrence of the event, and displays the generated second screen in the second area. can be displayed on
  • the electronic device 200 moves the first screen to the first area in operation 760 and The first screen may be displayed on a display area drawn out from the housing. If the first area determined based on the user's grip state does not correspond to the drawing direction of the display 310, the location of the first area is a display area stored in the housing and then drawn out, so that the first screen may be displayed by moving to a display area drawn out from the housing. At this time, the electronic device 200 may control the first screen to shift and move to the first area in synchronization with the speed at which the display 310 is withdrawn from the housing. In this case, the second area that is additionally exposed as the display 310 is expanded may be determined to be located on the display area that is always exposed to the outside. A size of the second area may correspond to a size of a display area drawn out from the housing.
  • FIGS. 9A, 9B, and 9C are diagrams illustrating a method of additionally providing a second screen in response to an event detected while a video application is running, according to an exemplary embodiment.
  • the electronic device 200 may detect that a specified event occurs while a video application is executed and the first screen 911 is provided.
  • the first screen 911 may include an execution screen of the video application, and the designated event may be a call notification received while the video application is running.
  • the electronic device 200 may generate a second screen related to the call notification in response to receiving the call notification, and provide the second screen when the display area is expanded.
  • the display area may be automatically expanded when the designated event occurs or may be expanded by a designated operation performed by a user (eg, a rolling out operation or a sliding out operation).
  • a roller for rolling or unrolling at least a portion of a display (eg, the display module 160 of FIG. 1 or the display 310 of FIG. 3) is on the left side of the display 310. , and it can be confirmed that the display 310 is drawn out in the right direction by the roller while the display area is expanded.
  • the electronic device 200 may differently provide the second screen according to the size of the extended display area when the display 310 is drawn out from the housing.
  • the electronic device 200 may provide a first screen 911 through the display area 910 before expansion.
  • the display area 910 before expansion is a state in which only the display area of the first size is exposed to the outside when the display 310 is reduced to a minimum or a small amount, and the first size always corresponds to the basic display area exposed to the outside.
  • the electronic device 200 detects that the display area is expanded while providing the first screen 911, it confirms that the left portion of the display 310 is gripped by the user, and when the display area 910 is expanded, the expanded display It is possible to control to provide the first screen 911 based on the left part of (920, 930) of (920, 930).
  • the electronic device 200 confirms that the position where the first screen 911 is provided does not correspond to the drawing direction of the display 310, and displays the first screen 911 at the drawing speed of the display 310. can be shifted in the left direction in synchronization with While the display 310 is drawn out, as the first screen 911 shifts within the expanding display area 920, the second related to receiving a call notification based on the right direction of the expanding display area 920
  • a space 921 for providing a screen may be gradually expanded.
  • the display area 920 being expanded may refer to a state in which the display area 920 of the second size is exposed to the outside as the display 310 is partially drawn out in a state where it is maximally reduced.
  • the electronic device 200 may maintain an empty state without displaying anything in the space 921 of the display area 920 being expanded while the display 310 is drawn out. Then, when the display 310 is completely drawn out, the electronic device 200 may provide a second screen 931 related to receiving a call notification based on the right portion of the expanded display area 930 .
  • the expanded display area 930 is a state in which the display 310 is pulled out of the housing and the display area of the third size is exposed to the outside, and the third size may correspond to the maximum or greatly expanded display area.
  • the electronic device 200 may provide a first screen 911 through the display area 910 before expansion.
  • the electronic device 200 detects that the display area is expanded while providing the first screen 911, it confirms that the left portion of the display 310 is gripped by the user, and when the display area 910 is expanded, the expanded display It is possible to control to provide the first screen 911 based on the left part of (920, 930) of (920, 930).
  • the electronic device 200 confirms that the position where the first screen 911 is provided does not correspond to the drawing direction of the display 310, and displays the first screen 911 at the drawing speed of the display 310.
  • the electronic device 200 may gradually display the second screen 932 according to the size of the space 922 within the expanding display area 920 .
  • the second screen 932 may not be exposed at once, but may be partially exposed according to the degree of withdrawal of the display 310 .
  • the electronic device 200 may display the entire second screen 932 based on the right portion of the expanded display area 930 .
  • the electronic device 200 may provide a first screen 911 through the display area 910 before expansion.
  • the electronic device 200 detects that the display area is expanded while providing the first screen 911, it confirms that the left portion of the display 310 is gripped by the user, and when the display area 910 is expanded, the expanded display It is possible to control to provide the first screen 911 based on the left part of (920, 930) of (920, 930).
  • the electronic device 200 confirms that the position where the first screen 911 is provided does not correspond to the drawing direction of the display 310, and displays the first screen 911 at the drawing speed of the display 310.
  • the electronic device 200 adjusts the size of the content (eg, icon or text) included in the second screen 933 according to the size of the space 923 in the display area 920 being expanded while the display 310 is being drawn out. can be displayed by changing In this case, the content included in the second screen 933 can be displayed in a size reduced by a certain ratio according to the degree of withdrawal of the display 310, and the size of the content is gradually increased according to the size of the space 923.
  • the content eg, icon or text
  • the electronic device 200 provides a second screen 933 that is maximally enlarged based on the right portion of the expanded display area 930 or includes large-sized content. can do. For this reason, even if the electronic device 200 receives a call notification while providing a video through the first screen 911, the second screen 933 of the extended display area 930 does not interfere with the user's video viewing. ) to notify the reception of phone notifications.
  • FIGS. 10A, 10B, and 10C are diagrams illustrating a method of additionally providing a second screen in response to an event detected while a camera application is running, according to an exemplary embodiment.
  • the electronic device 200 may detect that a specified event occurs while the first screen 1011 is provided by executing the camera application.
  • the first screen 1011 may include an execution screen of the camera application, and the designated event may be a user input for setting a function of the camera application.
  • the electronic device 200 creates a second screen including a menu for function settings of the camera application, and provides the second screen when the display area is expanded.
  • the display area may be automatically expanded when the designated event occurs or may be expanded by a designated operation performed by a user (eg, a rolling out operation or a sliding out operation).
  • a roller for rolling or unrolling at least a portion of a display eg, the display module 160 of FIG. 1 or the display 310 of FIG. 3 is on the left side of the display 310. , and it can be confirmed that the display 310 is drawn out in the right direction by the roller while the display area is expanded.
  • the electronic device 200 may differently provide the second screen according to the size of the extended display area when the display 310 is drawn out from the housing.
  • the electronic device 200 may provide a first screen 1011 through the display area 1010 before expansion.
  • the display area 1010 before expansion is a state in which only the display area of the first size is exposed to the outside when the display 310 is reduced to a minimum or a small amount, and the first size always corresponds to the basic display area exposed to the outside.
  • the electronic device 200 detects that the display area is expanded while providing the first screen 1011, it confirms that the left portion of the display 310 is gripped by the user, and when the display area 1010 is expanded, the expanded display It can be controlled to provide the first screen 1011 based on the left part of (1020, 1030) of the .
  • the electronic device 200 confirms that the position where the first screen 1011 is provided does not correspond to the drawing direction of the display 310, and displays the first screen 1011 at the drawing speed of the display 310. can be shifted in the left direction in synchronization with While the display 310 is drawn out, as the first screen 1011 shifts within the expanding display area 1020, the function setting menu of the camera application is set based on the right direction of the expanding display area 1020.
  • a space 1021 for providing the second screen may be gradually expanded.
  • the expanding display area 1020 may mean a state in which the display area 1020 of the second size is exposed to the outside by being partially drawn out in a state where the display 310 is maximally reduced.
  • the electronic device 200 may maintain an empty state without displaying anything in the space 1021 of the display area 1020 being expanded while the display 310 is drawn out. Then, when the display 310 is completely drawn out, the electronic device 200 may provide a second screen 1031 including a function setting menu of the camera application based on the right portion of the expanded display area 1030. there is.
  • the expanded display area 1030 is a state in which the display 310 is pulled out of the housing and a display area of a third size is exposed to the outside, and the third size may correspond to the maximum or greatly expanded display area.
  • the electronic device 200 may provide a first screen 1011 through the display area 1010 before expansion.
  • the electronic device 200 detects that the display area is expanded while providing the first screen 1011, it confirms that the left portion of the display 310 is gripped by the user, and when the display area 1010 is expanded, the expanded display It can be controlled to provide the first screen 1011 based on the left part of (1020, 1030) of the .
  • the electronic device 200 confirms that the position where the first screen 1011 is provided does not correspond to the drawing direction of the display 310, and displays the first screen 1011 at the drawing speed of the display 310.
  • the electronic device 200 may gradually display the second screen 1032 according to the size of the space 1022 within the expanding display area 1020 while the display 310 is being drawn out. In this case, the second screen 1032 may not be exposed at once, but may be partially exposed according to the degree of withdrawal of the display 310 . Then, when the drawing of the display 310 is completed, the electronic device 200 may display the entire second screen 1032 based on the right portion of the expanded display area 1030 .
  • the electronic device 200 may provide a first screen 1011 through the display area 1010 before expansion.
  • the electronic device 200 detects that the display area is expanded while providing the first screen 1011, it confirms that the left portion of the display 310 is gripped by the user, and when the display area 1010 is expanded, the expanded display It can be controlled to provide the first screen 1011 based on the left part of (1020, 1030) of the .
  • the electronic device 200 confirms that the position where the first screen 1011 is provided does not correspond to the drawing direction of the display 310, and displays the first screen 1011 at the drawing speed of the display 310.
  • the electronic device 200 displays the function setting menu of the camera application included in the second screen 1033 according to the size of the space 1023 within the expanding display area 1020 in a short form. can do.
  • the setting menu included in the second screen 1033 is displayed in an abbreviated form (for example, only icons are displayed without displaying text for one or more functions) or at a certain ratio according to the degree of drawing of the display 310.
  • the electronic device 200 may be displayed in a reduced size, and the size of the setting menu may be gradually enlarged according to the size of the space 1023. Then, when the drawing of the display 310 is completed, the electronic device 200 displays the second screen 1033 including the setting menu at maximum magnification or large size based on the right portion of the expanded display area 1030. can provide Accordingly, the electronic device 200 may provide a camera function setting menu corresponding to a user input without interfering with the camera view displayed through the first screen 1011 .
  • 11A, 11B, and 11C are diagrams illustrating a method of additionally providing a second screen in response to an event detected while a web browser application is running, according to an exemplary embodiment.
  • the electronic device 200 may detect occurrence of a designated event while executing a web browser application and providing the first screen 1111 .
  • the first screen 1111 may include an execution screen of the web browser application, and the designated event may be a payment request generated while displaying the web browser application.
  • the electronic device 200 may generate a second screen for payment in response to receiving the payment request, and may provide the second screen when the display area is expanded.
  • the display area may be automatically expanded when the designated event occurs or may be expanded by a designated operation performed by a user (eg, a rolling out operation or a sliding out operation).
  • a roller for rolling or unrolling at least a portion of a display eg, the display module 160 of FIG. 1 or the display 310 of FIG. 3 is on the left side of the display 310. , and it can be confirmed that the display 310 is drawn out in the right direction by the roller while the display area is expanded.
  • the electronic device 200 may differently provide the second screen according to the size of the extended display area when the display 310 is drawn out from the housing.
  • the electronic device 200 may provide a first screen 1111 through the display area 1110 before expansion.
  • the display area 1110 before expansion is a state in which only the display area of the first size is exposed to the outside when the display 310 is reduced to a minimum or a small amount, and the first size will always correspond to the basic display area exposed to the outside.
  • the electronic device 200 detects that the display area is expanded while providing the first screen 1111, it confirms that the left portion of the display 310 is gripped by the user, and when the display area 1110 is expanded, the expanded display It may be controlled to provide the first screen 1111 based on the left portion of (1120, 1130).
  • the electronic device 200 confirms that the position where the first screen 1111 is provided does not correspond to the drawing direction of the display 310, and displays the first screen 1111 at the drawing speed of the display 310. can be shifted in the left direction in synchronization with While the display 310 is drawn out, as the first screen 1111 shifts within the display area 1120 being expanded, one or more payment methods are included based on the right direction of the display area 1120 being expanded.
  • the space 1121 for providing the second screen may be gradually expanded.
  • the display area 1120 being expanded may refer to a state in which the display area 1120 of the second size is exposed to the outside as the display 310 is partially drawn out in a maximum reduced state.
  • the electronic device 200 may maintain an empty state without displaying anything in the space 1121 of the display area 1120 being expanded while the display 310 is drawn out. Then, when withdrawal of the display 310 is completed, the electronic device 200 may provide a second screen 1131 including one or more payment means based on the right portion of the expanded display area 1130 .
  • the expanded display area 1130 is a state in which the display 310 is withdrawn from the housing and the display area of the third size is exposed to the outside, and the third size may correspond to the maximum or highly expanded display area.
  • the electronic device 200 may provide a first screen 1111 through the display area 1110 before expansion.
  • the electronic device 200 detects that the display area is expanded while providing the first screen 1111, it confirms that the left portion of the display 310 is gripped by the user, and when the display area 1110 is expanded, the expanded display It may be controlled to provide the first screen 1111 based on the left portion of (1120, 1130).
  • the electronic device 200 confirms that the position where the first screen 1111 is provided does not correspond to the drawing direction of the display 310, and displays the first screen 1111 at the drawing speed of the display 310.
  • the space 1122 may gradually expand.
  • the electronic device 200 may gradually display the second screen 1132 according to the size of the space 1122 within the expanding display area 1120 while the display 310 is being drawn out. In this case, the second screen 1132 may not be exposed at once, but may be partially exposed according to the degree of withdrawal of the display 310 . Then, when the display 310 is completely drawn out, the electronic device 200 can display the entire second screen 1132 based on the right portion of the expanded display area 1130 .
  • the electronic device 200 may provide a first screen 1111 through the display area 1110 before expansion.
  • the electronic device 200 detects that the display area is expanded while providing the first screen 1111, it confirms that the left portion of the display 310 is gripped by the user, and when the display area 1110 is expanded, the expanded display It may be controlled to provide the first screen 1111 based on the left portion of (1120, 1130).
  • the electronic device 200 confirms that the position where the first screen 1111 is provided does not correspond to the drawing direction of the display 310, and displays the first screen 1111 at the drawing speed of the display 310.
  • the electronic device 200 changes and displays the size of one or more payment means included in the second screen 1133 according to the size of the space 1123 within the display area 1120 being expanded. can do.
  • one or more payment means included in the second screen 1133 may be displayed in a size reduced by a certain ratio according to the degree of withdrawal of the display 310, and the one or more payment means included in the second screen 1133 may be displayed according to the size of the space 1123.
  • the size of the payment method may be gradually expanded. Then, when withdrawal of the display 310 is completed, the electronic device 200 displays the one or more payment methods in a maximum or highly enlarged size based on the right portion of the expanded display area 1130, so as to display the second screen. (1133) can be provided. Accordingly, the electronic device 200 performs a payment process using one or more payment methods provided through the second screen 1133 without disturbing the content provided through the first screen 1111 while the web browser application is being used. can proceed.
  • the electronic device 200 displays a video application in a state where the screen direction of the display (eg, the display module 160 of FIG. 1 or the display 310 of FIG. 3 ) is in a horizontal direction (or landscape direction).
  • the first screen 1211 is executed and the first screen 1211 is provided, occurrence of a specified event may be detected.
  • the first screen 1211 may include an execution screen of the video application, and the designated event may be a user input for displaying a preview frame of video content provided through the video application.
  • the electronic device 200 may create a second screen including preview frames of the video content, and provide the second screen when the display area is expanded.
  • the display area may be automatically expanded when the designated event occurs or may be expanded by a designated operation performed by a user (eg, a rolling out operation or a sliding out operation).
  • the electronic device 200 may differently provide the second screen according to the size of the extended display area when the display 310 is drawn out from the housing.
  • the electronic device 200 may provide a first screen 1211 through the display area 1210 before expansion.
  • the display area 1210 before expansion is a state in which only the display area of the first size is exposed to the outside when the display 310 is reduced to a minimum or small extent, and the first size will always correspond to the basic display area exposed to the outside.
  • the electronic device 200 detects that the display area is expanded while providing the first screen 1211, the first screen 1211 is based on the lower portions of the expanded displays 1220 and 1230 when the display area 1210 is expanded. ) can be controlled to provide.
  • the expanding display area 1220 may refer to a state in which the display area 1220 of the second size is exposed to the outside as the display 310 is partially drawn out in a maximum reduced state.
  • the electronic device 200 may maintain an empty state without displaying anything in the space 1221 of the display area 1220 being expanded while the display 310 is drawn out. Thereafter, when the display 310 is completely drawn out, the electronic device 200 may provide a second screen 1231 including preview frames of video content based on the upper portion of the extended display area 1230. there is.
  • the extended display area 1230 is a state in which the display 310 is pulled out of the housing and the display area of the third size is exposed to the outside, and the third size may correspond to the maximum or highly expanded display area.
  • the electronic device 200 may provide a first screen 1211 through the display area 1210 before expansion.
  • the first screen 1211 is based on the lower portions of the expanded displays 1220 and 1230 when the display area 1210 is expanded.
  • a space 1222 for providing a second screen may gradually expand based on an upward direction of the display area 1220 being expanded.
  • the electronic device 200 may gradually display the second screen 1232 according to the size of the space 1222 within the expanding display area 1220 while the display 310 is being drawn out.
  • the second screen 1232 may not be exposed at once, but may be partially exposed according to the degree of withdrawal of the display 310 . Then, when the drawing of the display 310 is completed, the electronic device 200 can display the entire second screen 1232 based on the upper portion of the extended display area 1230 .
  • the electronic device 200 may provide a first screen 1211 through the display area 1210 before expansion.
  • the first screen 1211 is based on the lower portions of the expanded displays 1220 and 1230 when the display area 1210 is expanded.
  • a space 1223 for providing a second screen may gradually expand based on an upward direction of the display area 1220 being expanded.
  • the electronic device 200 changes the size of preview frames of video content included in the second screen 1233 according to the size of the space 1223 within the expanding display area 1220 while the display 310 is being drawn out. can be displayed.
  • the preview frames of the video content included in the second screen 1233 may be displayed in a size reduced by a certain ratio according to the degree of drawing out of the display 310, and the size of the video content according to the size of the space 1223 may be displayed.
  • the size of the preview frames may be gradually enlarged.
  • the electronic device 200 displays a second screen 1233 including preview frames having a maximum or highly enlarged size based on the upper portion of the expanded display area 1230. can provide. Accordingly, the electronic device 200 may display preview frames of the video content in response to a user input without blocking the video content provided through the first screen 1211 .
  • the electronic device 200 receives a user input for designating a display location of the second screen in a process of providing the second screen in response to an event detected while providing the first screen 1311.
  • the first screen 1311 includes an execution screen of a video application, and the event may include at least one of phone notification, message reception, application-related reception, or user input generation.
  • the electronic device 200 displays at least one second screen within the expanded display area 1320 while the display area is expanded in response to detecting the event (or after the display area is expanded).
  • a touch input specifying a location to be selected may be detected, and the at least one second screen may be provided based on the location where the touch input is detected.
  • the electronic device 200 pre-designates a display location for the at least one second screen through a setting menu, or provides a confirmation message about the display location of the at least one second screen when expanding the display area. The user input may be obtained in such a way.
  • the electronic device 200 may provide a first screen 1311 through the display area 1310 before expansion.
  • the electronic device 200 can check the user-designated area 1321 within the expanded display area 1320.
  • the user-designated area 1321 is determined based on a location where a user's touch input is detected while (or after) the display area is expanded, or is provided when the user inputs a setting menu or expands the display area. It can be determined based on the message.
  • the electronic device 200 identifies the right portion of the extended display area 1320 as the user designation area 1321 and displays the second screen 1331 in the identified user designation area 1321.
  • the second screen 1331 may include a conversation message of the messenger application received while the first screen 1311 is being provided.
  • the electronic device 200 may identify a location corresponding to the direction of the portion gripped by the user as the user-designated area 1321 in the extended display area 1320 . For example, when identifying the left portion of the extended display area as the user-designated area 1321 while holding the left portion, the electronic device 200 synchronizes with the drawing speed of the display 310 to perform the first The screen 1311 can be shifted to the right, and the second screen 1331 can be displayed in the user-designated area 1321 on the left side.
  • the electronic device 200 may provide a second screen by dividing the user-designated area 1321 into a plurality of pieces. Referring to FIG. 13B , while providing the first screen 1311 through the display area 1310 before expansion, the electronic device 200 can confirm that the conversation message of the messenger application and the SMS message are simultaneously or sequentially received.
  • the electronic device 200 divides the right portion of the extended display area 1320 designated by the user into two areas, and the divided two areas are defined as user-designated area 1 (1322) and user-designated area 2 (1323), respectively.
  • the electronic device 200 provides a second screen-1 1332 including a chat message of a messenger application on the user-designated area 1 1322 and a second screen-1 1332 including an SMS message on the user-designated area 2 1323.
  • 2 screen-2 (1333) may be provided.
  • the electronic device 200 may divide the user-designated area into a plurality of parts corresponding to the number of events detected while providing the first screen 1311, and the size of each divided area is provided through each area. It may be determined in consideration of the type of event or application associated with the second screen.
  • the electronic device 200 may detect that a first event occurs while a video application is executed and the first screen 1411 is provided.
  • the first screen 1411 may include an execution screen of the video application, and the first event may be a conversation message of a messenger application received while the video application is running.
  • the electronic device 200 may generate a second screen 1421 for message reply in response to receiving the conversation message, and may provide the second screen when the display area is expanded. Thereafter, the electronic device 200 may detect one or more additional second events while providing the first screen 1411 and the second screen 1421 .
  • the second event is a user's touch input detected through the first screen 1411 or the second screen 1421 (eg, selection of link information or execution of a new application), or a notification generated subsequent to the first event. It can contain messages or related information.
  • the electronic device 200 may generate one or more third screens corresponding to the one or more second events and provide the third screens by additionally extending the display area. The one or more third screens may be generated corresponding to the number of the second events.
  • the electronic device 200 may provide a first screen 1411 through the display area 1410 before expansion.
  • the display area 1410 before expansion is a state in which only the display area of the first size is exposed to the outside when the display 310 is reduced to a minimum or small extent, and the first size will always correspond to the basic display area exposed to the outside.
  • the electronic device 200 may detect expansion of the display area to the second size based on the first event.
  • the electronic device 200 may determine that the right portion of the display 1420 expanded to the second size is grasped by the user, and may provide the first screen 1411 based on the right portion.
  • the electronic device 200 may provide a second screen 1421 related to receiving a conversation message based on the left portion of the display 1420 expanded to the second size. Thereafter, the electronic device 200 may detect that the display area is additionally expanded to a third size in response to the second event additionally occurring while providing the first screen 1411 and the second screen 1421 . The electronic device 200 may control to provide the one or more third screens 1431 based on the left portion of the display 1430 expanded to the third size. During this process, the electronic device 200 may divide the left portion into a plurality of regions corresponding to the number of the second events, and provide the one or more third screens 1431 through the divided regions. . According to various embodiments of the present disclosure, when the electronic device 200 detects an additionally occurring event while the display 310 is maximally or highly drawn out, the electronic device 200 responds to the additional event by additionally dividing the most recently expanded display area. information can be provided.
  • the electronic device 200 may detect that the display area is expanded to a second size based on the first event. .
  • the electronic device 200 can confirm that the left portion of the display 1420 expanded to the second size is grasped by the user, and can provide the first screen 1411 based on the left portion.
  • the electronic device 200 confirms that the position where the first screen 1411 is provided does not correspond to the drawing direction of the display 310, and displays the first screen 1411 at the drawing speed of the display 310.
  • the electronic device 200 provides a first screen 1411 based on the left portion of the display 1420 expanded to the second size, and provides a second screen 1421 related to receiving a conversation message based on the right portion. can do. Thereafter, the electronic device 200 may detect that the display area is additionally expanded to a third size in response to the second event additionally occurring while providing the first screen 1411 and the second screen 1421 . As the display area is further expanded to the third size, the electronic device 200 shifts and moves the first screen 1411 and the second screen 1421 in the left direction in synchronization with the drawing speed of the display 310 , the one or more third screens 1432 and 1433 may be provided on the right side of the display area extended to the third size. The electronic device 200 may divide the left portion into a plurality of regions corresponding to the number of the second events, and provide one or more third screens 1432 and 1433 through the divided regions.
  • An electronic device (eg, the electronic device 200) according to an embodiment includes a housing, a display (eg, the display 310) that can be housed in the housing, and at least one processor operatively connected to the display. (eg, processor 320), and a memory (eg, memory 330) operatively coupled to the at least one processor, wherein the memory, when executed, causes the at least one processor to: When it is detected that the display is extended from the housing while providing a screen, a grip state of the user is checked, and a first area in which the first screen is displayed is determined when the display is extended based on the checked grip state, , It is checked whether the determined first area corresponds to the drawing direction of the display, and if the first area corresponds to the drawing direction of the display, a second screen distinct from the first screen is drawn out from the housing. Instructions for displaying on the display area can be stored.
  • the instructions include, when the at least one processor determines that the first area does not correspond to the drawing direction of the display, moves the first screen to the first area and draws it out of the housing.
  • the first screen may be displayed on the display area to be displayed.
  • the instructions may cause the at least one processor to shift and move the first screen to the first area in synchronization with a speed at which the display is drawn out of the housing.
  • the instructions include detecting, by the at least one processor, at least one event while providing the first screen, and at least one second screen including information related to the at least one event. is generated, and when the display is extended from the housing, the at least one second screen may be displayed on a second area distinguished from the first area in the extended display.
  • the event may include at least one of phone notification, message reception, application-related notification reception, or user input.
  • the instructions may include detecting, by the at least one processor, a user input indicating a display position for the at least one second screen after the display is extended from the housing, and receiving the user input. Based on this, the at least one second screen may be displayed.
  • the instructions may include determining, by the at least one processor, a screen direction exposed through the display based on the user's grip state, and expanding the first screen based on the checked screen direction.
  • the first area displayed through the displayed display may be determined.
  • the instructions may cause the at least one processor to determine the first area based on the lower area of the expanded display when it is determined that the screen direction is the horizontal direction.
  • the instructions may include, when the at least one processor determines that the screen direction is a vertical direction, determine a gripping position based on the user's grip state, and determine the gripping position based on the identified gripping position.
  • the first area may be determined.
  • the instructions may cause the at least one processor to check a main use direction set by the user and determine the holding position based on the checked main use direction.
  • the electronic device further includes one or more sensors (eg, the sensor module 411 including sensing circuitry), and the instructions include the one or more sensors It is possible to determine the gripping position based on the data sensed from.
  • the sensors eg, the sensor module 411 including sensing circuitry
  • the instructions may cause the at least one processor to display the second screen on the expanded display after drawing of the display is completed.
  • the instructions may cause the at least one processor to gradually display the second screen corresponding to the size of the display area while the display is expanded by drawing out the display.
  • the at least one processor may change the size of the content included in the second screen in response to the size of the display area while the display is expanded by drawing out the display.
  • An operating method of an electronic device includes, when detecting that a display extends from a housing while providing a first screen, checking a user's grip state, the confirmed grip An operation of determining a first area where the first screen is displayed when the display is extended based on a state, an operation of determining whether the determined first area corresponds to a drawing direction of the display, and An operation of displaying a second screen, which is distinguished from the first screen, on a display area drawn out from the housing when corresponding to the direction in which the display is drawn out may be included.
  • the method if the first area does not correspond to the direction in which the display is drawn out, shifts the first screen to the first area in synchronization with the speed at which the display is drawn out of the housing, , An operation of displaying the first screen on a display area drawn out from the housing may be further included.
  • the method may include an operation of detecting at least one event while providing the first screen, an operation of generating at least one second screen including information related to the at least one event, and When the display is extended from the housing, further comprising displaying the at least one second screen on a second area that is distinct from the first area within the extended display, wherein the event includes a call notification and a message reception. , application-related notification reception, or user input.
  • the method may include an operation of detecting a user input indicating a display position of the at least one second screen after the display is extended from the housing, and the at least one display based on the user input.
  • An operation of displaying the second screen may be further included.
  • the determining of the first area may include determining a screen direction exposed through the display based on the user's grip state, and if the checked screen direction is a horizontal direction, the extended display It may include an operation of determining the first area based on the bottom area of .
  • the determining of the first region may include, when the confirmed screen direction is a vertical direction, an operation of determining a gripping position based on the user's grip state, and an operation of determining the gripping position based on the determined gripping position.
  • An operation of determining the first region may be included.
  • the operation of checking the gripping position may include an operation of determining the gripping position based on a main use direction set by the user or data sensed from one or more sensors.
  • the method may include an operation of displaying the second screen on an extended display after the drawing of the display is completed, and the display in response to the size of the display area while the display is being expanded by the drawing of the display.
  • At least one of an operation of gradually displaying a second screen or an operation of changing and displaying the size of content included in the second screen corresponding to the size of the display area while the display is expanded by drawing out the display. can include
  • Electronic devices may be devices of various types.
  • the electronic device may include, for example, a portable communication device (eg, a smart phone), a computer device, a portable multimedia device, a portable medical device, a camera, a wearable device, or a home appliance.
  • a portable communication device eg, a smart phone
  • a computer device e.g., a smart phone
  • a portable multimedia device e.g., a portable medical device
  • a camera e.g., a portable medical device
  • a camera e.g., a portable medical device
  • a camera e.g., a camera
  • a wearable device e.g., a smart bracelet
  • first, second, or first or secondary may simply be used to distinguish that component from other corresponding components, and may refer to that component in other respects (eg, importance or order) is not limited.
  • a (eg, first) component is said to be “coupled” or “connected” to another (eg, second) component, with or without the terms “functionally” or “communicatively.”
  • the certain component may be connected to the other component directly (eg by wire), wirelessly, or via a third component.
  • module used in this document may include a unit implemented by hardware, software, or firmware, and may be used interchangeably with terms such as logic, logic block, component, or circuit, for example.
  • a module may be an integrally constructed component or a minimal unit of components or a portion thereof that performs one or more functions.
  • the module may be implemented in the form of an application-specific integrated circuit (ASIC).
  • ASIC application-specific integrated circuit
  • a storage medium eg, the internal memory 136 or the external memory 138
  • a machine eg, the electronic device 101
  • a processor eg, the processor 120
  • a device eg, the electronic device 101
  • the one or more instructions may include code generated by a compiler or code executable by an interpreter.
  • the device-readable storage medium may be provided in the form of a non-transitory storage medium.
  • non-temporary only means that the storage medium is a tangible device and does not contain a signal (e.g., electromagnetic wave), and this term refers to the case where data is stored semi-permanently in the storage medium and It does not discriminate when it is temporarily stored.
  • a signal e.g., electromagnetic wave
  • the method according to various embodiments disclosed in this document may be included and provided in a computer program product.
  • Computer program products may be traded between sellers and buyers as commodities.
  • a computer program product is distributed in the form of a machine-readable storage medium (e.g. compact disc read only memory (CD-ROM)), or through an application store (e.g. Play StoreTM) or on two user devices (e.g. It can be distributed (eg downloaded or uploaded) online, directly between smartphones.
  • a machine-readable storage medium e.g. compact disc read only memory (CD-ROM)
  • an application store e.g. Play StoreTM
  • It can be distributed (eg downloaded or uploaded) online, directly between smartphones.
  • at least part of the computer program product may be temporarily stored or temporarily created in a device-readable storage medium such as a manufacturer's server, an application store server, or a relay server's memory.
  • each component eg, module or program of the components described above may include a singular object or a plurality of entities.
  • one or more components or operations among the aforementioned components may be omitted, or one or more other components or operations may be added.
  • a plurality of components eg modules or programs
  • the integrated component may perform one or more functions of each of the plurality of components identically or similarly to those performed by a corresponding component of the plurality of components prior to the integration. .
  • operations performed by modules, programs, or other components are executed sequentially, in parallel, iteratively, or heuristically, or one or more of the operations are executed in a different order, omitted, or , or one or more other operations may be added.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Mathematical Physics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

전자 장치는, 하우징, 상기 하우징의 내부에 수납될 수 있는 디스플레이, 상기 디스플레이와 작동적으로 연결된 적어도 하나의 프로세서, 및 상기 적어도 하나의 프로세서와 작동적으로 연결된 메모리를 포함할 수 있다. 상기 적어도 하나의 프로세서는, 제1 화면을 제공하는 동안 상기 디스플레이가 상기 하우징으로부터 확장됨을 잠지하면, 사용자의 그립 상태를 확인하고, 상기 확인된 그립 상태를 기반으로 상기 디스플레이의 확장 시 상기 제1 화면이 디스플레이 되는 제1 영역을 결정하고, 상기 결정된 제1 영역이 상기 디스플레이의 인출 방향에 대응하는지 여부를 확인하고, 상기 제1 영역이 상기 디스플레이의 인출 방향에 대응하면, 상기 제1 화면과 구분되는 제2 화면을 상기 하우징으로부터 인출되는 디스플레이 영역 상에 디스플레이 할 수 있다. 이 외에도 본 문서를 통해 파악되는 다양한 실시 예들이 가능하다.

Description

사용자 인터페이스를 제공하는 방법 및 그 전자 장치
본 문서에 개시되는 다양한 실시 예들은 플렉서블 디스플레이를 포함하는 전자 장치에서 사용자 인터페이스를 제공하는 방법 및 장치에 관한 것이다.
최근 디스플레이 영역의 물리적인 형태를 변경할 수 있는 플렉서블 타입 전자 장치의 사용이 확산되고 있다. 예컨대, 폴더블 타입, 롤러블 타입, 또는 슬라이더블 타입 전자 장치의 경우, 디스플레이 영역의 확장 또는 축소가 가능한 구조를 채용함으로써, 휴대성을 유지하면서도 필요에 따라 디스플레이 영역의 크기를 확장하여 넓은 화면을 제공할 수 있다.
일반적으로, 플렉서블 타입 전자 장치는 디스플레이 영역의 확장 후 제공되는 사용자 인터페이스(user interface)를 디스플레이 영역의 확장 전 제공되는 사용자 인터페이스와 상이하게 구성할 수 있다. 예를 들어, 디스플레이 영역이 확장된 전자 장치는, 사용자가 시청하고 있던 콘텐트의 크기를 확대하여 제공하거나, 또는 확장된 디스플레이 내 화면 분할을 통해 멀티 윈도우(multi-window) 기능을 제공하도록 사용자 인터페이스를 생성할 수 있다.
플렉서블 타입 전자 장치가 사용 환경이나 그립 상태를 고려하지 않고 지정된 방식으로만 디스플레이의 표시 영역을 확장하는 경우, 사용자 경험(user experience)이 제한적으로 제공될 수 있다. 예시적으로, 사용자가 콘텐트를 시청하는 동안 이벤트가 발생하면, 이벤트에 관련된 정보가 기 시청 중인 콘텐트에 중첩하여 제공될 수 있으며, 이는 시청 중인 콘텐트에 대한 방해 요소로 작용할 수 있다.
이에 따라 다양한 실시 예들에서는, 플렉서블 디스플레이를 포함하는 전자 장치의 디스플레이의 표시 영역 확장 시 사용자의 그립 상태(예: 파지 위치, 화면 방향)를 기반으로 사용자 인터페이스를 제공할 수 있다.
실시 예들에서 이루고자 하는 기술적 과제는 이상에서 언급한 기술적 과제로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
일 실시 예에 따른 전자 장치는, 하우징, 상기 하우징의 내부에 수납될 수 있는 디스플레이, 상기 디스플레이와 작동적으로 연결된 적어도 하나의 프로세서(프로세싱 회로 포함), 및 상기 적어도 하나의 프로세서와 작동적으로 연결된 메모리를 포함하고, 상기 메모리는, 실행 시에, 상기 적어도 하나의 프로세서가, 제1 화면을 제공하는 동안 상기 디스플레이가 상기 하우징으로부터 확장됨을 감지하면, 사용자의 그립 상태를 확인하고, 상기 확인된 그립 상태를 기반으로 상기 디스플레이의 확장 시 상기 제1 화면이 디스플레이 되는 제1 영역을 결정하고, 상기 결정된 제1 영역이 상기 디스플레이의 인출 방향에 대응하는지 여부를 확인하고, 상기 제1 영역이 상기 디스플레이의 인출 방향에 대응하면, 상기 제1 화면과 구분되는 제2 화면을 상기 하우징으로부터 인출되는 디스플레이 영역 상에 디스플레이 하도록 하는 인스트럭션들을 저장할 수 있다.
일 실시 예에 따른 전자 장치의 동작 방법은, 제1 화면을 제공하는 동안 디스플레이가 하우징으로부터 확장됨을 감지하면, 사용자의 그립 상태를 확인하는 동작, 상기 확인된 그립 상태를 기반으로 디스플레이의 확장 시 상기 제1 화면이 디스플레이 되는 제1 영역을 결정하는 동작, 상기 결정된 제1 영역이 상기 디스플레이의 인출 방향에 대응하는지 여부를 확인하는 동작, 및 상기 제1 영역이 상기 디스플레이의 인출 방향에 대응하면, 상기 제1 화면과 구분되는 제2 화면을 상기 하우징으로부터 인출되는 디스플레이 영역 상에 디스플레이 하는 동작을 포함할 수 있다.
다양한 실시 예들에 따르면, 플렉서블 디스플레이를 포함하는 전자 장치의 디스플레이의 표시 영역 확장 시 사용자의 그립 상태(예: 파지 위치, 화면 방향)를 기반으로 멀티-윈도우 기능을 지원하는 사용자 인터페이스를 제공할 수 있다. 또한, 콘텐트 시청 중 이벤트가 발생하더라도, 이벤트에 관련된 정보를 확장된 디스플레이의 표시 영역 상에 추가적으로 표시할 수 있어, 기 시청 중인 콘텐트를 방해하지 않으면서 다양한 경험을 사용자에게 제공할 수 있다.
이 외에, 본 문서를 통해 직접적 또는 간접적으로 파악되는 다양한 효과들이 제공될 수 있다.
본 개시의 특정 실시예들의 상기에서 설명한 바와 같은, 또한 다른 측면들과, 특징들 및 이득들은 첨부 도면들과 함께 처리되는 하기의 설명으로부터 보다 명백하게 될 것이다.
도 1은 일 실시 예에 따른 네트워크 환경 내의 전자 장치의 블록도이다.
도 2는 일 실시 예에 따른, 디스플레이의의 표시 영역 확장 상태에 따라 제공되는 디스플레이 영역을 설명하는 도면이다.
도 3은 일 실시 예에 따른 전자 장치의 구성을 도시하는 블록도이다.
도 4는 일 실시 예에 따른 전자 장치의 세부 구성을 설명하는 도면이다.
도 5a, 도 5b, 도 5c 및 도 5d는 일 실시 예에 따른, 사용자의 그립 상태를 기반으로 디스플레이 영역을 구분하는 방식을 설명하는 도면이다.
도 6a, 도 6b 및 도 6c는 일 실시 예에 따른, 디스플레이 확장 시 사용자의 그립 상태를 고려하여 제1 화면 및/또는 제2 화면을 제공하는 방식을 설명하는 도면이다.
도 7은 일 실시 예에 따른, 전자 장치의 동작 방법을 도시하는 흐름도이다.
도 8은 일 실시 예에 따른, 사용자의 그립 상태를 기반으로 제1 화면이 디스플레이 되는 영역을 결정하는 과정을 설명하는 도면이다.
도 9a, 도 9b 및 도 9c는 일 실시 예에 따라, 동영상 어플리케이션 실행 중 감지된 이벤트에 대응하여 제2 화면을 추가 제공하는 방식을 설명하는 도면이다.
도 10a, 도 10b 및 도 10c는 일 실시 예에 따라, 카메라 어플리케이션 실행 중 감지된 이벤트에 대응하여 제2 화면을 추가 제공하는 방식을 설명하는 도면이다.
도 11a, 도 11b 및 도 11c는 일 실시 예에 따라, 웹 브라우저 어플리케이션 실행 중 감지된 이벤트에 대응하여 제2 화면을 추가 제공하는 방식을 설명하는 도면이다.
도 12a, 도 12b 및 도 12c는 일 실시 예에 따라, 전자 장치가 가로 모드로 동작하는 중에 감지된 이벤트에 대응하여 제2 화면을 추가 제공하는 방식을 설명하는 도면이다.
도 13a 및 도 13b는 일 실시 예에 따라, 사용자가 지정한 디스플레이 위치에 적어도 하나의 제2 화면을 제공하는 방식을 설명하는 도면이다.
도 14a 및 도 14b는 일 실시 예에 따라, 어플리케이션 실행 중 감지된 하나 이상의 이벤트 발생에 대응하여 하나 이상의 제2 화면을 제공하는 방식을 설명하는 도면이다.
도면의 설명과 관련하여, 동일 또는 유사한 구성요소에 대해서는 동일 또는 유사한 참조 부호가 사용될 수 있다.
이하, 첨부된 도면을 참조하여 본 문서에 개시된 다양한 실시 예들이 설명된다. 이는 본 개시의 다양한 실시 예들을 특정한 형태로 한정하려는 것이 아니며, 본 개시의 다양한 변경(modification), 균등물(equivalent), 및/또는 대체물(alternative)을 포함하는 것으로 이해되어야 한다.
도 1은 일 실시 예에 따른 네트워크 환경(100) 내의 전자 장치를 도시한 도면이다.
도 1을 참조하면, 네트워크 환경(100)에서 전자 장치(101)는 제1 네트워크(198)(예: 근거리 무선 통신 네트워크)를 통하여 전자 장치(102)와 통신하거나, 또는 제2 네트워크(199)(예: 원거리 무선 통신 네트워크)를 통하여 전자 장치(104) 또는 서버(108) 중 적어도 하나와 통신할 수 있다. 일 실시 예에 따르면, 전자 장치(101)는 서버(108)를 통하여 전자 장치(104)와 통신할 수 있다. 일 실시 예에 따르면, 전자 장치(101)는 프로세서(120), 메모리(130), 입력 모듈(150), 음향 출력 모듈(155), 디스플레이 모듈(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 연결 단자(178), 햅틱 모듈(179), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 가입자 식별 모듈(196), 또는 안테나 모듈(197)을 포함할 수 있다. 어떤 실시 예에서는, 전자 장치(101)에는, 이 구성요소들 중 적어도 하나(예: 연결 단자(178))가 생략되거나, 하나 이상의 다른 구성요소가 추가될 수 있다. 어떤 실시 예에서는, 이 구성요소들 중 일부들(예: 센서 모듈(176), 카메라 모듈(180), 또는 안테나 모듈(197))은 하나의 구성요소(예: 디스플레이 모듈(160))로 통합될 수 있다.
프로세서(120)는, 예를 들면, 소프트웨어(예: 프로그램(140))를 실행하여 프로세서(120)에 연결된 전자 장치(101)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)를 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일 실시 예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(120)는 다른 구성요소(예: 센서 모듈(176) 또는 통신 모듈(190))로부터 수신된 명령 또는 데이터를 휘발성 메모리(132)에 저장하고, 휘발성 메모리(132)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리(134)에 저장할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 메인 프로세서(121)(예: 중앙 처리 장치 또는 어플리케이션 프로세서) 또는 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(123)(예: 그래픽 처리 장치, 신경망 처리 장치(NPU: neural processing unit), 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 예를 들어, 전자 장치(101)가 메인 프로세서(121) 및 보조 프로세서(123)를 포함하는 경우, 보조 프로세서(123)는 메인 프로세서(121)보다 저전력을 사용하거나, 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서(123)는 메인 프로세서(121)와 별개로, 또는 그 일부로서 구현될 수 있다.
보조 프로세서(123)는, 예를 들면, 메인 프로세서(121)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(121)를 대신하여, 또는 메인 프로세서(121)가 액티브(예: 어플리케이션 실행) 상태에 있는 동안 메인 프로세서(121)와 함께, 전자 장치(101)의 구성요소들 중 적어도 하나의 구성요소(예: 디스플레이 모듈(160), 센서 모듈(176), 또는 통신 모듈(190))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일 실시 예에 따르면, 보조 프로세서(123)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성요소(예: 카메라 모듈(180) 또는 통신 모듈(190))의 일부로서 구현될 수 있다. 일 실시 예에 따르면, 보조 프로세서(123)(예: 신경망 처리 장치)는 인공지능 모델의 처리에 특화된 하드웨어 구조를 포함할 수 있다. 인공지능 모델은 기계 학습을 통해 생성될 수 있다. 이러한 학습은, 예를 들어, 인공지능 모델이 수행되는 전자 장치(101) 자체에서 수행될 수 있고, 별도의 서버(예: 서버(108))를 통해 수행될 수도 있다. 학습 알고리즘은, 예를 들어, 지도형 학습(supervised learning), 비지도형 학습(unsupervised learning), 준지도형 학습(semi-supervised learning) 또는 강화 학습(reinforcement learning)을 포함할 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은, 복수의 인공 신경망 레이어들을 포함할 수 있다. 인공 신경망은 심층 신경망(DNN: deep neural network), CNN(convolutional neural network), RNN(recurrent neural network), RBM(restricted Boltzmann machine), DBN(deep belief network), BRDNN(bidirectional recurrent deep neural network), 심층 Q-네트워크(deep Q-networks) 또는 상기 중 둘 이상의 조합 중 하나일 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은 하드웨어 구조 이외에, 추가적으로 또는 대체적으로, 소프트웨어 구조를 포함할 수 있다.
메모리(130)는, 전자 장치(101)의 적어도 하나의 구성요소(예: 프로세서(120) 또는 센서 모듈(176))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램(140)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(130)는, 휘발성 메모리(132) 또는 비휘발성 메모리(134)를 포함할 수 있다.
프로그램(140)은 메모리(130)에 소프트웨어로서 저장될 수 있으며, 예를 들면, 운영 체제(142), 미들 웨어(144) 또는 어플리케이션(146)을 포함할 수 있다.
입력 모듈(150)은, 전자 장치(101)의 구성요소(예: 프로세서(120))에 사용될 명령 또는 데이터를 전자 장치(101)의 외부(예: 사용자)로부터 수신할 수 있다. 입력 모듈(150)은, 예를 들면, 마이크, 마우스, 키보드, 키(예: 버튼), 또는 디지털 펜(예: 스타일러스 펜)을 포함할 수 있다.
음향 출력 모듈(155)은 음향 신호를 전자 장치(101)의 외부로 출력할 수 있다. 음향 출력 모듈(155)은, 예를 들면, 스피커 또는 리시버를 포함할 수 있다. 스피커는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있다. 리시버는 착신 전화를 수신하기 위해 사용될 수 있다. 일 실시 예에 따르면, 리시버는 스피커와 별개로, 또는 그 일부로서 구현될 수 있다.
디스플레이 모듈(160)은 전자 장치(101)의 외부(예: 사용자)로 정보를 시각적으로 제공할 수 있다. 디스플레이 모듈(160)은, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일 실시 예에 따르면, 디스플레이 모듈(160)은 터치를 감지하도록 설정된 터치 센서, 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 압력 센서를 포함할 수 있다.
오디오 모듈(170)은 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 일 실시 예에 따르면, 오디오 모듈(170)은, 입력 모듈(150)을 통해 소리를 획득하거나, 음향 출력 모듈(155), 또는 전자 장치(101)와 직접 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(102))(예: 스피커 또는 헤드폰)를 통해 소리를 출력할 수 있다.
센서 모듈(176)은 전자 장치(101)의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 사용자 상태)를 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 일 실시 예에 따르면, 센서 모듈(176)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다.
인터페이스(177)는 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 직접 또는 무선으로 연결되기 위해 사용될 수 있는 하나 이상의 지정된 프로토콜들을 지원할 수 있다. 일 실시 예에 따르면, 인터페이스(177)는, 예를 들면, HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.
연결 단자(178)는, 그를 통해서 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 물리적으로 연결될 수 있는 커넥터를 포함할 수 있다. 일 실시 예에 따르면, 연결 단자(178)는, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.
햅틱 모듈(179)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 일 실시 예에 따르면, 햅틱 모듈(179)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.
카메라 모듈(180)은 정지 영상 및 동영상을 촬영할 수 있다. 일 실시 예에 따르면, 카메라 모듈(180)은 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다.
전력 관리 모듈(188)은 전자 장치(101)에 공급되는 전력을 관리할 수 있다. 일 실시 예에 따르면, 전력 관리 모듈(188)은, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구현될 수 있다.
배터리(189)는 전자 장치(101)의 적어도 하나의 구성요소에 전력을 공급할 수 있다. 일 실시 예에 따르면, 배터리(189)는, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.
통신 모듈(190)은 전자 장치(101)와 외부 전자 장치(예: 전자 장치(102), 전자 장치(104), 또는 서버(108)) 간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(190)은 프로세서(120)(예: 어플리케이션 프로세서)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일 실시 예에 따르면, 통신 모듈(190)은 무선 통신 모듈(192)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(194)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제1 네트워크(198)(예: 블루투스, Wi-Fi(wireless fidelity) direct 또는 IrDA(infrared data association)와 같은 근거리 통신 네트워크) 또는 제2 네트워크(199)(예: 레거시 셀룰러 네트워크, 5G 네트워크, 차세대 통신 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부의 전자 장치(104)와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성요소(예: 단일 칩)로 통합되거나, 또는 서로 별도의 복수의 구성요소들(예: 복수 칩들)로 구현될 수 있다. 무선 통신 모듈(192)은 가입자 식별 모듈(196)에 저장된 가입자 정보(예: 국제 모바일 가입자 식별자(IMSI))를 이용하여 제1 네트워크(198) 또는 제2 네트워크(199)와 같은 통신 네트워크 내에서 전자 장치(101)를 확인 또는 인증할 수 있다.
무선 통신 모듈(192)은 4G 네트워크 이후의 5G 네트워크 및 차세대 통신 기술, 예를 들어, NR 접속 기술(new radio access technology)을 지원할 수 있다. NR 접속 기술은 고용량 데이터의 고속 전송(eMBB(enhanced mobile broadband)), 단말 전력 최소화와 다수 단말의 접속(mMTC(massive machine type communications)), 또는 고신뢰도와 저지연(URLLC(ultra-reliable and low-latency communications))을 지원할 수 있다. 무선 통신 모듈(192)은, 예를 들어, 높은 데이터 전송률 달성을 위해, 고주파 대역(예: mmWave 대역)을 지원할 수 있다. 무선 통신 모듈(192)은 고주파 대역에서의 성능 확보를 위한 다양한 기술들, 예를 들어, 빔포밍(beamforming), 거대 배열 다중 입출력(massive MIMO(multiple-input and multiple-output)), 전차원 다중입출력(FD-MIMO: full dimensional MIMO), 어레이 안테나(array antenna), 아날로그 빔형성(analog beam-forming), 또는 대규모 안테나(large scale antenna)와 같은 기술들을 지원할 수 있다. 무선 통신 모듈(192)은 전자 장치(101), 외부 전자 장치(예: 전자 장치(104)) 또는 네트워크 시스템(예: 제2 네트워크(199))에 규정되는 다양한 요구사항을 지원할 수 있다. 일 실시 예에 따르면, 무선 통신 모듈(192)은 eMBB 실현을 위한 Peak data rate(예: 20Gbps 이상), mMTC 실현을 위한 손실 Coverage(예: 164dB 이하), 또는 URLLC 실현을 위한 U-plane latency(예: 다운링크(DL) 및 업링크(UL) 각각 0.5ms 이하, 또는 라운드 트립 1ms 이하)를 지원할 수 있다.
안테나 모듈(197)은 신호 또는 전력을 외부(예: 외부의 전자 장치)로 송신하거나 외부로부터 수신할 수 있다. 일 실시 예에 따르면, 안테나 모듈(197)은 서브스트레이트(예: PCB) 위에 형성된 도전체 또는 도전성 패턴으로 이루어진 방사체를 포함하는 안테나를 포함할 수 있다. 일 실시 예에 따르면, 안테나 모듈(197)은 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다. 이런 경우, 제1 네트워크(198) 또는 제2 네트워크(199)와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 적어도 하나의 안테나가, 예를 들면, 통신 모듈(190)에 의하여 상기 복수의 안테나로부터 선택될 수 있다. 신호 또는 전력은 상기 선택된 적어도 하나의 안테나를 통하여 통신 모듈(190)과 외부의 전자 장치 간에 송신되거나 수신될 수 있다. 어떤 실시 예에 따르면, 방사체 이외에 다른 부품(예: RFIC(radio frequency integrated circuit))이 추가로 안테나 모듈(197)의 일부로 형성될 수 있다.
다양한 실시 예에 따르면, 안테나 모듈(197)은 mmWave 안테나 모듈을 형성할 수 있다. 일 실시 예에 따르면, mmWave 안테나 모듈은 인쇄 회로 기판, 상기 인쇄 회로 기판의 제1 면(예: 아래 면)에 또는 그에 인접하여 배치되고 지정된 고주파 대역(예: mmWave 대역)을 지원할 수 있는 RFIC, 및 상기 인쇄 회로 기판의 제2 면(예: 윗면 또는 측면)에 또는 그에 인접하여 배치되고 상기 지정된 고주파 대역의 신호를 송신 또는 수신할 수 있는 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다.
상기 구성요소들 중 적어도 일부는 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input and output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))을 통해 서로 연결되고 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.
일 실시 예에 따르면, 명령 또는 데이터는 제2 네트워크(199)에 연결된 서버(108)를 통해서 전자 장치(101)와 외부의 전자 장치(104)간에 송신 또는 수신될 수 있다. 외부의 전자 장치(102, 또는 104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 일 실시 예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 외부의 전자 장치들(102, 104, 또는 108) 중 하나 이상의 외부의 전자 장치에서 실행될 수 있다. 예를 들면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로, 또는 사용자 또는 다른 장치로부터의 요청에 반응하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 하나 이상의 외부의 전자 장치들에게 그 기능 또는 그 서비스의 적어도 일부를 수행하라고 요청할 수 있다. 상기 요청을 수신한 하나 이상의 외부의 전자 장치들은 요청된 기능 또는 서비스의 적어도 일부, 또는 상기 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행의 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 상기 결과를, 그대로 또는 추가적으로 처리하여, 상기 요청에 대한 응답의 적어도 일부로서 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 모바일 에지 컴퓨팅(MEC: mobile edge computing), 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다. 전자 장치(101)는, 예를 들어, 분산 컴퓨팅 또는 모바일 에지 컴퓨팅을 이용하여 초저지연 서비스를 제공할 수 있다. 다른 실시 예에 있어서, 외부의 전자 장치(104)는 IoT(internet of things) 기기를 포함할 수 있다. 서버(108)는 기계 학습 및/또는 신경망을 이용한 지능형 서버일 수 있다. 일 실시 예에 따르면, 외부의 전자 장치(104) 또는 서버(108)는 제2 네트워크(199) 내에 포함될 수 있다. 전자 장치(101)는 5G 통신 기술 및 IoT 관련 기술을 기반으로 지능형 서비스(예: 스마트 홈, 스마트 시티, 스마트 카, 또는 헬스 케어)에 적용될 수 있다.
도 2는 일 실시 예에 따른, 디스플레이의 표시 영역 확장상태에 따라 제공되는 디스플레이 영역을 설명하는 도면이다.
도 2를 참조하면, 전자 장치(200)는 디스플레이의 형태가 가변되는 플렉서블 디스플레이를 포함하는 전자 장치로서, 롤러(210)와 디스플레이(220)를 포함할 수 있다. 다양한 실시 예에 따라, 롤러(210)는 디스플레이(220)를 롤링 또는 롤링 해제하도록 원통형으로 구현될 수 있으며, 전자 장치(200)의 하우징 내에 배치될 수 있다.
일 실시 예에서, 디스플레이(220)는 외부로 노출되는(또는 전자 장치의 전면에 보여지는) 디스플레이의 표시 영역의 크기가 변경(예: 확장 또는 축소)될 수 있는 플렉서블 디스플레이로서, 롤러블 디스플레이(rollable display) 또는 슬라이더블 디스플레이(slidable display)일 수 있다. 디스플레이의 표시 영역의 크기는 디스플레이(220)의 변형 상태(예: 롤링 상태, 슬라이딩 상태, 확장 상태, 축소 상태, 최대 또는 큰 확장 상태, 최대 축소 상태, 중간 상태)에 따라 변경될 수 있다. 예를 들어, 디스플레이(220)는 사용자의 입력(예: 롤링 동작에 따른 롤-인(roll-in)/롤-아웃(roll-out) 입력, 슬라이딩 동작에 따른 슬라이드-인(slide-in)/슬라이드-아웃(slide-out) 입력)에 따라 확장 또는 축소될 수 있다. 다른 예를 들어, 디스플레이(220)는 지정된 이벤트 발생에 따라 자동, 반자동 또는 수동으로 확장 또는 축소될 수 있다.
일 실시 예에서, 디스플레이(220)는 롤러(210)에 의해 적어도 한 방향(예: x축 방향(수평 방향) 또는 y축 방향(수직 방향))으로 롤링되거나 롤링 해제될 수 있다. 예를 들어, 디스플레이(220)가 롤러(210)에 의해 롤링되면, 디스플레이(220)의 적어도 일부가 하우징 내에 수납되어 디스플레이 영역이 외부로 노출될 수 있다. 디스플레이(220)가 롤러(210)에 의해 x축 방향으로 롤링 해제되면, 하우징 내에 수납되어 있던 디스플레이 영역의 적어도 일부가 인출되어 외부로 노출되는 디스플레이 영역의 수평 크기(x축 방향 길이)가 확장될 수 있다. 디스플레이(220)가 롤러(210)에 의해 y축 방향으로 롤링 해제되면, 하우징 내에 수납되어 있던 디스플레이 영역의 적어도 일부가 인출되어 외부로 노출되는 디스플레이 영역의 수직 크기(y축 방향 길이)가 확장될 수 있다.
일 실시 예에서, 확장된 디스플레이(230)는 디스플레이의 변형 여부와 무관하게 항상 외부로 노출되는 제1 영역(231)과 확장 후 추가적으로 노출되는 제2 영역(232)으로 구분될 수 있다. 제1 영역(231)의 크기는 롤러(210)에 의해 롤링된 상태의 디스플레이(220)의 크기에 대응될 수 있다. 제2 영역(232)의 크기는 롤러(210)에 의해 롤링 해제되어 인출된 디스플레이 영역의 크기에 대응될 수 있다. 다양한 실시 예에 따라, 전자 장치(200)는 제2 영역(232)을 통해 제1 영역(231)과 상이한 콘텐트를 제공할 수 있다. 예를 들어, 제1 영역(231)에는 확장 전 사용자가 시청하던 실행 중이었던 어플리케이션의 실행 화면이 제공되고, 제2 영역(232)에는 상기 어플리케이션 실행 중 감지된 이벤트 관련 정보 또는 상기 어플리케이션과 관련된 부가 정보가 제공될 수 있다.
다양한 실시 예에 따라, 디스플레이(220)가 확장되는 과정에서 사용자 인터페이스의 변화로 인한 사용자의 불편함을 최소화하거나 줄이도록, 확장된 디스플레이(230) 내에서 제1 영역(231)과 제2 영역(232)의 위치는 사용자의 그립 상태를 기반으로 변경될 수 있다. 예를 들어, 전자 장치(200)는 상기 그립 상태에 따른 파지 위치를 확인하고, 상기 확인된 파지 위치를 기반으로 제1 영역(231) 및 제2 영역(232)의 위치를 결정할 수 있다. 사용자의 파지 위치가 디스플레이의 좌측인 것으로 확인되면, 확장된 디스플레이(230)의 좌측을 기준으로 제1 영역(231)이 결정되고, 확장된 디스플레이(230)의 우측을 기준으로 제2 영역(232)이 결정될 수 있다. 다른 예를 들어, 전자 장치(200)는 상기 그립 상태에 따른 화면 방향을 확인하고, 상기 확인된 화면 방향을 기반으로 제1 영역(231) 및 제2 영역(232)의 위치를 결정할 수 있다. 화면 방향이 수평 방향(예: x축 방향 또는 가로 모드로 거치된 상태)인 것으로 확인되면, 확장된 디스플레이(230)의 하단 부분을 기준으로 제1 영역(231)이 결정되고, 확장된 디스플레이(230)의 상단 부분을 기준으로 제2 영역(232)이 결정될 수 있다.
도 3은 일 실시 예에 따른 전자 장치(200)의 구성을 도시하는 블록도이다.
도 3을 참조하면, 전자 장치(200)는 외부로 노출되는 디스플레이 영역의 크기가 가변적인 플렉서블 타입 장치로서, 하우징(미도시), 디스플레이(310), 프로세서(320) 또는 메모리(330)를 포함할 수 있다. 도 3에서, 전자 장치(200)는 도 1에 도시된 전자 장치(101), 또는 도 2에 도시된 플렉서블 타입 전자 장치(200)에 대응될 수 있다.
일 실시 예에서, 디스플레이(310)(예: 도 1의 디스플레이 모듈(160))는 전자 장치(200)의 외부로 노출되는 디스플레이 영역의 크기가 변경(예: 확장 또는 축소) 가능한 출력 수단으로, 변형 상태에 따라 상이하게 사용자 인터페이스를 표시할 수 있다. 다양한 실시 예에 따라, 디스플레이(310)의 디스플레이 영역 크기는 롤링 동작 또는 슬라이딩 동작에 따라 변경(예: 확장 또는 축소)될 수 있다. 예를 들어, 디스플레이(310)의 일부 영역이 하우징의 내부에 수납된 상태(예: 하우징에 인입된 롤-인(roll-in) 상태 또는 슬라이드-인(slide-in) 상태)에서 롤링 아웃 동작 또는 슬라이딩 아웃 동작에 의해 하우징 외부로 인출되면서, 상기 디스플레이 영역의 크기가 확장될 수 있다. 하우징의 외부로 인출된 상기 일부 영역이 롤링 인 동작 또는 슬라이딩 인 동작에 의해 하우징 내로 인입되면, 상기 디스플레이 영역의 크기가 축소될 수 있다.
일 실시 예에서, 메모리(330)(예: 도 1의 메모리(130))는, 실행 시에, 적어도 하나의 프로세서(320)(예: 도 1의 프로세서(120))가 각종 동작들을 수행하도록 제어하는 인스트럭션들을 저장할 수 있다. 예를 들어, 적어도 하나의 프로세서(320)는 디스플레이(310)의 확장 시 멀티 윈도우 기능을 제공하는 동작들을 수행할 수 있다.
일 실시 예에서, 적어도 하나의 프로세서(320)는 제1 화면을 제공하는 동안 디스플레이(310)가 하우징으로부터 확장됨을 감지할 수 있다. 예를 들어, 적어도 하나의 프로세서(320)는 디스플레이(310)가 하우징에 포함된 롤러에 의해 롤링되었는지 또는 롤링 해제되었는지를 검출하여, 디스플레이(310)의 확장 여부를 확인할 수 있다. 디스플레이(310)의 적어도 일부 영역이 하우징 내에 수납된 상태에서 상기 하우징에 포함된 롤러에 의해 롤링 해제되면, 적어도 하나의 프로세서(320)는 디스플레이(310)가 상기 하우징으로부터 확장됨을 확인할 수 있다. 다양한 실시 예에 따라, 상기 제1 화면은 디스플레이(310) 확장 전 사용자가 시청하고 있던 하나 이상의 콘텐트 또는 어플리케이션의 실행화면 중 적어도 하나를 포함할 수 있다. 다양한 실시 예에 따라, 적어도 하나의 프로세서(320)는 지정된 이벤트(예: 전화 알림, 메시지 수신, 어플리케이션 관련 알림 수신 또는 사용자 입력) 발생 시 자동으로 디스플레이(310)가 확장되거나, 또는 사용자에 의해 수행되는 지정된 동작(예: 롤링 아웃 동작 또는 슬라이딩 아웃 동작)에 의해 디스플레이(310)가 확장되도록 상기 롤러를 제어할 수 있다.
일 실시 예에서, 적어도 하나의 프로세서(320)는 디스플레이(310)의 확장을 감지함에 응답하여, 사용자의 그립 상태를 확인할 수 있다. 상기 그립 상태는 디스플레이(310)를 통해 노출되는 화면 방향 또는 상기 사용자의 파지 위치 중 적어도 하나를 포함할 수 있다.
다양한 실시 예에 따라, 적어도 하나의 프로세서(320)는 상기 화면 방향이 수평 방향 인지 또는 수직 방향인지를 확인할 수 있다. 적어도 하나의 프로세서(320)는 상기 사용자의 그립에 의해 전자 장치(200)가 어느 방향으로 회전되어 있는지를 검출할 수 있다. 적어도 하나의 프로세서(320)는 상기 검출 결과에 따라 상기 화면 방향이 수평 방향(예: x축 방향 또는 가로모드 방향)임을 확인하면, 일반적인 사용자 행동 패턴을 고려하여 디스플레이(310)의 하단 부분이 파지된 것으로 결정할 수 있다. 적어도 하나의 프로세서(320)는 상기 검출 결과에 따라 상기 화면이 수직 방향(예: y축 방향 또는 세로모드 방향)임을 확인하면, 상기 사용자에 의해 파지된 위치를 추가 확인할 수 있다.
다양한 실시 예에 따라, 적어도 하나의 프로세서(320)는 상기 사용자에 의해 파지된 위치가 디스플레이(310)의 좌측 부분인지 또는 우측 부분인지를 확인할 수 있다. 예를 들어, 적어도 하나의 프로세서(320)는 사용자에 의해 설정된 주 사용 방향을 기반으로 상기 파지 위치를 확인할 수 있다. 전자 장치(200)에 대해 한 손 조작 모드가 설정되어 있는 경우, 적어도 하나의 프로세서(320)는 사용자에 의해 선택된 주 사용 방향(또는 주로 사용하는 손)을 기반으로 상기 파지 위치를 확인할 수 있다. 다른 예를 들어, 적어도 하나의 프로세서(320)는 하나 이상의 센서(예: 도 1의 센서 모듈(176))을 이용하여 상기 파지 위치를 확인할 수 있다. 적어도 하나의 프로세서(320)는 전자 장치(200)에 구비된 그립 센서, 터치 센서, 압력 센서, 가속도 센서 또는 자이로 센서 중 적어도 하나로부터 획득한 센싱 데이터를 기반으로 디스플레이(310)의 어느 측면 부분이 파지되었는지를 확인할 수 있다. 적어도 하나의 프로세서(320)는 사용자에 의한 파지가 감지된 엣지 디스플레이(edge display) 영역을 기반으로 상기 파지 위치를 확인할 수도 있다. 또 다른 예를 들어, 적어도 하나의 프로세서(320)는 상기 사용자에 의해 착용된 웨어러블 디바이스(예: 스마트워치) 또는 상기 사용자가 사용 중인 전자 펜을 이용하여 상기 파지 위치를 확인할 수 있다. 적어도 하나의 프로세서(320)는 상기 웨어러블 디바이스가 사용자의 어느 방향 손목에 착용되어 있는지 인식하고 있는 경우, 상기 웨어러블 디바이스와의 통신 거리 또는 상기 웨어러블 디바이스의 자이로 센서로부터 획득한 센싱 데이터 중 적어도 하나를 기반으로 어느 방향의 손이 전자 장치(200)를 파지하고 있는지를 확인할 수 있다. 적어도 하나의 프로세서(320)는 전자 펜 사용 시 상기 전자 펜이 입력되는 방향이나 각도, 또는 상기 전자 펜 내부의 자이로 센서로부터 획득한 센싱 데이터 중 적어도 하나를 기반으로 상기 전자 펜을 쥐고 있는 손과 전자 장치(200)를 파지한 손의 방향을 확인하고, 상기 확인 결과를 기반으로 상기 파지 위치를 결정할 수도 있다.
일 실시 예에서, 적어도 하나의 프로세서(320)는 상기 확인된 그립 상태를 기반으로 디스플레이(310) 확장 시 상기 제1 화면이 디스플레이 되는 제1 영역을 결정할 수 있다. 예를 들어, 적어도 하나의 프로세서(320)는 상기 그립 상태를 기반으로 확인된 상기 화면 방향이 수평 방향(예: x축 방향 또는 가로모드 방향)이면, 확장된 디스플레이의 하단 영역을 기준으로 상기 제1 영역을 결정할 수 있다. 다른 예를 들어, 적어도 하나의 프로세서(320)는 상기 화면 방향이 수직 방향(예: y축 방향 또는 세로모드 방향)이면, 상기 그립 상태를 기반으로 사용자의 파지 위치를 추가 확인하고, 상기 확인된 파지 위치에 따라 상기 제1 영역을 결정할 수 있다. 상기 파지 위치가 전자 장치(200)의 좌측 부분으로 확인되면, 적어도 하나의 프로세서(320)는 확장된 디스플레이의 좌측 영역을 기준으로 상기 제1 영역을 결정할 수 있다. 상기 파지 위치가 전자 장치(200)의 우측 부분으로 확인되면, 적어도 하나의 프로세서(320)는 확장된 디스플레이의 우측 영역을 기준으로 상기 제1 영역을 결정할 수 있다. 다양한 실시 예에 따라, 상기 파지 위치는 사용자가 파지한 손의 방향에 따라 결정될 수 있다. 적어도 하나의 프로세서(320)는 사용자에 의해 설정된 주 사용 방향(또는 주로 사용하는 손), 하나 이상의 센서로부터 획득한 센싱 데이터 또는 외부 전자 장치(예: 웨어러블 디바이스, 전자 펜)를 기반으로 사용자가 파지한 손의 방향을 확인하고, 상기 확인 결과에 따라 상기 파지 위치를 결정할 수 있다.
일 실시 예에서, 적어도 하나의 프로세서(320)는 상기 화면 방향이 수직 방향(예: y축 방향 또는 세로모드 방향)일 때 디스플레이(310)의 좌측 부분과 우측 부분 모두 사용자에 의해 파지됨을 확인할 수 있다. 이러한 경우, 적어도 하나의 프로세서(320)는 양측 부분 중에서 파지가 오래 유지되는 측을 기준으로 상기 제1 영역을 결정할 수 있다. 예를 들어, 적어도 하나의 프로세서(320)는 양 손 파지 상태에서 한 손이 이탈하였을 때, 파지가 계속 유지되는 측을 확인하여 상기 파지 위치를 결정할 수 있다. 다른 예를 들어, 적어도 하나의 프로세서(320)는 한 손 파지 상태에서 디스플레이(310)가 확장된 후 다른 한 손이 추가적으로 파지됨을 검출하더라도, 상기 제1 영역을 변경하지 않고 기존의 디스플레이 상태를 유지할 수 있다. 적어도 하나의 프로세서(320)는 사용자에 의해 전자 장치(200)의 좌측 부분이 파지됨을 확인함에 따라 확장된 디스플레이의 좌측 영역을 기준으로 상기 제1 영역이 결정된 이후 전자 장치(200)의 우측 부분이 추가적으로 파지됨을 확인하면, 좌측 파지 상태에 우선 순위를 두고 상기 결정된 제1 영역의 방향을 그대로 유지할 수 있다.
다양한 실시 예에 따라, 적어도 하나의 프로세서(320)는 사용자가 전자 장치(200)를 파지하면 하나 이상의 센서로부터 획득한 센싱 데이터를 기반으로 상기 사용자의 의도를 판단할 수 있다. 예를 들어, 적어도 하나의 프로세서(320)는 양손 파지 상태에서 상대적으로 높은 파지 압력이 감지되는 위치 또는 디스플레이(310)를 잡아당기는 방향으로 파지 압력이 작용하는 위치를 기준으로 상기 파지 위치를 결정할 수 있다. 다른 예를 들어, 적어도 하나의 프로세서(320)는 상기 하나 이상의 센서로부터 감지된 파지 압력이 지정된 임계 레벨을 초과하는 것으로 확인하면, 상기 이벤트가 발생하더라도 디스플레이(310)가 확장되지 않도록 제어할 수 있다.
일 실시 예에서, 적어도 하나의 프로세서(320)는 상기 결정된 제1 영역이 디스플레이(310)의 인출 방향에 대응하는지 여부를 확인할 수 있다. 다양한 실시 예에 따라, 디스플레이(310)의 인출 방향은 디스플레이(310)의 적어도 일부를 롤링 또는 롤링 해제하는 롤러의 위치를 기반으로 결정될 수 있다. 적어도 하나의 프로세서(320)는 디스플레이(310)를 기준으로 상기 롤러가 위치한 방향의 반대 방향을 상기 디스플레이(310)의 인출 방향으로 결정할 수 있다. 예를 들어, 상기 롤러가 디스플레이(310)의 좌측 부분에 위치해 있으면 (디스플레이(310)의 적어도 일부가 상기 좌측 부분에 수납된 상태에서 상기 롤러에 의해 롤링 해제되어 확장됨), 적어도 하나의 프로세서(320)는 디스플레이(310)가 우측 방향으로 인출됨을 확인할 수 있다. 다른 예를 들어, 상기 롤러가 디스플레이(310)의 하측 부분에 위치해 있으면 (디스플레이(310)의 적어도 일부가 상기 하측 부분에 수납되었다가 상기 롤러에 의해 롤링 해제되어 확장됨), 적어도 하나의 프로세서(320)는 디스플레이(310)가 상측 방향으로 인출됨을 확인할 수 있다. 다양한 실시 예에 따라, 적어도 하나의 프로세서(320)는 디스플레이(310)의 확장을 위한 사용자 입력(예: 롤링 동작에 따른 롤-아웃 입력 또는 슬라이딩 동작에 따른 슬라이드-아웃 동작)이 가해지는 방향에 대응하도록 상기 디스플레이(310)의 인출 방향을 결정할 수도 있다.
일 실시 예에서, 적어도 하나의 프로세서(320)는 상기 확인 결과 상기 제1 영역이 상기 디스플레이(310)의 인출 방향에 대응하면, 상기 제1 화면과 구분되는 제2 화면을 상기 하우징으로부터 인출되는 디스플레이 영역 상에 디스플레이 할 수 있다. 사용자의 그립 상태를 기반으로 결정된 상기 제1 영역이 상기 디스플레이(310)의 인출 방향에 대응하는 경우, 상기 제1 영역의 위치는 항상 외부로 노출되는 디스플레이 영역이므로, 상기 제1 화면은 기존 위치를 유지하면서 지속적으로 디스플레이 될 수 있다. 이 경우, 디스플레이(310)가 확장됨에 따라 추가적으로 노출되는 제2 영역은 상기 하우징으로부터 수납되었다가 인출되는 디스플레이 영역 상에 위치하도록 결정될 수 있다. 상기 제2 영역의 크기는 상기 하우징으로부터 인출되는 디스플레이 영역의 크기에 대응될 수 있다. 적어도 하나의 프로세서(320)는 상기 제2 영역 상에 상기 제1 화면과 상이한 제2 화면을 디스플레이 할 수 있다. 다양한 실시 예에 따라, 상기 제2 화면은 상기 제1 화면을 제공하는 중에 발생된 이벤트에 연관된 정보를 포함할 수 있다. 상기 이벤트는 전화 알림, 메시지 수신, 어플리케이션 관련 알림 수신, 또는 사용자 입력 중 적어도 하나를 포함할 수 있다. 적어도 하나의 프로세서(320)는 디스플레이(310)의 적어도 일부가 하우징에 수납된 상태에서 상기 제1 화면을 제공하는 동안 상기 이벤트가 발생함을 감지하면, 상기 이벤트에 연관되는 정보를 포함하는 제2 화면을 생성할 수 있다. 적어도 하나의 프로세서(320)는 상기 이벤트 발생에 대응하여 자동으로 또는 상기 이벤트 발생 후 감지된 사용자 입력이나 동작을 기반으로 디스플레이(310)를 상기 하우징으로부터 인출하고, 상기 생성된 제2 화면을 상기 제2 영역 상에 디스플레이 할 수 있다.
일 실시 예에서, 적어도 하나의 프로세서(320)는 상기 확인 결과 상기 제1 영역이 상기 디스플레이(310)의 인출 방향에 대응하지 않으면, 상기 제1 화면을 상기 제1 영역으로 이동시키고 상기 하우징으로부터 인출되는 디스플레이 영역 상에 상기 제1 화면을 디스플레이 할 수 있다. 사용자의 그립 상태를 기반으로 결정된 상기 제1 영역이 상기 디스플레이(310)의 인출 방향에 대응하지 않는 경우, 상기 제1 영역의 위치는 상기 하우징 내에 수납되었다가 인출되는 디스플레이 영역이므로, 상기 제1 화면은 상기 하우징으로부터 인출되는 디스플레이 영역으로 위치를 이동하여 디스플레이 될 수 있다. 이 때, 적어도 하나의 프로세서(320)는 디스플레이(310)가 상기 하우징으로부터 인출되는 속도에 동기를 맞추어 상기 제1 화면을 상기 제1 영역으로 시프트 이동하도록 제어할 수 있다. 이 경우, 디스플레이(310)가 확장됨에 따라 추가적으로 노출되는 제2 영역은 항상 외부로 노출되는 디스플레이 영역 상에 위치하도록 결정될 수 있다. 상기 제2 영역의 크기는 상기 하우징으로부터 인출되는 디스플레이 영역의 크기에 대응될 수 있다.
다양한 실시 예에 따라, 적어도 하나의 프로세서(320)는 디스플레이(310)가 하우징으로부터 인출되어 확장된 정도에 따라 상이하게 상기 제2 화면을 제공할 수 있다. 예를 들어, 적어도 하나의 프로세서(320)는 디스플레이(310)가 확장되는 동안 상기 제2 영역에 아무 것도 표시하지 않고 비어있는 상태를 유지하다가, 디스플레이(310)의 인출이 완료된 후 확장된 디스플레이 내 상기 제2 영역 상에 상기 제2 화면을 표시하여, 디스플레이(310)의 인출 완료 후 한번에 상기 제2 화면이 노출되도록 할 수 있다. 다른 예를 들어, 적어도 하나의 프로세서(320)는 디스플레이(310)가 하우징으로부터 인출되어 확장되는 동안 상기 제2 영역의 크기에 맞추어 상기 제2 화면을 점진적으로 디스플레이 할 수 있다. 이 경우 상기 제2 화면은 한번에 노출되지 않고, 디스플레이(310)의 인출 정도에 따라 상기 제2 화면이 부분적으로 노출될 수 있으며, 디스플레이(310)의 인출 완료 후 상기 제2 화면의 전체가 상기 제2 영역에 디스플레이 될 수 있다. 또 다른 예를 들어, 적어도 하나의 프로세서(320)는 디스플레이(310)가 하우징으로부터 인출되어 확장되는 동안 상기 제2 영역의 크기에 맞추어 상기 제2 화면에 포함된 콘텐트의 크기를 변경하는 방식으로 디스플레이 할 수 있다. 이 경우, 상기 제2 화면에 포함된 콘텐트는 디스플레이(310)의 인출 정도에 따라 약식으로 또는 일정 비율 축소된 크기로 표시될 수 있으며, 디스플레이(310)의 인출에 의해 확장되는 상기 제2 영역의 크기에 맞추어 상기 콘텐트의 크기가 단계적으로 확장되어 디스플레이 될 수 있다.
다양한 실시 예에 따라, 적어도 하나의 프로세서(320)는 상기 제2 영역을 복수 개로 분할하여 하나 이상의 제2 화면을 디스플레이 할 수 있다. 예를 들어, 적어도 하나의 프로세서(320)는 상기 제1 화면을 제공하는 중 감지된 하나 이상의 이벤트에 대응하여, 하나 이상의 제2 화면을 생성하고, 상기 하나 이상의 제2 화면을 상기 분할된 제2 영역 상에 디스플레이 할 수 있다. 다른 예를 들어, 적어도 하나의 프로세서(320)는 사용자가 지정한 위치에 상기 하나 이상의 제2 화면을 디스플레이 할 수 있다. 적어도 하나의 프로세서(320)는 디스플레이(310)가 하우징으로부터 인출되어 확장된 후, 상기 하나 이상의 제2 화면에 대한 디스플레이 위치를 지시하는 사용자 입력이 감지되면, 상기 사용자 입력에 의해 지시된 위치에 상기 하나 이상의 제2 화면을 디스플레이 하도록 제어할 수 있다.
다양한 실시 예에 따라, 적어도 하나의 프로세서(320)는 확장된 디스플레이를 통해 상기 제1 화면 및 상기 제2 화면을 제공하는 동안 디스플레이(310)의 화면 방향이 변경됨을 확인할 수 있다. 이 경우 적어도 하나의 프로세서(320)는 변경된 화면 방향과 화면 변경 후 파지 위치를 기반으로 상기 제1 화면 및 상기 제2 화면을 재배치하여, 사용자 시점에 맞게 상기 제1 화면 및 상기 제2 화면을 제공할 수 있다. 예를 들어, 적어도 하나의 프로세서(320)는 디스플레이(310)의 화면 방향이 수직 방향에서 수평 방향으로 회전(예: 세로모드에서 가로모드로 전환)됨을 확인하면, 확장된 디스플레이의 하측 부분을 기준으로 상기 제1 화면을 배치하고, 상기 확장된 디스플레이의 상측 부분을 기준으로 상기 제2 화면을 배치할 수 있다. 다른 예를 들어, 적어도 하나의 프로세서(320)는 디스플레이(310)의 화면 방향이 수평 방향에서 수직 방향으로 회전(예: 가로모드에서 세로모드로 전환)됨을 확인하면, 상기 화면 방향 회전 후 사용자에 의해 파지된 위치를 확인할 수 있다. 상기 확인된 파지 위치가 확장된 디스플레이의 좌측 부분이면, 적어도 하나의 프로세서(320)는 상기 확장된 디스플레이의 좌측 부분을 기준으로 상기 제1 화면을 배치하고, 상기 확장된 디스플레이의 우측 부분을 기준으로 상기 제2 화면을 배치할 수 있다. 상기 확인된 파지 위치가 확장된 디스플레이의 우측 부분이면, 적어도 하나의 프로세서(320)는 상기 확장된 디스플레이의 우측 부분을 기준으로 상기 제1 화면을 배치하고, 상기 확장된 디스플레이의 좌측 부분을 기준으로 상기 제2 화면을 배치할 수 있다.
도 4는 일 실시 예에 따른 전자 장치(200)의 세부 구성을 설명하는 도면이다. 본 개시의 각 실시 예는 다른 실시 예(들)과 조합하여 사용될 수 있다.
도 4를 참조하면, 전자 장치(200)는 센싱 회로(sensing circuitry)를 포함하는 센서 모듈(411), 통신 회로(communication circuitry)를 포함하는 통신 모듈(412), 카메라(413), 프로세싱 회로(processing circuitry)를 포함하는 프로세서(420), 메모리(430), 디스플레이(441), 또는 롤러(442)를 포함할 수 있다. 도 4는, 도 3의 전자 장치(200)의 확장된 구성을 도시한 것으로 이해될 수 있다. 다양한 실시 예에 따라, 전자 장치(200)는 도 4에 도시된 구성 요소들 외에도, 도 1에 도시된 구성 요소들 중 전자 장치(200)에서 요구되는 기능에 대응하는 구성 요소를 추가 포함할 수 있다.
일 실시 예에서, 센서 모듈(411)(예: 도 1의 센서 모듈(176))은 전자 장치(200)에 대한 사용자의 그립 상태를 검출할 수 있다. 다양한 실시 예에 따라, 센서 모듈(411)은 그립 센서, 터치 센서, 압력 센서, 가속도 센서 또는 자이로 센서 중 적어도 하나를 포함할 수 있다. 예를 들어, 센서 모듈(411)은 상기 적어도 하나의 센서를 이용하여 디스플레이(441)의 어느 측면 부분이 상기 사용자에 의해 파지되었는지 감지할 수 있다. 다른 예를 들어, 센서 모듈(411)은 상기 적어도 하나의 센서를 이용하여 디스플레이(441)을 통해 노출되는 화면 방향을 감지할 수 있다. 또 다른 예를 들어, 센서 모듈(411)은 디스플레이(441)의 형태를 변형하기 위한 사용자 입력(예: 롤링 동작에 따른 롤-인(roll-in)/롤-아웃(roll-out) 입력, 슬라이딩 동작에 따른 슬라이드-인(slide-in)/슬라이드-아웃(slide-out) 입력)을 감지할 수 있다.
일 실시 예에서, 통신 모듈(412)(예: 도 1의 통신 모듈(190))은 하나 이상의 외부 장치들(예: 도 1의 전자 장치(102) 또는 전자 장치(104))과의 통신 연결을 설정하고, 상기 외부 장치로부터 상기 그립 상태를 확인하는 데 필요한 데이터를 획득할 수 있다. 예를 들어, 통신 모듈(412)은 상기 사용자가 착용한 웨어러블 디바이스(예: 스마트워치)로부터 손 움직임에 연관되는 센싱 데이터를 수신하거나, 또는 상기 웨어러블 디바이스와의 통신 거리를 측정할 수 있다. 다른 예를 들어, 통신 모듈(412)은 상기 사용자가 사용 중인 전자 펜으로부터 손 움직임에 연관되는 센싱 데이터를 획득할 수 있다. 다양한 실시 예에 따라, 통신 모듈(412)은 블루투스, Wi-Fi direct, BLE(Bluetooth low energy) 또는 UWB(ultra-wide band) 통신과 같은 근거리 통신을 포함할 수 있다.
일 실시 예에서, 카메라(413)(예: 도 1의 카메라 모듈(180), 이미징 회로(imaging circuitry) 포함)는 하나 이상의 이미지 또는 동영상을 촬영하는 과정에서 디스플레이(441)의 화면 방향이나 확장 정도를 확인할 수 있다. 예를 들어, 카메라(413)는 사용자의 제어에 따른 사용 모드(예: 가로 모드, 세로 모드, 또는 셀카 모드)를 기반으로 디스플레이(441)의 화면 방향을 확인할 수 있다. 다른 예를 들어, 카메라(413)는 촬영 중 디스플레이(441)의 움직임에 따른 초점 이동 방향을 기반으로 디스플레이(441)의 확장 방향을 확인할 수 있다.
일 실시 예에서, 적어도 하나의 프로세서(420)는 프로세싱 회로(processing circuitry)를 포함하고, 전자 장치(200)의 다양한 기능이나 동작을 제어할 수 있으며, 도 3에 도시된 프로세서(320)와 동일한 구성으로 이해될 수 있다. 프로세서(420)는 센서 모듈(411), 통신 모듈(412), 또는 카메라(413)를 통해 획득한 데이터를 기반으로 사용자의 그립 상태 및/또는 디스플레이(441)의 변형 상태를 확인하고, 확인된 사용자의 그립 상태 및/또는 디스플레이(441)의 변형 상태에 대응하여 사용자 인터페이스를 구성하여 제공하도록 제어할 수 있다.
일 실시 예에서, 메모리(430)(예: 도 1의 메모리(130))는 프로세서(420)가 각종 동작들을 수행하도록 제어하는 인스트럭션들과 전자 장치(200)에서 제공할 수 있는 프로그램 또는 콘텐트를 저장하기 위한 구성으로, 도 3에 도시된 메모리(330)에 대응될 수 있다. 다양한 실시 예에 따라, 메모리(430)는 전자 장치(200)에 설치되어 실행 가능한 하나 이상의 어플리케이션(431)을 저장하는 영역과, 상기 어플리케이션의 실행 화면과는 별도 제공 가능한 하나 이상의 위젯(432)을 저장하는 영역을 포함할 수 있다. 프로세서(420)는 사용자의 그립 상태 및/또는 디스플레이(441)의 변형 상태를 기반으로 어플리케이션(431)의 실행 화면 또는 위젯(432) 화면 중 적어도 하나를 디스플레이(441) 상에 출력하도록 제어할 수 있다.
일 실시 예에서, 디스플레이(441)는 전자 장치(200)의 하우징(400) 외부로 노출되는 디스플레이 영역의 크기가 변경(예: 확장 또는 축소) 가능한 출력 수단으로, 도 3에 도시된 디스플레이(310)에 대응될 수 있다. 디스플레이(441)는 전자 장치(200)의 외부로 노출되는 공간을 통해 어플리케이션(431)의 실행 화면 또는 위젯(432) 화면 중 적어도 하나를 출력할 수 있다. 다양한 실시 예에 따라, 롤러(442)는 디스플레이(441)의 적어도 일부를 롤링 또는 롤링 해제하여 디스플레이(441)를 변형시킬 수 있다. 디스플레이(441)가 롤러(442)에 의해 롤링되면, 디스플레이(441)의 적어도 일부가 하우징(400) 내에 수납되어 외부로 노출되는 디스플레이의 표시 영역이 축소될 수 있다. 디스플레이(441)가 롤러(442)에 의해 롤링 해제되면, 디스플레이(441)의 적어도 일부가 하우징(400)으로부터 인출되어 외부로 노출되는 디스플레이의 표시 영역이 확장될 수 있다. 다양한 실시 예에 따라, 프로세서(420)는 지정된 이벤트(예: 전화 알림, 메시지 수신, 어플리케이션 관련 알림 수신 또는 사용자 입력) 발생 시 자동으로 디스플레이(441)가 확장되거나, 또는 사용자에 의해 수행되는 지정된 동작(예: 롤링 아웃 동작 또는 슬라이딩 아웃 동작)에 의해 디스플레이(441)가 확장되도록 상기 롤러를 제어할 수 있다.
도 5a, 도 5b, 도 5c 및 도 5d는 일 실시 예에 따른, 사용자의 그립 상태를 기반으로 디스플레이 영역을 구분하는 방식을 설명하는 도면이다. 다양한 실시 예에 따라, 전자 장치(200)는 제1 화면을 제공하는 동안 외부로 노출되는 디스플레이 영역이 확장됨을 감지할 수 있다. 상기 제1 화면은 상기 디스플레이 영역이 확장되기 전 사용자가 시청하고 있던 하나 이상의 콘텐트 또는 어플리케이션의 실행화면 중 적어도 하나를 포함할 수 있다. 상기 디스플레이 영역은, 디스플레이의 적어도 일부가 롤러(210)에 의해 롤링된 상태에서 지정된 이벤트(예: 전화 알림, 메시지 수신, 어플리케이션 관련 알림 수신 또는 사용자 입력) 발생 시 자동, 반자동, 또는 사용자에 의해 수행되는 지정된 동작(예: 롤링 아웃 동작 또는 슬라이딩 아웃 동작)에 의해 롤링 해제되어 확장될 수 있다. 전자 장치(200)는 상기 디스플레이 영역이 확장되면, 상기 제1 화면과 구분되는 제2 화면을 추가 제공할 수 있다. 상기 제2 화면은 상기 지정된 이벤트에 연관된 정보 또는 상기 제1 화면을 통해 제공되는 콘텐트에 대한 부가 정보를 포함할 수 있다. 디스플레이 영역 확장 시 사용자가 시청 중인 콘텐트를 방해하지 않으면서 사용자의 시선 변경과 같은 불편함을 줄이도록, 상기 제1 화면과 상기 제2 화면은 사용자의 그립 상태에 따라 상이한 위치에 디스플레이 될 수 있다. 예를 들어, 전자 장치(200)는 사용자의 그립에 따라 디스플레이를 통해 노출되는 화면 방향을 확인하고, 상기 확인된 화면 방향을 기반으로 상기 제1 화면 및 상기 제2 화면을 배치할 수 있다.
다양한 실시 예에 따라, 전자 장치(200)는 상기 화면 방향이 수직 방향(예: y축 방향 또는 세로모드 방향)이면, 상기 그립 상태에 따른 사용자의 파지 위치를 추가 확인하고, 상기 확인된 파지 위치를 기반으로 상기 제1 화면 및 상기 제2 화면의 위치를 결정할 수 있다. 전자 장치(200)의 화면 방향이 수직 방향(예: y축 방향 또는 세로모드 방향)인 경우, 상기 제1 화면 및 상기 제2 화면의 배치는 도 5a 또는 도 5b와 같이 수행될 수 있다.
도 5a에서, 전자 장치(200)는 디스플레이의 표시 영역이 확장되기 전 제1 화면을 디스플레이 하는 동안 사용자의 왼손(501)에 의해 디스플레이의 좌측 부분이 파지됨을 확인할 수 있다. 디스플레이의 좌측 부분이 파지된 경우, 전자 장치(200)는 확장된 디스플레이의 좌측 부분을 기준으로, 디스플레이의 표시 영역의 확장 후 상기 제1 화면을 디스플레이 할 제1 영역(511)을 결정할 수 있다. 상기 제1 영역(511)의 크기는 확장 전 디스플레이의 표시 영역의 크기에 대응될 수 있다. 일 실시 예에서, 전자 장치(200)는 상기 결정된 제1 영역(511)이 디스플레이의 인출 방향에 대응하는지 여부를 확인할 수 있다. 전자 장치(200)는 디스플레이를 기준으로 롤러(210)가 위치한 방향의 반대 방향을 상기 디스플레이의 인출 방향으로 결정할 수 있다. 도 5a에서, 제1 영역(511)은 확장된 디스플레이의 좌측 방향에 배치되고, 디스플레이는 롤러(210)에 의해 우측 방향으로 인출되어 확장되므로, 전자 장치(200)는 제1 영역(511)이 상기 디스플레이의 인출 방향에 대응하지 않음을 확인할 수 있다. 이 경우, 전자 장치(200)는 상기 제1 화면을, 디스플레이의 인출 속도에 동기를 맞추어 확장된 디스플레이의 좌측 방향으로 시프트 이동시킬 수 있다. 일 실시 예에서, 전자 장치(200)는 상기 확장된 디스플레이에서 제1 영역(511)을 제외한 나머지 디스플레이 영역을, 상기 제2 화면을 디스플레이 할 제2 영역(512)으로 결정할 수 있다. 도 5a에서, 제2 영역(512)은 상기 확장된 디스플레이의 우측 부분을 기준으로 결정될 수 있으며, 제2 영역(512)의 크기는 롤러(210)에 의해 인출되는 디스플레이 영역의 크기에 대응될 수 있다.
도 5b에서, 전자 장치(200)는 디스플레이의 표시 영역이 확장되기 전 제1 화면을 디스플레이 하는 동안 사용자의 오른손(502)에 의해 디스플레이의 우측 부분이 파지됨을 확인할 수 있다. 디스플레이의 우측 부분이 파지된 경우, 전자 장치(200)는 확장된 디스플레이의 우측 부분을 기준으로, 디스플레이 영역의 확장 후 상기 제1 화면을 디스플레이 할 제1 영역(521)을 결정할 수 있다. 상기 제1 영역(521)의 크기는 확장 전 디스플레이 영역의 크기에 대응될 수 있다. 일 실시 예에서, 전자 장치(200)는 상기 결정된 제1 영역(521)이 디스플레이의 인출 방향에 대응하는지 여부를 확인할 수 있다. 전자 장치(200)는 디스플레이를 기준으로 롤러(210)가 위치한 방향의 반대 방향을 상기 디스플레이의 인출 방향으로 결정할 수 있다. 도 5b에서, 제1 영역(521)은 확장된 디스플레이의 우측 방향에 배치되고, 및/또는 디스플레이는 롤러(210)에 의해 우측 방향으로 인출되어 확장되므로, 전자 장치(200)는 제1 영역(521)이 상기 디스플레이의 인출 방향에 대응함을 확인할 수 있다. 이 경우, 사용자가 디스플레이의 우측 부분을 파지하고 있기 때문에, 상기 디스플레이가 우측 방향으로 인출되더라도 사용자는 디스플레이의 표시 영역이 좌측 방향으로 확장되는 것처럼 인식할 수 있으며, 상기 제1 화면은 기존 위치를 유지하면서 지속적으로 디스플레이 될 수 있다. 일 실시 예에서, 전자 장치(200)는 상기 확장된 디스플레이에서 제1 영역(521)을 제외한 나머지 디스플레이 영역을, 상기 제2 화면을 디스플레이 할 제2 영역(522)으로 결정할 수 있다. 도 5b에서, 제2 영역(522)은 상기 확장된 디스플레이의 좌측 부분을 기준으로 결정될 수 있으며, 제2 영역(522)의 크기는 롤러(210)에 의해 인출되는 디스플레이 영역의 크기에 대응될 수 있다.
다양한 실시 예에 따라, 전자 장치(200)는 상기 화면 방향이 수직 방향(예: y축 방향 또는 세로모드 방향)일 때 디스플레이의 좌측 부분과 우측 부분 모두 사용자에 의해 파지됨을 확인할 수 있다. 이러한 경우, 전자 장치(200)는 파지가 오래 유지되는 측에 우선 순위를 두고 상기 제1 영역(511, 521)의 방향을 결정할 수 있다. 예를 들어, 전자 장치(200)는 양 손 파지 상태에서 한 손이 이탈하였을 때, 파지가 계속 유지되는 측을 기준으로 상기 제1 영역(511, 521)을 결정할 수 있다. 다른 예를 들어, 전자 장치(200)는 한 손 파지 상태에서 디스플레이(310)가 확장된 후 다른 한 손이 추가적으로 파지됨을 검출하더라도, 상기 제1 영역(511, 521)을 변경하지 않고 기존의 디스플레이 상태를 유지할 수 있다. 전자 장치(200)는, 도 5a에서 디스플레이의 좌측 부분이 파지됨을 확인함에 따라 확장된 디스플레이의 좌측 영역을 기준으로 상기 제1 영역(511)을 결정한 후 상기 디스플레이의 우측 부분이 추가적으로 파지됨을 확인하면, 좌측 파지 상태에 우선 순위를 두고 상기 결정된 제1 영역(511)을 그대로 유지할 수 있다.
다양한 실시 예에 따라, 전자 장치(200)는 상기 화면 방향이 수평 방향(예: x축 방향 또는 가로모드 방향)이면, 일반적인 사용자 행동 패턴을 고려하여 디스플레이의 하단 부분이 파지된 것으로 가정하고, 상기 제1 화면 및 상기 제2 화면의 위치를 결정할 수 있다. 전자 장치(200)의 화면 방향이 수평 방향(예: x축 방향 또는 가로모드 방향)인 경우, 상기 제1 화면 및 상기 제2 화면의 배치는 도 5c 또는 도 5d와 같이 수행될 수 있다.
도 5c에서, 전자 장치(200)는 디스플레이의 표시 영역이 확장되기 전 제1 화면을 디스플레이 하는 동안 사용자의 왼손(501) 및/또는 오른손(502)에 의해 디스플레이의 하측 부분이 파지됨을 확인할 수 있다. 전자 장치(200)는 확장된 디스플레이의 하측 부분을 기준으로, 디스플레이의 표시 영역의 확장 후 상기 제1 화면을 디스플레이 할 제1 영역(531)을 결정할 수 있다. 상기 제1 영역(531)의 크기는 확장 전 디스플레이의 표시 영역의 크기에 대응될 수 있다. 일 실시 예에서, 전자 장치(200)는 상기 결정된 제1 영역(531)이 디스플레이의 인출 방향에 대응하는지 여부를 확인할 수 있다. 전자 장치(200)는 디스플레이를 기준으로 롤러(210)가 위치한 방향의 반대 방향을 상기 디스플레이의 인출 방향으로 결정할 수 있다. 도 5c에서, 제1 영역(531)은 확장된 디스플레이의 하측 방향에 배치되고, 디스플레이는 롤러(210)에 의해 상측 방향으로 인출되어 확장되므로, 전자 장치(200)는 제1 영역(531)이 상기 디스플레이의 인출 방향에 대응하지 않음을 확인할 수 있다. 이 경우, 전자 장치(200)는 상기 제1 화면을, 디스플레이의 인출 속도에 동기를 맞추어 확장된 디스플레이의 하측 방향으로 시프트 이동시킬 수 있다. 일 실시 예에서, 전자 장치(200)는 상기 확장된 디스플레이에서 제1 영역(531)을 제외한 나머지 디스플레이 영역을, 상기 제2 화면을 디스플레이 할 제2 영역(532)으로 결정할 수 있다. 도 5c에서, 제2 영역(532)은 상기 확장된 디스플레이의 상측 부분을 기준으로 결정될 수 있으며, 제2 영역(532)의 크기는 롤러(210)에 의해 인출되는 디스플레이 영역의 크기에 대응될 수 있다.
도 5d에서, 전자 장치(200)는 디스플레이의 표시 영역이 확장되기 전 제1 화면을 디스플레이 하는 동안 사용자의 왼손(501) 및/또는 오른손(502)에 의해 디스플레이의 하측 부분이 파지됨을 확인할 수 있다. 전자 장치(200)는 확장된 디스플레이의 하측 부분을 기준으로, 디스플레이 영역의 확장 후 상기 제1 화면을 디스플레이 할 제1 영역(541)을 결정할 수 있다. 상기 제1 영역(541)의 크기는 확장 전 디스플레이 영역의 크기에 대응될 수 있다. 일 실시 예에서, 전자 장치(200)는 상기 결정된 제1 영역(541)이 디스플레이의 인출 방향에 대응하는지 여부를 확인할 수 있다. 전자 장치(200)는 디스플레이를 기준으로 롤러(210)가 위치한 방향의 반대 방향을 상기 디스플레이의 인출 방향으로 결정할 수 있다. 도 5d에서, 제1 영역(541)은 확장된 디스플레이의 하측 방향에 배치되고, 디스플레이는 롤러(210)에 의해 하측 방향으로 인출되어 확장되므로, 전자 장치(200)는 제1 영역(541)이 상기 디스플레이의 인출 방향에 대응함을 확인할 수 있다. 이 경우, 사용자가 디스플레이의 하측 부분을 파지하고 있기 때문에, 상기 디스플레이가 하측 방향으로 인출되더라도 사용자는 디스플레이 영역이 상측 방향으로 확장되는 것처럼 인식할 수 있으며, 상기 제1 화면은 기존 위치를 유지하면서 지속적으로 디스플레이 될 수 있다. 일 실시 예에서, 전자 장치(200)는 상기 확장된 디스플레이에서 제1 영역(541)을 제외한 나머지 디스플레이 영역을, 상기 제2 화면을 디스플레이 할 제2 영역(542)으로 결정할 수 있다. 도 5d에서, 제2 영역(542)은 상기 확장된 디스플레이의 좌측 부분을 기준으로 결정될 수 있으며, 제2 영역(542)의 크기는 롤러(210)에 의해 인출되는 디스플레이 영역의 크기에 대응될 수 있다.
도 6a, 도 6b 및 도 6c는 일 실시 예에 따른, 디스플레이 확장 시 사용자의 그립 상태를 고려하여 제1 화면(610) 및/또는 제2 화면(620)을 제공하는 방식을 설명하는 도면이다. 다양한 실시 예에 따라, 전자 장치(200)는 제1 화면을 제공하는 동안 디스플레이 영역이 확장됨을 감지하면, 사용자의 그립 상태를 기반으로 제1 화면(610) 및/또는 제2 화면(620)을 제공할 수 있다. 제1 화면(610)은 상기 디스플레이 영역의 확장 전 실행 중인 동영상 어플리케이션의 실행 화면일 수 있다. 제2 화면(620)은 상기 디스플레이 영역의 확장 후 추가적으로 디스플레이 되는 화면으로, 제1 화면(610)이 제공되는 동안 발생된 이벤트에 연관된 정보 또는 제1 화면(610)을 통해 제공되는 콘텐트에 대한 부가 정보를 포함할 수 있다. 상기 이벤트는 전화 알림, 메시지 수신, 어플리케이션 관련 알림 수신, 또는 사용자 입력 중 적어도 하나를 포함할 수 있다.
도 6a에서, 전자 장치(200)는 디스플레이의 적어도 일부가 하우징에 수납된 상태에서 제1 화면(610)을 디스플레이 할 수 있다. 전자 장치(200)는 제1 화면(610)을 디스플레이 하는 동안 상기 디스플레이의 적어도 일부가 상기 하우징으로부터 인출되어 외부로 노출되는 디스플레이 영역이 확장됨을 확인할 수 있다. 예를 들어, 전자 장치(200)는 상기 이벤트의 발생을 감지함에 응답하여 자동으로 상기 디스플레이 영역이 확장되도록 제어할 수 있다. 다른 예를 들어, 전자 장치(200)는 상기 이벤트 발생 후 사용자에 의해 지정된 동작(: 롤링 아웃 동작 또는 슬라이딩 아웃 동작)이 수행되거나 또는 사용자의 터치 입력이 있음을 감지하면, 상기 디스플레이 영역이 확장되도록 제어할 수 있다. 일 실시 예에 따라, 디스플레이의 적어도 일부를 롤링 또는 롤링 해제하는 롤러가 디스플레이의 좌측에 위치한 경우, 전자 장치(200)는 상기 디스플레이 영역이 확장되는 동안 상기 디스플레이가 상기 롤러에 의해 우측 방향으로 인출됨을 확인할 수 있다. 도 6a에서, 전자 장치(200)는 제1 화면(610)을 디스플레이 하는 동안 사용자의 오른손(601)에 의해 디스플레이의 우측 부분이 파지됨을 확인하고, 확장된 디스플레이의 우측 부분을 기준으로 제1 화면(610)을 제공하도록 결정할 수 있다. 이 경우, 디스플레이 영역 확장 시 제1 화면(610)이 디스플레이 되는 위치가 디스플레이의 인출 방향에 대응하므로, 전자 장치(200)는 제1 화면(610)에 대해 기존 위치를 유지하면서 지속적으로 디스플레이 하도록 제어할 수 있다. 디스플레이 영역 확장 시 추가 제공되는 제2 화면(620)은 확장된 디스플레이 내에서 제1 화면(610)이 제공되는 영역을 제외한 나머지 디스플레이 영역 상에 표시될 수 있다. 예를 들어, 전자 장치(200)는 사용자에 의해 파지된 위치의 반대 방향인 좌측 방향을 기준으로 제2 화면(620)을 제공하도록 결정할 수 있으며, 디스플레이 확장 시 하우징으로부터 인출되는 디스플레이 영역 상에 제2 화면(620)을 디스플레이 할 수 있다.
도 6b에서, 전자 장치(200)는 디스플레이의 적어도 일부가 하우징에 수납된 상태에서 제1 화면(610)을 디스플레이 할 수 있다. 전자 장치(200)는 제1 화면(610)을 디스플레이 하는 동안 상기 디스플레이의 적어도 일부가 상기 하우징으로부터 인출되어 외부로 노출되는 디스플레이 영역이 확장됨을 확인할 수 있다. 도 6b에서, 전자 장치(200)는 제1 화면(610)을 디스플레이 하는 동안 사용자의 왼손(602)에 의해 디스플레이의 좌측 부분이 파지됨을 확인하고, 확장된 디스플레이의 좌측 부분을 기준으로 제1 화면(610)을 제공하도록 결정할 수 있다. 이 경우, 디스플레이 영역 확장 시 제1 화면(610)이 디스플레이 되는 위치가 디스플레이의 인출 방향에 대응하지 않으므로, 전자 장치(200)는 제1 화면(610)을 확장된 디스플레이의 좌측 방향으로 시프트 이동시킬 수 있다. 제1 화면(610)의 이동 과정에서 사용자가 느낄 수 있는 불편함을 최소화하거나 줄이기 위해, 전자 장치(200)는 제1 화면이 디스플레이의 인출 속도에 동기를 맞추어 상기 확장된 디스플레이의 좌측 방향으로 시프트 이동하도록 제어할 수 있다. 디스플레이 영역 확장 시 추가 제공되는 제2 화면(620)은 확장된 디스플레이 내에서 제1 화면(610)이 제공되는 영역을 제외한 나머지 디스플레이 영역 상에 표시될 수 있다. 예를 들어, 전자 장치(200)는 사용자에 의해 파지된 위치의 반대 방향인 우측 방향을 기준으로 제2 화면(620)을 제공하도록 결정할 수 있으며, 디스플레이 확장 시 제1 화면(610)이 시프트 이동함에 따라 비어있는 디스플레이 영역 상에 제2 화면(620)을 디스플레이 할 수 있다.
도 6c에서, 전자 장치(200)는 디스플레이의 적어도 일부가 하우징에 수납된 상태에서 수평 방향(또는 가로 방향)으로 제1 화면(610)을 디스플레이 할 수 있다. 전자 장치(200)는 제1 화면(610)을 디스플레이 하는 동안 상기 디스플레이의 적어도 일부가 상기 하우징으로부터 인출되어 외부로 노출되는 디스플레이 영역이 확장됨을 확인할 수 있다. 도 6c에서, 전자 장치(200)는 제1 화면(610)을 디스플레이 하는 동안 사용자의 오른손(601) 및/또는 왼손(602)에 의해 디스플레이의 하측 부분이 파지됨을 확인하고, 확장된 디스플레이의 하측 부분을 기준으로 제1 화면(610)을 제공하도록 결정할 수 있다. 일 실시 예에 따라, 전자 장치(200)는 디스플레이의 적어도 일부를 롤링 또는 롤링 해제하는 롤러의 위치의 반대 방향을 디스플레이의 인출 방향으로 결정할 수 있다. 예를 들어, 상기 롤러가 디스플레이의 하측에 위치해 있으면, 전자 장치(200)는 상기 디스플레이 영역이 확장되는 동안 상기 디스플레이가 상기 롤러에 의해 상측 방향으로 인출됨을 확인할 수 있다. 이 경우, 디스플레이 영역 확장 시 제1 화면(610)이 디스플레이 되는 위치가 디스플레이의 인출 방향에 대응하지 않으므로, 전자 장치(200)는 제1 화면(610)을 확장된 디스플레이의 하측 방향으로 시프트 이동시킬 수 있다. 제1 화면(610)의 이동 과정에서 사용자가 느낄 수 있는 불편함을 최소화하거나 줄이기 위해, 전자 장치(200)는 제1 화면이 디스플레이의 인출 속도에 동기를 맞추어 상기 확장된 디스플레이의 하측 방향으로 시프트 이동하도록 제어할 수 있다. 다른 예를 들어, 상기 롤러가 디스플레이의 상측에 위치해 있으면, 전자 장치(200)는 상기 디스플레이 영역이 확장되는 동안 상기 디스플레이가 상기 롤러에 의해 하측 방향으로 인출됨을 확인할 수 있다. 이 경우, 디스플레이 영역 확장 시 제1 화면(610)이 디스플레이 되는 위치가 디스플레이의 인출 방향에 대응하므로, 전자 장치(200)는 제1 화면(610)에 대해 기존 위치를 유지하면서 지속적으로 디스플레이 하도록 제어할 수 있다. 디스플레이 영역 확장 시 추가 제공되는 제2 화면(620)은 확장된 디스플레이 내에서 제1 화면(610)이 제공되는 영역을 제외한 나머지 디스플레이 영역 상에 표시될 수 있다. 예를 들어, 전자 장치(200)는 상기 확장된 디스플레이의 상측 방향을 기준으로 제2 화면(620)을 제공하도록 결정할 수 있다.
도 7은 일 실시 예에 따른, 전자 장치의 동작 방법을 도시하는 흐름도이다. 일 실시 예에 따르면, 전자 장치(200)는 외부로 노출되는 디스플레이 영역의 크기가 가변적인 플렉서블 타입 장치로서, 도 1에 도시된 전자 장치(101), 또는 도 2에 도시된 전자 장치(200)에 대응될 수 있다. 도 7의 동작들은 전자 장치(200)에 포함된 적어도 하나의 프로세서(예: 도 1의 프로세서(120) 또는 도 3의 적어도 하나의 프로세서(320))에 의해 수행될 수 있다.
도 7을 참조하면, 동작 710에서 전자 장치(200)는 제1 화면을 제공하는 동안 디스플레이(예: 도 1의 디스플레이 모듈(160) 또는 도 3의 디스플레이(310))가 하우징으로부터 확장됨을 감지할 수 있다. 상기 제1 화면은 디스플레이(310) 확장 전 사용자가 시청하고 있던 하나 이상의 콘텐트 또는 어플리케이션의 실행화면 중 적어도 하나를 포함할 수 있다. 전자 장치(200)는 디스플레이(310)가 하우징에 포함된 롤러에 의해 롤링되었는지 또는 롤링 해제되었는지를 검출하여, 디스플레이(310)의 확장 여부를 확인할 수 있다. 디스플레이(310)의 적어도 일부 영역이 하우징 내에 수납된 상태에서 상기 하우징에 포함된 롤러에 의해 롤링 해제되면, 적어도 하나의 프로세서(320)는 디스플레이(310)가 상기 하우징으로부터 확장됨을 확인할 수 있다. 다양한 실시 예에 따라, 전자 장치(200)는 지정된 이벤트(예: 전화 알림, 메시지 수신, 어플리케이션 관련 알림 수신 또는 사용자 입력) 발생 시 자동으로 디스플레이(310)가 확장되거나, 또는 사용자에 의해 수행되는 지정된 동작(예: 롤링 아웃 동작 또는 슬라이딩 아웃 동작)에 의해 디스플레이(310)가 확장되도록 상기 롤러를 제어할 수 있다.
일 실시 예에 따르면, 동작 720에서 전자 장치(200)는 사용자의 그립 상태를 확인할 수 있다. 예시적으로, 상기 그립 상태는 디스플레이(310)를 통해 노출되는 화면 방향 또는 상기 사용자의 파지 위치 중 적어도 하나를 포함할 수 있다.
일 실시 예에 따르면, 동작 730에서 전자 장치(200)는 상기 확인된 그립 상태를 기반으로, 디스플레이(310) 확장 시 상기 제1 화면이 디스플레이 되는 제1 영역을 결정할 수 있다. 동작 730의 제1 영역 결정에 관한 구체적 내용은 도 8을 참조하여 설명한다.
도 8을 참조하면, 동작 810에서 전자 장치(200)는 상기 그립 상태를 기반으로 디스플레이(310)를 통해 노출되는 화면 방향을 확인할 수 있다. 예를 들어, 전자 장치(200)는 사용자의 그립에 의해 디스플레이(310)의 화면 방향이 수평 방향 또는 수직 방향 중 어느 방향으로 회전되어 있는지를 검출할 수 있다.
일 실시 예에 따르면, 동작 820에서 전자 장치(200)는 상기 확인된 화면 방향이 수평 방향(예: x축 방향 또는 가로모드 방향)인지 여부를 확인할 수 있다. 상기 확인 결과 상기 화면 방향이 수평 방향인 것으로 확인되면(동작 820-예), 전자 장치(200)는 동작 825에서 확장된 디스플레이의 하단 영역을 기준으로 상기 제1 영역을 결정할 수 있다. 상기 화면 방향이 수평 방향인 경우, 전자 장치(200)는 일반적인 사용자 행동 패턴에 따라 디스플레이(310)의 하단 부분이 파지된 것으로 가정하고, 상기 확장된 디스플레이의 하단 영역을 기준으로 상기 제1 영역의 위치를 결정할 수 있다.
상기 확인 결과 상기 화면 방향이 수직 방향(예: y축 방향 또는 세로모드 방향)인 것으로 확인되면(동작 820-아니오), 전자 장치(200)는 동작 830에서 사용자의 파지 위치를 추가 확인할 수 있다. 다양한 실시 예에 따라, 전자 장치(200)는 상기 그립 상태를 기반으로 상기 사용자에 의해 파지된 위치가 디스플레이(310)의 좌측 부분인지 또는 우측 부분인지를 확인할 수 있다. 예를 들어, 전자 장치(200)는 사용자에 의해 설정된 주 사용 방향을 기반으로 상기 파지 위치를 확인할 수 있다. 한 손 조작 모드가 설정되어 있는 경우, 전자 장치(200)는 사용자에 의해 선택된 주 사용 방향(또는 주로 사용하는 손)을 기반으로 상기 파지 위치를 확인할 수 있다. 다른 예를 들어, 전자 장치(200)는 하나 이상의 센서(예: 도 1의 센서 모듈(176))을 이용하여 상기 파지 위치를 확인할 수 있다. 상기 하나 이상의 센서는 그립 센서, 터치 센서, 압력 센서, 가속도 센서 또는 자이로 센서 중 적어도 하나를 포함할 수 있다. 전자 장치(200)는 상기 하나 이상의 센서로부터 획득한 센싱 데이터를 기반으로 디스플레이(310)의 어느 측면 부분이 파지되었는지를 확인할 수 있다. 전자 장치(200)는 사용자에 의한 파지가 감지된 엣지 디스플레이(edge display) 영역을 기반으로 상기 파지 위치를 확인할 수도 있다. 또 다른 예를 들어, 전자 장치(200)는 상기 사용자에 의해 착용된 웨어러블 디바이스(예: 스마트워치) 또는 상기 사용자가 사용 중인 전자 펜을 이용하여 상기 파지 위치를 확인할 수 있다. 상기 웨어러블 디바이스가 사용자의 어느 방향 손목에 착용되어 있는지 인식하고 있는 경우, 전자 장치(200)는 상기 웨어러블 디바이스와의 통신 거리 또는 상기 웨어러블 디바이스의 자이로 센서로부터 획득한 센싱 데이터 중 적어도 하나를 기반으로 어느 방향의 손이 전자 장치(200)를 파지하고 있는지를 확인할 수 있다. 전자 장치(200)는 전자 펜 사용 시 상기 전자 펜이 입력되는 방향이나 각도, 또는 상기 전자 펜 내부의 자이로 센서로부터 획득한 센싱 데이터 중 적어도 하나를 기반으로 상기 전자 펜을 쥐고 있는 손과 전자 장치(200)를 파지한 손의 방향을 확인하고, 상기 확인 결과를 기반으로 상기 파지 위치를 결정할 수도 있다. 일 실시 예에 따르면, 동작 835에서 전자 장치(200)는 상기 확인된 파지 위치를 기준으로 상기 제1 영역을 결정할 수 있다. 예를 들어, 상기 파지 위치가 디스플레이(310)의 좌측 부분으로 확인되면, 전자 장치(200)는 확장된 디스플레이의 좌측 영역을 기준으로 상기 제1 영역을 결정할 수 있다. 다른 예를 들어, 상기 파지 위치가 디스플레이(310)의 우측 부분으로 확인되면, 전자 장치(200)는 확장된 디스플레이의 우측 영역을 기준으로 상기 제1 영역을 결정할 수 있다. 다양한 실시 예에 따라, 전자 장치(200)는 디스플레이(310)의 좌측 부분과 우측 부분 모두 파지됨을 확인하면, 양측 부분 중에서 파지가 오래 유지되는 측을 기준으로 상기 제1 영역을 결정할 수 있다. 예를 들어, 전자 장치(200)는 양 손 파지 상태에서 한 손이 이탈하였을 때, 파지가 계속 유지되는 측을 확인하여 상기 파지 위치를 결정할 수 있다. 다른 예를 들어, 전자 장치(200)는 한 손 파지 상태에서 디스플레이(310)의 확장 후 다른 한 손이 추가적으로 파지됨을 검출하더라도, 상기 제1 영역을 변경하지 않고 기존의 디스플레이 상태를 유지할 수 있다. 전자 장치(200)는, 사용자에 의해 디스플레이(310)의 좌측 부분이 파지됨을 확인함에 따라 확장된 디스플레이의 좌측 영역을 기준으로 상기 제1 영역이 결정된 이후 디스플레이(310)의 우측 부분이 추가적으로 파지됨을 확인하면, 좌측 파지 상태에 우선 순위를 두고 상기 결정된 제1 영역의 방향을 그대로 유지할 수 있다.
다시 도 7을 참조하면, 동작 740에서 전자 장치(200)는 상기 결정된 제1 영역이 디스플레이(310)의 인출 방향에 대응하는지 여부를 확인할 수 있다. 다양한 실시 예에 따라, 디스플레이(310)의 인출 방향은 디스플레이(310)의 적어도 일부를 롤링 또는 롤링 해제하는 롤러의 위치를 기반으로 결정될 수 있다. 전자 장치(200)는 디스플레이(310)를 기준으로 상기 롤러가 위치한 방향의 반대 방향을 상기 디스플레이(310)의 인출 방향으로 결정할 수 있다. 예를 들어, 상기 롤러가 디스플레이(310)의 좌측 부분에 위치해 있으면 (디스플레이(310)의 적어도 일부가 상기 좌측 부분에 수납된 상태에서 상기 롤러에 의해 롤링 해제되어 확장됨), 전자 장치(200)는 디스플레이(310)가 우측 방향으로 인출됨을 확인할 수 있다. 다른 예를 들어, 상기 롤러가 디스플레이(310)의 하측 부분에 위치해 있으면 (디스플레이(310)의 적어도 일부가 상기 하측 부분에 수납되었다가 상기 롤러에 의해 롤링 해제되어 확장됨), 전자 장치(200)는 디스플레이(310)가 상측 방향으로 인출됨을 확인할 수 있다. 다양한 실시 예에 따라, 전자 장치(200)는 디스플레이(310)의 확장을 위한 사용자 입력(예: 롤링 동작에 따른 롤-아웃 입력 또는 슬라이딩 동작에 따른 슬라이드-아웃 동작)이 가해지는 방향에 대응하도록 상기 디스플레이(310)의 인출 방향을 결정할 수도 있다.
상기 확인 결과, 상기 제1 영역이 상기 디스플레이(310)의 인출 방향에 대응하면(동작 740-예), 전자 장치(200)는 동작 750에서 상기 제1 화면과 구분되는 제2 화면을 상기 하우징으로부터 인출되는 디스플레이 영역 상에 디스플레이 할 수 있다. 사용자의 그립 상태를 기반으로 결정된 상기 제1 영역이 상기 디스플레이(310)의 인출 방향에 대응하는 경우, 상기 제1 영역의 위치는 항상 외부로 노출되는 디스플레이 영역이므로, 상기 제1 화면은 기존 위치를 유지하면서 지속적으로 디스플레이 될 수 있다. 이 경우, 디스플레이(310)가 확장됨에 따라 추가적으로 노출되는 제2 영역은 상기 하우징으로부터 수납되었다가 인출되는 디스플레이 영역 상에 위치하도록 결정될 수 있다. 상기 제2 영역의 크기는 상기 하우징으로부터 인출되는 디스플레이 영역의 크기에 대응될 수 있다. 전자 장치(200)는 상기 제2 영역 상에 상기 제1 화면과 상이한 제2 화면을 디스플레이 할 수 있다. 다양한 실시 예에 따라, 상기 제2 화면은 상기 제1 화면을 제공하는 중에 발생된 이벤트에 연관된 정보를 포함할 수 있다. 상기 이벤트는 전화 알림, 메시지 수신, 어플리케이션 관련 알림 수신, 또는 사용자 입력 중 적어도 하나를 포함할 수 있다. 전자 장치(200)는 디스플레이(310)의 적어도 일부가 하우징에 수납된 상태에서 상기 제1 화면을 제공하는 동안 상기 이벤트가 발생함을 감지하면, 상기 이벤트에 연관되는 정보를 포함하는 제2 화면을 생성할 수 있다. 전자 장치(200)는 상기 이벤트 발생에 대응하여 자동으로 또는 상기 이벤트 발생 후 감지된 사용자 입력이나 동작을 기반으로 디스플레이(310)를 상기 하우징으로부터 인출하고, 상기 생성된 제2 화면을 상기 제2 영역 상에 디스플레이 할 수 있다.
상기 확인 결과, 상기 제1 영역이 상기 디스플레이(310)의 인출 방향에 대응하지 않으면(동작 740-아니오), 전자 장치(200)는 동작 760에서 상기 제1 화면을 상기 제1 영역으로 이동시키고 상기 하우징으로부터 인출되는 디스플레이 영역 상에 상기 제1 화면을 디스플레이 할 수 있다. 사용자의 그립 상태를 기반으로 결정된 상기 제1 영역이 상기 디스플레이(310)의 인출 방향에 대응하지 않는 경우, 상기 제1 영역의 위치는 상기 하우징 내에 수납되었다가 인출되는 디스플레이 영역이므로, 상기 제1 화면은 상기 하우징으로부터 인출되는 디스플레이 영역으로 위치를 이동하여 디스플레이 될 수 있다. 이 때, 전자 장치(200)는 디스플레이(310)가 상기 하우징으로부터 인출되는 속도에 동기를 맞추어 상기 제1 화면을 상기 제1 영역으로 시프트 이동하도록 제어할 수 있다. 이 경우, 디스플레이(310)가 확장됨에 따라 추가적으로 노출되는 제2 영역은 항상 외부로 노출되는 디스플레이 영역 상에 위치하도록 결정될 수 있다. 상기 제2 영역의 크기는 상기 하우징으로부터 인출되는 디스플레이 영역의 크기에 대응될 수 있다.
도 9a, 도 9b 및 도 9c는 일 실시 예에 따라, 동영상 어플리케이션 실행 중 감지된 이벤트에 대응하여 제2 화면을 추가 제공하는 방식을 설명하는 도면이다. 다양한 실시 예에 따라, 전자 장치(200)는 동영상 어플리케이션을 실행하여 제1 화면(911)을 제공하는 동안 지정된 이벤트가 발생함을 감지할 수 있다. 예를 들어, 제1 화면(911)은 상기 동영상 어플리케이션의 실행 화면을 포함하고, 상기 지정된 이벤트는 상기 동영상 어플리케이션의 실행 중 수신된 전화 알림일 수 있다. 전자 장치(200)는 상기 전화 알림을 수신함에 응답하여 상기 전화 알림에 관한 제2 화면을 생성하고, 디스플레이 영역이 확장되면 상기 제2 화면을 제공할 수 있다. 상기 디스플레이 영역은 상기 지정된 이벤트 발생 시 자동으로 확장되거나, 또는 사용자에 의해 수행되는 지정된 동작(예: 롤링 아웃 동작 또는 슬라이딩 아웃 동작)에 의해 확장될 수 있다. 다양한 실시 예에 따라, 전자 장치(200)는 디스플레이(예: 도 1의 디스플레이 모듈(160) 또는 도 3의 디스플레이(310))의 적어도 일부를 롤링 또는 롤링 해제하는 롤러가 디스플레이(310)의 좌측에 위치함을 확인하고, 상기 디스플레이 영역이 확장되는 동안 디스플레이(310)가 상기 롤러에 의해 우측 방향으로 인출됨을 확인할 수 있다. 전자 장치(200)는 디스플레이(310)가 하우징으로부터 인출되어 확장된 디스플레이 영역의 크기에 따라 상이하게 상기 제2 화면을 제공할 수 있다.
도 9a를 참조하면, 전자 장치(200)는 확장 전 디스플레이 영역(910)을 통해 제1 화면(911)을 제공할 수 있다. 확장 전 디스플레이 영역(910)은 디스플레이(310)가 최소 또는 소량으로 축소되어 제1 크기의 디스플레이 영역만이 외부로 노출되는 상태로, 상기 제1 크기는 항상 외부로 노출되는 기본 디스플레이 영역에 대응될 수 있다. 전자 장치(200)는 제1 화면(911)을 제공하는 동안 디스플레이 영역이 확장됨을 감지하면, 사용자에 의해 디스플레이(310)의 좌측 부분이 파지됨을 확인하고, 디스플레이 영역(910) 확장 시 확장된 디스플레이의(920, 930) 좌측 부분을 기준으로 제1 화면(911)을 제공하도록 제어할 수 있다. 도 9a에서, 전자 장치(200)는 제1 화면(911)이 제공되는 위치가 디스플레이(310)의 인출 방향에 대응하지 않음을 확인하고, 제1 화면(911)을 디스플레이(310)의 인출 속도에 동기를 맞추어 좌측 방향으로 시프트 이동시킬 수 있다. 디스플레이(310)가 인출되는 동안, 확장 중인 디스플레이 영역(920)내에서 제1 화면(911)이 시프트 이동함에 따라, 확장 중인 디스플레이 영역(920)의 우측 방향을 기준으로 전화 알림 수신에 관한 제2 화면을 제공하기 위한 공간(921)이 점차 확대될 수 있다. 확장 중인 디스플레이 영역(920)은 디스플레이(310)가 최대 축소된 상태에서 일부 인출되어 제2 크기의 디스플레이 영역이 외부로 노출되는 상태를 의미할 수 있다. 전자 장치(200)는 디스플레이(310)가 인출되는 동안 확장 중인 디스플레이 영역(920)의 상기 공간(921)에 아무 것도 표시하지 않고 비어있는 상태를 유지할 수 있다. 이후, 디스플레이(310)의 인출이 완료되면, 전자 장치(200)는 확장된 디스플레이 영역(930)의 우측 부분을 기준으로 전화 알림 수신에 관한 제2 화면(931)을 제공할 수 있다. 확장된 디스플레이 영역(930)은 디스플레이(310)가 하우징으로부터 인출되어 제3 크기의 디스플레이 영역이 외부로 노출되는 상태로, 상기 제3 크기는 최대 또는 크게 확장된 디스플레이 영역에 대응될 수 있다.
도 9b를 참조하면, 전자 장치(200)는 확장 전 디스플레이 영역(910)을 통해 제1 화면(911)을 제공할 수 있다. 전자 장치(200)는 제1 화면(911)을 제공하는 동안 디스플레이 영역이 확장됨을 감지하면, 사용자에 의해 디스플레이(310)의 좌측 부분이 파지됨을 확인하고, 디스플레이 영역(910) 확장 시 확장된 디스플레이의(920, 930) 좌측 부분을 기준으로 제1 화면(911)을 제공하도록 제어할 수 있다. 도 9b에서, 전자 장치(200)는 제1 화면(911)이 제공되는 위치가 디스플레이(310)의 인출 방향에 대응하지 않음을 확인하고, 제1 화면(911)을 디스플레이(310)의 인출 속도에 동기를 맞추어 좌측 방향으로 시프트 이동시킬 수 있다. 디스플레이(310)가 인출되는 동안, 확장 중인 디스플레이 영역(920)내에서 제1 화면(911)이 시프트 이동함에 따라 확장 중인 디스플레이 영역(920)의 우측 방향을 기준으로 제2 화면을 제공하기 위한 공간(922)이 점차 확대될 수 있다. 전자 장치(200)는 디스플레이(310)가 인출되는 동안 확장 중인 디스플레이 영역(920) 내 상기 공간(922)의 크기에 맞추어 제2 화면(932)을 점진적으로 디스플레이 할 수 있다. 이 경우, 제2 화면(932)은 한번에 노출되지 않고, 디스플레이(310)의 인출 정도에 따라 부분적으로 노출될 수 있다. 이후, 디스플레이(310)의 인출이 완료되면, 전자 장치(200)는 확장된 디스플레이 영역(930)의 우측 부분을 기준으로 제2 화면(932)의 전체를 디스플레이 할 수 있다.
도 9c를 참조하면, 전자 장치(200)는 확장 전 디스플레이 영역(910)을 통해 제1 화면(911)을 제공할 수 있다. 전자 장치(200)는 제1 화면(911)을 제공하는 동안 디스플레이 영역이 확장됨을 감지하면, 사용자에 의해 디스플레이(310)의 좌측 부분이 파지됨을 확인하고, 디스플레이 영역(910) 확장 시 확장된 디스플레이의(920, 930) 좌측 부분을 기준으로 제1 화면(911)을 제공하도록 제어할 수 있다. 도 9c에서, 전자 장치(200)는 제1 화면(911)이 제공되는 위치가 디스플레이(310)의 인출 방향에 대응하지 않음을 확인하고, 제1 화면(911)을 디스플레이(310)의 인출 속도에 동기를 맞추어 좌측 방향으로 시프트 이동시킬 수 있다. 디스플레이(310)가 인출되는 동안, 확장 중인 디스플레이 영역(920)내에서 제1 화면(911)이 시프트 이동함에 따라 확장 중인 디스플레이 영역(920)의 우측 방향을 기준으로 제2 화면을 제공하기 위한 공간(923)이 점차 확대될 수 있다. 전자 장치(200)는 디스플레이(310)가 인출되는 동안 확장 중인 디스플레이 영역(920) 내 상기 공간(923)의 크기에 맞추어 제2 화면(933)에 포함된 콘텐트(예: 아이콘 또는 텍스트)의 크기를 변경하여 디스플레이 할 수 있다. 이 경우, 제2 화면(933)에 포함된 콘텐트는 디스플레이(310)의 인출 정도에 따라 일정 비율 축소된 크기로 표시될 수 있으며, 상기 공간(923)의 크기에 맞추어 상기 콘텐트의 크기가 단계적으로 확대될 수 있다. 이후, 디스플레이(310)의 인출이 완료되면, 전자 장치(200)는 확장된 디스플레이 영역(930)의 우측 부분을 기준으로 최대 확대된 또는 큰 크기의 콘텐트를 포함하는 제2 화면(933)을 제공할 수 있다. 이로 인해, 전자 장치(200)는 제1 화면(911)을 통해 동영상을 제공하는 동안 전화 알림을 수신하더라도, 사용자의 동영상 시청을 방해하지 않으면서 확장된 디스플레이 영역(930)의 제2 화면(933)을 통해 전화 알림 수신을 알려줄 수 있다.
도 10a, 도 10b 및 도 10c는 일 실시 예에 따라, 카메라 어플리케이션 실행 중 감지된 이벤트에 대응하여 제2 화면을 추가 제공하는 방식을 설명하는 도면이다. 다양한 실시 예에 따라, 전자 장치(200)는 카메라 어플리케이션을 실행하여 제1 화면(1011)을 제공하는 동안 지정된 이벤트가 발생함을 감지할 수 있다. 예를 들어, 제1 화면(1011)은 상기 카메라 어플리케이션의 실행 화면을 포함하고, 상기 지정된 이벤트는 상기 카메라 어플리케이션의 기능 설정을 위한 사용자 입력일 수 있다. 전자 장치(200)는 상기 카메라 어플리케이션의 실행 중 상기 사용자 입력을 감지하면, 상기 카메라 어플리케이션의 기능 설정에 관한 메뉴를 포함하는 제2 화면을 생성하고, 디스플레이 영역이 확장되면 상기 제2 화면을 제공할 수 있다. 상기 디스플레이 영역은 상기 지정된 이벤트 발생 시 자동으로 확장되거나, 또는 사용자에 의해 수행되는 지정된 동작(예: 롤링 아웃 동작 또는 슬라이딩 아웃 동작)에 의해 확장될 수 있다. 다양한 실시 예에 따라, 전자 장치(200)는 디스플레이(예: 도 1의 디스플레이 모듈(160) 또는 도 3의 디스플레이(310))의 적어도 일부를 롤링 또는 롤링 해제하는 롤러가 디스플레이(310)의 좌측에 위치함을 확인하고, 상기 디스플레이 영역이 확장되는 동안 디스플레이(310)가 상기 롤러에 의해 우측 방향으로 인출됨을 확인할 수 있다. 전자 장치(200)는 디스플레이(310)가 하우징으로부터 인출되어 확장된 디스플레이 영역의 크기에 따라 상이하게 상기 제2 화면을 제공할 수 있다.
도 10a를 참조하면, 전자 장치(200)는 확장 전 디스플레이 영역(1010)을 통해 제1 화면(1011)을 제공할 수 있다. 확장 전 디스플레이 영역(1010)은 디스플레이(310)가 최소 또는 소량으로 축소되어 제1 크기의 디스플레이 영역만이 외부로 노출되는 상태로, 상기 제1 크기는 항상 외부로 노출되는 기본 디스플레이 영역에 대응될 수 있다. 전자 장치(200)는 제1 화면(1011)을 제공하는 동안 디스플레이 영역이 확장됨을 감지하면, 사용자에 의해 디스플레이(310)의 좌측 부분이 파지됨을 확인하고, 디스플레이 영역(1010) 확장 시 확장된 디스플레이의(1020, 1030) 좌측 부분을 기준으로 제1 화면(1011)을 제공하도록 제어할 수 있다. 도 10a에서, 전자 장치(200)는 제1 화면(1011)이 제공되는 위치가 디스플레이(310)의 인출 방향에 대응하지 않음을 확인하고, 제1 화면(1011)을 디스플레이(310)의 인출 속도에 동기를 맞추어 좌측 방향으로 시프트 이동시킬 수 있다. 디스플레이(310)가 인출되는 동안, 확장 중인 디스플레이 영역(1020)내에서 제1 화면(1011)이 시프트 이동함에 따라, 확장 중인 디스플레이 영역(1020)의 우측 방향을 기준으로 카메라 어플리케이션의 기능 설정 메뉴를 포함하는 제2 화면을 제공하기 위한 공간(1021)이 점차 확대될 수 있다. 확장 중인 디스플레이 영역(1020)은 디스플레이(310)가 최대 축소된 상태에서 일부 인출되어 제2 크기의 디스플레이 영역이 외부로 노출되는 상태를 의미할 수 있다. 전자 장치(200)는 디스플레이(310)가 인출되는 동안 확장 중인 디스플레이 영역(1020)의 상기 공간(1021)에 아무 것도 표시하지 않고 비어있는 상태를 유지할 수 있다. 이후, 디스플레이(310)의 인출이 완료되면, 전자 장치(200)는 확장된 디스플레이 영역(1030)의 우측 부분을 기준으로 카메라 어플리케이션의 기능 설정 메뉴를 포함하는 제2 화면(1031)을 제공할 수 있다. 확장된 디스플레이 영역(1030)은 디스플레이(310)가 하우징으로부터 인출되어 제3 크기의 디스플레이 영역이 외부로 노출되는 상태로, 상기 제3 크기는 최대 또는 크게 확장된 디스플레이 영역에 대응될 수 있다.
도 10b를 참조하면, 전자 장치(200)는 확장 전 디스플레이 영역(1010)을 통해 제1 화면(1011)을 제공할 수 있다. 전자 장치(200)는 제1 화면(1011)을 제공하는 동안 디스플레이 영역이 확장됨을 감지하면, 사용자에 의해 디스플레이(310)의 좌측 부분이 파지됨을 확인하고, 디스플레이 영역(1010) 확장 시 확장된 디스플레이의(1020, 1030) 좌측 부분을 기준으로 제1 화면(1011)을 제공하도록 제어할 수 있다. 도 10b에서, 전자 장치(200)는 제1 화면(1011)이 제공되는 위치가 디스플레이(310)의 인출 방향에 대응하지 않음을 확인하고, 제1 화면(1011)을 디스플레이(310)의 인출 속도에 동기를 맞추어 좌측 방향으로 시프트 이동시킬 수 있다. 디스플레이(310)가 인출되는 동안, 확장 중인 디스플레이 영역(1020)내에서 제1 화면(1011)이 시프트 이동함에 따라 확장 중인 디스플레이 영역(1020)의 우측 방향을 기준으로 제2 화면을 제공하기 위한 공간(1022)이 점차 확대될 수 있다. 전자 장치(200)는 디스플레이(310)가 인출되는 동안 확장 중인 디스플레이 영역(1020) 내 상기 공간(1022)의 크기에 맞추어 제2 화면(1032)을 점진적으로 디스플레이 할 수 있다. 이 경우, 제2 화면(1032)은 한번에 노출되지 않고, 디스플레이(310)의 인출 정도에 따라 부분적으로 노출될 수 있다. 이후, 디스플레이(310)의 인출이 완료되면, 전자 장치(200)는 확장된 디스플레이 영역(1030)의 우측 부분을 기준으로 제2 화면(1032)의 전체를 디스플레이 할 수 있다.
도 10c를 참조하면, 전자 장치(200)는 확장 전 디스플레이 영역(1010)을 통해 제1 화면(1011)을 제공할 수 있다. 전자 장치(200)는 제1 화면(1011)을 제공하는 동안 디스플레이 영역이 확장됨을 감지하면, 사용자에 의해 디스플레이(310)의 좌측 부분이 파지됨을 확인하고, 디스플레이 영역(1010) 확장 시 확장된 디스플레이의(1020, 1030) 좌측 부분을 기준으로 제1 화면(1011)을 제공하도록 제어할 수 있다. 도 10c에서, 전자 장치(200)는 제1 화면(1011)이 제공되는 위치가 디스플레이(310)의 인출 방향에 대응하지 않음을 확인하고, 제1 화면(1011)을 디스플레이(310)의 인출 속도에 동기를 맞추어 좌측 방향으로 시프트 이동시킬 수 있다. 디스플레이(310)가 인출되는 동안, 확장 중인 디스플레이 영역(1020)내에서 제1 화면(1011)이 시프트 이동함에 따라 확장 중인 디스플레이 영역(1020)의 우측 방향을 기준으로 제2 화면을 제공하기 위한 공간(1023)이 점차 확대될 수 있다. 전자 장치(200)는 디스플레이(310)가 인출되는 동안 확장 중인 디스플레이 영역(1020) 내 상기 공간(1023)의 크기에 맞추어 제2 화면(1033)에 포함된 카메라 어플리케이션의 기능 설정 메뉴를 약식으로 표시할 수 있다. 이 경우, 제2 화면(1033)에 포함된 설정 메뉴는, 디스플레이(310)의 인출 정도에 따라 약식으로 표시(예: 하나 이상의 기능에 대해, 텍스트를 표시하지 않고 아이콘만 표시)되거나 또는 일정 비율 축소된 크기로 표시될 수 있으며, 상기 공간(1023)의 크기에 맞추어 상기 설정 메뉴의 크기가 단계적으로 확대될 수 있다. 이후, 디스플레이(310)의 인출이 완료되면, 전자 장치(200)는 확장된 디스플레이 영역(1030)의 우측 부분을 기준으로 최대 확대된 또는 큰 크기의 설정 메뉴를 포함하는 제2 화면(1033)을 제공할 수 있다. 이로 인해, 전자 장치(200)는 제1 화면(1011)을 통해 디스플레이 되는 카메라 뷰를 방해하지 않으면서, 사용자 입력에 대응하는 카메라 기능 설정 메뉴를 제공할 수 있다.
도 11a, 도 11b 및 도 11c는 일 실시 예에 따라, 웹 브라우저 어플리케이션 실행 중 감지된 이벤트에 대응하여 제2 화면을 추가 제공하는 방식을 설명하는 도면이다. 다양한 실시 예에 따라, 전자 장치(200)는 웹 브라우저 어플리케이션을 실행하여 제1 화면(1111)을 제공하는 동안 지정된 이벤트가 발생함을 감지할 수 있다. 예를 들어, 제1 화면(1111)은 상기 웹 브라우저 어플리케이션의 실행 화면을 포함하고, 상기 지정된 이벤트는 상기 웹 브라우저 어플리케이션의 디스플레이 중 발생된 결제 요청일 수 있다. 전자 장치(200)는 상기 결제 요청을 수신함에 응답하여 결제 진행을 위한 제2 화면을 생성하고, 디스플레이 영역이 확장되면 상기 제2 화면을 제공할 수 있다. 상기 디스플레이 영역은 상기 지정된 이벤트 발생 시 자동으로 확장되거나, 또는 사용자에 의해 수행되는 지정된 동작(예: 롤링 아웃 동작 또는 슬라이딩 아웃 동작)에 의해 확장될 수 있다. 다양한 실시 예에 따라, 전자 장치(200)는 디스플레이(예: 도 1의 디스플레이 모듈(160) 또는 도 3의 디스플레이(310))의 적어도 일부를 롤링 또는 롤링 해제하는 롤러가 디스플레이(310)의 좌측에 위치함을 확인하고, 상기 디스플레이 영역이 확장되는 동안 디스플레이(310)가 상기 롤러에 의해 우측 방향으로 인출됨을 확인할 수 있다. 전자 장치(200)는 디스플레이(310)가 하우징으로부터 인출되어 확장된 디스플레이 영역의 크기에 따라 상이하게 상기 제2 화면을 제공할 수 있다.
도 11a를 참조하면, 전자 장치(200)는 확장 전 디스플레이 영역(1110)을 통해 제1 화면(1111)을 제공할 수 있다. 확장 전 디스플레이 영역(1110)은 디스플레이(310)가 최소 또는 소량으로 축소되어 제1 크기의 디스플레이 영역만이 외부로 노출되는 상태로, 상기 제1 크기는 항상 외부로 노출되는 기본 디스플레이 영역에 대응될 수 있다. 전자 장치(200)는 제1 화면(1111)을 제공하는 동안 디스플레이 영역이 확장됨을 감지하면, 사용자에 의해 디스플레이(310)의 좌측 부분이 파지됨을 확인하고, 디스플레이 영역(1110) 확장 시 확장된 디스플레이의(1120, 1130) 좌측 부분을 기준으로 제1 화면(1111)을 제공하도록 제어할 수 있다. 도 11a에서, 전자 장치(200)는 제1 화면(1111)이 제공되는 위치가 디스플레이(310)의 인출 방향에 대응하지 않음을 확인하고, 제1 화면(1111)을 디스플레이(310)의 인출 속도에 동기를 맞추어 좌측 방향으로 시프트 이동시킬 수 있다. 디스플레이(310)가 인출되는 동안, 확장 중인 디스플레이 영역(1120)내에서 제1 화면(1111)이 시프트 이동함에 따라, 확장 중인 디스플레이 영역(1120)의 우측 방향을 기준으로 하나 이상의 결제 수단을 포함하는 제2 화면을 제공하기 위한 공간(1121)이 점차 확대될 수 있다. 확장 중인 디스플레이 영역(1120)은 디스플레이(310)가 최대 축소된 상태에서 일부 인출되어 제2 크기의 디스플레이 영역이 외부로 노출되는 상태를 의미할 수 있다. 전자 장치(200)는 디스플레이(310)가 인출되는 동안 확장 중인 디스플레이 영역(1120)의 상기 공간(1121)에 아무 것도 표시하지 않고 비어있는 상태를 유지할 수 있다. 이후, 디스플레이(310)의 인출이 완료되면, 전자 장치(200)는 확장된 디스플레이 영역(1130)의 우측 부분을 기준으로 하나 이상의 결제 수단을 포함하는 제2 화면(1131)을 제공할 수 있다. 확장된 디스플레이 영역(1130)은 디스플레이(310)가 하우징으로부터 인출되어 제3 크기의 디스플레이 영역이 외부로 노출되는 상태로, 상기 제3 크기는 최대 또는 고도로 확장된 디스플레이 영역에 대응될 수 있다.
도 11b를 참조하면, 전자 장치(200)는 확장 전 디스플레이 영역(1110)을 통해 제1 화면(1111)을 제공할 수 있다. 전자 장치(200)는 제1 화면(1111)을 제공하는 동안 디스플레이 영역이 확장됨을 감지하면, 사용자에 의해 디스플레이(310)의 좌측 부분이 파지됨을 확인하고, 디스플레이 영역(1110) 확장 시 확장된 디스플레이의(1120, 1130) 좌측 부분을 기준으로 제1 화면(1111)을 제공하도록 제어할 수 있다. 도 11b에서, 전자 장치(200)는 제1 화면(1111)이 제공되는 위치가 디스플레이(310)의 인출 방향에 대응하지 않음을 확인하고, 제1 화면(1111)을 디스플레이(310)의 인출 속도에 동기를 맞추어 좌측 방향으로 시프트 이동시킬 수 있다. 디스플레이(310)가 인출되는 동안, 확장 중인 디스플레이 영역(1120)내에서 제1 화면(1111)이 시프트 이동함에 따라, 확장 중인 디스플레이 영역(1120)의 우측 방향을 기준으로 제2 화면을 제공하기 위한 공간(1122)이 점차 확대될 수 있다. 전자 장치(200)는 디스플레이(310)가 인출되는 동안 확장 중인 디스플레이 영역(1120) 내 상기 공간(1122)의 크기에 맞추어 제2 화면(1132)을 점진적으로 디스플레이 할 수 있다. 이 경우, 제2 화면(1132)은 한번에 노출되지 않고, 디스플레이(310)의 인출 정도에 따라 부분적으로 노출될 수 있다. 이후, 디스플레이(310)의 인출이 완료되면, 전자 장치(200)는 확장된 디스플레이 영역(1130)의 우측 부분을 기준으로 제2 화면(1132)의 전체를 디스플레이 할 수 있다.
도 11c를 참조하면, 전자 장치(200)는 확장 전 디스플레이 영역(1110)을 통해 제1 화면(1111)을 제공할 수 있다. 전자 장치(200)는 제1 화면(1111)을 제공하는 동안 디스플레이 영역이 확장됨을 감지하면, 사용자에 의해 디스플레이(310)의 좌측 부분이 파지됨을 확인하고, 디스플레이 영역(1110) 확장 시 확장된 디스플레이의(1120, 1130) 좌측 부분을 기준으로 제1 화면(1111)을 제공하도록 제어할 수 있다. 도 11c에서, 전자 장치(200)는 제1 화면(1111)이 제공되는 위치가 디스플레이(310)의 인출 방향에 대응하지 않음을 확인하고, 제1 화면(1111)을 디스플레이(310)의 인출 속도에 동기를 맞추어 좌측 방향으로 시프트 이동시킬 수 있다. 디스플레이(310)가 인출되는 동안, 확장 중인 디스플레이 영역(1120)내에서 제1 화면(1111)이 시프트 이동함에 따라 확장 중인 디스플레이 영역(1120)의 우측 방향을 기준으로 제2 화면을 제공하기 위한 공간(1123)이 점차 확대될 수 있다. 전자 장치(200)는 디스플레이(310)가 인출되는 동안 확장 중인 디스플레이 영역(1120) 내 상기 공간(1123)의 크기에 맞추어 제2 화면(1133)에 포함된 하나 이상의 결제 수단의 크기를 변경하여 표시할 수 있다. 이 경우, 제2 화면(1133)에 포함된 하나 이상의 결제 수단은, 디스플레이(310)의 인출 정도에 따라 일정 비율 축소된 크기로 표시될 수 있으며, 상기 공간(1123)의 크기에 맞추어 상기 하나 이상의 결제 수단의 크기가 단계적으로 확대될 수 있다. 이후, 디스플레이(310)의 인출이 완료되면, 전자 장치(200)는 확장된 디스플레이 영역(1130)의 우측 부분을 기준으로 상기 하나 이상의 결제 수단을 최대 또는 고도로 확대된 크기로 표시하도록, 제2 화면(1133)을 제공할 수 있다. 이로 인해, 전자 장치(200)는 웹 브라우저 어플리케이션 사용 중 제1 화면(1111)을 통해 제공되는 콘텐트를 방해하지 않으면서, 제2 화면(1133)을 통해 제공되는 하나 이상의 결제 수단을 이용하여 결제 절차를 진행할 수 있다.
도 12a, 도 12b 및 도 12c는 일 실시 예에 따라, 전자 장치가 가로 모드로 동작하는 중에 감지된 이벤트에 대응하여 제2 화면을 추가 제공하는 방식을 설명하는 도면이다. 다양한 실시 예에 따라, 전자 장치(200)는 디스플레이(예: 도 1의 디스플레이 모듈(160) 또는 도 3의 디스플레이(310))의 화면 방향이 수평 방향(또는 가로 방향)인 상태에서 동영상 어플리케이션을 실행하여 제1 화면(1211)을 제공하는 동안 지정된 이벤트가 발생함을 감지할 수 있다. 예를 들어, 제1 화면(1211)은 상기 동영상 어플리케이션의 실행 화면을 포함하고, 상기 지정된 이벤트는 상기 동영상 어플리케이션을 통해 제공되는 동영상 콘텐트의 미리보기 프레임을 표시하기 위한 사용자 입력일 수 있다. 전자 장치(200)는 상기 동영상 어플리케이션의 실행 중 상기 사용자 입력을 감지하면, 상기 동영상 콘텐트의 미리보기 프레임들을 포함하는 제2 화면을 생성하고, 디스플레이 영역이 확장되면 상기 제2 화면을 제공할 수 있다. 상기 디스플레이 영역은 상기 지정된 이벤트 발생 시 자동으로 확장되거나, 또는 사용자에 의해 수행되는 지정된 동작(예: 롤링 아웃 동작 또는 슬라이딩 아웃 동작)에 의해 확장될 수 있다. 다양한 실시 예에 따라, 전자 장치(200)는 디스플레이(310)가 하우징으로부터 인출되어 확장된 디스플레이 영역의 크기에 따라 상이하게 상기 제2 화면을 제공할 수 있다.
도 12a를 참조하면, 전자 장치(200)는 확장 전 디스플레이 영역(1210)을 통해 제1 화면(1211)을 제공할 수 있다. 확장 전 디스플레이 영역(1210)은 디스플레이(310)가 최소 또는 작은 정도로 축소되어 제1 크기의 디스플레이 영역만이 외부로 노출되는 상태로, 상기 제1 크기는 항상 외부로 노출되는 기본 디스플레이 영역에 대응될 수 있다. 전자 장치(200)는 제1 화면(1211)을 제공하는 동안 디스플레이 영역이 확장됨을 감지하면, 디스플레이 영역(1210) 확장 시 확장된 디스플레이의(1220, 1230) 하측 부분을 기준으로 제1 화면(1211)을 제공하도록 제어할 수 있다. 도 12a에서, 디스플레이(310)가 인출되는 동안, 확장 중인 디스플레이 영역(1220)의 상측 방향을 기준으로 동영상 콘텐트의 미리보기 프레임들을 포함하는 제2 화면을 제공하기 위한 공간(1221)이 점차 확대될 수 있다. 확장 중인 디스플레이 영역(1220)은 디스플레이(310)가 최대 축소된 상태에서 일부 인출되어 제2 크기의 디스플레이 영역이 외부로 노출되는 상태를 의미할 수 있다. 전자 장치(200)는 디스플레이(310)가 인출되는 동안 확장 중인 디스플레이 영역(1220)의 상기 공간(1221)에 아무 것도 표시하지 않고 비어있는 상태를 유지할 수 있다. 이후, 디스플레이(310)의 인출이 완료되면, 전자 장치(200)는 확장된 디스플레이 영역(1230)의 상측 부분을 기준으로 동영상 콘텐트의 미리보기 프레임들을 포함하는 제2 화면(1231)을 제공할 수 있다. 확장된 디스플레이 영역(1230)은 디스플레이(310)가 하우징으로부터 인출되어 제3 크기의 디스플레이 영역이 외부로 노출되는 상태로, 상기 제3 크기는 최대 또는 고도로 확장된 디스플레이 영역에 대응될 수 있다.
도 12b를 참조하면, 전자 장치(200)는 전자 장치(200)는 확장 전 디스플레이 영역(1210)을 통해 제1 화면(1211)을 제공할 수 있다. 전자 장치(200)는 제1 화면(1211)을 제공하는 동안 디스플레이 영역이 확장됨을 감지하면, 디스플레이 영역(1210) 확장 시 확장된 디스플레이의(1220, 1230) 하측 부분을 기준으로 제1 화면(1211)을 제공하도록 제어할 수 있다. 도 12b에서, 디스플레이(310)가 인출되는 동안, 확장 중인 디스플레이 영역(1220)의 상측 방향을 기준으로 제2 화면을 제공하기 위한 공간(1222)이 점차 확대될 수 있다. 전자 장치(200)는 디스플레이(310)가 인출되는 동안 확장 중인 디스플레이 영역(1220) 내 상기 공간(1222)의 크기에 맞추어 제2 화면(1232)을 점진적으로 디스플레이 할 수 있다. 이 경우, 제2 화면(1232)은 한번에 노출되지 않고, 디스플레이(310)의 인출 정도에 따라 부분적으로 노출될 수 있다. 이후, 디스플레이(310)의 인출이 완료되면, 전자 장치(200)는 확장된 디스플레이 영역(1230)의 상측 부분을 기준으로 제2 화면(1232)의 전체를 디스플레이 할 수 있다.
도 12c를 참조하면, 전자 장치(200)는 전자 장치(200)는 확장 전 디스플레이 영역(1210)을 통해 제1 화면(1211)을 제공할 수 있다. 전자 장치(200)는 제1 화면(1211)을 제공하는 동안 디스플레이 영역이 확장됨을 감지하면, 디스플레이 영역(1210) 확장 시 확장된 디스플레이의(1220, 1230) 하측 부분을 기준으로 제1 화면(1211)을 제공하도록 제어할 수 있다. 도 12c에서, 디스플레이(310)가 인출되는 동안, 확장 중인 디스플레이 영역(1220)의 상측 방향을 기준으로 제2 화면을 제공하기 위한 공간(1223)이 점차 확대될 수 있다. 전자 장치(200)는 디스플레이(310)가 인출되는 동안 확장 중인 디스플레이 영역(1220) 내 상기 공간(1223)의 크기에 맞추어 제2 화면(1233)에 포함된 동영상 콘텐트의 미리보기 프레임들의 크기를 변경하여 표시할 수 있다. 이 경우, 제2 화면(1233)에 포함된 동영상 콘텐트의 미리보기 프레임들은, 디스플레이(310)의 인출 정도에 따라 일정 비율 축소된 크기로 표시될 수 있으며, 상기 공간(1223)의 크기에 맞추어 상기 미리보기 프레임들의 크기가 단계적으로 확대될 수 있다. 이후, 디스플레이(310)의 인출이 완료되면, 전자 장치(200)는 확장된 디스플레이 영역(1230)의 상측 부분을 기준으로 최대 또는 고도로 확대된 크기의 미리보기 프레임들을 포함하는 제2 화면(1233)을 제공할 수 있다. 이로 인해, 전자 장치(200)는 제1 화면(1211)을 통해 제공되는 동영상 콘텐트를 가리지 않으면서, 사용자 입력에 대응하여 상기 동영상 콘텐트의 미리보기 프레임들을 표시할 수 있다.
도 13a 및 도 13b는 일 실시 예에 따라, 사용자가 지정한 디스플레이 위치에 적어도 하나의 제2 화면을 제공하는 방식을 설명하는 도면이다. 다양한 실시 예에 따라, 전자 장치(200)는 제1 화면(1311)을 제공하는 동안 감지된 이벤트에 대응하여 제2 화면을 제공하는 과정에서 상기 제2 화면의 디스플레이 위치를 지정하기 위한 사용자 입력을 획득할 수 있다. 상기 제1 화면(1311)은 동영상 어플리케이션의 실행 화면을 포함하고, 상기 이벤트는 전화 알림, 메시지 수신, 어플리케이션 관련 수신 또는 사용자 입력 발생 중 적어도 하나를 포함할 수 있다. 예를 들어, 전자 장치(200)는 상기 이벤트를 감지함에 응답하여 디스플레이 영역이 확장되는 동안(또는 상기 디스플레이 영역이 확장된 후) 확장된 디스플레이 영역(1320) 내에서 적어도 하나의 제2 화면이 디스플레이 될 위치를 지정하는 터치 입력을 검출하고, 상기 터치 입력이 검출된 위치를 기반으로 상기 적어도 하나의 제2 화면을 제공할 수 있다. 다른 예를 들어, 전자 장치(200)는 설정 메뉴를 통해 상기 적어도 하나의 제2 화면에 대한 디스플레이 위치를 미리 지정해두거나, 또는 디스플레이 영역 확장 시 상기 적어도 제2 화면의 디스플레이 위치에 관한 확인 메시지를 제공하는 방식으로 상기 사용자 입력을 획득할 수도 있다.
도 13a를 참조하면, 전자 장치(200)는 확장 전 디스플레이 영역(1310)을 통해 제1 화면(1311)을 제공할 수 있다. 전자 장치(200)는 제1 화면(1311)을 제공하는 동안 디스플레이 영역이 확장됨을 감지하면, 확장된 디스플레이 영역(1320) 내 사용자 지정 영역(1321)을 확인할 수 있다. 예를 들어, 사용자 지정 영역(1321)은 디스플레이 영역이 확장되는 동안(또는 확장된 후) 사용자의 터치 입력이 검출되는 위치를 기반으로 결정되거나, 또는 사용자의 설정 메뉴 입력이나 디스플레이 영역 확장 시 제공되는 메시지를 기반으로 결정될 수 있다. 도 13a에서, 전자 장치(200)는 확장된 디스플레이 영역(1320)의 우측 부분을 사용자 지정 영역(1321)으로 확인하고, 상기 확인된 사용자 지정 영역(1321)에 제2 화면(1331)을 디스플레이 할 수 있다. 제2 화면(1331)은 제1 화면(1311)을 제공하는 중에 수신한 메신저 어플리케이션의 대화 메시지를 포함할 수 있다. 다양한 실시 예에 따라, 전자 장치(200)는 확장된 디스플레이 영역(1320)에서, 사용자에 의해 파지된 부분의 방향에 대응하는 위치를 사용자 지정 영역(1321)으로 확인할 수 있다. 예를 들어, 확장된 디스플레이 영역의 좌측 부분이 파지된 상태에서 상기 좌측 부분을 사용자 지정 영역(1321)으로 확인하는 경우, 전자 장치(200)는 디스플레이(310)의 인출 속도에 동기를 맞추어 제1 화면(1311)을 우측 방향으로 시프트 이동시키고, 좌측 부분의 사용자 지정 영역(1321)에 제2 화면(1331)을 디스플레이 할 수 있다.
다양한 실시 예에 따라, 전자 장치(200)는 제1 화면(1311)을 제공하는 동안 복수 개의 이벤트 감지하면, 사용자 지정 영역(1321)을 복수 개로 분할하여 제2 화면을 제공할 수 있다. 도 13b를 참조하면, 전자 장치(200)는 확장 전 디스플레이 영역(1310)을 통해 제1 화면(1311)을 제공하는 동안 메신저 어플리케이션의 대화 메시지와 SMS 메시지를 동시에 또는 순차적으로 수신함을 확인할 수 있다. 전자 장치(200)는 사용자에 의해 지정된 확장된 디스플레이 영역(1320)의 우측 부분을 두 개의 영역으로 분할하고, 상기 분할된 두 영역을 각각 사용자 지정 영역1(1322) 및 사용자 지정 영역2(1323)로 확인할 수 있다. 전자 장치(200)는 사용자 지정 영역 1(1322) 상에 메신저 어플리케이션의 대화 메시지를 포함하는 제2 화면-1(1332)을 제공하고, 사용자 지정 영역 2(1323) 상에 SMS 메시지를 포함하는 제2 화면-2(1333)를 제공할 수 있다. 다양한 실시 예에 따라, 전자 장치(200)는 제1 화면(1311) 제공 중 감지된 이벤트의 개수에 대응하여 사용자 지정 영역을 복수 개로 분할할 수 있으며, 분할된 영역별 크기는 각 영역을 통해 제공되는 제2 화면에 연관되는 이벤트 또는 어플리케이션의 타입을 고려하여 결정될 수 있다.
도 14a 및 도 14b는 일 실시 예에 따라, 동영상 어플리케이션 실행 중 감지된 하나 이상의 이벤트 발생에 대응하여 하나 이상의 제2 화면을 제공하는 방식을 설명하는 도면이다. 다양한 실시 예에 따라, 전자 장치(200)는 동영상 어플리케이션을 실행하여 제1 화면(1411)을 제공하는 동안 제1 이벤트가 발생함을 감지할 수 있다. 예를 들어, 제1 화면(1411)은 상기 동영상 어플리케이션의 실행 화면을 포함하고, 상기 제1 이벤트는 상기 동영상 어플리케이션의 실행 중 수신된 메신저 어플리케이션의 대화 메시지일 수 있다. 전자 장치(200)는 상기 대화 메시지를 수신함에 응답하여 메시지 회신을 위한 제2 화면(1421)을 생성하고, 디스플레이 영역이 확장되면 제2 화면을 제공할 수 있다. 이후, 전자 장치(200)는 제1 화면(1411) 및 제2 화면(1421)을 제공하는 동안 추가 발생된 하나 이상의 제2 이벤트를 감지할 수 있다. 상기 제2 이벤트는 제1 화면(1411) 또는 제2 화면(1421)을 통해 감지된 사용자의 터치 입력(예: 링크 정보 선택 또는 새로운 어플리케이션의 실행)이나, 상기 제1 이벤트에 후속하여 발생된 알림 메시지 또는 관련 정보를 포함할 수 있다. 전자 장치(200)는 상기 하나 이상의 제2 이벤트에 대응하는 하나 이상의 제3 화면을 생성하고, 상기 디스플레이 영역을 추가 확장하여 상기 제3 화면을 제공할 수 있다. 상기 하나 이상의 제3 화면은 상기 제2 이벤트의 개수에 대응하여 생성될 수 있다.
도 14a를 참조하면, 전자 장치(200)는 확장 전 디스플레이 영역(1410)을 통해 제1 화면(1411)을 제공할 수 있다. 확장 전 디스플레이 영역(1410)은 디스플레이(310)가 최소 또는 작은 정도로 축소되어 제1 크기의 디스플레이 영역만이 외부로 노출되는 상태로, 상기 제1 크기는 항상 외부로 노출되는 기본 디스플레이 영역에 대응될 수 있다. 전자 장치(200)는 제1 화면(1411)을 제공하는 동안 상기 제1 이벤트를 기반으로 디스플레이 영역이 제2 크기로 확장됨을 감지할 수 있다. 전자 장치(200)는 제2 크기로 확장된 디스플레이(1420)의 우측 부분이 사용자에 의해 파지됨을 확인하고, 상기 우측 부분을 기준으로 제1 화면(1411)을 제공하도록 제어할 수 있다. 전자 장치(200)는 제2 크기로 확장된 디스플레이(1420)의 좌측 부분을 기준으로 대화 메시지 수신에 관한 제2 화면(1421)을 제공할 수 있다. 이후, 전자 장치(200)는 제1 화면(1411) 및 제2 화면(1421)을 제공하는 동안 추가 발생한 상기 제2 이벤트에 대응하여 상기 디스플레이 영역이 제3 크기로 추가 확장됨을 감지할 수 있다. 전자 장치(200)는 제3 크기로 확장된 디스플레이(1430)의 좌측 부분을 기준으로 상기 하나 이상의 제3 화면(1431)을 제공하도록 제어할 수 있다. 이 과정에서, 전자 장치(200)는 상기 제2 이벤트의 개수에 대응하여 상기 좌측 부분을 복수 개의 영역으로 분할하고, 상기 분할된 영역들을 통해 상기 하나 이상의 제3 화면(1431)을 제공할 수 있다. 다양한 실시 예에 따라, 전자 장치(200)는 디스플레이(310)가 최대 또는 고도로 인출된 상태에서 추가 발생되는 이벤트를 감지하는 경우, 가장 최근에 확장된 디스플레이 영역을 추가 분할하는 방식으로 상기 추가 이벤트에 관한 정보를 제공 가능하다.
도 14b를 참조하면, 전자 장치(200)는 제1 크기의 디스플레이 영역을 통해 제1 화면(1411)을 제공하는 동안 상기 제1 이벤트를 기반으로 디스플레이 영역이 제2 크기로 확장됨을 감지할 수 있다. 전자 장치(200)는 제2 크기로 확장된 디스플레이(1420)의 좌측 부분이 사용자에 의해 파지됨을 확인하고, 상기 좌측 부분을 기준으로 제1 화면(1411)을 제공하도록 제어할 수 있다. 도 14b에서, 전자 장치(200)는 제1 화면(1411)이 제공되는 위치가 디스플레이(310)의 인출 방향에 대응하지 않음을 확인하고, 제1 화면(1411)을 디스플레이(310)의 인출 속도에 동기를 맞추어 좌측 방향으로 시프트 이동시킬 수 있다. 전자 장치(200)는 제2 크기로 확장된 디스플레이(1420)의 좌측 부분을 기준으로 제1 화면(1411)을 제공하고, 우측 부분을 기준으로 대화 메시지 수신에 관한 제2 화면(1421)을 제공할 수 있다. 이후, 전자 장치(200)는 제1 화면(1411) 및 제2 화면(1421)을 제공하는 동안 추가 발생한 상기 제2 이벤트에 대응하여 상기 디스플레이 영역이 제3 크기로 추가 확장됨을 감지할 수 있다. 상기 디스플레이 영역이 제3 크기로 추가 확장됨에 따라, 전자 장치(200)는 디스플레이(310)의 인출 속도에 동기를 맞추어 제1 화면(1411)과 제2 화면(1421)을 좌측 방향으로 시프트 이동시키고, 제3 크기로 확장된 디스플레이 영역의 우측 부분에 상기 하나 이상의 제3 화면(1432, 1433)을 제공하도록 제어할 수 있다. 전자 장치(200)는 상기 제2 이벤트의 개수에 대응하여 상기 좌측 부분을 복수 개의 영역으로 분할하고, 상기 분할된 영역들을 통해 상기 하나 이상의 제3 화면(1432, 1433)을 제공할 수 있다.
일 실시 예에 따른 전자 장치(예: 전자 장치(200))는, 하우징, 상기 하우징의 내부에 수납될 수 있는 디스플레이(예: 디스플레이(310)), 상기 디스플레이와 작동적으로 연결된 적어도 하나의 프로세서(예: 프로세서(320)), 및 상기 적어도 하나의 프로세서와 작동적으로 연결된 메모리(예: 메모리(330))를 포함하고, 상기 메모리는, 실행 시에, 상기 적어도 하나의 프로세서가, 제1 화면을 제공하는 동안 상기 디스플레이가 상기 하우징으로부터 확장됨을 감지하면, 사용자의 그립 상태를 확인하고, 상기 확인된 그립 상태를 기반으로 상기 디스플레이의 확장 시 상기 제1 화면이 디스플레이 되는 제1 영역을 결정하고, 상기 결정된 제1 영역이 상기 디스플레이의 인출 방향에 대응하는지 여부를 확인하고, 상기 제1 영역이 상기 디스플레이의 인출 방향에 대응하면, 상기 제1 화면과 구분되는 제2 화면을 상기 하우징으로부터 인출되는 디스플레이 영역 상에 디스플레이 하도록 하는 인스트럭션들을 저장할 수 있다.
일 실시 예에서, 상기 인스트럭션들은, 상기 적어도 하나의 프로세서가, 상기 제1 영역이 상기 디스플레이의 인출 방향에 대응하지 않는 것으로 확인하면, 상기 제1 화면을 상기 제1 영역으로 이동시켜 상기 하우징으로부터 인출되는 디스플레이 영역 상에 상기 제1 화면을 디스플레이 하도록 할 수 있다.
일 실시 예에서, 상기 인스트럭션들은, 상기 적어도 하나의 프로세서가, 상기 디스플레이가 상기 하우징으로부터 인출되는 속도에 동기를 맞추어 상기 제1 화면을 상기 제1 영역으로 시프트 이동하도록 할 수 있다.
일 실시 예에서, 상기 인스트럭션들은, 상기 적어도 하나의 프로세서가, 상기 제1 화면을 제공하는 중에 적어도 하나의 이벤트를 감지하고, 상기 적어도 하나의 이벤트에 연관되는 정보를 포함하는 적어도 하나의 제2 화면을 생성하고, 상기 디스플레이가 상기 하우징으로부터 확장되면, 상기 적어도 하나의 제2 화면을 확장된 디스플레이 내 상기 제1 영역과 구분되는 제2 영역 상에 디스플레이 하도록 할 수 있다.
일 실시 예에서, 상기 이벤트는, 전화 알림, 메시지 수신, 어플리케이션 관련 알림 수신, 또는 사용자 입력 중 적어도 하나를 포함할 수 있다.
일 실시 예에서, 상기 인스트럭션들은, 상기 적어도 하나의 프로세서가, 상기 디스플레이가 상기 하우징으로부터 확장된 후, 상기 적어도 하나의 제2 화면에 대한 디스플레이 위치를 지시하는 사용자 입력을 감지하고, 상기 사용자 입력을 기반으로 상기 적어도 하나의 제2 화면을 디스플레이 하도록 할 수 있다.
일 실시 예에서, 상기 인스트럭션들은, 상기 적어도 하나의 프로세서가, 상기 사용자의 그립 상태를 기반으로 상기 디스플레이를 통해 노출되는 화면 방향을 확인하고, 상기 확인된 화면 방향을 기반으로 상기 제1 화면이 확장된 디스플레이를 통해 디스플레이 되는 상기 제1 영역을 결정하도록 할 수 있다.
일 실시 예에서, 상기 인스트럭션들은, 상기 적어도 하나의 프로세서가, 상기 화면 방향이 수평 방향인 것으로 확인하면, 상기 확장된 디스플레이의 하단 영역을 기준으로 상기 제1 영역을 결정하도록 할 수 있다.
일 실시 예에서, 상기 인스트럭션들은, 상기 적어도 하나의 프로세서가, 상기 화면 방향이 수직 방향인 것으로 확인하면, 상기 사용자의 그립 상태를 기반으로 파지 위치를 확인하고, 상기 확인된 파지 위치를 기준으로 상기 제1 영역을 결정하도록 할 수 있다.
일 실시 예에서, 상기 인스트럭션들은, 상기 적어도 하나의 프로세서가, 상기 사용자에 의해 설정된 주 사용 방향을 확인하고, 상기 확인된 주 사용 방향을 기반으로 상기 파지 위치를 결정하도록 할 수 있다.
일 실시 예에서, 상기 전자 장치는 하나 이상의 센서(예: 센싱 회로(sensing circuitry)를 포함하는 센서 모듈(411))를 더 포함하고, 상기 인스트럭션들은, 상기 적어도 하나의 프로세서가, 상기 하나 이상의 센서로부터 감지된 데이터를 기반으로 상기 파지 위치를 결정하도록 할 수 있다.
일 실시 예에서, 상기 인스트럭션들은, 상기 적어도 하나의 프로세서가, 상기 디스플레이의 인출이 완료된 후 확장된 디스플레이 상에 상기 제2 화면을 디스플레이 하도록 할 수 있다.
일 실시 예에서, 상기 인스트럭션들은, 상기 적어도 하나의 프로세서가, 상기 디스플레이의 인출에 의해 상기 디스플레이가 확장되는 동안 디스플레이 영역의 크기에 대응하여 상기 제2 화면을 점진적으로 디스플레이 하도록 할 수 있다.
일 실시 예에서, 상기 인스트럭션들은, 상기 적어도 하나의 프로세서가, 상기 디스플레이의 인출에 의해 상기 디스플레이가 확장되는 동안 디스플레이 영역의 크기에 대응하여 상기 제2 화면에 포함된 콘텐트의 크기를 변경할 수 있다.
다른 실시 예에 따른 전자 장치(예: 전자 장치(200))의 동작 방법은, 제1 화면을 제공하는 동안 디스플레이가 하우징으로부터 확장됨을 감지하면, 사용자의 그립 상태를 확인하는 동작, 상기 확인된 그립 상태를 기반으로 디스플레이의 확장 시 상기 제1 화면이 디스플레이 되는 제1 영역을 결정하는 동작, 상기 결정된 제1 영역이 상기 디스플레이의 인출 방향에 대응하는지 여부를 확인하는 동작, 및 상기 제1 영역이 상기 디스플레이의 인출 방향에 대응하면, 상기 제1 화면과 구분되는 제2 화면을 상기 하우징으로부터 인출되는 디스플레이 영역 상에 디스플레이 하는 동작을 포함할 수 있다.
일 실시 예에서, 상기 방법은, 상기 제1 영역이 상기 디스플레이의 인출 방향에 대응하지 않으면, 상기 디스플레이가 상기 하우징으로부터 인출되는 속도에 동기를 맞추어 상기 제1 화면을 상기 제1 영역으로 시프트 이동하여, 상기 하우징으로부터 인출되는 디스플레이 영역 상에 상기 제1 화면을 디스플레이 하는 동작을 더 포함할 수 있다.
일 실시 예에서, 상기 방법은, 상기 제1 화면을 제공하는 중에 적어도 하나의 이벤트를 감지하는 동작, 상기 적어도 하나의 이벤트에 연관되는 정보를 포함하는 적어도 하나의 제2 화면을 생성하는 동작, 및 상기 디스플레이가 상기 하우징으로부터 확장되면, 상기 적어도 하나의 제2 화면을 확장된 디스플레이 내 상기 제1 영역과 구분되는 제2 영역 상에 디스플레이 하는 동작을 더 포함하며, 상기 이벤트는, 전화 알림, 메시지 수신, 어플리케이션 관련 알림 수신, 또는 사용자 입력 중 적어도 하나를 포함할 수 있다.
일 실시 예에서, 상기 방법은, 상기 디스플레이가 상기 하우징으로부터 확장된 후 상기 적어도 하나의 제2 화면에 대한 디스플레이 위치를 지시하는 사용자 입력을 감지하는 동작, 및 상기 사용자 입력을 기반으로 상기 적어도 하나의 제2 화면을 디스플레이 하는 동작을 더 포함할 수 있다.
일 실시 예에서, 상기 제1 영역을 결정하는 동작은, 상기 사용자의 그립 상태를 기반으로 상기 디스플레이를 통해 노출되는 화면 방향을 확인하는 동작, 및 상기 확인된 화면 방향이 수평 방향이면, 확장된 디스플레이의 하단 영역을 기준으로 상기 제1 영역을 결정하는 동작을 포함할 수 있다.
일 실시 예에서, 상기 제1 영역을 결정하는 동작은, 상기 확인된 화면 방향이 수직 방향이면, 상기 사용자의 그립 상태를 기반으로 파지 위치를 확인하는 동작, 및 상기 확인된 파지 위치를 기준으로 상기 제1 영역을 결정하는 동작을 포함할 수 있다.
일 실시 예에서, 상기 파지 위치를 확인하는 동작은, 상기 사용자에 의해 설정된 주 사용 방향 또는 하나 이상의 센서로부터 감지된 데이터를 기반으로 상기 파지 위치를 결정하는 동작을 포함할 수 있다.
일 실시 예에서, 상기 방법은, 상기 디스플레이의 인출이 완료된 후 확장된 디스플레이 상에 상기 제2 화면을 디스플레이 하는 동작, 상기 디스플레이의 인출에 의해 상기 디스플레이가 확장되는 동안 디스플레이 영역의 크기에 대응하여 상기 제2 화면을 점진적으로 디스플레이 하는 동작, 또는 상기 디스플레이의 인출에 의해 상기 디스플레이가 확장되는 동안 디스플레이 영역의 크기에 대응하여 상기 제2 화면에 포함된 콘텐트의 크기를 변경하여 디스플레이 하는 동작 중 적어도 하나를 포함할 수 있다.
본 문서에 개시된 다양한 실시 예들에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치 (예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 또는 가전 장치를 포함할 수 있다. 본 문서의 실시 예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.
본 문서의 다양한 실시 예들 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시 예들로 한정하려는 것이 아니며, 해당 실시 예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나", "A 또는 B 중 적어도 하나", "A, B 또는 C," "A, B 및 C 중 적어도 하나", 및 " A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. "제1", "제2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제1) 구성요소가 다른(예: 제2) 구성요소에, "기능적으로" 또는 "통신적으로"라는 용어와 함께 또는 이런 용어 없이, "커플드" 또는 "커넥티드"라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 제3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.
본 문서에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로 등의 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일 실시 예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다.
본 문서의 다양한 실시 예들은 기기(machine)(예: 전자 장치(101)) 의해 읽을 수 있는 저장 매체(storage medium)(예: 내장 메모리(136) 또는 외장 메모리(138))에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예: 프로그램(140))로서 구현될 수 있다. 예를 들면, 기기(예: 전자 장치(101))의 프로세서(예: 프로세서(120))는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장매체는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, "비일시적"은 저장매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.
일 실시 예에 따르면, 본 문서에 개시된 다양한 실시 예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어™)를 통해 또는 두개의 사용자 장치들(예: 스마트폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.
다양한 실시 예들에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있다. 다양한 실시 예들에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시 예들에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.

Claims (15)

  1. 전자 장치에 있어서,
    하우징;
    상기 하우징의 내부에 수납될 수 있는 디스플레이;
    상기 디스플레이와 작동적으로 연결된 적어도 하나의 프로세서; 및
    상기 적어도 하나의 프로세서와 작동적으로 연결된 메모리를 포함하고,
    상기 메모리는, 실행 시에, 상기 적어도 하나의 프로세서가,
    제1 화면을 제공하는 동안 상기 디스플레이가 상기 하우징으로부터 확장됨을 감지하면, 사용자의 그립 상태를 확인하고,
    상기 확인된 그립 상태를 기반으로 상기 디스플레이의 확장 시 상기 제1 화면이 디스플레이 되는 제1 영역을 결정하고,
    상기 결정된 제1 영역이 상기 디스플레이의 인출 방향에 대응하는지 여부를 확인하고,
    상기 제1 영역이 상기 디스플레이의 인출 방향에 대응하면, 상기 제1 화면과 구분되는 제2 화면을 상기 하우징으로부터 인출되는 디스플레이 영역 상에 디스플레이 하도록 하는 인스트럭션들을 저장하는, 전자 장치.
  2. 청구항 1에 있어서,
    상기 인스트럭션들은, 상기 적어도 하나의 프로세서가,
    상기 제1 영역이 상기 디스플레이의 인출 방향에 대응하지 않는 것으로 확인하면, 상기 제1 화면을 상기 제1 영역으로 이동시켜 상기 하우징으로부터 인출되는 디스플레이 영역 상에 상기 제1 화면을 디스플레이 하도록 하는, 전자 장치.
  3. 청구항 2에 있어서,
    상기 인스트럭션들은, 상기 적어도 하나의 프로세서가,
    상기 디스플레이가 상기 하우징으로부터 인출되는 속도에 동기를 맞추어 상기 제1 화면을 상기 제1 영역으로 시프트 이동하도록 하는, 전자 장치.
  4. 청구항 1에 있어서,
    상기 인스트럭션들은, 상기 적어도 하나의 프로세서가,
    상기 제1 화면을 제공하는 중에 적어도 하나의 이벤트를 감지하고,
    상기 적어도 하나의 이벤트에 연관되는 정보를 포함하는 적어도 하나의 제2 화면을 생성하고,
    상기 디스플레이가 상기 하우징으로부터 확장되면, 상기 적어도 하나의 제2 화면을 확장된 디스플레이 내 상기 제1 영역과 구분되는 제2 영역 상에 디스플레이 하도록 하며,
    상기 이벤트는, 전화 알림, 메시지 수신, 어플리케이션 관련 알림 수신, 또는 사용자 입력 중 적어도 하나를 포함하는, 전자 장치.
  5. 청구항 4에 있어서,
    상기 인스트럭션들은, 상기 적어도 하나의 프로세서가,
    상기 디스플레이가 상기 하우징으로부터 확장된 후, 상기 적어도 하나의 제2 화면에 대한 디스플레이 위치를 지시하는 사용자 입력을 감지하고,
    상기 사용자 입력을 기반으로 상기 적어도 하나의 제2 화면을 디스플레이 하도록 하는, 전자 장치.
  6. 청구항 1에 있어서,
    상기 인스트럭션들은, 상기 적어도 하나의 프로세서가,
    상기 사용자의 그립 상태를 기반으로 상기 디스플레이를 통해 노출되는 화면 방향을 확인하고,
    상기 확인된 화면 방향을 기반으로 상기 제1 화면이 확장된 디스플레이를 통해 디스플레이 되는 상기 제1 영역을 결정하도록 하는, 전자 장치.
  7. 청구항 6에 있어서,
    상기 인스트럭션들은, 상기 적어도 하나의 프로세서가,
    상기 화면 방향이 수평 방향인 것으로 확인하면,
    상기 확장된 디스플레이의 하단 영역을 기준으로 상기 제1 영역을 결정하도록 하는, 전자 장치.
  8. 청구항 6에 있어서,
    상기 인스트럭션들은, 상기 적어도 하나의 프로세서가,
    상기 화면 방향이 수직 방향인 것으로 확인하면, 상기 사용자의 그립 상태를 기반으로 파지 위치를 확인하고,
    상기 확인된 파지 위치를 기준으로 상기 제1 영역을 결정하도록 하는, 전자 장치.
  9. 청구항 8에 있어서,
    상기 인스트럭션들은, 상기 적어도 하나의 프로세서가,
    상기 사용자에 의해 설정된 주 사용 방향을 확인하고,
    상기 확인된 주 사용 방향을 기반으로 상기 파지 위치를 결정하도록 하는, 전자 장치.
  10. 청구항 8에 있어서,
    하나 이상의 센서를 포함하고,
    상기 인스트럭션들은, 상기 적어도 하나의 프로세서가,
    상기 하나 이상의 센서로부터 감지된 데이터를 기반으로 상기 파지 위치를 결정하도록 하는, 전자 장치.
  11. 청구항 4에 있어서,
    상기 인스트럭션들은, 상기 적어도 하나의 프로세서가,
    상기 디스플레이의 인출이 완료된 후 확장된 디스플레이 내 상기 제2 영역에 상기 제2 화면을 디스플레이 하고,
    상기 디스플레이의 인출에 의해 상기 디스플레이가 확장되는 동안 상기 제2 영역의 크기에 대응하여 상기 제2 화면에 포함된 콘텐트의 크기를 변경하도록 하는, 전자 장치.
  12. 청구항 1에 있어서,
    상기 인스트럭션들은, 상기 적어도 하나의 프로세서가,
    상기 디스플레이의 인출에 의해 상기 디스플레이가 확장되는 동안 상기 제2 영역의 크기에 대응하여 상기 제2 화면을 점진적으로 디스플레이 하도록 하는, 전자 장치.
  13. 전자 장치의 동작 방법에 있어서,
    제1 화면을 제공하는 동안 디스플레이가 하우징으로부터 확장됨을 감지하면, 사용자의 그립 상태를 확인하는 동작;
    상기 확인된 그립 상태를 기반으로 디스플레이의 확장 시 상기 제1 화면이 디스플레이 되는 제1 영역을 결정하는 동작;
    상기 결정된 제1 영역이 상기 디스플레이의 인출 방향에 대응하는지 여부를 확인하는 동작; 및
    상기 제1 영역이 상기 디스플레이의 인출 방향에 대응하면, 상기 제1 화면과 구분되는 제2 화면을 상기 하우징으로부터 인출되는 디스플레이 영역 상에 디스플레이 하는 동작을 포함하는, 방법.
  14. 청구항 13에 있어서,
    상기 제1 영역이 상기 디스플레이의 인출 방향에 대응하지 않으면, 상기 디스플레이가 상기 하우징으로부터 인출되는 속도에 동기를 맞추어 상기 제1 화면을 상기 제1 영역으로 시프트 이동하여, 상기 하우징으로부터 인출되는 디스플레이 영역 상에 상기 제1 화면을 디스플레이 하는 동작을 더 포함하는, 방법.
  15. 청구항 13에 있어서,
    상기 제1 영역을 결정하는 동작은,
    상기 사용자의 그립 상태를 기반으로 상기 디스플레이를 통해 노출되는 화면 방향을 확인하는 동작;
    상기 확인된 화면 방향이 수평 방향이면, 확장된 디스플레이의 하단 영역을 기준으로 상기 제1 영역을 결정하는 동작;
    상기 확인된 화면 방향이 수직 방향이면, 상기 사용자의 그립 상태를 기반으로 파지 위치를 확인하는 동작; 및
    상기 확인된 파지 위치를 기준으로 상기 제1 영역을 결정하는 동작을 포함하는, 방법.
PCT/KR2022/011359 2021-09-27 2022-08-02 사용자 인터페이스를 제공하는 방법 및 그 전자 장치 WO2023048390A1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP22873095.8A EP4336334A4 (en) 2021-09-27 2022-08-02 METHOD OF PROVIDING A USER INTERFACE AND ELECTRONIC DEVICE THEREFOR
US18/306,533 US20230259217A1 (en) 2021-09-27 2023-04-25 Method for providing user interface and electronic device for same

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020210127288A KR20230044760A (ko) 2021-09-27 2021-09-27 사용자 인터페이스를 제공하는 방법 및 그 전자 장치
KR10-2021-0127288 2021-09-27

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US18/306,533 Continuation US20230259217A1 (en) 2021-09-27 2023-04-25 Method for providing user interface and electronic device for same

Publications (1)

Publication Number Publication Date
WO2023048390A1 true WO2023048390A1 (ko) 2023-03-30

Family

ID=85720874

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2022/011359 WO2023048390A1 (ko) 2021-09-27 2022-08-02 사용자 인터페이스를 제공하는 방법 및 그 전자 장치

Country Status (4)

Country Link
US (1) US20230259217A1 (ko)
EP (1) EP4336334A4 (ko)
KR (1) KR20230044760A (ko)
WO (1) WO2023048390A1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220067325A (ko) * 2020-11-17 2022-05-24 삼성전자주식회사 확장 가능한 디스플레이 제어 방법 및 이를 지원하는 전자 장치

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101559091B1 (ko) * 2014-09-02 2015-10-12 삼성전자주식회사 벤디드 디스플레이를 구비한 휴대 단말기의 제어 방법 및 장치
KR20160050682A (ko) * 2014-10-30 2016-05-11 삼성전자주식회사 전자장치의 화면 표시 제어 방법 및 장치
KR20170089664A (ko) * 2016-01-27 2017-08-04 엘지전자 주식회사 롤러블 이동 단말기 및 이의 제어 방법
KR101892959B1 (ko) * 2012-08-22 2018-08-29 삼성전자주식회사 플렉서블 디스플레이 장치 및 플렉서블 디스플레이 장치의 제어 방법
WO2021045275A1 (ko) * 2019-09-06 2021-03-11 엘지전자 주식회사 이동 단말기 및 그 제어 방법

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102500060B1 (ko) * 2015-11-18 2023-02-16 삼성전자주식회사 전자 장치 및 이의 제어 방법
KR102266152B1 (ko) * 2018-02-22 2021-06-17 삼성전자주식회사 디스플레이 영역의 크기 변경이 가능한 플렉시블 디스플레이를 포함하는 전자 장치 및 그 제어 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101892959B1 (ko) * 2012-08-22 2018-08-29 삼성전자주식회사 플렉서블 디스플레이 장치 및 플렉서블 디스플레이 장치의 제어 방법
KR101559091B1 (ko) * 2014-09-02 2015-10-12 삼성전자주식회사 벤디드 디스플레이를 구비한 휴대 단말기의 제어 방법 및 장치
KR20160050682A (ko) * 2014-10-30 2016-05-11 삼성전자주식회사 전자장치의 화면 표시 제어 방법 및 장치
KR20170089664A (ko) * 2016-01-27 2017-08-04 엘지전자 주식회사 롤러블 이동 단말기 및 이의 제어 방법
WO2021045275A1 (ko) * 2019-09-06 2021-03-11 엘지전자 주식회사 이동 단말기 및 그 제어 방법

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP4336334A4 *

Also Published As

Publication number Publication date
US20230259217A1 (en) 2023-08-17
EP4336334A1 (en) 2024-03-13
EP4336334A4 (en) 2024-08-28
KR20230044760A (ko) 2023-04-04

Similar Documents

Publication Publication Date Title
WO2022114416A1 (ko) 확장이 가능한 디스플레이를 이용하여 멀티 윈도우를 제공하는 전자 장치
WO2022019635A1 (ko) 공유 화면과 비공유 화면을 함께 제공하는 전자 장치 및 그 제어 방법
WO2021095925A1 (ko) 이동 단말기 및 그 제어 방법
WO2022108192A1 (ko) 전자 장치 및 전자 장치의 멀티윈도우 제어방법
WO2022030890A1 (ko) 다중 윈도우 이미지 캡쳐 방법 및 이를 위한 전자 장치
WO2022097858A1 (en) Electronic device capable of expanding display region and method for controlling screen thereof
WO2022060041A1 (ko) 콘텐트를 생성하기 위한 폴더블 전자 장치 및 그의 동작 방법
WO2023048390A1 (ko) 사용자 인터페이스를 제공하는 방법 및 그 전자 장치
WO2022119276A1 (ko) 플렉서블 디스플레이 전자 장치 및 그 동작 방법
WO2022119150A1 (ko) 멀티 이미지 표시 방법 및 전자 장치
WO2022031055A1 (ko) 전자 장치 및 그의 진동 출력 제어 방법
WO2023063720A1 (ko) 전자 장치의 디스플레이를 확장하는 방법 및 이를 지원하는 전자 장치
WO2022119319A1 (ko) 플렉서블 디스플레이의 확장에 따라 적어도 하나의 객체를 이동하여 디스플레이 하는 전자 장치 및 그 제어 방법
WO2022030921A1 (ko) 전자 장치 및 그의 화면을 제어하는 방법
WO2023003227A1 (ko) 영상 촬영을 위한 전자 장치 및 그 전자 장치에서의 동작 방법
WO2022080883A1 (ko) 전자 장치 및 전자 장치의 동작 방법
WO2022114509A1 (ko) 플렉서블 디스플레이의 확장에 따라 변경된 가시도를 가지는 화면을 제공하는 전자 장치 및 그 제어 방법
WO2022086272A1 (ko) 사용자 인터페이스를 제공하는 전자 장치 및 그 방법
WO2022114548A1 (ko) 플렉서블 디스플레이의 사용자 인터페이스 제어 방법 및 장치
WO2023191305A1 (ko) 플렉서블 디스플레이를 갖는 전자 장치
WO2022108096A1 (ko) 확장이 가능한 디스플레이를 갖는 전자 장치
WO2022186477A1 (ko) 콘텐츠 재생 방법 및 이를 지원하는 전자 장치
WO2022240000A1 (ko) 슬라이딩 가능한 전자 장치 및 그 동작 방법
WO2024063342A1 (ko) 잠금 화면을 표시하는 전자 장치 및 그 동작 방법
WO2022098038A1 (ko) 확장이 가능한 디스플레이를 갖는 전자 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22873095

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2022873095

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2022873095

Country of ref document: EP

Effective date: 20231208

NENP Non-entry into the national phase

Ref country code: DE