WO2022098038A1 - 확장이 가능한 디스플레이를 갖는 전자 장치 - Google Patents

확장이 가능한 디스플레이를 갖는 전자 장치 Download PDF

Info

Publication number
WO2022098038A1
WO2022098038A1 PCT/KR2021/015649 KR2021015649W WO2022098038A1 WO 2022098038 A1 WO2022098038 A1 WO 2022098038A1 KR 2021015649 W KR2021015649 W KR 2021015649W WO 2022098038 A1 WO2022098038 A1 WO 2022098038A1
Authority
WO
WIPO (PCT)
Prior art keywords
display
state
processor
electronic device
visual information
Prior art date
Application number
PCT/KR2021/015649
Other languages
English (en)
French (fr)
Inventor
강주영
김영성
박경태
최양수
홍성민
홍현주
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020200167860A external-priority patent/KR20220061785A/ko
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Priority to US17/550,017 priority Critical patent/US20220164093A1/en
Publication of WO2022098038A1 publication Critical patent/WO2022098038A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1652Details related to the display arrangement, including those related to the mounting of the display in the housing the display being flexible, e.g. mimicking a sheet of paper, or rollable
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1615Constructional details or arrangements for portable computers with several enclosures having relative motions, each enclosure supporting at least one I/O or computing function
    • G06F1/1624Constructional details or arrangements for portable computers with several enclosures having relative motions, each enclosure supporting at least one I/O or computing function with sliding enclosures, e.g. sliding keyboard or display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1675Miscellaneous details related to the relative movement between the different enclosures or enclosure parts
    • G06F1/1677Miscellaneous details related to the relative movement between the different enclosures or enclosure parts for detecting open or closed state or particular intermediate positions assumed by movable parts of the enclosure, e.g. detection of display lid position with respect to main body in a laptop, detection of opening of the cover of battery compartment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04803Split screen, i.e. subdividing the display area or the window area into separate subareas
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04804Transparency, e.g. transparent or translucent windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2380/00Specific applications
    • G09G2380/02Flexible displays
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/03Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes specially adapted for displays having non-planar surfaces, e.g. curved displays
    • G09G3/035Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes specially adapted for displays having non-planar surfaces, e.g. curved displays for flexible display surfaces

Definitions

  • Various embodiments relate to an electronic device having a structure capable of changing an active region in which visual information is to be displayed on a display.
  • the electronic device may have an expandable display.
  • the active area in which the visual information is to be displayed may extend from a partial area of the display to the entire area of the display.
  • the electronic device may change the configuration of a screen (visual information) to be displayed as the size of the active area of the display is expanded or reduced.
  • the screen may be configured to be displayed within an active area of the display.
  • the contents and contents of the screen may be changed to match the changed size.
  • a screen change may unexpectedly cause an unpleasant experience for the user.
  • a portable electronic device may include: a slideable housing including a first housing and a second housing coupled to the first housing to be slidable relative to the first housing; roller unit; a flexible display including a first display area adjacent to the first housing and a second display area surrounding the roller unit and disposed in an inner space of the portable electronic device; a processor coupled to the display; and a memory coupled to the processor, wherein the memory, when executed, causes the processor to:
  • the state of the portable electronic device is a first state in which the second display area is disposed in the internal space
  • the first display determining a region as an active region in which visual information is to be displayed, and including the first display region and the second display region when the state of the portable electronic device is a second state in which the second display region is exposed determining the entire area of the display as the active area, displaying first visual information and a first preview on the active area in the first state, and displaying second visual information in the active area in the second state
  • a portable electronic device may include: a slideable housing including a first housing and a second housing coupled to the first housing to be slidable relative to the first housing; roller unit; a flexible display that responds to a user input, including a first display area disposed adjacent to the first housing and a second display area disposed in an internal space of the portable electronic device while enclosing the roller unit; The state of the portable electronic device is converted from a first state in which the second display area is disposed in the inner space to a second state in which the second display area is exposed to the outside, or from the second state to the first state a state transformation module configured to; a processor coupled to the display and the state transformation module; and a memory coupled to the processor, wherein the memory, when executed, causes the processor to: when in the first state, determine the first display area as an active area in which visual information is to be displayed, and be in the second state when determining an entire area of the display including the first display area and the second display area as the active area
  • the electronic device may be configured to notify the user in advance that the configuration of the screen may be changed when the active area is changed (its size is enlarged or reduced).
  • the electronic device may be configured to change the active area (enlarge or reduce the size of the active area) using a handler displayed on the display.
  • Various embodiments may provide an electronic device that notifies a user of a change in visual information according to expansion or reduction of a display in advance. Also, various embodiments may provide an electronic device that enables a display to be expanded or reduced by a handler called to the display. In addition, various effects directly or indirectly identified through this document may be provided.
  • FIG. 1 is a block diagram of an electronic device in a network environment, according to various embodiments of the present disclosure
  • FIGS. 2A and 2B illustrate a portable electronic device having a slideable housing structure, according to an exemplary embodiment.
  • 3A and 3B illustrate a portable electronic device having a slideable housing structure, according to an exemplary embodiment.
  • FIG. 4 is an electrical block configuration of an electronic device configured to support a user interface (UI) for interaction with a user in relation to a state change (or a change in the size of an active region) of the electronic device, according to various embodiments;
  • FIGS. 7A and 7B are diagrams for explaining an operation of displaying a preview related to a configuration of a UI element, according to various embodiments.
  • FIG. 8 is a diagram for explaining an operation of providing a preview when entering an application, according to various embodiments of the present disclosure
  • FIG. 9 is a diagram for explaining an operation of providing a preview during state transformation, according to various embodiments of the present disclosure.
  • FIGS. 10A, 10B, and 10C are diagrams for explaining an operation of visually notifying a user that visual information may be changed according to a state change of an electronic device, according to various embodiments of the present disclosure
  • 11, 12, 13, and 14 are diagrams for explaining various embodiments of an operation of converting a state of an electronic device using a handler, according to various embodiments.
  • 15, 16, 17, and 18 are diagrams for explaining various embodiments of an operation of calling a handler to a display, according to various embodiments.
  • 19 and 20 are diagrams for explaining an operation of terminating the display of a handler according to various embodiments of the present disclosure
  • 21 is a diagram for explaining an operation of moving a button for calling a handler on a screen, according to various embodiments of the present disclosure
  • 22 is a diagram for explaining an operation of moving a handler on a screen, according to various embodiments of the present disclosure
  • 23 is a diagram for explaining an operation of setting a property of a handler, according to various embodiments of the present disclosure.
  • FIG. 1 is a block diagram of an electronic device 101 in a network environment 100 according to various embodiments.
  • an electronic device 101 communicates with an electronic device 102 through a first network 198 (eg, a short-range wireless communication network) or a second network 199 . It may communicate with the electronic device 104 or the server 108 through (eg, a long-distance wireless communication network). According to an embodiment, the electronic device 101 may communicate with the electronic device 104 through the server 108 .
  • a first network 198 eg, a short-range wireless communication network
  • a second network 199 e.g., a second network 199
  • the electronic device 101 may communicate with the electronic device 104 through the server 108 .
  • the electronic device 101 includes a processor 120 , a memory 130 , an input module 150 , a sound output module 155 , a display module 160 , an audio module 170 , and a sensor module ( 176), interface 177, connection terminal 178, haptic module 179, camera module 180, power management module 188, battery 189, communication module 190, subscriber identification module 196 , or an antenna module 197 may be included.
  • at least one of these components eg, the connection terminal 178
  • may be omitted or one or more other components may be added to the electronic device 101 .
  • some of these components are integrated into one component (eg, display module 160 ). can be
  • the processor 120 for example, executes software (eg, a program 140) to execute at least one other component (eg, a hardware or software component) of the electronic device 101 connected to the processor 120 . It can control and perform various data processing or operations. According to one embodiment, as at least part of data processing or operation, the processor 120 converts commands or data received from other components (eg, the sensor module 176 or the communication module 190 ) to the volatile memory 132 . may be stored in the volatile memory 132 , and may process commands or data stored in the volatile memory 132 , and store the result data in the non-volatile memory 134 .
  • software eg, a program 140
  • the processor 120 converts commands or data received from other components (eg, the sensor module 176 or the communication module 190 ) to the volatile memory 132 .
  • the volatile memory 132 may be stored in the volatile memory 132 , and may process commands or data stored in the volatile memory 132 , and store the result data in the non-volatile memory 134 .
  • the processor 120 is the main processor 121 (eg, a central processing unit or an application processor) or a secondary processor 123 (eg, a graphic processing unit, a neural network processing unit) a neural processing unit (NPU), an image signal processor, a sensor hub processor, or a communication processor).
  • the main processor 121 e.g, a central processing unit or an application processor
  • a secondary processor 123 eg, a graphic processing unit, a neural network processing unit
  • NPU neural processing unit
  • an image signal processor e.g., a sensor hub processor, or a communication processor.
  • the main processor 121 e.g, a central processing unit or an application processor
  • a secondary processor 123 eg, a graphic processing unit, a neural network processing unit
  • NPU neural processing unit
  • an image signal processor e.g., a sensor hub processor, or a communication processor.
  • the main processor 121 e.g, a central processing unit or an application processor
  • a secondary processor 123
  • the auxiliary processor 123 is, for example, on behalf of the main processor 121 while the main processor 121 is in an inactive (eg, sleep) state, or the main processor 121 is active (eg, executing an application). ), together with the main processor 121, at least one of the components of the electronic device 101 (eg, the display module 160, the sensor module 176, or the communication module 190) It is possible to control at least some of the related functions or states.
  • the coprocessor 123 eg, an image signal processor or a communication processor
  • may be implemented as part of another functionally related component eg, the camera module 180 or the communication module 190. there is.
  • the auxiliary processor 123 may include a hardware structure specialized for processing an artificial intelligence model.
  • Artificial intelligence models can be created through machine learning. Such learning may be performed, for example, in the electronic device 101 itself on which artificial intelligence is performed, or may be performed through a separate server (eg, the server 108).
  • the learning algorithm may include, for example, supervised learning, unsupervised learning, semi-supervised learning, or reinforcement learning, but in the above example not limited
  • the artificial intelligence model may include a plurality of artificial neural network layers.
  • Artificial neural networks include deep neural networks (DNNs), convolutional neural networks (CNNs), recurrent neural networks (RNNs), restricted boltzmann machines (RBMs), deep belief networks (DBNs), bidirectional recurrent deep neural networks (BRDNNs), It may be one of deep Q-networks or a combination of two or more of the above, but is not limited to the above example.
  • the artificial intelligence model may include, in addition to, or alternatively, a software structure in addition to the hardware structure.
  • the memory 130 may store various data used by at least one component of the electronic device 101 (eg, the processor 120 or the sensor module 176 ).
  • the data may include, for example, input data or output data for software (eg, the program 140 ) and instructions related thereto.
  • the memory 130 may include a volatile memory 132 or a non-volatile memory 134 .
  • the program 140 may be stored as software in the memory 130 , and may include, for example, an operating system 142 , middleware 144 , or an application 146 .
  • the input module 150 may receive a command or data to be used in a component (eg, the processor 120 ) of the electronic device 101 from the outside (eg, a user) of the electronic device 101 .
  • the input module 150 may include, for example, a microphone, a mouse, a keyboard, a key (eg, a button), or a digital pen (eg, a stylus pen).
  • the sound output module 155 may output a sound signal to the outside of the electronic device 101 .
  • the sound output module 155 may include, for example, a speaker or a receiver.
  • the speaker can be used for general purposes such as multimedia playback or recording playback.
  • the receiver may be used to receive an incoming call. According to one embodiment, the receiver may be implemented separately from or as part of the speaker.
  • the display module 160 may visually provide information to the outside (eg, a user) of the electronic device 101 .
  • the display module 160 may include, for example, a control circuit for controlling a display, a hologram device, or a projector and a corresponding device.
  • the display module 160 may include a touch sensor configured to sense a touch or a pressure sensor configured to measure the intensity of a force generated by the touch.
  • the audio module 170 may convert a sound into an electric signal or, conversely, convert an electric signal into a sound. According to an embodiment, the audio module 170 acquires a sound through the input module 150 or an external electronic device (eg, a sound output module 155 ) directly or wirelessly connected to the electronic device 101 . A sound may be output through the electronic device 102 (eg, a speaker or headphones).
  • an external electronic device eg, a sound output module 155
  • a sound may be output through the electronic device 102 (eg, a speaker or headphones).
  • the sensor module 176 detects an operating state (eg, power or temperature) of the electronic device 101 or an external environmental state (eg, user state), and generates an electrical signal or data value corresponding to the sensed state. can do.
  • the sensor module 176 may include, for example, a gesture sensor, a gyro sensor, a barometric pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, a color sensor, an IR (infrared) sensor, a biometric sensor, It may include a temperature sensor, a humidity sensor, or an illuminance sensor.
  • the interface 177 may support one or more designated protocols that may be used by the electronic device 101 to directly or wirelessly connect with an external electronic device (eg, the electronic device 102 ).
  • the interface 177 may include, for example, a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, an SD card interface, or an audio interface.
  • HDMI high definition multimedia interface
  • USB universal serial bus
  • SD card interface Secure Digital Card
  • the connection terminal 178 may include a connector through which the electronic device 101 can be physically connected to an external electronic device (eg, the electronic device 102 ).
  • the connection terminal 178 may include, for example, an HDMI connector, a USB connector, an SD card connector, or an audio connector (eg, a headphone connector).
  • the haptic module 179 may convert an electrical signal into a mechanical stimulus (eg, vibration or movement) or an electrical stimulus that the user can perceive through tactile or kinesthetic sense.
  • the haptic module 179 may include, for example, a motor, a piezoelectric element, or an electrical stimulation device.
  • the camera module 180 may capture still images and moving images. According to an embodiment, the camera module 180 may include one or more lenses, image sensors, image signal processors, or flashes.
  • the power management module 188 may manage power supplied to the electronic device 101 .
  • the power management module 188 may be implemented as, for example, at least a part of a power management integrated circuit (PMIC).
  • PMIC power management integrated circuit
  • the battery 189 may supply power to at least one component of the electronic device 101 .
  • battery 189 may include, for example, a non-rechargeable primary cell, a rechargeable secondary cell, or a fuel cell.
  • the communication module 190 is a direct (eg, wired) communication channel or a wireless communication channel between the electronic device 101 and an external electronic device (eg, the electronic device 102, the electronic device 104, or the server 108). It can support establishment and communication performance through the established communication channel.
  • the communication module 190 may include one or more communication processors that operate independently of the processor 120 (eg, an application processor) and support direct (eg, wired) communication or wireless communication.
  • the communication module 190 is a wireless communication module 192 (eg, a cellular communication module, a short-range communication module, or a global navigation satellite system (GNSS) communication module) or a wired communication module 194 (eg, : It may include a LAN (local area network) communication module, or a power line communication module).
  • GNSS global navigation satellite system
  • a corresponding communication module among these communication modules is a first network 198 (eg, a short-range communication network such as Bluetooth, wireless fidelity (WiFi) direct, or infrared data association (IrDA)) or a second network 199 (eg, legacy It may communicate with the external electronic device 104 through a cellular network, a 5G network, a next-generation communication network, the Internet, or a computer network (eg, a telecommunication network such as a LAN or a WAN).
  • a first network 198 eg, a short-range communication network such as Bluetooth, wireless fidelity (WiFi) direct, or infrared data association (IrDA)
  • a second network 199 eg, legacy It may communicate with the external electronic device 104 through a cellular network, a 5G network, a next-generation communication network, the Internet, or a computer network (eg, a telecommunication network such as a LAN or a WAN).
  • a telecommunication network
  • the wireless communication module 192 uses the subscriber information (eg, International Mobile Subscriber Identifier (IMSI)) stored in the subscriber identification module 196 within a communication network such as the first network 198 or the second network 199 .
  • the electronic device 101 may be identified or authenticated.
  • the wireless communication module 192 may support a 5G network after a 4G network and a next-generation communication technology, for example, a new radio access technology (NR).
  • NR access technology includes high-speed transmission of high-capacity data (eMBB (enhanced mobile broadband)), minimization of terminal power and access to multiple terminals (mMTC (massive machine type communications)), or high reliability and low latency (URLLC (ultra-reliable and low-latency) -latency communications)).
  • eMBB enhanced mobile broadband
  • mMTC massive machine type communications
  • URLLC ultra-reliable and low-latency
  • the wireless communication module 192 may support a high frequency band (eg, mmWave band) to achieve a high data rate, for example.
  • a high frequency band eg, mmWave band
  • the wireless communication module 192 includes various technologies for securing performance in a high-frequency band, for example, beamforming, massive multiple-input and multiple-output (MIMO), all-dimensional multiplexing. It may support technologies such as full dimensional MIMO (FD-MIMO), an array antenna, analog beam-forming, or a large scale antenna.
  • the wireless communication module 192 may support various requirements specified in the electronic device 101 , an external electronic device (eg, the electronic device 104 ), or a network system (eg, the second network 199 ).
  • the wireless communication module 192 may include a peak data rate (eg, 20 Gbps or more) for realizing eMBB, loss coverage (eg, 164 dB or less) for realizing mMTC, or U-plane latency for realizing URLLC ( Example: downlink (DL) and uplink (UL) each 0.5 ms or less, or round trip 1 ms or less).
  • a peak data rate eg, 20 Gbps or more
  • loss coverage eg, 164 dB or less
  • U-plane latency for realizing URLLC
  • the antenna module 197 may transmit or receive a signal or power to the outside (eg, an external electronic device).
  • the antenna module 197 may include an antenna including a conductor formed on a substrate (eg, a PCB) or a radiator formed of a conductive pattern.
  • the antenna module 197 may include a plurality of antennas (eg, an array antenna). In this case, at least one antenna suitable for a communication method used in a communication network such as the first network 198 or the second network 199 is connected from the plurality of antennas by, for example, the communication module 190 . can be selected. A signal or power may be transmitted or received between the communication module 190 and an external electronic device through the selected at least one antenna.
  • other components eg, a radio frequency integrated circuit (RFIC)
  • RFIC radio frequency integrated circuit
  • the antenna module 197 may form a mmWave antenna module.
  • the mmWave antenna module comprises a printed circuit board, an RFIC disposed on or adjacent to a first side (eg, underside) of the printed circuit board and capable of supporting a designated high frequency band (eg, mmWave band); and a plurality of antennas (eg, an array antenna) disposed on or adjacent to a second side (eg, top or side) of the printed circuit board and capable of transmitting or receiving signals of the designated high frequency band. can do.
  • peripheral devices eg, a bus, general purpose input and output (GPIO), serial peripheral interface (SPI), or mobile industry processor interface (MIPI)
  • GPIO general purpose input and output
  • SPI serial peripheral interface
  • MIPI mobile industry processor interface
  • the command or data may be transmitted or received between the electronic device 101 and the external electronic device 104 through the server 108 connected to the second network 199 .
  • Each of the external electronic devices 102 or 104 may be the same as or different from the electronic device 101 .
  • all or a part of operations executed in the electronic device 101 may be executed in one or more external electronic devices 102 , 104 , or 108 .
  • the electronic device 101 may perform the function or service itself instead of executing the function or service itself.
  • one or more external electronic devices may be requested to perform at least a part of the function or the service.
  • One or more external electronic devices that have received the request may execute at least a part of the requested function or service, or an additional function or service related to the request, and transmit a result of the execution to the electronic device 101 .
  • the electronic device 101 may process the result as it is or additionally and provide it as at least a part of a response to the request.
  • cloud computing distributed computing, mobile edge computing (MEC), or client-server computing technology may be used.
  • the electronic device 101 may provide an ultra-low latency service using, for example, distributed computing or mobile edge computing.
  • the external electronic device 104 may include an Internet of things (IoT) device.
  • Server 108 may be an intelligent server using machine learning and/or neural networks.
  • the external electronic device 104 or the server 108 may be included in the second network 199 .
  • the electronic device 101 may be applied to an intelligent service (eg, smart home, smart city, smart car, or health care) based on 5G communication technology and IoT-related technology.
  • the electronic device may have various types of devices.
  • the electronic device may include, for example, a portable communication device (eg, a smart phone), a computer device, a portable multimedia device, a portable medical device, a camera, a wearable device, or a home appliance device.
  • a portable communication device eg, a smart phone
  • a computer device e.g., a smart phone
  • a portable multimedia device e.g., a portable medical device
  • a camera e.g., a portable medical device
  • a camera e.g., a portable medical device
  • a camera e.g., a portable medical device
  • a wearable device e.g., a smart bracelet
  • a home appliance device e.g., a home appliance
  • first, second, or first or second may be used simply to distinguish the element from other elements in question, and may refer to elements in other aspects (e.g., importance or order) is not limited. It is said that one (eg, first) component is “coupled” or “connected” to another (eg, second) component, with or without the terms “functionally” or “communicatively”. When referenced, it means that one component can be connected to the other component directly (eg by wire), wirelessly, or through a third component.
  • module used in various embodiments of this document may include a unit implemented in hardware, software, or firmware, and is interchangeable with terms such as, for example, logic, logic block, component, or circuit.
  • a module may be an integrally formed part or a minimum unit or a part of the part that performs one or more functions.
  • the module may be implemented in the form of an application-specific integrated circuit (ASIC).
  • ASIC application-specific integrated circuit
  • one or more instructions stored in a storage medium may be implemented as software (eg, the program 140) including
  • a processor eg, processor 120
  • a device eg, electronic device 101
  • the one or more instructions may include code generated by a compiler or code executable by an interpreter.
  • the device-readable storage medium may be provided in the form of a non-transitory storage medium.
  • 'non-transitory' only means that the storage medium is a tangible device and does not include a signal (eg, electromagnetic wave), and this term is used in cases where data is semi-permanently stored in the storage medium and It does not distinguish between temporary storage cases.
  • a signal eg, electromagnetic wave
  • the method according to various embodiments disclosed in this document may be included and provided in a computer program product.
  • Computer program products may be traded between sellers and buyers as commodities.
  • the computer program product is distributed in the form of a machine-readable storage medium (eg compact disc read only memory (CD-ROM)), or via an application store (eg Play Store TM ) or on two user devices ( It can be distributed (eg downloaded or uploaded) directly between smartphones (eg: smartphones) and online.
  • a part of the computer program product may be temporarily stored or temporarily generated in a machine-readable storage medium such as a memory of a server of a manufacturer, a server of an application store, or a relay server.
  • each component (eg, module or program) of the above-described components may include a singular or a plurality of entities, and some of the plurality of entities may be separately disposed in other components. there is.
  • one or more components or operations among the above-described corresponding components may be omitted, or one or more other components or operations may be added.
  • a plurality of components eg, a module or a program
  • the integrated component may perform one or more functions of each component of the plurality of components identically or similarly to those performed by the corresponding component among the plurality of components prior to the integration. .
  • operations performed by a module, program, or other component are executed sequentially, in parallel, repeatedly, or heuristically, or one or more of the operations are executed in a different order, or omitted. or one or more other operations may be added.
  • the electronic device 101 may display a screen in the active area of the display module 160 .
  • the size of the active area is changed, the content on the screen may be reconstructed accordingly. Such reconfiguration can be confusing to users when performed unexpectedly.
  • the electronic device 101 may have a foldable housing that is divided into two housings about a folding axis.
  • a first display area of a display eg, a flexible display
  • a second display area of the display may be disposed in the second housing.
  • the foldable housing may be implemented in an in-folding manner in which the first display area and the second display area face each other when the portable electronic device is in a folded state.
  • the foldable housing may be implemented in an out-folding manner in which the first part and the second part face oppositely to each other when the portable electronic device is in a folded state.
  • the electronic device 101 is a slideable device that allows at least a part of the flexible display to be wound around or released from a roller unit (or a rotation assembly) formed in the internal space of the electronic device 101 . It may have a (or rollable) housing.
  • a surface on which the display is disposed eg, a surface on which the display area is visually exposed
  • the front surface of the electronic device e.g, a surface on which the display area is visually exposed
  • the front surface of the electronic device eg, a surface on which the display area is visually exposed
  • the opposite surface of the front surface is defined as the rear surface of the electronic device.
  • a surface surrounding the space between the front surface and the rear surface is defined as a side surface of the electronic device.
  • state may refer to a structural form, shape, or shape of an electronic device (or display).
  • FIG. 2A and 2B illustrate a portable electronic device 200 having a slideable housing structure, according to an exemplary embodiment.
  • the portable electronic device 200 eg, the electronic device 101 of FIG. 1
  • the portable electronic device 200 includes a first housing 210 , a second housing 220 , a roller unit (not shown), and A flexible or foldable display 230 disposed in a space formed by the slideable housings 210 and 220 may be included.
  • the second housing 220 may be coupled to the first housing 210 to be slidable.
  • the roller unit may be disposed in the inner space of the second housing 220 .
  • the display 230 may include a first display area 231 disposed adjacent to the first housing 210 and a second display area 232 disposed in the inner space while surrounding the roller unit.
  • the second display area 232 may enter the inside of the second housing 220 and be wound around the roller unit.
  • the second display area 232 is released from the rotation assembly and exposed to the outside when the second housing 220 is slid in a direction away from the first housing 210 (eg, the -y-axis direction as shown in FIG. 2A ).
  • the state of the electronic device 200 may be defined based on the rotation angle of the roller unit (eg, the rotation angle of the roller unit in a direction in which the display 230 is unwound from the roller unit (eg, clockwise)). there is.
  • the rotation angle of the roller unit exceeds the first threshold value
  • the state of the electronic device 200 is that only the first display area 231 of the display 230 is exposed (or the second display area 232 ). It may be defined as a first state (or a normal state, a slide-in state) disposed in this inner space.
  • the state of the electronic device 200 is the entire area of the display 230 (eg, the first display area 231 and the second display area). (232)) may be defined as the exposed second state (or extended state, slide-out state). A state in which the second display area 232 is partially exposed from the roller unit (or partially wound around the roller unit) may be defined as a third state (or intermediate state) in this document. .
  • the state of the electronic device 200 may be defined based on a curvature (degree of curvature) of a designated portion on the display 230 .
  • a curvature degree of curvature
  • the state of the electronic device 200 may be defined as the first state.
  • the curvature of the second display area 232 corresponds to a value (or within a range) indicating flatness
  • the state of the electronic device 200 may be defined as a second state.
  • an active region in which visual information (eg, an application execution screen) is displayed on the display 230 may be determined.
  • the active area is determined to be the first display area 231 , and thus visual information may be displayed on the first display area 231 .
  • the active area is determined to be the entire area of the display 230 (eg, the first display area 231 and the second display area 232 ), and accordingly, the entire area is visually displayed. Information may be displayed.
  • the portable electronic device 300 (eg, the electronic device 101 of FIG. 1 ) includes a first housing 310 , a second housing 320 , a roller unit (not shown), and A flexible or foldable display 330 disposed in a space formed by the slideable housings 310 and 320 may be included.
  • the display 330 may include a first display area 331 disposed adjacent to the first housing 310 and a second display area 332 disposed in the inner space while surrounding the roller unit. The second display area 332 is released from the roller when the second housing 320 is slid in a direction away from the first housing 310 (eg, the x-axis direction as shown in FIG. 3A ) to be exposed to the outside.
  • an electronic device 400 (eg, the portable electronic device 200 of FIG. 2 or the portable electronic device 300 of FIG. 3 ) includes a display 410 (eg, the display module 160 of FIG. 1 ). ), a state detection sensor 420 , a memory 430 , and a processor 499 .
  • the display 410 may include a first display area 411 and a second display area 412 .
  • the active region on which visual information is to be displayed is the first display region 411 or the entire display 410 , depending on the state of the electronic device 400 .
  • area eg, the first display area 411 and the second display area 412 ).
  • the state detection sensor 420 may generate data used to recognize the state (eg, the first state and the second state) of the electronic device 400 .
  • the state sensor 420 may include a sensor (eg, an encoder, a hall sensor) that is attached to the roller unit to generate and output data corresponding to the rotation angle of the roller unit.
  • the state detection sensor 420 is disposed on a designated portion of the display 410 (eg, the second display area 232 of FIG. 2 or the second display area 332 of FIG. 3 ) to correspond to the curvature of the corresponding portion. It may include a sensor (eg, a pressure sensor) that generates data to
  • the memory 430 may store visual information to be displayed in the active area.
  • the visual information may include a background element and a user interface (UI) element (or a user experience (UX) element or a foreground element).
  • the UI element is a graphic element that allows the electronic device 400 to interact with the user, and may include, for example, a video, an image, text, a thumbnail, an emoticon, an icon, a keypad, a button, or a menu.
  • the processor 499 may, in response to a user's touch input to the UI element, execute a function operatively coupled to the UI element.
  • the background element is a graphic element that is not related to an interaction between the electronic device 400 and a user and is not connected to a specific function, and may include, for example, a background image or text.
  • the visual information may be classified into first visual information to be displayed when the electronic device 400 is in the first state and second visual information to be displayed when the electronic device 400 is in the second state.
  • the first visual information may be different from the second visual information in the amount, attribute, layout, or configuration of the information to be displayed to the user.
  • the second visual information may have a content amount (eg, text amount, number of images, number of pages) greater than that of the first visual information.
  • the attribute may include size, color, or brightness. For example, when the first state is changed from the first state to the second state, the size of the background element and/or the foreground element may be enlarged, and if the change is reversed, the size of the corresponding element may be reduced.
  • the layout of the UI element may change.
  • the position of the UI element may be changed from, for example, the first display area 411 to the second display area 412 .
  • the second visual information may have a UI element different from the UI element configured in the first visual information.
  • a new UI element not included in the first visual information may be included in the second visual information and displayed in the activation area.
  • the second UI element may be displayed in the activation area instead of the first UI element.
  • the memory 430 may store configuration information used to configure visual information to be displayed in the active area.
  • the configuration information may include first configuration information for configuring visual information when the electronic device 400 is in the first state and second configuration information for configuring visual information when the electronic device 400 is in the second state.
  • the processor 499 may configure visual information to be displayed on the active area as the first visual information by using the first configuration information.
  • the processor 499 may configure visual information as the second visual information by using the second configuration information.
  • the memory 430 may store instructions for causing the processor 499 to perform an operation of notifying the user that visual information is also changed when the state of the electronic device 400 is changed.
  • the instructions include the processor 499: determining the first display area 411 as the active area when the electronic device 400 is in the first state, and displaying the first visual information and the first preview accordingly. displaying in the active area; Alternatively, when the electronic device 400 is in the second state, the entire area of the display 410 may be determined as the active area, and accordingly, an operation of displaying the second visual information and the second preview on the active area may be performed.
  • the first preview is a graphic that enables the user to recognize that, when the electronic device 400 is changed from the first state to the second state, the second visual information is displayed on the display 410 instead of the first visual information. It can be an element.
  • the second preview is a graphic element so that when the electronic device 400 is changed from the second state to the first state, the user can recognize that the first visual information is displayed on the display 410 instead of the second visual information.
  • the preview may be a thumbnail image that is a thumbnail of the corresponding visual information.
  • the preview may include an icon in which an element (eg, amount of information, attribute, layout, configuration) representing the difference between the two pieces of visual information is shaped.
  • the preview may include text indicating what is the difference between the two visual information.
  • the instructions are provided by the processor 499: Based on a file (eg, a manifest file) used to execute the application, visual information as an execution screen of the application to be displayed on the display 410 is transmitted to the electronic device ( When it is determined that the operation of determining whether or not the visual information exists for each state of the electronic device 400 is present for each state, a preview corresponding to the visual information corresponding to the current state of the electronic device 400 and a preview corresponding to a different state are displayed on the display 410 . ) and when it is determined that the visual information does not exist for each state, the operation of displaying the visual information on the display 410 without a preview may be performed.
  • a file eg, a manifest file
  • the instructions may cause the processor 499 to: perform an operation of terminating the display of the preview when a specified time elapses from the time when the display of the preview is started.
  • the portable electronic device 400 may further include a haptic module 179 .
  • the instructions indicate that the processor 499 may: use the haptic module 179 as a tactile means other than a visual reminder using the display 410 to change visual information according to a change in the state of the electronic device 400 .
  • An operation to notify the user in advance may be performed.
  • the portable electronic device 400 may further include a sound output module 155 .
  • the instructions are to cause the processor 499 to perform an operation of notifying the user in advance that the visual information may be changed according to a change in the state of the electronic device 400 by using the sound output module 155 as an auditory means.
  • the instructions may cause the processor 499 to perform the reminder using a combination of two or more of: visual, auditory, and tactile means.
  • the instructions, the processor 499 may vary the intensity, number, or sense of rhythm of the tactile means according to the type of reminder.
  • Table 1 as a table related to a tactile reminder is stored in the memory 430 , and the processor 499 may adjust the intensity and frequency of vibration of the tactile means with reference to Table 1 .
  • the instructions may cause the processor 499 to: vary the sound volume of the auditory means, the number of output of the sound, or the sound type according to the type of reminder.
  • Table 2 as a table related to the auditory reminder is stored in the memory 430 , and the processor 499 may adjust the intensity, number of output, and type of sound with reference to Table 2 .
  • the portable electronic device 400 may further include a state conversion module 440 .
  • the state conversion module 440 may include a motor that rotates the roller unit.
  • the state conversion module 440 may rotate the roller unit under the control of the processor 499 to convert the state of the electronic device 400 from the first state to the second state or vice versa.
  • the instructions include, in response to a user input, an operation of displaying, on the display 410, a handler for changing the state of the electronic device 400 as a type of UI element on the display 410, and displaying a touch input for the handler ( 410), converting the state of the electronic device 400 from the first state to the second state or vice versa by driving the state transformation module 440 based on the touch input, and after the state transformation ( Alternatively, when the user input that triggered the state change is released), an operation for terminating the display of the handler may be performed.
  • the instructions are that the processor 499: receives a touch input from the display 410, and recognizes that the received touch input is a user input (eg, long press, force touch) designated for invoking a handler. and display the handler on the display 410 in response to such recognition.
  • a user input eg, long press, force touch
  • the instructions are received by the processor 499 from: a sensor module 176 (eg, a grip sensor) or an input module 150 (eg, a physical button disposed on the side of the electronic device 400 ). It is possible to recognize a user input for calling a handler from data and perform an operation of displaying the handler on the display 410 in response to the recognition.
  • a sensor module 176 eg, a grip sensor
  • an input module 150 eg, a physical button disposed on the side of the electronic device 400 .
  • the instructions may cause the processor 499 to: perform an operation of setting a handler as a topmost layer among graphic elements. For example, when the display positions between the execution screen and the handler overlap, the handler may be located on the execution screen. While the UI element in the execution screen is positioned under the handler, the processor 499 may be set so as not to respond to a touch input to the UI element.
  • the instructions may cause the processor 499 to: adjust the transparency of the handler so that the user can identify a UI element located under the handler.
  • the processor 499 (eg, the processor 120 of FIG. 1 ) may be operatively coupled to the display 410 , the state sensor 420 , and the memory 430 .
  • the processor 499 may recognize the state of the electronic device 400 using data received from the state detection sensor 420 , and based on the recognized state of the electronic device 400 , visual information is displayed It is possible to determine the active area to be For example, the processor 499 may determine the first display area 411 as the active area based on recognition that the electronic device 400 is in the first state. The processor 499 activates the entire area of the display 410 (eg, the first display area 411 and the second display area 412 ) based on the recognition that the electronic device 400 is in the second state. area can be determined.
  • the processor 499 determines an exposed portion of the second display area 412 based on the rotation angle of the roller unit, and determines the exposed portion of the first display area 411 . ) together with the exposed portion may be determined as an active region.
  • the processor 499 may be configured to perform operations defined by the instructions stored in the memory 430 .
  • the operations of the processor 499 are described in detail below. Further operations of the processor 499 are described below.
  • FIGS. 5A and 5B are diagrams for explaining an operation of displaying a preview related to the size of a background element
  • FIGS. 6A and 6B are diagrams for explaining an operation of displaying a preview related to the layout of a UI element
  • FIG. 7A and 7b are diagrams for explaining an operation of displaying a preview related to the configuration of a UI element.
  • the processor 499 may display an execution screen of a permission manager for managing permission of an application installed in the electronic device 400 on the display 410 .
  • the execution screen may include an application list 510 as a type of UI element.
  • the processor 499 may display the application list 510 on the first background element 521 .
  • the processor 499 may display a first preview 531 ( FIG. 5A ) representing the second background element 522 on the first background element 521 .
  • the processor 499 may display a second preview 532 ( FIG. 5B ) indicating the first background element 521 on the second background element 522 . .
  • the second background element 522 may be a graphic element whose size is enlarged compared to that of the first background element 521 .
  • the active region is the entire region of the display 410 (the first display region 541 and the second display region 541 ) from the first display region 541 .
  • display area 542 The second background element 522 may be a graphic element extending from the first background element 521 by the size of the second display area 542 .
  • the processor 499 may display an execution screen of the camera application on the display 410 .
  • the execution screen may include an image 611 received from a camera (eg, the camera module 180 of FIG. 1 ) and a menu 612 for controlling the camera as a type of UI element.
  • the processor 499 displays on the image 611 a first preview 621 ( FIG. 6A ) indicating that the layout of the execution screen is changed when the electronic device 400 is changed to the second state.
  • the processor 499 may change the layout of the execution screen.
  • the active area is the entire area of the display 410 (the first display area 631 and the second display area 631 ) from the first display area 631 .
  • display area 632 the processor 499 may change the display position of the menu 612 from the first display area 631 to the second display area 632 as shown in FIG. 6B .
  • the layout of the execution screen is changed (eg, menu ( A second preview 622 indicating that the display position 612 is moved to the first display area 631) may be displayed on the image 611 .
  • the processor 499 may display an execution screen of a call application on the display 410 .
  • the processor 499 may display an execution screen including the keypad 710 and the call button 720 on the display 410 .
  • the processor 499 may display a first preview 731 ( FIG. 7A ) on the display 410 indicating that the configuration of the execution screen is changed (eg, a UI element is added to the execution screen) when the second state is changed to the second state.
  • the processor 499 displays an execution screen further including a menu 740 ( FIG. 7B ) for changing the configuration of UI elements to be displayed on the display ( 410) can be indicated.
  • the menu 740 includes a first button 741 operatively connected to the keypad 710 , a second button 742 connected to a recent call record, a third button 743 connected to a contact, or the electronic device 400 .
  • a fourth button 744 connected to a call service for a nearby place.
  • the processor 499 may display a second preview 732 ( FIG. 7B ) in the active area indicating that the configuration of the execution screen is changed (eg, the menu 740 is omitted from the execution screen) when the first state is changed to the first state. .
  • the processor 499 may display the execution screen 810 of the home application on the display 410 .
  • the execution screen 810 may include an icon corresponding to each application.
  • the processor 499 may receive, from the display 410 , a touch input for, for example, an icon 811 of a camera application among icons.
  • the processor 499 may display the execution screen 820 of the camera application on the display 410 .
  • the processor 499 may determine whether a camera application exists for each state of the electronic device 400 based on a camera application file (eg, a manifest file).
  • a camera application file eg, a manifest file
  • the processor 499 When it is determined that the execution screens exist for each state, the processor 499 is configured to perform a different state (eg, a second state) from the execution screen 820 corresponding to the current state (eg, the first state) of the electronic device 400 . ) may be displayed on the display 410 a preview 821 corresponding to the.
  • a different state eg, a second state
  • the execution screen 820 corresponding to the current state (eg, the first state) of the electronic device 400 .
  • FIG. 9 is a diagram for explaining an operation of providing a preview during state transformation.
  • the processor 499 may display a first execution screen 910 corresponding to the first state on the display 410 .
  • the processor 499 may display the first preview 920 indicating the second execution screen 930 on the display 410 .
  • the processor 499 may display the second execution screen 930 on the display 410 without the first preview 920 .
  • the processor 499 may display a second preview indicating the first execution screen 910 on the display 410 while the electronic device 400 changes from the second state to the first state.
  • 10A, 10B, and 10C are diagrams for explaining an operation of visually notifying a user that visual information may be changed according to a state change of the electronic device 400 .
  • the processor 499 may display visual information (eg, a web page) corresponding to the current state (eg, the first state) of the electronic device 400 on the display 410 (eg, the first display area 411 ). can The processor 499 may display a visual effect indicating that the visual information is also changed when the state is changed on the display 410 . For example, when the electronic device 400 is in the first state, the processor 499 may provide a visual effect 1010 on an edge portion of the first display area 411 adjacent to the hidden second display area 412 ( FIG. 10A ). ) can be displayed.
  • the visual effect 1010 may include a visual effect of differentiating properties (eg, brightness, color, and saturation) between an edge portion and other portions in a background element of visual information.
  • the visual effect 1010 may not be displayed when the display area is no longer changed.
  • the processor 499 provides the visual effect 1010 in a state in which the screen size is minimum (eg, a first state) and/or in a state in which the screen size is maximum (eg, a second state). can be shut down
  • the processor 499 may display visual information (eg, a web page) corresponding to the first state as the current state of the electronic device 400 on the display 410 (eg, the first display area 411 ).
  • the processor 499 may display an icon 1020 ( FIG. 10B ) indicating that visual information is also changed when the state is changed on the display 410 .
  • the icon 1020 may be an image in which the amount of a web page to be displayed on the display 410 increases as the display area expands.
  • the processor 499 may display first visual information (eg, a web page) corresponding to the first state as the current state of the electronic device 400 on the display 410 (eg, the first display area 411 ). there is.
  • the processor 499 may display a thumbnail 1030 ( FIG. 10C ) that is a thumbnail of the second visual information corresponding to another state (eg, the second state) of the electronic device 400 on the display 410 .
  • 11, 12, 13, and 14 are diagrams for explaining various embodiments of an operation of changing the state of the electronic device 400 using a handler.
  • the processor 499 may display a handler 1110 for state change of the electronic device 400 on the display 410 .
  • the processor 499 may include the rail 1111 extending in a straight line parallel to the x-axis direction in which the display 410 is extended to be displayed on the lock screen 1130 by including the rail 1111 in the handler 1110 .
  • the processor 499 may display the lever 1112 set to move on the rail 1111 according to a user input.
  • the processor 499 may display the lever 1112 at a position corresponding to the current state of the electronic device 400 .
  • the processor 499 may hysterically respond to the movement of the lever 1112 on the rail 1111 to change the state of the electronic device 400 from the first state to the second state or vice versa. For example, when the electronic device 400 is in the first state, the processor 499 operates the lever 1112 at the far left (or first position) of the rail 1111 as shown in FIG. 11A . can be displayed. The processor 499 may move the lever 1112 to the right according to a drag input to the right for the lever 1112 ( FIGS. 11B and 11C ). When the lever 1112 is located on the far right (or second position) of the rail 1111 as shown in FIG.
  • the processor 499 is configured to convert the state to the state conversion module 440 ) to change the state of the electronic device 400 from the first state to the second state. After the state transition, the processor 499 may end the display of the handler 1110 .
  • the processor 499 displays the active area on the display 410 in the first display area 1121 as shown in FIG. 11( d ). ) may be extended to the entire area (the first display area 1121 and the second display area 1122 ). As the active area extends to the second display area 1122 , the processor 499 may extend and display the lock screen 1130 to the second display area 1122 . As described above, the lock screen 1130 may be different for each state of the electronic device 400 in the amount, attribute, layout, or configuration of information to be displayed to the user. Accordingly, although not illustrated, the processor 499 may include a preview (eg, a preview of the form described with reference to FIGS. 5 to 10 ) in the handler 1110 and display it on the display 410 .
  • a preview eg, a preview of the form described with reference to FIGS. 5 to 10
  • the processor 499 displays the lock screen 1230 on the first display area 1221 as shown in FIG. 1210 may be displayed on the lock screen 1230 .
  • the processor 499 responds to the movement of the lever 1212 on the rail 1211 in real time and drives the state conversion module 440 to release the part wound on the roller in the second display area 1222 and expose it to the outside. and the active area can be extended to the exposed part. For example, in the processor 499, as the lever 1212 moves from the leftmost (or first position) of the rail 1211 to the right, the first portion 1222a of the second display area 1222 (Fig. 12(b)).
  • the lock screen 1230 may be extended to the first portion 1222a and displayed.
  • the processor 499 exposes the second portion 1222b ( FIG. 12C ) of the second display area 1222 to the outside, and up to the second portion 1222b the lock screen 1230 can be expanded and displayed.
  • the processor 499 exposes the entire second display area 1222 ( FIG. 12( d )) to the outside and moves the second display area 1222 to the outside.
  • the lock screen 1230 may be displayed by extending it to the right end.
  • the processor 499 includes a rail 1311 extending in a straight line parallel to the -y-axis direction in which the display 410 is extended to be displayed on the lock screen 1330 by including the rail 1311 in the handler 1310 .
  • the processor 499 may display the lever 1312 on the uppermost end (or first position) of the rail 1311 as shown in FIG. 13A .
  • the processor 499 may change the state of the electronic device 400 from the first state to the second state or vice versa in response to the movement of the lever 1312 .
  • the processor 499 may move the lever 1312 downward in response to a downward drag input to the lever 1312 .
  • the processor 499 When the lever 1312 is located at the lowermost end (or second position) of the rail 1311 as shown in FIG. 13(b) by the drag input, the processor 499 is the state conversion module 440 may be driven to change the state of the electronic device 400 from the first state to the second state. After the state transition, the processor 499 may end the display of the handler 1310 .
  • the processor 499 changes the active area from the first display area 1321 to the entire area of the display 410 (the first display area ( 1321) and the second display area 1322). As the active area extends to the second display area 1322 , the processor 499 may extend and display the lock screen 1330 to the second display area 1322 as shown in FIG. 13C . there is.
  • the active area of the display 410 may extend in a right direction (x-axis direction) or a left direction (-x-axis direction).
  • the display 410 may include a first display area 1401 , a second display area 1402 , and a third display area 1403 .
  • the second display area 1402 is a portion extending from the right side of the first display area 1401 , and may be wound around or unwound from the first roller formed in the inner space of the electronic device 400 .
  • the third display area 1403 is a portion extending from the left side of the first display area 1401 , and may be wound around or unwound from the second roller formed in the inner space of the electronic device 400 .
  • the state conversion module 440 may expose the second display area 1402 to the outside or hide it inside by rotating the first roller unit based on the control of the processor 499 .
  • the state conversion module 440 may expose or hide the third display area 1403 to the outside by rotating the second roller unit based on the control of the processor 499 .
  • the processor 499 When the state of the electronic device 400 is the first state in which the second display area 1402 and the third display area 1403 are disposed in the internal space, the processor 499 operates as shown in FIG. 14(a) .
  • the lock screen ( 1430) can be displayed.
  • the processor 499 drives the state conversion module 440 to drive the third display area ( 1403) may be exposed to the outside, and as shown in FIG. 14(c) , the lock screen 1430 may be extended to the third display area 1403, and the display of the handler 1410 may be terminated.
  • the processor 499 drives the state conversion module 440 to display the second display area ( 1402) may be exposed to the outside, and the lock screen 1430 may be extended to the second display area 1402 as shown in FIG. 14(e) , and the display of the handler 1410 may be terminated.
  • 15, 16, 17, and 18 are diagrams for explaining various embodiments of an operation of calling a handler to a display.
  • the processor 499 receives a touch input from the display 410 , recognizes that the received touch input is a user input designated to call a handler to the display 410 , and selects a handler according to this recognition It may be displayed on the display 410 .
  • the processor 499 receives a user input indicating a long press or a force touch from the display 410 on which the home screen 1510 is displayed, as shown in FIG. 15A . can receive
  • the processor 499 displays the handler 1520 on the home screen 1510 in response to a user input indicating a long press or a force touch being received from the display 410 regardless of a location, but in FIG. 15(b) . ), the lever 1521 may be positioned where a long press or a force touch occurs.
  • the processor 499 may display the lever 1521 at a rail position corresponding to the current state of the electronic device 400 . For example, when the electronic device 400 is in the first state, the processor 499 may display the lever 1521 on the far left side of the rail 1522 as shown in FIG. 15B . When the electronic device 400 is in the second state, the processor 499 may display the lever 1521 on the far right of the rail 1522 .
  • the processor 499 may move the lever 1521 to the right as shown in FIG. 15( c ) according to a right drag input for the lever 1521 .
  • the processor 499 may move the lever 1521 to the far left of the rail 1522 as shown in FIG. 15( d ) according to a left drag input for the lever 1521 .
  • the processor 499 may recognize that the lever 1521 returns to the position at the time of the call without going all the way to the opposite end as expansion (or reduction) cancellation.
  • the processor 499 may end the display of the handler 1520 as shown in FIG. 15E .
  • the processor 499 may perform another operation other than terminating the display of the handler 1520 as an additional reaction according to the cancellation of the extension.
  • an application icon 1530 may be located where a long press or a force touch is generated.
  • the processor 499 as an additional reaction according to the cancellation of the extension, a pop-up window for performing a function connected to the icon 1530 (eg, uninstalling the installation of the corresponding application, removing the icon 1530 from the home screen 1510). can be displayed.
  • the processor 499 may display an execution screen 1610 of a call application on the display 410 .
  • the processor 499 may display a button 1620 ( FIG. 16A ) for calling a handler on the edge of the execution screen 1610 .
  • the processor 499 may display a handler 1630 ( FIG. 16B ) instead of the button 1620 in response to a touch input to the button 1620 .
  • the processor 499 executes a handler 1630 including a text (eg, slide to open) indicating that the display 410 is expandable and a direction indicator 1631 indicating the expansion direction on the execution screen 1610 . can be displayed
  • the processor 499 is configured to allow the user to grip the portable electronic device 1700 with one hand based on data (eg, data indicating an amount of change in capacitance) received from a sensor (eg, a grip sensor).
  • data eg, data indicating an amount of change in capacitance
  • the one-handed gripping gesture may be recognized and the handler 1710 may be displayed on the display 410 accordingly.
  • the processor 499 may determine a position where the handler 1710 is to be displayed according to the hand holding the portable electronic device 1700 .
  • the processor 499 may receive data indicating the amount of change in capacitance at the right side 1701 and the amount of change in capacitance at the left side 1702 of the portable electronic device 1700 from the sensor, Based on the received data, the hand holding the portable electronic device 1700 may be determined as the right hand or the left hand.
  • the processor 499 may display the handler 1710 adjacent to the right side of the portable electronic device 1700 .
  • the processor 499 may display the handler 1710 adjacent to the left side of the portable electronic device 1700 .
  • the processor 499 may receive a touch input from the display 410 on which an image 1810 is displayed as shown in FIG. 18A .
  • the processor 499 may recognize that the received touch input is a user input indicating a long press or force touch designated for invoking a handler.
  • the processor 499 may check whether a UI element exists where a long press or a force touch is generated. When it is confirmed that UI elements (eg, icons, menus) operatively connected to the processor 499 do not exist where the long press or force touch is generated, the processor 499 is a handler as shown in FIG. 18( b ). 1820 may be displayed on image 1810 .
  • UI elements eg, icons, menus
  • 19 and 20 are diagrams for explaining various embodiments of an operation of terminating the display of a handler.
  • the processor 499 may end the display of the handler when a specified time elapses from the time when the handler is called on the display 410 .
  • the processor 499 may display the handler 1920 on the execution screen 1910 of the call application as shown in FIG. 19A .
  • the processor 499 ends the display of the handler 1920 as shown in FIG. 19(b) and executes the button 1930 for calling the handler. (1910) can be marked on the edge.
  • the processor 499 may end display of the handler based on a user's touch input to the handler. For example, the processor 499 displays the handler 2020 on the execution screen 2010 of the call application as shown in FIG. 20A , but displays the handler 2020 on the screen displayed on the display 410 .
  • a bar 2021 for moving may be included in the handler 2020 and displayed on the display 410 .
  • the processor 499 may move the handler 2020 on the execution screen 2010 according to a user's drag input to the bar 2021 .
  • the processor 499 terminates the display of the handler 2020 and closes the edge that the handler 2020 has reached as shown in FIG. 20(b).
  • a button 2030 for invoking a handler, such as a bar, may be displayed.
  • 21 is a diagram for explaining an operation of moving a button for calling a handler on a screen.
  • the processor 499 may display a button 2110 on the lower left side of the execution screen 2100 of the call application.
  • 21(a)-(b) the processor 499 may move the button 2110 from the lower left to the upper left according to the user's drag gesture moving along the left edge.
  • 21(b)-(c) the processor 499 moves the button 2110 from left to right according to the user's drag gesture moving from the left edge to the right edge across the center of the screen to display it can do.
  • the processor 499 may display a handler 2220 including a bar 2221 on the execution screen 2210 of the call application.
  • the processor 499 may set the handler 2220 to be displayed on the uppermost layer among several layers. Accordingly, when a UI element of the execution screen 2210, for example, a call button overlaps with the handler 2220, the call button may not be visually exposed.
  • the processor 499 may set an element responding to the touch input as the handler 2220 . Referring to FIG.
  • the processor 499 may visually expose the call button 2230 by moving the handler 2220 on the execution screen 2210 according to the user's drag input to the bar 2221 . there is. Referring to FIG. 22C , the processor 499 may receive a user's touch input for the call button 2230 . The processor 499 may perform a function connected to the call button 2230 in response to a touch input to the call button 2230 . For example, the processor 499 may display the phone number 2240 of the most recently called contact in the call list on the execution screen 2210 .
  • the processor 499 is an execution screen 2300 for setting a handler including a first image 2310 indicating a handler, a size adjustment bar 2320 , and a transparency adjustment bar 2330 as shown in FIG. 23( a ). ) may be displayed on the display 410 .
  • the processor 499 may adjust the transparency of the handler background in response to a user's touch input to the transparency adjustment bar 2330 . For example, the processor 499 sets the transparency of the handler background to 0% as shown in FIG. 23( b ) according to the touch input to the transparency adjustment bar 2330 , and sets the second transparency of the handler set to 0%.
  • An image 2340 may be displayed.
  • the processor 499 may stepwise adjust the size of the handler in response to a user's drag input on the size adjustment bar 2320 .
  • the processor 499 may display the size adjustment bar 2320 indicating that the size of the handler can be set in one of five steps from the minimum size (step 1) to the maximum size (step 5).
  • the processor 499 sets the size of the handler in two stages as shown in FIG. 23(c) according to the touch input to the size adjustment bar 2320, and a third image 2350 representing the handler having the set size. can be displayed.
  • a portable electronic device (eg, the electronic device 400 of FIG. 4 ) is a slideable device including a first housing and a second housing coupled to the first housing to be slidable with respect to the first housing. housing; roller unit; a flexible display including a first display area adjacent to the first housing and a second display area surrounding the roller unit and disposed in an inner space of the portable electronic device; a processor coupled to the display; and a memory coupled to the processor, wherein the memory, when executed, causes the processor to: When the state of the portable electronic device is a first state in which the second display area is disposed in the internal space, the first display determining a region as an active region in which visual information is to be displayed, and including the first display region and the second display region when the state of the portable electronic device is a second state in which the second display region is exposed determining the entire area of the display as the active area, displaying first visual information and a first preview on the active area in the first state, and displaying second visual information in the active area in the
  • the instructions may cause the processor to: display as the first preview an icon indicating what is the difference between the first visual information and the second visual information.
  • the first visual information and the second visual information include a background element and a user interface (UI) element operatively connected to a specific function, wherein the instructions are configured by the processor to:
  • the icon may indicate that the layout of the UI (user interface) element is different between visual information.
  • the instructions may cause the processor to: indicate with the icon that an amount of content is different between the first visual information and the second visual information.
  • the first visual information and the second visual information include a background element and a user interface (UI) element operatively connected to a specific function, wherein the instructions are configured by the processor to:
  • the icon may indicate a difference in properties of at least one of the background element and the UI element between visual information.
  • the attribute may include size, color, or brightness.
  • the instructions may cause the processor to indicate with the icon that a configuration of a user interface (UI) element operatively connected to a specific function is different between the first visual information and the second visual information.
  • UI user interface
  • the instructions may cause the processor to: display, on the activation area, a second preview for identifying the first visual information together with the second visual information when in the second state.
  • the instructions may cause the processor to: notify the user that the visual information is changed according to the state change of the portable electronic device, using a tactile means and/or an auditory means.
  • the instructions recognize that the processor: based on a file used to execute the application, the execution screen of the application is divided into a first execution screen as the first visual information and a second execution screen as the second visual information and, in response to a user input for executing the application, in the first state, a preview indicating the second execution screen may be displayed together with the first execution screen in the activation area.
  • the instructions recognize that the processor: based on a file used to execute the application, the execution screen of the application is divided into a first execution screen as the first visual information and a second execution screen as the second visual information and, while the state of the portable electronic device is changed from the first state to the second state as shown in FIG. 9 , a preview indicating the second execution screen may be displayed on the activation area.
  • a portable electronic device (eg, the electronic device 400 of FIG. 4 ) is a slideable device including a first housing and a second housing coupled to the first housing to be slidable with respect to the first housing. housing; roller unit; a flexible display that responds to a user input, including a first display area disposed adjacent to the first housing and a second display area disposed in an internal space of the portable electronic device while enclosing the roller unit;
  • the state of the portable electronic device is converted from a first state in which the second display area is disposed in the inner space to a second state in which the second display area is exposed to the outside, or from the second state to the first state a state transformation module configured to; a processor coupled to the display and the state transformation module; and a memory coupled to the processor, wherein the memory, when executed, causes the processor to: when in the first state, determine the first display area as an active area in which visual information is to be displayed, and be in the second state when determining an entire area of the display including the first display
  • the instructions include causing the processor to include, in the handler, a lever configured to move in parallel to a direction in which the active area extends from the first display area to the entire area of the display according to the user input, and displays;
  • the state of the portable electronic device may be changed in response to the movement of the lever.
  • the instructions cause the processor to: change the state of the portable electronic device from the first state to the second state or vice versa in response to movement of the lever from the first position to the second position on the handler.
  • the instructions may cause the processor to: terminate the display of the handler in response to the lever returning to the first position without going from the first position to the second position.
  • the instructions allow the processor to: unwind the part wound on the roller in the second display area and expose it to the outside in the second display area by reacting to the movement of the lever on the handler in real time to drive the state conversion module, and It is possible to extend the active area to a part.
  • the instructions may cause the processor to: display the handler on the display based on the user input received from the display being a user input designated to invoke the handler on the display.
  • the instructions may cause the processor to: display a button on the execution screen edge of an application for calling the handler to the display, and display the handler on the execution screen in response to a user input for the button. there is.
  • the instructions enable the processor to: recognize, based on data received from a sensor of the portable electronic device, a one-handed gripping gesture of a user holding the portable electronic device with one hand, and respond to the one-handed gripping gesture, so that the handler can be displayed.
  • the instructions may cause the processor to: terminate the display of the handler when a specified time elapses from when the handler is called to the display, or when the handler moves to the edge of the application execution screen.
  • the instructions may cause the processor to display, in the handler, a preview indicating that the visual information to be displayed in the active region is changed when the processor is changed from the first state to the second state or vice versa.

Abstract

다양한 실시예에서 휴대 전자 장치는, 제1하우징, 및 상기 제1하우징에 대해 슬라이딩 가능하도록 상기 제1하우징에 결합된 제2하우징을 포함하는 슬라이더블 하우징; 롤러부; 상기 제1 하우징과 인접하게 배치되는 제1 표시 영역 및 상기 롤러부를 감싸면서 상기 휴대 전자 장치의 내부 공간에 배치되는 제2 표시 영역을 포함하는 플렉서블 디스플레이; 상기 디스플레이에 연결된 프로세서; 및 상기 프로세서에 연결된 메모리를 포함하고, 상기 메모리는, 실행될 때, 상기 프로세서가: 상기 휴대 전자 장치의 상태가 상기 제2표시 영역이 상기 내부 공간에 배치된 제1상태일 때, 상기 제1표시 영역을 시각적 정보가 표시될 활성화 영역으로 결정하고, 상기 휴대 전자 장치의 상태가 상기 제2표시 영역이 외부로 노출된 제2상태일 때, 상기 제1표시 영역 및 상기 제2표시 영역을 포함하는 상기 디스플레이의 전체 영역을 상기 활성화 영역으로 결정하고, 상기 제1상태일 때 제1시각적 정보와 제1미리보기를 상기 활성화 영역에 표시하고, 상기 제2상태일 때 제2시각적 정보를 상기 활성화 영역에 표시하도록 하는 인스트럭션들을 저장할 수 있다. 상기 제1미리보기는 상기 제2시각적 정보를 식별하기 위한 그래픽 요소일 수 있다. 그 외에도, 다양한 실시예들이 가능하다.

Description

확장이 가능한 디스플레이를 갖는 전자 장치
다양한 실시예는 디스플레이에서 시각적 정보가 표시될 활성화 영역을 변경할 수 있는 구조를 갖는 전자 장치에 관한 것이다.
전자 장치는 확장 가능한 디스플레이를 가질 수 있다. 예컨대, 디스플레이가 확장될 경우, 시각적 정보가 표시될 활성화 영역은 디스플레이의 일부 영역에서 디스플레이의 전체 영역으로 확장될 수 있다.
전자 장치는 디스플레이의 활성화 영역의 크기가 확장 또는 축소됨에 따라 표시될 화면(시각적 정보)의 구성을 변경할 수 있다.
화면은 디스플레이의 활성화 영역 내에서 표시되도록 구성될 수 있다. 활성화 영역의 크기가 변경되면, 화면의 내용과 콘텐츠가 상기 변경된 크기에 맞게 변경될 수 있다. 하지만, 이러한 화면의 변경은 예상하지 못하게 사용자의 불쾌한 경험을 유발할 수 있다.
다양한 실시예에서 휴대 전자 장치는, 제1하우징, 및 상기 제1하우징에 대해 슬라이딩 가능하도록 상기 제1하우징에 결합된 제2하우징을 포함하는 슬라이더블 하우징; 롤러부; 상기 제1 하우징과 인접하게 배치되는 제1 표시 영역 및 상기 롤러부를 감싸면서 상기 휴대 전자 장치의 내부 공간에 배치되는 제2 표시 영역을 포함하는 플렉서블 디스플레이; 상기 디스플레이에 연결된 프로세서; 및 상기 프로세서에 연결된 메모리를 포함하고, 상기 메모리는, 실행될 때, 상기 프로세서가: 상기 휴대 전자 장치의 상태가 상기 제2표시 영역이 상기 내부 공간에 배치된 제1상태일 때, 상기 제1표시 영역을 시각적 정보가 표시될 활성화 영역으로 결정하고, 상기 휴대 전자 장치의 상태가 상기 제2표시 영역이 외부로 노출된 제2상태일 때, 상기 제1표시 영역 및 상기 제2표시 영역을 포함하는 상기 디스플레이의 전체 영역을 상기 활성화 영역으로 결정하고, 상기 제1상태일 때 제1시각적 정보와 제1미리보기를 상기 활성화 영역에 표시하고, 상기 제2상태일 때 제2시각적 정보를 상기 활성화 영역에 표시하도록 하는 인스트럭션들을 저장할 수 있다. 상기 제1미리보기는 상기 제2시각적 정보를 식별하기 위한 그래픽 요소일 수 있다.
다양한 실시예에서 휴대 전자 장치는, 제1하우징, 및 상기 제1하우징에 대해 슬라이딩 가능하도록 상기 제1하우징에 결합된 제2하우징을 포함하는 슬라이더블 하우징; 롤러부; 상기 제1 하우징과 인접하게 배치되는 제1 표시 영역 및 상기 롤러부를 감싸면서 상기 휴대 전자 장치의 내부 공간에 배치되는 제2 표시 영역을 포함하고, 사용자 입력에 반응하는 플렉서블 디스플레이; 상기 휴대 전자 장치의 상태를 상기 제2표시 영역이 상기 내부 공간에 배치된 제1상태에서 상기 제2표시 영역이 외부로 노출된 제2상태로 변환하거나 상기 제2상태에서 상기 제1상태로 변환하도록 구성된 상태 변환 모듈; 상기 디스플레이 및 상기 상태 변환 모듈에 연결된 프로세서; 및 상기 프로세서에 연결된 메모리를 포함하고, 상기 메모리는, 실행될 때, 상기 프로세서가: 상기 제1상태일 때, 상기 제1표시 영역을 시각적 정보가 표시될 활성화 영역으로 결정하고, 상기 제2상태일 때, 상기 제1표시 영역 및 상기 제2표시 영역을 포함하는 상기 디스플레이의 전체 영역을 상기 활성화 영역으로 결정하고, 상기 활성화 영역에 핸들러를 표시하고, 상기 핸들러 상에서 사용자 입력을 상기 디스플레이로부터 수신하고, 상기 사용자 입력에 따라 상기 상태 변환 모듈을 구동하여 상기 휴대 전자 장치의 상태를 상기 제1상태에서 상기 제2상태로 또는 그 반대로 변경하도록 하는 인스트럭션들을 저장할 수 있다.
일 실시예에서, 전자 장치는 활성화 영역이 변경(그 크기가 확대 또는 축소)될 때 화면의 구성이 변경될 수 있음을 사용자에게 미리 알려주도록 구성될 수 있다. 전자 장치는 디스플레이에 표시된 핸들러를 이용하여 활성화 영역을 변경(활성화 영역의 크기를 확대 또는 축소)할 수 있도록 구성될 수 있다.
다양한 실시예는 디스플레이의 확장 또는 축소에 따른 시각적 정보의 변화를 미리 사용자에게 알려주는 전자 장치를 제공할 수 있다. 또한, 다양한 실시예는 디스플레이로 호출된 핸들러로 디스플레이를 확장 또는 축소할 수 있도록 해주는 전자 장치를 제공할 수 있다. 이 외에, 본 문서를 통해 직접적 또는 간접적으로 파악되는 다양한 효과들이 제공될 수 있다.
도 1은, 다양한 실시예에 따른, 네트워크 환경 내의 전자 장치의 블록도이다.
도 2a 및 2b는, 일 실시예에 따른, 슬라이더블 하우징 구조를 갖는 휴대 전자 장치를 도시한다.
도 3a 및 3b는, 일 실시예에 따른, 슬라이더블 하우징 구조를 갖는 휴대 전자 장치를 도시한다.
도 4는, 전자 장치의 상태 변경(또는, 활성화 영역의 크기 변경)과 관련하여 사용자와 상호 작용을 위한 UI(user interface)를 지원하도록 구성된, 다양한 실시예에 따른 전자 장치의 전기적인 블록 구성을 도시한다.
도 5a 및 5b는 다양한 실시예에 따른, 배경 요소의 크기와 관련된 미리보기를 표시하는 동작을 설명하기 위한 도면이고, 도 6a 및 6b는 다양한 실시예에 따른, UI 요소의 레이아웃과 관련된 미리보기를 표시하는 동작을 설명하기 위한 도면이며, 도 7a 및 7b는 다양한 실시예에 따른, UI 요소의 구성과 관련된 미리보기를 표시하는 동작을 설명하기 위한 도면이다.
도 8은 다양한 실시예에 따른, 어플리케이션 진입 시 미리보기를 제공하는 동작을 설명하기 위한 도면이다.
도 9는 다양한 실시예에 따른, 상태 변환 중에 미리보기를 제공하는 동작을 설명하기 위한 도면이다.
도 10a, 10b, 및 10c는 다양한 실시예에 따른, 전자 장치의 상태 변경에 따라 시각적 정보가 변경될 수 있음을 사용자에게 시각적으로 알려주는 동작을 설명하기 도면이다.
도 11, 도 12, 도 13, 및 도 14는 다양한 실시예에 따른, 핸들러를 이용하여 전자 장치의 상태를 변환하는 동작의 다양한 실시예를 설명하기 위한 도면이다.
도 15, 도 16, 도 17, 및 도 18은 다양한 실시예에 따른, 핸들러를 디스플레이로 호출하는 동작의 다양한 실시예를 설명하기 위한 도면이다.
도 19 및 도 20은 다양한 실시예에 따른, 핸들러의 표시를 종료하는 동작의 다양한 실시예에 설명하기 위한 도면이다.
도 21은 다양한 실시예에 따른, 핸들러 호출을 위한 버튼을 화면 상에서 이동하는 동작을 설명하기 위한 도면이다.
도 22은 다양한 실시예에 따른, 핸들러를 화면 상에서 이동하는 동작을 설명하기 위한 도면이다.
도 23는 다양한 실시예에 따른, 핸들러의 속성을 설정하는 동작을 설명하기 위한 도면이다.
도 1은, 다양한 실시예들에 따른, 네트워크 환경(100) 내의 전자 장치(101)의 블록도이다. 도 1을 참조하면, 네트워크 환경(100)에서 전자 장치(101)는 제 1 네트워크(198)(예: 근거리 무선 통신 네트워크)를 통하여 전자 장치(102)와 통신하거나, 또는 제 2 네트워크(199)(예: 원거리 무선 통신 네트워크)를 통하여 전자 장치(104) 또는 서버(108)와 통신할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 서버(108)를 통하여 전자 장치(104)와 통신할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 프로세서(120), 메모리(130), 입력 모듈(150), 음향 출력 모듈(155), 디스플레이 모듈(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 연결 단자(178), 햅틱 모듈(179), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 가입자 식별 모듈(196), 또는 안테나 모듈(197)을 포함할 수 있다. 어떤 실시예에서는, 전자 장치(101)에는, 이 구성요소들 중 적어도 하나(예: 연결 단자(178))가 생략되거나, 하나 이상의 다른 구성요소가 추가될 수 있다. 어떤 실시예에서는, 이 구성요소들 중 일부들(예: 센서 모듈(176), 카메라 모듈(180), 또는 안테나 모듈(197))은 하나의 구성요소(예: 디스플레이 모듈(160))로 통합될 수 있다.
프로세서(120)는, 예를 들면, 소프트웨어(예: 프로그램(140))를 실행하여 프로세서(120)에 연결된 전자 장치(101)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)를 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일 실시예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(120)는 다른 구성요소(예: 센서 모듈(176) 또는 통신 모듈(190))로부터 수신된 명령 또는 데이터를 휘발성 메모리(132)에 저장하고, 휘발성 메모리(132)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리(134)에 저장할 수 있다. 일 실시예에 따르면, 프로세서(120)는 메인 프로세서(121)(예: 중앙 처리 장치 또는 어플리케이션 프로세서) 또는 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(123)(예: 그래픽 처리 장치, 신경망 처리 장치(NPU: neural processing unit), 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 예를 들어, 전자 장치(101)가 메인 프로세서(121) 및 보조 프로세서(123)를 포함하는 경우, 보조 프로세서(123)는 메인 프로세서(121)보다 저전력을 사용하거나, 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서(123)는 메인 프로세서(121)와 별개로, 또는 그 일부로서 구현될 수 있다.
보조 프로세서(123)는, 예를 들면, 메인 프로세서(121)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(121)를 대신하여, 또는 메인 프로세서(121)가 액티브(예: 어플리케이션 실행) 상태에 있는 동안 메인 프로세서(121)와 함께, 전자 장치(101)의 구성요소들 중 적어도 하나의 구성요소(예: 디스플레이 모듈(160), 센서 모듈(176), 또는 통신 모듈(190))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일 실시예에 따르면, 보조 프로세서(123)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성요소(예: 카메라 모듈(180) 또는 통신 모듈(190))의 일부로서 구현될 수 있다. 일 실시예에 따르면, 보조 프로세서(123)(예: 신경망 처리 장치)는 인공지능 모델의 처리에 특화된 하드웨어 구조를 포함할 수 있다. 인공지능 모델은 기계 학습을 통해 생성될 수 있다. 이러한 학습은, 예를 들어, 인공지능이 수행되는 전자 장치(101) 자체에서 수행될 수 있고, 별도의 서버(예: 서버(108))를 통해 수행될 수도 있다. 학습 알고리즘은, 예를 들어, 지도형 학습(supervised learning), 비지도형 학습(unsupervised learning), 준지도형 학습(semi-supervised learning) 또는 강화 학습(reinforcement learning)을 포함할 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은, 복수의 인공 신경망 레이어들을 포함할 수 있다. 인공 신경망은 심층 신경망(DNN: deep neural network), CNN(convolutional neural network), RNN(recurrent neural network), RBM(restricted boltzmann machine), DBN(deep belief network), BRDNN(bidirectional recurrent deep neural network), 심층 Q-네트워크(deep Q-networks) 또는 상기 중 둘 이상의 조합 중 하나일 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은 하드웨어 구조 이외에, 추가적으로 또는 대체적으로, 소프트웨어 구조를 포함할 수 있다.
메모리(130)는, 전자 장치(101)의 적어도 하나의 구성요소(예: 프로세서(120) 또는 센서 모듈(176))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램(140)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(130)는, 휘발성 메모리(132) 또는 비휘발성 메모리(134)를 포함할 수 있다.
프로그램(140)은 메모리(130)에 소프트웨어로서 저장될 수 있으며, 예를 들면, 운영 체제(142), 미들 웨어(144) 또는 어플리케이션(146)을 포함할 수 있다.
입력 모듈(150)은, 전자 장치(101)의 구성요소(예: 프로세서(120))에 사용될 명령 또는 데이터를 전자 장치(101)의 외부(예: 사용자)로부터 수신할 수 있다. 입력 모듈(150)은, 예를 들면, 마이크, 마우스, 키보드, 키(예: 버튼), 또는 디지털 펜(예: 스타일러스 펜)을 포함할 수 있다.
음향 출력 모듈(155)은 음향 신호를 전자 장치(101)의 외부로 출력할 수 있다. 음향 출력 모듈(155)은, 예를 들면, 스피커 또는 리시버를 포함할 수 있다. 스피커는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있다. 리시버는 착신 전화를 수신하기 위해 사용될 수 있다. 일 실시예에 따르면, 리시버는 스피커와 별개로, 또는 그 일부로서 구현될 수 있다.
디스플레이 모듈(160)은 전자 장치(101)의 외부(예: 사용자)로 정보를 시각적으로 제공할 수 있다. 디스플레이 모듈(160)은, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일 실시예에 따르면, 디스플레이 모듈(160)은 터치를 감지하도록 설정된 터치 센서, 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 압력 센서를 포함할 수 있다.
오디오 모듈(170)은 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 일 실시예에 따르면, 오디오 모듈(170)은, 입력 모듈(150)을 통해 소리를 획득하거나, 음향 출력 모듈(155), 또는 전자 장치(101)와 직접 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(102))(예: 스피커 또는 헤드폰)를 통해 소리를 출력할 수 있다.
센서 모듈(176)은 전자 장치(101)의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 사용자 상태)를 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 일 실시예에 따르면, 센서 모듈(176)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다.
인터페이스(177)는 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 직접 또는 무선으로 연결되기 위해 사용될 수 있는 하나 이상의 지정된 프로토콜들을 지원할 수 있다. 일 실시예에 따르면, 인터페이스(177)는, 예를 들면, HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.
연결 단자(178)는, 그를 통해서 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 물리적으로 연결될 수 있는 커넥터를 포함할 수 있다. 일 실시예에 따르면, 연결 단자(178)는, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.
햅틱 모듈(179)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 일 실시예에 따르면, 햅틱 모듈(179)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.
카메라 모듈(180)은 정지 영상 및 동영상을 촬영할 수 있다. 일 실시예에 따르면, 카메라 모듈(180)은 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다.
전력 관리 모듈(188)은 전자 장치(101)에 공급되는 전력을 관리할 수 있다. 일 실시예에 따르면, 전력 관리 모듈(188)은, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구현될 수 있다.
배터리(189)는 전자 장치(101)의 적어도 하나의 구성요소에 전력을 공급할 수 있다. 일 실시예에 따르면, 배터리(189)는, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.
통신 모듈(190)은 전자 장치(101)와 외부 전자 장치(예: 전자 장치(102), 전자 장치(104), 또는 서버(108)) 간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(190)은 프로세서(120)(예: 어플리케이션 프로세서)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일 실시예에 따르면, 통신 모듈(190)은 무선 통신 모듈(192)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(194)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제 1 네트워크(198)(예: 블루투스, WiFi(wireless fidelity) direct 또는 IrDA(infrared data association)와 같은 근거리 통신 네트워크) 또는 제 2 네트워크(199)(예: 레거시 셀룰러 네트워크, 5G 네트워크, 차세대 통신 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부의 전자 장치(104)와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성요소(예: 단일 칩)로 통합되거나, 또는 서로 별도의 복수의 구성요소들(예: 복수 칩들)로 구현될 수 있다. 무선 통신 모듈(192)은 가입자 식별 모듈(196)에 저장된 가입자 정보(예: 국제 모바일 가입자 식별자(IMSI))를 이용하여 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크 내에서 전자 장치(101)를 확인 또는 인증할 수 있다.
무선 통신 모듈(192)은 4G 네트워크 이후의 5G 네트워크 및 차세대 통신 기술, 예를 들어, NR 접속 기술(new radio access technology)을 지원할 수 있다. NR 접속 기술은 고용량 데이터의 고속 전송(eMBB(enhanced mobile broadband)), 단말 전력 최소화와 다수 단말의 접속(mMTC(massive machine type communications)), 또는 고신뢰도와 저지연(URLLC(ultra-reliable and low-latency communications))을 지원할 수 있다. 무선 통신 모듈(192)은, 예를 들어, 높은 데이터 전송률 달성을 위해, 고주파 대역(예: mmWave 대역)을 지원할 수 있다. 무선 통신 모듈(192)은 고주파 대역에서의 성능 확보를 위한 다양한 기술들, 예를 들어, 빔포밍(beamforming), 거대 배열 다중 입출력(massive MIMO(multiple-input and multiple-output)), 전차원 다중입출력(FD-MIMO: full dimensional MIMO), 어레이 안테나(array antenna), 아날로그 빔형성(analog beam-forming), 또는 대규모 안테나(large scale antenna)와 같은 기술들을 지원할 수 있다. 무선 통신 모듈(192)은 전자 장치(101), 외부 전자 장치(예: 전자 장치(104)) 또는 네트워크 시스템(예: 제 2 네트워크(199))에 규정되는 다양한 요구사항을 지원할 수 있다. 일 실시예에 따르면, 무선 통신 모듈(192)은 eMBB 실현을 위한 Peak data rate(예: 20Gbps 이상), mMTC 실현을 위한 손실 Coverage(예: 164dB 이하), 또는 URLLC 실현을 위한 U-plane latency(예: 다운링크(DL) 및 업링크(UL) 각각 0.5ms 이하, 또는 라운드 트립 1ms 이하)를 지원할 수 있다.
안테나 모듈(197)은 신호 또는 전력을 외부(예: 외부의 전자 장치)로 송신하거나 외부로부터 수신할 수 있다. 일 실시예에 따르면, 안테나 모듈(197)은 서브스트레이트(예: PCB) 위에 형성된 도전체 또는 도전성 패턴으로 이루어진 방사체를 포함하는 안테나를 포함할 수 있다. 일 실시예에 따르면, 안테나 모듈(197)은 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다. 이런 경우, 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 적어도 하나의 안테나가, 예를 들면, 통신 모듈(190)에 의하여 상기 복수의 안테나들로부터 선택될 수 있다. 신호 또는 전력은 상기 선택된 적어도 하나의 안테나를 통하여 통신 모듈(190)과 외부의 전자 장치 간에 송신되거나 수신될 수 있다. 어떤 실시예에 따르면, 방사체 이외에 다른 부품(예: RFIC(radio frequency integrated circuit))이 추가로 안테나 모듈(197)의 일부로 형성될 수 있다.
다양한 실시예에 따르면, 안테나 모듈(197)은 mmWave 안테나 모듈을 형성할 수 있다. 일 실시예에 따르면, mmWave 안테나 모듈은 인쇄 회로 기판, 상기 인쇄 회로 기판의 제 1 면(예: 아래 면)에 또는 그에 인접하여 배치되고 지정된 고주파 대역(예: mmWave 대역)을 지원할 수 있는 RFIC, 및 상기 인쇄 회로 기판의 제 2 면(예: 윗 면 또는 측 면)에 또는 그에 인접하여 배치되고 상기 지정된 고주파 대역의 신호를 송신 또는 수신할 수 있는 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다.
상기 구성요소들 중 적어도 일부는 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input and output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))을 통해 서로 연결되고 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.
일 실시예에 따르면, 명령 또는 데이터는 제 2 네트워크(199)에 연결된 서버(108)를 통해서 전자 장치(101)와 외부의 전자 장치(104)간에 송신 또는 수신될 수 있다. 외부의 전자 장치(102, 또는 104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 일 실시예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 외부의 전자 장치들(102, 104, 또는 108) 중 하나 이상의 외부의 전자 장치들에서 실행될 수 있다. 예를 들면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로, 또는 사용자 또는 다른 장치로부터의 요청에 반응하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 하나 이상의 외부의 전자 장치들에게 그 기능 또는 그 서비스의 적어도 일부를 수행하라고 요청할 수 있다. 상기 요청을 수신한 하나 이상의 외부의 전자 장치들은 요청된 기능 또는 서비스의 적어도 일부, 또는 상기 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행의 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 상기 결과를, 그대로 또는 추가적으로 처리하여, 상기 요청에 대한 응답의 적어도 일부로서 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 모바일 에지 컴퓨팅(MEC: mobile edge computing), 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다. 전자 장치(101)는, 예를 들어, 분산 컴퓨팅 또는 모바일 에지 컴퓨팅을 이용하여 초저지연 서비스를 제공할 수 있다. 다른 실시예에 있어서, 외부의 전자 장치(104)는 IoT(internet of things) 기기를 포함할 수 있다. 서버(108)는 기계 학습 및/또는 신경망을 이용한 지능형 서버일 수 있다. 일 실시예에 따르면, 외부의 전자 장치(104) 또는 서버(108)는 제 2 네트워크(199) 내에 포함될 수 있다. 전자 장치(101)는 5G 통신 기술 및 IoT 관련 기술을 기반으로 지능형 서비스(예: 스마트 홈, 스마트 시티, 스마트 카, 또는 헬스 케어)에 적용될 수 있다.
본 문서에 개시된 다양한 실시예들에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치(예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 또는 가전 장치를 포함할 수 있다. 본 문서의 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.
본 문서의 다양한 실시예들 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시예들로 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나", "A 또는 B 중 적어도 하나", "A, B 또는 C", "A, B 및 C 중 적어도 하나", 및 "A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에, "기능적으로" 또는 "통신적으로"라는 용어와 함께 또는 이런 용어 없이, "커플드" 또는 "커넥티드"라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 제 3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.
본 문서의 다양한 실시예들에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로와 같은 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 일 실시예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다.
본 문서의 다양한 실시예들은 기기(machine)(예: 전자 장치(101)) 의해 읽을 수 있는 저장 매체(storage medium)(예: 내장 메모리(136) 또는 외장 메모리(138))에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예: 프로그램(140))로서 구현될 수 있다. 예를 들면, 기기(예: 전자 장치(101))의 프로세서(예: 프로세서(120))는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장 매체는, 비일시적(non-transitory) 저장 매체의 형태로 제공될 수 있다. 여기서, ‘비일시적’은 저장 매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장 매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.
일 실시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory(CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두 개의 사용자 장치들(예: 스마트 폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.
다양한 실시예들에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있으며, 복수의 개체 중 일부는 다른 구성요소에 분리 배치될 수도 있다. 다양한 실시예들에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시예들에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.
전자 장치(101)는 디스플레이 모듈(160)의 활성화 영역에 화면을 표시할 수 있다. 활성화 영역의 크기가 변경될 경우, 이에 따라 스크린 상에서 콘텐츠는 재구성될 수 있다. 이러한 재구성은 예기치 않게 수행될 때 사용자에게 혼란을 줄 수 있다.
다양한 하우징 구조가 전자 장치(101)에 적용될 수 있다. 예를 들어, 전자 장치(101)는 폴딩 축을 중심으로 2 개의 하우징으로 양분되는 폴더블(folable) 하우징을 가질 수 있다. 제1하우징에 디스플레이(예: 플랙서블(flexible) 디스플레이)의 제1표시 영역이 배치될 수 있고 제2하우징에 디스플레이의 제2표시 영역이 배치될 수 있다. 폴더블 하우징은 휴대 전자 장치가 접힌 상태일 때 제1표시 영역과 제2표시 영역이 서로 마주하는 인 폴딩(in folding) 방식으로 구현될 수 있다. 또는, 폴더블 하우징은 휴대 전자 장치가 접힌 상태일 때 제1부분과 제2부분이 서로 반대로 향하는 아웃 폴딩(out folding) 방식으로 구현될 수도 있다. 또 다른 예로, 전자 장치(101)는 플랙서블 디스플레이의 적어도 일부가 전자 장치(101)의 내부 공간에 형성된 롤러부(또는, 회동 조립체)에 감기거나 롤러부로부터 풀릴 수 있도록 하는 슬라이더블(slidable)(또는, 롤러블(rollable)) 하우징을 가질 수 있다. 이하에서 디스플레이가 배치된 면(예: 표시 영역이 시각적으로 노출되는 면)을 전자 장치의 전면으로 정의한다. 그리고, 전면의 반대 면을 전자 장치의 후면으로 정의한다. 또한, 전면과 후면 사이의 공간을 둘러싸는 면을 전자 장치의 측면으로 정의한다. “상태(state)”라는 용어는 전자 장치(또는 디스플레이)의 구조적인 형태(form), 모양 또는 형상을 지칭하는 것일 수 있다.
도 2a 및 2b는, 일 실시예에 따른, 슬라이더블 하우징 구조를 갖는 휴대 전자 장치(200)를 도시한다. 도 2a 및 도 2b를 참조하면, 휴대 전자 장치(200)(예: 도 1의 전자 장치(101))는 제1하우징(210), 제2하우징(220), 롤러부(미도시), 및 슬라이더블 하우징(210, 220)에 의해 형성된 공간 내에 배치된 플렉서블(flexible) 또는 폴더블(foldable) 디스플레이(230)를 포함할 수 있다.
제2하우징(220)은 슬라이딩 가능하도록 제1하우징(210)에 결합될 수 있다. 롤러부는 제2하우징(220) 내부 공간에 배치될 수 있다. 디스플레이(230)는 제1하우징(210)에 인접하게 배치되는 제1표시 영역(231) 및 상기 롤러부를 감싸면서 상기 내부 공간 상에 배치되는 제2표시 영역(232)을 포함할 수 있다. 제2표시 영역(232)은 제2하우징(220)이 제1하우징(210)을 향하여 슬라이딩될 때 제2하우징(220) 내부로 들어가 롤러부에 감길 수 있다. 제2표시 영역(232)은 제2하우징(220)이 제1하우징(210)으로부터 멀어지는 방향(예: 도 2a에 도시된 바와 같이 -y축 방향)으로 슬라이딩될 때 회동 조립체로부터 풀려서 외부로 노출될 수 있다.
일 실시예에 따르면, 롤러부의 회전 각도(예: 디스플레이(230)가 롤러부로부터 풀리는 방향(예: 시계 방향)으로 롤러부가 회전한 각도)에 기반하여 전자 장치(200)의 상태가 정의될 수 있다. 예를 들어, 롤러부의 회전 각도가 제1임계 값을 상회할 경우 전자 장치(200)의 상태는 디스플레이(230)의 제1표시 영역(231)만이 노출된(또는, 제2표시 영역(232)이 내부 공간에 배치된) 제1상태(또는, normal state, slide-in state)로 정의될 수 있다. 롤러부의 회전 각도가 제1임계 값보다 큰 제2임계 값을 초과할 경우 전자 장치(200)의 상태는, 디스플레이(230)의 전체 영역(예: 제1표시 영역(231) 및 제2표시 영역(232))이 노출된 제2상태(또는, extended state, slide-out state)로 정의될 수 있다. 제2표시 영역(232)이 롤러부로부터 부분적으로 노출된(또는, 롤러부에 부분적으로 감겨 있는) 상태는, 본 문서에서 제3상태(또는, 중간 상태(intermediate state))로 정의될 수 있다.
다른 실시예에 따르면, 디스플레이(230)에서 지정된 부위의 곡률(curvature)(휜 정도)에 기반하여 전자 장치(200)의 상태가 정의될 수도 있다. 예를 들어, 제2표시 영역(232)의 곡률이 오목(또는, 볼록)함을 나타내는 값(또는 범위 내)에 해당하는 경우, 전자 장치(200)의 상태는 제1상태로 정의될 수 있다. 제2표시 영역(232)의 곡률이 평평함을 나타내는 값(또는 범위 내)에 해당하는 경우, 전자 장치(200)의 상태는 제2상태로 정의될 수 있다.
전자 장치(200)의 상태에 기반하여, 디스플레이(230)에서 시각적 정보(예: 어플리케이션 실행 화면)가 표시될 활성화 영역이 결정될 수 있다. 예를 들어, 전자 장치(200)가 제1상태인 경우, 활성화 영역은 제1표시 영역(231)으로 결정되고 이에 따라 제1표시 영역(231)에 시각적 정보가 표시될 수 있다. 전자 장치(200)가 제2상태인 경우, 활성화 영역은 디스플레이(230)의 전체 영역(예: 제1표시 영역(231) 및 제2표시 영역(232))으로 결정되고 이에 따라 전체 영역에 시각적 정보가 표시될 수 있다.
도 3a 및 3b는, 일 실시예에 따른, 슬라이더블 하우징 구조를 갖는 휴대 전자 장치(300)를 도시한다. 휴대 전자 장치(300)를 설명함에 있어서 도 2와 중복되는 구성, 기능 및/또는 구조는 간략하게 설명되거나 생략된다. 도 3a 및 도 3b를 참조하면, 휴대 전자 장치(300)(예: 도 1의 전자 장치(101))는 제1하우징(310), 제2하우징(320), 롤러부(미도시), 및 슬라이더블 하우징(310, 320)에 의해 형성된 공간 내에 배치된 플렉서블(flexible) 또는 폴더블(foldable) 디스플레이(330)를 포함할 수 있다. 디스플레이(330)는 제1하우징(310)에 인접하게 배치되는 제1표시 영역(331) 및 상기 롤러부를 감싸면서 상기 내부 공간 상에 배치되는 제2표시 영역(332)을 포함할 수 있다. 제2표시 영역(332)은 제2하우징(320)이 제1하우징(310)으로부터 멀어지는 방향(예: 도 3a에 도시된 바와 같이 x축 방향)으로 슬라이딩될 때 롤러부로부터 풀려서 외부로 노출될 수 있다.
도 4는, 전자 장치의 상태 변경(또는, 활성화 영역의 크기 변경)과 관련하여 사용자와 상호 작용을 위한 UI(user interface)를 지원하도록 구성된, 다양한 실시예에 따른 전자 장치(400)의 전기적인 블록 구성을 도시한다. 도 4를 참조하면, 전자 장치(400)(예: 도 2의 휴대 전자 장치(200) 또는 도 3의 휴대 전자 장치(300))는 디스플레이(410)(예: 도 1의 디스플레이 모듈(160)), 상태 감지 센서(420), 메모리(430), 및 프로세서(499)를 포함할 수 있다.
디스플레이(410)는 제1표시 영역(411)와 제2표시 영역(412)을 포함할 수 있다. 앞서 도 2를 참조하여 설명된 바와 같이, 디스플레이(410)에 있어서 시각적 정보가 표시될 활성화 영역은, 전자 장치(400)의 상태에 따라, 제1표시 영역(411) 또는 디스플레이(410)의 전체 영역(예: 제1표시 영역(411) 및 제2표시 영역(412))으로 결정될 수 있다.
상태 감지 센서(420)(예: 도 1의 센서 모듈(176))는 전자 장치(400)의 상태(예: 제1상태, 제2상태)를 인식하기 위해 사용되는 데이터를 생성할 수 있다. 예컨대, 상태 감지 센서(420)는 롤러부에 부착되어 롤러부의 회전 각도에 대응하는 데이터를 생성하여 출력하는 센서(예: 인코더(encoder), 홀(hall) 센서))를 포함할 수 있다. 다른 예로, 상태 감지 센서(420)는 디스플레이(410)의 지정된 부분(예: 도 2의 제2표시 영역(232) 또는 도 3의 제2표시 영역(332)에 배치되어 해당 부분의 곡률에 대응하는 데이터를 생성하는 센서(예: 압력 센서)를 포함할 수 있다.
메모리(430)는 활성화 영역에 표시될 시각적 정보를 저장할 수 있다. 예를 들어, 시각적 정보는 배경 요소(background element)와 UI(user interface) 요소(또는, UX(user experience) 요소, 전경 요소(foreground element))를 포함할 수 있다. UI 요소는, 전자 장치(400)가 사용자와 상호 작용할 수 있도록 해주는 그래픽 요소로서, 예를 들어, 동영상, 이미지, 텍스트, 썸네일, 이모티콘, 아이콘, 키패드, 버튼, 또는 메뉴를 포함할 수 있다. 프로세서(499)는, UI 요소에 대한 사용자의 터치 입력에 반응하여, UI 요소에 작동적으로 연결되어 있는 기능을 실행할 수 있다. 배경 요소는 전자 장치(400)와 사용자 간의 상호 작용과는 무관한, 특정 기능과 연결되어 있지 않은 그래픽 요소로서 예를 들어, 배경 이미지 또는 텍스트를 포함할 수 있다.
시각적 정보는 전자 장치(400)가 제1상태일 때 표시될 제1시각적 정보와 전자 장치(400)가 제2상태일 때 표시될 제2시각적 정보로 분류될 수 있다. 제1시각적 정보는, 사용자에게 보여줄 정보의 량, 속성, 레이아웃, 또는 그 구성에 있어서, 제2시각적 정보와 다를 수 있다. 예를 들어, 제2시각적 정보는 제1시각적 정보보다 많은 콘텐츠의 량(예: 텍스트 량, 이미지 개수, 페이지 수)을 가질 수 있다. 상기 속성은 크기, 색상, 또는 명도를 포함할 수 있다. 예를 들어, 제1상태에서 제2상태로 변경될 경우 배경 요소 및/또는 전경 요소의 크기가 확대되고, 반대로 전환될 경우 해당 요소의 크기가 축소될 수 있다. 상태가 변경됨에 따라 UI 요소의 레이아웃이 변경될 수 있다. 예를 들어, 제1상태에서 제2상태로 변경됨에 따라 UI 요소의 위치가 예컨대, 제1표시 영역(411)에서 제2표시 영역(412)으로 변경될 수 있다. 제2시각적 정보는 제1시각적 정보에 구성된 UI 요소와 다른 UI 요소를 가질 수 있다. 예를 들어, 제1상태에서 제2상태로 변경될 경우, 제1시각적 정보에 포함되어 있지 않았던 새로운 UI 요소가 제2시각적 정보에 포함되어 활성화 영역에 표시될 수 있다. 다른 예로, 제1상태에서 제2상태로 변경될 경우, 제1UI 요소 대신에 제2UI 요소가 활성화 영역에 표시될 수 있다.
메모리(430)는 활성화 영역에 표시될 시각적 정보를 구성하기 위해 이용되는 구성 정보를 저장할 수도 있다. 예를 들어, 구성 정보는 전자 장치(400)가 제1상태일 때 시각적 정보를 구성하기 위한 제1구성 정보와 제2상태일 때 시각적 정보를 구성하기 위한 제2구성 정보를 포함할 수 있다. 예를 들어, 프로세서(499)는, 전자 장치(400)가 제1상태인 경우, 활성화 영역에 표시할 시각적 정보를 상기 제1구성 정보를 이용하여 상기 제1시각적 정보로 구성할 수 있다. 프로세서(499)는, 전자 장치(400)가 제2상태인 경우, 상기 제2구성 정보를 이용하여 시각적 정보를 상기 제2시각적 정보로 구성할 수 있다.
메모리(430)는, 전자 장치(400)의 상태가 변경될 경우 시각적 정보 또한 변경됨을 사용자에게 알려주는 동작을 프로세서(499)가 수행하도록 하는 인스트럭션들(instructions)을 저장할 수 있다.
일 실시예에 따르면, 인스트럭션들은 프로세서(499)가: 전자 장치(400)가 제1상태일 때 제1표시 영역(411)을 활성화 영역으로 결정하고 이에 따라 제1시각적 정보 및 제1미리보기를 활성화 영역에 표시하는 동작; 또는 전자 장치(400)가 제2상태일 때 디스플레이(410)의 전체 영역을 활성화 영역으로 결정하고 이에 따라 제2시각적 정보 및 제2미리보기를 활성화 영역에 표시하는 동작을 수행하도록 할 수 있다. 제1미리보기는, 전자 장치(400)가 제1상태에서 제2상태로 변경될 경우, 제1시각적 정보 대신에 제2시각적 정보가 디스플레이(410)에 표시됨을 사용자가 인식할 수 있도록 하는 그래픽 요소일 수 있다. 제2미리보기는, 전자 장치(400)가 제2상태에서 제1상태로 변경될 경우, 제2시각적 정보 대신에 제1시각적 정보가 디스플레이(410)에 표시됨을 사용자가 인식할 수 있도록 그래픽 요소일 수 있다. 예컨대, 미리보기는 해당 시각적 정보의 축소판인 썸네일 이미지일 수 있다. 다른 예로 미리보기는 두 시각적 정보의 차이가 무엇인지를 나타내는 요소(예: 정보의 량, 속성, 레이아웃, 구성)가 형상화된 아이콘을 포함할 수 있다. 또 다른 예로 미리보기는 두 시각적 정보의 차이가 무엇인지를 나타내는 텍스트를 포함할 수 있다.
일 실시예에 따르면, 인스트럭션들은 프로세서(499)가: 어플리케이션을 실행하기 위해 이용되는 파일(예: manifest file)에 기반하여, 디스플레이(410)에 표시될 어플리케이션의 실행 화면으로서 시각적 정보가 전자 장치(400)의 상태 별로 존재하는지 여부를 판단하는 동작, 시각적 정보가 상태 별로 존재하는 것으로 판단된 경우, 전자 장치(400)의 현 상태에 대응하는 시각적 정보와 다른 상태에 대응하는 미리보기를 디스플레이(410)에 표시하는 동작, 및 시각적 정보가 상태 별로 존재하지 않은 것으로 판단된 경우, 미리보기 없이 시각적 정보를 디스플레이(410)에 표시하는 동작을 수행하도록 할 수 있다.
일 실시예에 따르면, 인스트럭션들은 프로세서(499)가: 미리보기의 표시가 시작된 시점부터 지정된 시간이 경과되면 미리보기의 표시를 종료하는 동작을 수행하도록 할 수 있다.
일 실시예에 따르면, 휴대 전자 장치(400)는 햅틱 모듈(179)을 더 포함할 수 있다. 인스트럭션들은 프로세서(499)가: 디스플레이(410)를 이용한 시각적인 미리 알림 외 촉각적인 수단으로서 햅틱 모듈(179)을 이용하여, 전자 장치(400)의 상태 변경에 따라 시각적 정보가 변경될 수 있음을 사용자에게 미리 알려주는 동작을 수행하도록 할 수 있다.
일 실시예에 따르면, 휴대 전자 장치(400)는 음향 출력 모듈(155)을 더 포함할 수 있다. 인스트럭션들은 프로세서(499)가: 청각적인 수단으로서 음향 출력 모듈(155)을 이용하여, 전자 장치(400)의 상태 변경에 따라 시각적 정보가 변경될 수 있음을 사용자에게 미리 알려주는 동작을 수행하도록 할 수 있다.
일 실시예에 따르면, 인스트럭션들은 프로세서(499)가: 시각적, 청각적, 및 촉각적인 수단 중 둘 이상의 조합을 이용하여 상기 미리 알림을 수행하도록 할 수 있다.
일 실시예에 따르면, 인스트럭션들은 프로세서(499)가: 미리 알림의 종류에 따라 촉각적인 수단의 진동의 세기, 횟수, 또는 리듬 감을 다르게 할 수 있다. 예를 들어, 촉각적인 미리 알림과 관련된 테이블로서 표 1이 메모리(430)에 저장되고, 프로세서(499)는 표 1을 참조하여 촉각적인 수단의 진동의 세기 및 횟수를 조절할 수 있다.
진동 속성 레이아웃 구성 콘텐츠의 량
세기
횟수 1 2 3 2
일 실시예에 따르면, 인스트럭션들은 프로세서(499)가: 미리 알림의 종류에 따라 청각적인 수단의 사운드 볼륨, 사운드의 출력 횟수, 또는 사운드 종류를 다르게 할 수 있다. 예를 들어, 청각적인 미리 알림과 관련된 테이블로서 표 2가 메모리(430)에 저장되고, 프로세서(499)는 표 2를 참조하여 사운드의 세기, 출력 횟수, 및 종류를 조절할 수 있다.
사운드 속성 레이아웃 구성 콘텐츠의 량
세기
출력 횟수 1 2 3 2
종류 A B C D
휴대 전자 장치(400)는 상태 변환 모듈(440)을 더 포함할 수 있다. 상태 변환 모듈(440)은 롤러부를 회전시키는 모터를 포함할 수 있다. 상태 변환 모듈(440)은 프로세서(499)의 제어에 따라 롤러부를 회전시켜 전자 장치(400)의 상태를 제1상태에서 제2상태로 또는 그 반대로 변환할 수 있다. 인스트럭션들은 프로세서(499)가: 사용자 입력에 반응하여, UI 요소의 일종으로서 전자 장치(400)의 상태 변환을 위한 핸들러를 디스플레이(410)에 표시하는 동작과, 상기 핸들러에 대한 터치 입력을 디스플레이(410)로부터 수신하는 동작과, 상기 터치 입력에 기반하여 상태 변환 모듈(440)을 구동함으로써 전자 장치(400)의 상태를 제1상태에서 제2상태 또는 그 반대로 변환하는 동작과, 상태 변환 후(또는, 상태 변환을 촉발시킨 사용자 입력이 해제된 경우) 핸들러의 표시를 종료하는 동작을 수행하도록 할 수 있다.
일 실시예에 따르면, 인스트럭션들은 프로세서(499)가: 디스플레이(410)로부터 터치 입력을 수신하고, 수신된 터치 입력이 핸들러를 호출하기 위해 지정된 사용자 입력(예: long press, force touch)인 것으로 인식하고, 이러한 인식에 반응하여 핸들러를 디스플레이(410)에 표시하는 동작을 수행하도록 할 수 있다.
일 실시예에 따르면, 인스트럭션들은 프로세서(499)가: 센서 모듈(176)(예: 그립 센서) 또는 입력 모듈(150)(예: 전자 장치(400) 측면에 배치된 물리적인 버튼)로부터 수신된 데이터로부터 핸들러를 호출하는 사용자 입력을 인식하고 이러한 인식에 반응하여 핸들러를 디스플레이(410)에 표시하는 동작을 수행하도록 할 수 있다.
일 실시예에 따르면, 인스트럭션들은 프로세서(499)가: 그래픽 요소들 중에서 핸들러를 최상층으로 설정하는 동작을 수행하도록 할 수 있다. 예컨대, 실행 화면과 핸들러 간의 표시 위치가 중첩될 경우, 실행 화면 위에 핸들러가 위치할 수 있다. 실행 화면 내 UI 요소가 핸들러 밑에 위치하는 동안, UI 요소에 대한 터치 입력에 반응하지 않도록 프로세서(499)가 설정될 수 있다.
일 실시예에 따르면, 인스트럭션들은 프로세서(499)가: 핸들러 밑에 위치한 UI 요소를 사용자가 식별 가능하도록 핸들러의 투명도를 조절하는 동작을 수행하도록 할 수 있다.
프로세서(499)(예: 도 1의 프로세서(120))는, 디스플레이(410), 상태 감지 센서(420), 및 메모리(430)에 작동적으로 연결될 수 있다.
프로세서(499)는, 상태 감지 센서(420)로부터 수신된 데이터를 이용하여, 전자 장치(400)의 상태를 인식할 수 있고, 전자 장치(400)의 인식된 상태에 기반하여, 시각적 정보가 표시될 활성화 영역을 결정할 수 있다. 예를 들어, 프로세서(499)는 전자 장치(400)가 제1상태에 있는 것으로 인식된 것에 기반하여 제1표시 영역(411)을 활성화 영역으로 결정할 수 있다. 프로세서(499)는 전자 장치(400)가 제2상태에 있는 것으로 인식된 것에 기반하여 디스플레이(410)의 전체 영역(예: 제1표시 영역(411) 및 제2표시 영역(412))을 활성화 영역으로 결정할 수 있다. 프로세서(499)는, 전자 장치(400)가 제3상태에 있는 것으로 인식될 경우, 롤러부의 회전 각도에 기반하여 제2표시 영역(412)에서 노출된 부분을 결정하고, 제1표시 영역(411)과 함께 상기 노출 부분을 활성화 영역으로 결정할 수 있다.
프로세서(499)는 메모리(430)에 저장된 상기 인스트럭션들로 정의된 동작들을 수행하도록 구성될 수 있다. 프로세서(499)의 동작들은 아래에서 구체적으로 설명된다. 또한, 아래에서 프로세서(499)의 추가적인 동작들이 설명된다.
도 5a 및 5b는 배경 요소의 크기와 관련된 미리보기를 표시하는 동작을 설명하기 위한 도면이고, 도 6a 및 6b는 UI 요소의 레이아웃과 관련된 미리보기를 표시하는 동작을 설명하기 위한 도면이며, 도 7a 및 7b는 UI 요소의 구성과 관련된 미리보기를 표시하는 동작을 설명하기 위한 도면이다.
도 5a 및 5b를 참조하면, 프로세서(499)는 전자 장치(400)에 설치된 어플리케이션의 권한을 관리하기 위한 권한 매니저(permission manager)의 실행 화면을 디스플레이(410)에 표시할 수 있다. 실행 화면은 UI 요소의 일종으로서 어플리케이션 목록(510)을 포함할 수 있다. 전자 장치(400)가 제1상태에 있을 때 프로세서(499)는 어플리케이션 목록(510)을 제1배경 요소(521) 상에 표시할 수 있다. 또한, 전자 장치(400)가 제1상태에 있을 때 프로세서(499)는 제2배경 요소(522)를 나타내는 제1미리보기(531; 도 5a)를 제1배경 요소(521) 상에 표시할 수 있다. 전자 장치(400)가 제2상태에 있을 때 프로세서(499)는 제1배경 요소(521)를 나타내는 제2미리보기(532; 도 5b)를 제2배경 요소(522) 상에 표시할 수 있다. 제2배경 요소(522)는 제1배경 요소(521)와 비교하여 크기가 확장된 그래픽 요소일 수 있다. 예컨대, 전자 장치(400)의 상태가 제1상태에서 제2상태로 전환됨에 따라 활성화 영역은 제1표시 영역(541)에서 디스플레이(410)의 전체 영역(제1표시 영역(541) 및 제2표시 영역(542))으로 확장될 수 있다. 제2배경 요소(522)는 제2표시 영역(542)의 크기만큼 제1배경 요소(521)로부터 확장된 그래픽 요소일 수 있다.
도 6a 및 6b를 참조하면, 프로세서(499)는 카메라 어플리케이션의 실행 화면을 디스플레이(410)에 표시할 수 있다. 실행 화면은 카메라(예: 도 1의 카메라 모듈(180))로부터 수신된 이미지(611)와 UI 요소의 일종으로서 카메라를 제어하기 위한 메뉴(612)를 포함할 수 있다. 전자 장치(400)가 제1상태에 있을 때 프로세서(499)는 제2상태로 변경 시 실행 화면의 레이아웃이 변경됨을 나타내는 제1미리보기(621; 도 6a)를 이미지(611) 상에 표시할 수 있다. 전자 장치(400)가 제1상태에서 제2상태로 변경되면, 프로세서(499)는 실행 화면의 레이아웃을 변경할 수 있다. 예컨대, 전자 장치(400)의 상태가 제1상태에서 제2상태로 전환됨에 따라 활성화 영역은 제1표시 영역(631)에서 디스플레이(410)의 전체 영역(제1표시 영역(631) 및 제2표시 영역(632))으로 확장될 수 있다. 이러한 확장에 따라 프로세서(499)는 도 6b에 도시된 바와 같이 메뉴(612)의 표시 위치를 제1표시 영역(631)에서 제2표시 영역(632)로 변경할 수 있다. 프로세서(499)는, 제1상태로 변경 시(예: 활성화 영역이 제1표시 영역(631)로 축소될 경우), 도 6b에 도시된 바와 같이, 실행 화면의 레이아웃이 변경(예: 메뉴(612)의 표시 위치가 제1표시 영역(631)으로 이동)됨을 나타내는 제2미리보기(622)를 이미지(611) 상에 표시할 수 있다.
도 7a 및 7b를 참조하면, 프로세서(499)는 통화 어플리케이션의 실행 화면을 디스플레이(410)에 표시할 수 있다. 전자 장치(400)가 제1상태에 있을 때 프로세서(499)는 키패드(710)와 통화 버튼(720)을 포함하는 실행화면을 디스플레이(410)에 표시할 수 있다. 또한, 프로세서(499)는 제2상태로 변경 시 실행 화면의 구성이 변경(예: UI 요소가 실행 화면에 추가)됨을 나타내는 제1미리보기(731; 도 7a)를 디스플레이(410)에 표시할 수 있다. 전자 장치(400)가 제1상태에서 제2상태로 변경되면, 프로세서(499)는 디스플레이에 표시될 UI 요소의 구성을 변경하기 위한 메뉴(740; 도 7b)를 더 포함하는 실행 화면을 디스플레이(410)에 표시할 수 있다. 예컨대, 메뉴(740)는 키패드(710)와 작동적으로 연결된 제1버튼(741), 최근 통화기록과 연결된 제2버튼(742), 연락처와 연결된 제3버튼(743), 또는 전자 장치(400) 주변의 장소에 대한 통화 서비스와 연결된 제4버튼(744)을 포함할 수 있다. 예컨대, 제2버튼(742)에 터치 입력 발생 시 키패드(710) 대신에 최근 통화 기록이 표시될 수 있다. 프로세서(499)는 제1상태로 변경 시 실행 화면의 구성이 변경(예: 메뉴(740)가 실행 화면에서 생략)됨을 나타내는 제2미리보기(732; 도 7b)를 활성화 영역에 표시할 수 있다.
도 8은 어플리케이션 진입 시 미리보기를 제공하는 동작을 설명하기 위한 도면이다. 도 8을 참조하면, 프로세서(499)는 홈 어플리케이션의 실행 화면(810)을 디스플레이(410)에 표시할 수 있다. 실행 화면(810)은 어플리케이션에 각각 대응하는 아이콘을 포함할 수 있다. 프로세서(499)는, 아이콘 중에서 예컨대, 카메라 어플리케이션의 아이콘(811)에 대한 터치 입력을 디스플레이(410)로부터 수신할 수 있다. 터치 입력의 수신에 반응하여 프로세서(499)는 카메라 어플리케이션의 실행 화면(820)을 디스플레이(410)에 표시할 수 있다. 프로세서(499)는 카메라 어플리케이션이 전자 장치(400)의 상태 별로 존재하는지 여부를 카메라 어플리케이션 파일(예: manifest file)에 기반하여 판단할 수 있다. 프로세서(499)는, 실행 화면이 상태 별로 존재하는 것으로 판단된 경우, 전자 장치(400)의 현 상태(예: 제1상태)에 대응하는 실행 화면(820)과 다른 상태(예: 제2상태)에 대응하는 미리보기(821)를 디스플레이(410)에 표시할 수 있다.
도 9는 상태 변환 중에 미리보기를 제공하는 동작을 설명하기 위한 도면이다. 도 9를 참조하면, 전자 장치(400)가 제1상태일 때 프로세서(499)는 제1상태에 대응하는 제1실행 화면(910)을 디스플레이(410)에 표시할 수 있다. 전자 장치(400)가 제1상태에서 제2상태로 변해가는 동안 프로세서(499)는 제2실행 화면(930)을 나타내는 제1미리보기(920)를 디스플레이(410)에 표시할 수 있다. 전자 장치(400)의 상태가 제2상태로 변경되면 프로세서(499)는 제1미리보기(920) 없이 제2실행 화면(930)을 디스플레이(410)에 표시할 수 있다. 도시하지는 않지만, 전자 장치(400)가 제2상태에서 제1상태로 변해가는 동안 프로세서(499)는 제1실행 화면(910)을 나타내는 제2미리보기를 디스플레이(410)에 표시할 수 있다.
도 10a, 10b, 및 10c는 전자 장치(400)의 상태 변경에 따라 시각적 정보가 변경될 수 있음을 사용자에게 시각적으로 알려주는 동작을 설명하기 도면이다.
프로세서(499)는 전자 장치(400)의 현 상태(예: 제1상태)에 대응하는 시각적 정보(예: 웹 페이지)를 디스플레이(410)(예: 제1표시 영역(411))에 표시할 수 있다. 프로세서(499)는 상태 변경 시 시각적 정보 또한 변경됨을 나타내는 시각적인 효과를 디스플레이(410)에 표시할 수 있다. 예를 들어, 프로세서(499)는, 전자 장치(400)가 제1상태일 때 감춰진 제2표시 영역(412)에 인접한 제1표시 영역(411)의 가장자리 부분에 시각적인 효과(1010; 도 10a)를 표시할 수 있다. 예컨대, 시각적인 효과(1010)는, 시각적 정보의 배경 요소에 있어서, 가장자리 부분과 그 외 다른 부분 간의 속성(예: 명도, 색상, 채도)을 다르게 하는 시각적 효과를 포함할 수 있다. 예를 들어, 시각적인 효과(1010)는 더 이상 표시 영역이 변화하지 않을 때 표시되지 않을 수 있다. 예를 들어, 프로세서(499)는 화면의 크기가 최소인 상태(예: 제1상태) 및/또는 화면의 크기가 최대인 상태(예: 제2상태)에서는 시각적인 효과(1010)의 제공을 종료할 수 있다.
프로세서(499)는 전자 장치(400)의 현 상태로서 제1상태에 대응하는 시각적 정보(예: 웹 페이지)를 디스플레이(410)(예: 제1표시 영역(411))에 표시할 수 있다. 프로세서(499)는 상태 변경 시 시각적 정보 또한 변경됨을 나타내는 아이콘(1020; 도 10b)을 디스플레이(410)에 표시할 수 있다. 예컨대, 아이콘(1020)은 디스플레이(410)에 표시될 웹 페이지의 량이 표시 영역의 확장에 따라 늘어남을 형상화한 이미지일 수 있다.
프로세서(499)는 전자 장치(400)의 현 상태로서 제1상태에 대응하는 제1시각적 정보(예: 웹 페이지)를 디스플레이(410)(예: 제1표시 영역(411))에 표시할 수 있다. 프로세서(499)는 전자 장치(400)의 다른 상태(예: 제2상태)에 대응하는 제2시각적 정보의 축소판인 썸네일(1030; 도 10c)을 디스플레이(410)에 표시할 수 있다.
도 11, 도 12, 도 13, 및 도 14는 핸들러를 이용하여 전자 장치(400)의 상태를 변환하는 동작의 다양한 실시예를 설명하기 위한 도면이다.
도 11을 참조하면, 프로세서(499)는 전자 장치(400)의 상태 변환을 위한 핸들러(1110)를 디스플레이(410)에 표시할 수 있다. 예를 들어, 프로세서(499)는 디스플레이(410)가 확장되는 x축 방향과 평행하게 일직선으로 연장된 레일(1111)을 핸들러(1110)에 포함하여 잠금 화면(1130) 상에 표시할 수 있다. 프로세서(499)는 사용자 입력에 따라 레일(1111) 상에서 이동하도록 설정된 레버(1112)를 표시할 수 있다. 프로세서(499)는 전자 장치(400)의 현재 상태에 대응하는 위치에 레버(1112)를 표시할 수 있다. 프로세서(499)는 레일(1111) 상에서 레버(1112)의 움직임에 히스테리시스(hysteresis)하게 반응하여 전자 장치(400)의 상태를 제1상태에서 제2상태 또는 그 반대로 변환할 수 있다. 예를 들어, 전자 장치(400)가 제1상태일 때, 프로세서(499)는 도11(a)에 도시된 바와 같이 레일(1111)의 맨 좌측(또는, 제1위치)에 레버(1112)를 표시할 수 있다. 프로세서(499)는 레버(1112)에 대한 오른쪽으로 드래그 입력에 따라 레버(1112)를 오른쪽으로 이동(도 11(b), (c))할 수 있다. 드래그 입력에 의해 레버(1112)가, 도 11(c)에 도시된 바와 같이, 레일(1111)의 맨 우측(또는, 제2위치)에 위치할 경우, 프로세서(499)는 상태 변환 모듈(440)을 구동하여 전자 장치(400)의 상태를 제1상태에서 제2상태로 변환할 수 있다. 상태 변환 후 프로세서(499)는 핸들러(1110)의 표시를 종료할 수 있다.
프로세서(499)는, 전자 장치(400)의 상태가 제1상태에서 제2상태로 전환됨에 따라, 도 11(d)에 도시된 바와 같이 활성화 영역을 제1표시 영역(1121)에서 디스플레이(410)의 전체 영역(제1표시 영역(1121) 및 제2표시 영역(1122))으로 확장할 수 있다. 프로세서(499)는, 활성화 영역이 제2표시 영역(1122)까지 확장됨에 따라, 잠금 화면(1130)을 제2표시 영역(1122)까지 확장하여 표시할 수 있다. 잠금 화면(1130)은 앞서 설명된 바와 같이, 사용자에게 보여줄 정보의 량, 속성, 레이아웃, 또는 그 구성에 있어서, 전자 장치(400)의 상태 별로 다를 수 있다. 이에 따라, 프로세서(499)는 도시하지는 않지만 핸들러(1110)에 미리보기(예: 앞서 도 5 내지 도 10을 참조하여 설명된 형태의 미리보기)를 포함하여 디스플레이(410)에 표시할 수 있다.
도 12를 참조하면, 전자 장치(400)가 제1상태일 때, 프로세서(499)는 도 12(a)에 도시된 바와 같이 제1표시 영역(1221)에 잠금 화면(1230)을 표시하고 핸들러(1210)를 잠금 화면(1230) 상에 표시할 수 있다. 프로세서(499)는 레일(1211) 상에서 레버(1212)의 움직임에 실시간으로 반응하여 상태 변환 모듈(440)을 구동함으로써 제2표시 영역(1222)에 있어서 롤러부에 감겨진 부분을 풀어 외부로 노출시키고, 노출된 부분까지 활성화 영역을 확장할 수 있다. 예컨대, 프로세서(499)는 레버(1212)가 레일(1211)의 맨 좌측(또는, 제1위치)에서 오른쪽으로 이동함에 따라 제2표시 영역(1222)의 제1부분(1222a; 도 12(b))을 외부로 노출시키고 제1부분(1222a)까지 잠금 화면(1230)을 확장하여 표시할 수 있다. 프로세서(499)는 레버(1212)가 오른쪽으로 더 이동함에 따라 제2표시 영역(1222)의 제2부분(1222b; 도 12(c))을 외부로 노출시키고 제2부분(1222b)까지 잠금 화면(1230)을 확장하여 표시할 수 있다. 레버(1212)가 맨 우측(또는, 제2위치)까지 이동함에 따라 프로세서(499)는 제2표시 영역 전체(1222; 도 12(d))를 외부로 노출시키고 제2표시 영역(1222)의 우측 끝까지 잠금 화면(1230)을 확장하여 표시할 수 있다.
도 13을 참조하면, 프로세서(499)는 디스플레이(410)가 확장되는 -y축 방향과 평행하게 일직선으로 연장된 레일(1311)을 핸들러(1310)에 포함하여 잠금 화면(1330) 상에 표시할 수 있다. 전자 장치(400)가 제1상태일 때 프로세서(499)는 도 13(a)에 도시된 바와 같이 레일(1311)의 최상단(또는, 제1위치)에 레버(1312)를 표시할 수 있다. 프로세서(499)는 레버(1312)의 움직임에 반응하여 전자 장치(400)의 상태를 제1상태에서 제2상태 또는 그 반대로 변환할 수 있다. 예를 들어, 프로세서(499)는 레버(1312)에 대한 아래쪽으로 드래그 입력에 따라 레버(1312)를 아래쪽으로 이동할 수 있다. 드래그 입력에 의해 레버(1312)가, 도 13(b)에 도시된 바와 같이, 레일(1311)의 최하단(또는, 제2위치)에 위치할 경우, 프로세서(499)는 상태 변환 모듈(440)을 구동하여 전자 장치(400)의 상태를 제1상태에서 제2상태로 변환할 수 있다. 상태 변환 후 프로세서(499)는 핸들러(1310)의 표시를 종료할 수 있다. 프로세서(499)는, 전자 장치(400)의 상태가 제1상태에서 제2상태로 전환됨에 따라, 활성화 영역을 제1표시 영역(1321)에서 디스플레이(410)의 전체 영역(제1표시 영역(1321) 및 제2표시 영역(1322))으로 확장할 수 있다. 프로세서(499)는, 활성화 영역이 제2표시 영역(1322)까지 확장됨에 따라, 도 13(c)에 도시된 바와 같이 잠금 화면(1330)을 제2표시 영역(1322)까지 확장하여 표시할 수 있다.
도 14를 참조하면, 디스플레이(410)에 있어서 활성화 영역은 오른쪽 방향(x축 방향) 또는 왼쪽 방향(-x축 방향)으로 확장될 수 있다. 예를 들어, 디스플레이(410)는 제1표시 영역(1401), 제2표시 영역(1402), 및 제3표시 영역((1403))을 포함할 수 있다. 제2표시 영역(1402)은 제1표시 영역(1401)의 우변으로부터 연장된 부분으로서 전자 장치(400)의 내부 공간에 형성된 제1롤러부에 감기거나 제1롤러부로터 풀릴 수 있다. 제3표시 영역(1403)은 제1표시 영역(1401)의 좌변으로부터 연장된 부분으로서 전자 장치(400)의 내부 공간에 형성된 제2롤러부에 감기거나 제2롤러부로터 풀릴 수 있다. 상태 변환 모듈(440)은 프로세서(499)의 제어에 기반하여 제1롤러부를 회전함으로써 제2표시 영역(1402)을 외부로 노출시키거나 내부로 감출 수 있다. 상태 변환 모듈(440)은 프로세서(499)의 제어에 기반하여 제2롤러부를 회전함으로써 제3표시 영역(1403)을 외부로 노출시키거나 내부로 감출 수 있다.
전자 장치(400)의 상태가 제2표시 영역(1402) 및 제3표시 영역(1403)이 내부 공간에 배치된 제1상태일 때, 프로세서(499)는 도 14(a)에 도시된 바와 같이 디스플레이(410)의 확장 방향과 평행하게 일직선으로 연장된 레일(1411)와 이러한 레일(1411)의 중심에 위치하여 오른쪽 또는 왼쪽으로 이동 가능한 레버(1412)를 포함하는 핸들러(1410)를 잠금 화면(1430) 상에 표시할 수 있다.
도 14(b)에 도시된 바와 같이 레버(1412)가 왼쪽으로 이동하여 레일(1411)의 맨 좌측에 위치할 경우, 프로세서(499)는 상태 변환 모듈(440)을 구동하여 제3표시 영역(1403)을 외부로 노출시키고 도 14(c)에 도시된 바와 같이 제3표시 영역(1403)까지 잠금 화면(1430)을 확장하고 핸들러(1410)의 표시를 종료할 수 있다.
도 14(d)에 도시된 바와 같이 레버(1412)가 오른쪽으로 이동하여 레일(1411)의 맨 우측에 위치할 경우, 프로세서(499)는 상태 변환 모듈(440)을 구동하여 제2표시 영역(1402)을 외부로 노출시키고 도 14(e)에 도시된 바와 같이 제2표시 영역(1402)까지 잠금 화면(1430)을 확장하고 핸들러(1410)의 표시를 종료할 수 있다.
도 15, 도 16, 도 17, 및 도 18은 핸들러를 디스플레이로 호출하는 동작의 다양한 실시예를 설명하기 위한 도면이다.
도 15를 참조하면, 프로세서(499)는 디스플레이(410)로부터 터치 입력을 수신하고, 수신된 터치 입력이 핸들러를 디스플레이(410)로 불러오도록 지정된 사용자 입력인 것으로 인식하고, 이러한 인식에 따라 핸들러를 디스플레이(410)에 표시할 수 있다. 예를 들어, 프로세서(499)는 도 15(a)에 도시된 바와 같이 홈 화면(1510)이 표시되고 있는 디스플레이(410)로부터 롱 프레스(long press)나 포스 터치(force touch)를 나타내는 사용자 입력을 수신할 수 있다.
프로세서(499)는 디스플레이(410)로부터, 위치와 상관없이, 롱 프레스나 포스 터치를 나타내는 사용자 입력이 수신된 것에 반응하여 핸들러(1520)를 홈 화면(1510) 상에 표시하되, 도 15(b)에 도시된 바와 같이 롱 프레스나 포스 터치가 발생된 곳에 레버(1521)가 위치하도록 할 수 있다. 핸들러(1520)가 사용자 입력에 의해 호출될 경우 프로세서(499)는 전자 장치(400)의 현재 상태에 대응하는 레일 위치에 레버(1521)를 표시할 수 있다. 예를 들어, 전자 장치(400)가 제1상태일 때, 프로세서(499)는 도15(b)에 도시된 바와 같이 레일(1522)의 맨 좌측에 레버(1521)를 표시할 수 있다. 전자 장치(400)가 제2상태일 때, 프로세서(499)는 레일(1522)의 맨 우측에 레버(1521)를 표시할 수 있다.
프로세서(499)는 레버(1521)에 대한 오른쪽으로 드래그 입력에 따라 도 15(c)에 도시된 바와 같이 레버(1521)를 오른쪽으로 이동할 수 있다. 프로세서(499)는 레버(1521)에 대한 왼쪽으로 드래그 입력에 따라 도 15(d)에 도시된 바와 같이 레버(1521)를 레일(1522)의 맨 좌측으로 이동할 수 있다. 프로세서(499)는 이와 같이 레버(1521)가 반대편 끝까지 가지 않고 호출 당시 위치로 복귀하는 것을 확장(또는, 축소) 취소로 인식할 수 있다. 이러한 확장 취소에 따라 프로세서(499)는 도 15(e)에 도시된 바와 같이 핸들러(1520)의 표시를 종료할 수 있다. 프로세서(499)는, 확장 취소에 따른 추가적인 반응으로서, 핸들러(1520)의 표시 종료 외 또 다른 동작을 수행할 수 있다. 예를 들어, 핸들러(1520) 호출 전, 롱 프레스나 포스 터치가 발생된 곳에 UI 요소로서 예컨대, 어플리케이션 아이콘(1530)이 위치할 수 있다. 프로세서(499)는, 확장 취소에 따른 추가적인 반응으로서, 아이콘(1530)에 연결된 기능(예: 해당 어플리케이션의 설치를 삭제, 홈 화면(1510)에서 아이콘(1530)을 제거)을 수행하기 위한 팝업 창을 표시할 수 있다.
도 16을 참조하면, 프로세서(499)는 통화 어플리케이션의 실행 화면(1610)을 디스플레이(410)에 표시할 수 있다. 프로세서(499)는 핸들러 호출을 위한 버튼(1620; 도 16(a))을 실행 화면(1610) 가장자리에 표시할 수 있다. 프로세서(499)는 버튼(1620)에 대한 터치 입력에 반응하여 버튼(1620) 대신 핸들러(1630; 도 16(b))를 표시할 수 있다. 예컨대, 프로세서(499)는 디스플레이(410)가 확장 가능함을 나타내는 텍스트(예: slide to open)와 그 확장 방향을 나타내는 방향 지시자(1631)를 포함하는 핸들러(1630)를 실행 화면(1610) 상에 표시할 수 있다.
도 17을 참조하면, 프로세서(499)는 센서(예: 그립 센서)로부터 수신된 데이터(예: 정전용량의 변화량을 나타내는 데이터)에 기반하여, 사용자가 휴대 전자 장치(1700)를 한손으로 움켜쥐는 한 손 파지 제스처를 인식하고 이에 따라 핸들러(1710)를 디스플레이(410)에 표시할 수 있다. 프로세서(499)는 휴대 전자 장치(1700)를 움켜쥔 손에 따라 핸들러(1710)가 표시될 위치를 결정할 수 있다. 예를 들어, 프로세서(499)는 휴대 전자 장치(1700)의 오른쪽 측면(1701)에서의 정전용량의 변화량과 왼쪽 측면(1702)에서의 정전용량의 변화량을 나타내는 데이터를 센서로부터 수신할 수 있고, 수신된 데이터에 기반하여, 휴대 전자 장치(1700)를 잡은 손을 오른손 또는 왼손으로 결정할 수 있다. 도 17(a)와 같이 오른손 파지 제스처인 경우, 프로세서(499)는 핸들러(1710)를 휴대 전자 장치(1700)의 우측에 인접하게 표시할 수 있다. 도 17(b)와 같이 왼손 파지 제스처인 경우, 프로세서(499)는 핸들러(1710)를 휴대 전자 장치(1700)의 좌측에 인접하게 표시할 수 있다.
프로세서(499)는 도 18(a)에 도시된 바와 같이 이미지(1810)가 표시된 디스플레이(410)로부터 터치 입력을 수신할 수 있다. 프로세서(499)는 수신된 터치 입력이 핸들러를 호출하기 위해 지정된 롱 프레스 또는 포스 터치를 나타내는 사용자 입력인 것으로 인식할 수 있다. 프로세서(499)는 롱 프레스 또는 포스 터치가 발생된 곳에 UI 요소가 존재하는지 여부를 확인할 수 있다. 프로세서(499)는, 롱 프레스 또는 포스 터치가 발생된 곳에, 이와 작동적으로 연결된 UI 요소(예: 아이콘, 메뉴)가 존재하지 않은 것으로 확인된 경우, 도 18(b)에 도시된 바와 같이 핸들러(1820)를 이미지(1810) 상에 표시할 수 있다.
도 19 및 도 20은 핸들러의 표시를 종료하는 동작의 다양한 실시예에 설명하기 위한 도면이다.
도 19를 참조하면, 프로세서(499)는, 핸들러가 디스플레이(410)로 호출된 시점으로부터 지정된 시간이 경과되면, 핸들러의 표시를 종료할 수 있다. 예를 들어, 프로세서(499)는 도 19(a)에 도시된 바와 같이 통화 어플리케이션의 실행 화면(1910) 상에 핸들러(1920)를 표시할 수 있다. 핸들러(1920)의 표시가 시작된 시점부터 지정된 시간이 경과되면 프로세서(499)는 도 19(b)에 도시된 바와 같이 핸들러(1920)의 표시를 종료하고 핸들러 호출을 위한 버튼(1930)을 실행 화면(1910) 가장자리에 표시할 수 있다.
도 20을 참조하면, 프로세서(499)는, 핸들러에 대한 사용자의 터치 입력에 기반하여, 핸들러의 표시를 종료할 수 있다. 예를 들어, 프로세서(499)는 도20(a)에 도시된 바와 같이 통화 어플리케이션의 실행 화면(2010) 상에 핸들러(2020)를 표시하되, 핸들러(2020)를 디스플레이(410)에 표시된 화면 상에서 이동하기 위한 바(2021)를 핸들러(2020)에 포함하여 디스플레이(410)에 표시할 수 있다. 프로세서(499)는 바(2021)에 대한 사용자의 드래그 입력에 따라 핸들러(2020)를 실행 화면(2010) 상에서 이동할 수 있다. 프로세서(499)는, 핸들러(2020)가 실행 화면(2010)의 가장자리까지 이동하게 되면, 핸들러(2020)의 표시를 종료하고 핸들러(2020)가 도달한 가장자리 부근에 도 20(b)에 도시된 바와 같은 핸들러 호출을 위한 버튼(2030)을 표시할 수 있다.
도 21은 핸들러 호출을 위한 버튼을 화면 상에서 이동하는 동작을 설명하기 위한 도면이다. 도 21(a)을 참조하면, 프로세서(499)는 버튼(2110)을 통화 어플리케이션의 실행 화면(2100) 좌측 하단에 표시할 수 있다. 도 21(a)-(b)를 참조하면, 프로세서(499)는, 좌측 가장자리를 따라 움직이는 사용자의 드래그 제스처에 따라, 버튼(2110)을 좌측 하단에서 좌측 상단으로 이동할 수 있다. 도 21(b)-(c)를 참조하면, 프로세서(499)는, 좌측 가장자리에서 화면 중앙을 가로질러 우측 가장자리로 움직이는 사용자의 드래그 제스처에 따라, 버튼(2110)을 좌측에서 우측으로 이동하여 표시할 수 있다.
도 22는 핸들러를 화면 상에서 이동하는 동작을 설명하기 위한 도면이다. 도 22(a)를 참조하면, 프로세서(499)는 바(2221)를 포함하는 핸들러(2220)를 통화 어플리케이션의 실행 화면(2210) 상에 표시할 수 있다. 프로세서(499)는 여러 계층들 중에서 핸들러(2220)를 최상층에 표시되도록 설정할 수 있다. 이에 따라, 실행 화면(2210)의 UI 요소 예컨대, 통화 버튼이 핸들러(2220)와 중첩될 경우, 통화 버튼이 시각적으로 노출되지 않을 수 있다. 실행 화면(2210)의 UI 요소와 핸들러(2220)가 중첩될 경우 프로세서(499)는 터치 입력에 반응하는 요소를 핸들러(2220)로 설정할 수 있다. 도 22(b)를 참조하면, 프로세서(499)는 바(2221)에 대한 사용자의 드래그 입력에 따라 핸들러(2220)를 실행 화면(2210) 상에서 이동시킴으로써 통화 버튼(2230)을 시각적으로 노출시킬 수 있다. 도 22(c)를 참조하면, 프로세서(499)는 통화 버튼(2230)에 대한 사용자의 터치 입력을 수신할 수 있다. 프로세서(499)는 통화 버튼(2230)에 대한 터치 입력에 반응하여 통화 버튼(2230)에 연결된 기능을 수행할 수 있다. 예컨대, 프로세서(499)는 통화 목록에서 가장 최근에 통화한 연락처의 전화 번호(2240)를 실행 화면(2210) 상에 표시할 수 있다.
도 23는 핸들러의 속성을 설정하는 동작을 설명하기 위한 도면이다. 프로세서(499)는 도 23(a)에 도시된 바와 같이 핸들러를 나타내는 제1이미지(2310), 크기 조절 바(2320), 및 투명도 조절 바(2330)를 포함하는 핸들러 설정을 위한 실행 화면(2300)을 디스플레이(410)에 표시할 수 있다. 프로세서(499)는 투명도 조절 바(2330)에 대한 사용자의 터치 입력에 반응하여 핸들러 배경의 투명도를 조절할 수 있다. 예컨대, 프로세서(499)는 투명도 조절 바(2330)에 대한 터치 입력에 따라 핸들러 배경의 투명도를 도 23(b)에 도시된 바와 같이 0%로 설정하고, 투명도 0%로 설정된 핸들러를 나타내는 제2이미지(2340)를 표시할 수 있다. 프로세서(499)는 크기 조절 바(2320)에 대한 사용자의 드래그 입력에 반응하여 핸들러의 크기를 단계적으로 조절할 수 있다. 예컨대, 프로세서(499)는 최소 크기(1단계)부터 최대 크기(5단계)까지 다섯 단계 중 하나의 단계로 핸들러의 크기가 설정 가능함을 나타내는 크기 조절 바(2320)를 표시할 수 있다. 프로세서(499)는 크기 조절 바(2320)에 대한 터치 입력에 따라 핸들러의 크기를 도 23(c)에 도시된 바와 같이 2단계로 설정하고, 설정된 크기를 갖는 핸들러를 나타내는 제3이미지(2350)를 표시할 수 있다.
다양한 실시예에서 휴대 전자 장치(예: 도 4의 전자 장치(400))는, 제1하우징, 및 상기 제1하우징에 대해 슬라이딩 가능하도록 상기 제1하우징에 결합된 제2하우징을 포함하는 슬라이더블 하우징; 롤러부; 상기 제1 하우징과 인접하게 배치되는 제1 표시 영역 및 상기 롤러부를 감싸면서 상기 휴대 전자 장치의 내부 공간에 배치되는 제2 표시 영역을 포함하는 플렉서블 디스플레이; 상기 디스플레이에 연결된 프로세서; 및 상기 프로세서에 연결된 메모리를 포함하고, 상기 메모리는, 실행될 때, 상기 프로세서가: 상기 휴대 전자 장치의 상태가 상기 제2표시 영역이 상기 내부 공간에 배치된 제1상태일 때, 상기 제1표시 영역을 시각적 정보가 표시될 활성화 영역으로 결정하고, 상기 휴대 전자 장치의 상태가 상기 제2표시 영역이 외부로 노출된 제2상태일 때, 상기 제1표시 영역 및 상기 제2표시 영역을 포함하는 상기 디스플레이의 전체 영역을 상기 활성화 영역으로 결정하고, 상기 제1상태일 때 제1시각적 정보와 제1미리보기를 상기 활성화 영역에 표시하고, 상기 제2상태일 때 제2시각적 정보를 상기 활성화 영역에 표시하도록 하는 인스트럭션들을 저장할 수 있다. 상기 제1미리보기는 상기 제2시각적 정보를 식별하기 위한 그래픽 요소일 수 있다.
상기 인스트럭션들은 상기 프로세서가: 상기 제1시각적 정보와 상기 제2시각적 정보 간의 차이가 무엇인지를 나타내는 아이콘을 상기 제1미리보기로서 표시하도록 할 수 있다.
상기 제1시각적 정보와 상기 제2시각적 정보는 배경 요소와 특정 기능에 작동적으로 연결되어 있는 UI(user interface) 요소를 포함하되, 상기 인스트럭션들은 상기 프로세서가: 상기 제1시각적 정보와 상기 제2시각적 정보 간에 상기 UI(user interface) 요소의 레이아웃이 다름을 상기 아이콘으로 나타내도록 할 수 있다.
상기 인스트럭션들은 상기 프로세서가: 상기 제1시각적 정보와 상기 제2시각적 정보 간에 콘텐츠의 량이 다름을 상기 아이콘으로 나타내도록 할 수 있다.
상기 제1시각적 정보와 상기 제2시각적 정보는 배경 요소와 특정 기능에 작동적으로 연결되어 있는 UI(user interface) 요소를 포함하되, 상기 인스트럭션들은 상기 프로세서가: 상기 제1시각적 정보와 상기 제2시각적 정보 간에 상기 배경 요소 및 상기 UI 요소 중 적어도 하나의 속성이 다름을 상기 아이콘으로 나타내도록 할 수 있다. 상기 속성은 크기, 색상, 또는 명도를 포함할 수 있다.
상기 인스트럭션들은 상기 프로세서가: 상기 제1시각적 정보와 상기 제2시각적 정보 간에 특정 기능에 작동적으로 연결되어 있는 UI(user interface) 요소의 구성이 다름을 상기 아이콘으로 나타내도록 할 수 있다.
상기 인스트럭션들은 상기 프로세서가: 상기 제2상태일 때 상기 제2시각적 정보와 함께, 상기 제1시각적 정보를 식별하기 위한 제2미리보기를 상기 활성화 영역에 표시하도록 할 수 있다.
상기 인스트럭션들은 상기 프로세서가: 촉각적인 수단 및/또는 청각적인 수단을 이용하여, 상기 휴대 전자 장치의 상태 변경에 따라 시각적 정보가 변경됨을 사용자에게 알리도록 할 수 있다.
상기 인스트럭션들은 상기 프로세서가: 어플리케이션을 실행하기 위해 이용되는 파일에 기반하여 상기 어플리케이션의 실행화면이 상기 제1시각적 정보로서 제1실행화면과 상기 제2시각적 정보로서 제2실행화면으로 구분되는 것으로 인식하고, 상기 어플리케이션을 실행하기 위한 사용자 입력에 반응하여, 상기 제1상태일 때, 상기 제2실행화면을 나타내는 미리보기를 상기 제1실행화면과 함께 상기 활성화 영역에 표시하도록 할 수 있다.
상기 인스트럭션들은 상기 프로세서가: 어플리케이션을 실행하기 위해 이용되는 파일에 기반하여 상기 어플리케이션의 실행화면이 상기 제1시각적 정보로서 제1실행화면과 상기 제2시각적 정보로서 제2실행화면으로 구분되는 것으로 인식하고, 상기 휴대 전자 장치의 상태가 도 9와 같이 상기 제1상태에서 상기 제2상태로 변환하는 동안, 상기 제2실행화면을 나타내는 미리보기를 상기 활성화 영역에 표시하도록 할 수 있다.
다양한 실시예에서 휴대 전자 장치(예: 도 4의 전자 장치(400))는, 제1하우징, 및 상기 제1하우징에 대해 슬라이딩 가능하도록 상기 제1하우징에 결합된 제2하우징을 포함하는 슬라이더블 하우징; 롤러부; 상기 제1 하우징과 인접하게 배치되는 제1 표시 영역 및 상기 롤러부를 감싸면서 상기 휴대 전자 장치의 내부 공간에 배치되는 제2 표시 영역을 포함하고, 사용자 입력에 반응하는 플렉서블 디스플레이; 상기 휴대 전자 장치의 상태를 상기 제2표시 영역이 상기 내부 공간에 배치된 제1상태에서 상기 제2표시 영역이 외부로 노출된 제2상태로 변환하거나 상기 제2상태에서 상기 제1상태로 변환하도록 구성된 상태 변환 모듈; 상기 디스플레이 및 상기 상태 변환 모듈에 연결된 프로세서; 및 상기 프로세서에 연결된 메모리를 포함하고, 상기 메모리는, 실행될 때, 상기 프로세서가: 상기 제1상태일 때, 상기 제1표시 영역을 시각적 정보가 표시될 활성화 영역으로 결정하고, 상기 제2상태일 때, 상기 제1표시 영역 및 상기 제2표시 영역을 포함하는 상기 디스플레이의 전체 영역을 상기 활성화 영역으로 결정하고, 상기 활성화 영역에 핸들러를 표시하고, 상기 핸들러 상에서 사용자 입력을 상기 디스플레이로부터 수신하고, 상기 사용자 입력에 따라 상기 상태 변환 모듈을 구동하여 상기 휴대 전자 장치의 상태를 상기 제1상태에서 상기 제2상태로 또는 그 반대로 변경하도록 하는 인스트럭션들을 저장할 수 있다.
상기 인스트럭션들은 상기 프로세서가: 상기 사용자 입력에 따라, 상기 활성화 영역이 상기 제1표시 영역에서 상기 디스플레이의 전체 영역으로 확장되는 방향과 평행하게, 이동하도록 설정된 레버를 상기 핸들러에 포함하여 표시하고, 상기 레버의 움직임에 반응하여 상기 휴대 전자 장치의 상태를 변환하도록 할 수 있다.
상기 인스트럭션들은 상기 프로세서가: 상기 핸들러 상에서 제1위치에서 제2위치로 상기 레버가 이동한 것에 반응하여, 상기 휴대 전자 장치의 상태를 상기 제1상태에서 상기 제2상태로 또는 그 반대로 변경하도록 할 수 있다.
상기 인스트럭션들은 상기 프로세서가: 상기 레버가 상기 제1위치에서 상기 제2위치까지 가지 않고 상기 제1위치로 복구한 것에 반응하여, 상기 핸들러의 표시를 종료하도록 할 수 있다.
상기 인스트럭션들은 상기 프로세서가: 상기 핸들러 상에서 상기 레버의 움직임에 실시간으로 반응하여 상기 상태 변환 모듈을 구동함으로써 상기 제2표시 영역에 있어서 상기 롤러부에 감겨진 부분을 풀어 외부로 노출시키고, 상기 노출된 부분까지 활성화 영역을 확장하도록 할 수 있다.
상기 인스트럭션들은 상기 프로세서가: 상기 디스플레이로부터 수신된 사용자 입력이 상기 핸들러를 상기 디스플레이로 불러오도록 지정된 사용자 입력인 것에 기반하여, 상기 핸들러를 상기 디스플레이에 표시하도록 할 수 있다.
상기 인스트럭션들은 상기 프로세서가: 상기 핸들러를 상기 디스플레이로 불러오도록 하기 위한 버튼을 어플리케이션의 실행 화면 가장자리에 표시하고, 상기 버튼에 대한 사용자 입력에 반응하여, 상기 핸들러를 상기 실행 화면 상에 표시하도록 할 수 있다.
상기 인스트럭션들은 상기 프로세서가: 상기 휴대 전자 장치의 센서로부터 수신된 데이터에 기반하여, 사용자가 휴대 전자 장치를 한손으로 움켜쥐는 한 손 파지 제스처를 인식하고, 상기 한 손 파지 제스처에 반응하여, 상기 핸들러를 표시하도록 할 수 있다.
상기 인스트럭션들은 상기 프로세서가: 상기 핸들러가 상기 디스플레이로 호출된 시점으로부터 지정된 시간이 경과된 경우, 또는 기 핸들러가 어플리케이션 실행 화면의 가장자리까지 이동한 경우, 상기 핸들러의 표시를 종료하도록 할 수 있다.
상기 인스트럭션들은 상기 프로세서가: 상기 제1상태에서 상기 제2상태로 또는 그 반대로 변경될 때 상기 활성화 영역에 표시될 시각적 정보가 변경되는 것을 나타내는 미리보기를 상기 핸들러에 포함하여 표시하도록 할 수 있다.
본 명세서와 도면에 개시된 본 발명의 실시예들은 본 발명의 실시예에 따른 기술 내용을 쉽게 설명하고 본 발명의 실시예의 이해를 돕기 위해 특정 예를 제시한 것일 뿐이며, 본 발명의 실시예의 범위를 한정하고자 하는 것은 아니다. 따라서 본 발명의 다양한 실시예의 범위는 여기에 개시된 실시예들 이외에도 본 발명의 다양한 실시예의 기술적 사상을 바탕으로 도출되는 모든 변경 또는 변형된 형태가 본 발명의 다양한 실시예의 범위에 포함되는 것으로 해석되어야 한다.

Claims (15)

  1. 휴대 전자 장치에 있어서,
    제1하우징, 및 상기 제1하우징에 대해 슬라이딩 가능하도록 상기 제1하우징에 결합된 제2하우징을 포함하는 슬라이더블 하우징;
    상기 제1 하우징과 인접하게 배치되는 제1 표시 영역 및 상기 휴대 전자 장치의 내부 공간에 배치되는 제2 표시 영역을 포함하는 플렉서블 디스플레이;
    상기 디스플레이에 연결된 프로세서; 및
    상기 프로세서에 연결된 메모리를 포함하고, 상기 메모리는, 실행될 때, 상기 프로세서가:
    상기 휴대 전자 장치의 상태가 상기 제2표시 영역이 상기 내부 공간에 배치된 제1상태일 때, 상기 제1표시 영역을 시각적 정보가 표시될 활성화 영역으로 결정하고,
    상기 휴대 전자 장치의 상태가 상기 제2 하우징의 슬라이딩에 따라 상기 제2표시 영역이 외부로 노출된 제2상태일 때, 상기 제1표시 영역 및 상기 제2표시 영역을 포함하는 상기 디스플레이의 전체 영역을 상기 활성화 영역으로 결정하고,
    상기 제1상태일 때 제1시각적 정보와 제1미리보기를 상기 활성화 영역에 표시하고,
    상기 제2상태일 때 제2시각적 정보를 상기 활성화 영역에 표시하도록 하는 인스트럭션들을 저장하고,
    상기 제1미리보기는 상기 제2시각적 정보를 식별하기 위한 그래픽 요소인,
    휴대 전자 장치.
  2. 제1항에 있어서, 상기 인스트럭션들은 상기 프로세서가:
    상기 제1시각적 정보와 상기 제2시각적 정보 간의 차이가 무엇인지를 나타내는 아이콘을 상기 제1미리보기로서 표시하도록 하는 휴대 전자 장치.
  3. 제2항에 있어서, 상기 제1시각적 정보와 상기 제2시각적 정보는 배경 요소와 특정 기능에 작동적으로 연결되어 있는 UI(user interface) 요소를 포함하되,
    상기 인스트럭션들은 상기 프로세서가:
    상기 제1시각적 정보와 상기 제2시각적 정보 간에 상기 UI(user interface) 요소의 레이아웃이 다름을 상기 아이콘으로 나타내도록 하는 휴대 전자 장치.
  4. 제2항에 있어서, 상기 인스트럭션들은 상기 프로세서가:
    상기 제1시각적 정보와 상기 제2시각적 정보 간에 콘텐츠의 량이 다름을 상기 아이콘으로 나타내도록 하는 휴대 전자 장치.
  5. 제2항에 있어서, 상기 제1시각적 정보와 상기 제2시각적 정보는 배경 요소와 특정 기능에 작동적으로 연결되어 있는 UI(user interface) 요소를 포함하되,
    상기 인스트럭션들은 상기 프로세서가:
    상기 제1시각적 정보와 상기 제2시각적 정보 간에 상기 배경 요소 및 상기 UI 요소 중 적어도 하나의 속성이 다름을 상기 아이콘으로 나타내도록 하고,
    상기 속성은 크기, 색상, 또는 명도를 포함하는 휴대 전자 장치.
  6. 제2항에 있어서, 상기 인스트럭션들은 상기 프로세서가:
    상기 제1시각적 정보와 상기 제2시각적 정보 간에 특정 기능에 작동적으로 연결되어 있는 UI(user interface) 요소의 구성이 다름을 상기 아이콘으로 나타내도록 하는 휴대 전자 장치.
  7. 제1항에 있어서, 상기 인스트럭션들은 상기 프로세서가:
    상기 제2상태일 때 상기 제2시각적 정보와 함께, 상기 제1시각적 정보를 식별하기 위한 제2미리보기를 상기 활성화 영역에 표시하도록 하는 휴대 전자 장치.
  8. 제1항에 있어서, 상기 인스트럭션들은 상기 프로세서가:
    촉각적인 수단 및/또는 청각적인 수단을 이용하여, 상기 휴대 전자 장치의 상태 변경에 따라 시각적 정보가 변경됨을 사용자에게 알리도록 하는 휴대 전자 장치.
  9. 제1항에 있어서, 상기 인스트럭션들은 상기 프로세서가:
    어플리케이션을 실행하기 위해 이용되는 파일에 기반하여 상기 어플리케이션의 실행화면이 상기 제1시각적 정보로서 제1실행화면과 상기 제2시각적 정보로서 제2실행화면으로 구분되는 것으로 인식하고,
    상기 어플리케이션을 실행하기 위한 사용자 입력에 반응하여, 상기 제1상태일 때, 상기 제2실행화면을 나타내는 미리보기를 상기 제1실행화면과 함께 상기 활성화 영역에 표시하도록 하는 휴대 전자 장치.
  10. 제1항에 있어서, 상기 인스트럭션들은 상기 프로세서가:
    어플리케이션을 실행하기 위해 이용되는 파일에 기반하여 상기 어플리케이션의 실행화면이 상기 제1시각적 정보로서 제1실행화면과 상기 제2시각적 정보로서 제2실행화면으로 구분되는 것으로 인식하고,
    상기 휴대 전자 장치의 상태가 상기 제1상태에서 상기 제2상태로 변환하는 동안, 상기 제2실행화면을 나타내는 미리보기를 상기 활성화 영역에 표시하도록 하는 휴대 전자 장치.
  11. 휴대 전자 장치에 있어서,
    제1하우징, 및 상기 제1하우징에 대해 슬라이딩 가능하도록 상기 제1하우징에 결합된 제2하우징을 포함하는 슬라이더블 하우징;
    상기 제1 하우징과 인접하게 배치되는 제1 표시 영역 및 상기 휴대 전자 장치의 내부 공간에 배치되는 제2 표시 영역을 포함하고, 사용자 입력에 반응하는 플렉서블 디스플레이;
    상기 휴대 전자 장치의 상태를 상기 제2표시 영역이 상기 내부 공간에 배치된 제1상태에서 상기 제2 하우징의 슬라이딩에 따라 상기 제2표시 영역이 외부로 노출된 제2상태로 변환하거나 상기 제2상태에서 상기 제1상태로 변환하도록 구성된 상태 변환 모듈;
    상기 디스플레이 및 상기 상태 변환 모듈에 연결된 프로세서; 및
    상기 프로세서에 연결된 메모리를 포함하고, 상기 메모리는, 실행될 때, 상기 프로세서가:
    상기 제1상태일 때, 상기 제1표시 영역을 시각적 정보가 표시될 활성화 영역으로 결정하고,
    상기 제2상태일 때, 상기 제1표시 영역 및 상기 제2표시 영역을 포함하는 상기 디스플레이의 전체 영역을 상기 활성화 영역으로 결정하고,
    상기 활성화 영역에 핸들러를 표시하고,
    상기 핸들러 상에서 사용자 입력을 상기 디스플레이로부터 수신하고,
    상기 사용자 입력에 따라 상기 상태 변환 모듈을 구동하여 상기 휴대 전자 장치의 상태를 상기 제1상태에서 상기 제2상태로 또는 그 반대로 변경하도록 하는 인스트럭션들을 저장하는 휴대 전자 장치.
  12. 제11항에 있어서, 상기 인스트럭션들은 상기 프로세서가:
    상기 사용자 입력에 따라, 상기 활성화 영역이 상기 제1표시 영역에서 상기 디스플레이의 전체 영역으로 확장되는 방향과 평행하게, 이동하도록 설정된 레버를 상기 핸들러에 포함하여 표시하고,
    상기 레버의 움직임에 반응하여 상기 휴대 전자 장치의 상태를 변환하도록 하는 휴대 전자 장치.
  13. 제11항에 있어서, 상기 인스트럭션들은 상기 프로세서가:
    상기 디스플레이로부터 수신된 사용자 입력이 상기 핸들러를 상기 디스플레이로 불러오도록 지정된 사용자 입력인 것에 기반하여, 상기 핸들러를 상기 디스플레이에 표시하도록 하는 휴대 전자 장치.
  14. 제11항에 있어서, 상기 인스트럭션들은 상기 프로세서가:
    상기 핸들러를 상기 디스플레이로 불러오도록 하기 위한 버튼을 어플리케이션의 실행 화면 가장자리에 표시하고,
    상기 버튼에 대한 사용자 입력에 반응하여, 상기 핸들러를 상기 실행 화면 상에 표시하도록 하는 휴대 전자 장치.
  15. 제11항에 있어서, 상기 인스트럭션들은 상기 프로세서가:
    상기 핸들러가 상기 디스플레이로 호출된 시점으로부터 지정된 시간이 경과된 경우, 또는 기 핸들러가 어플리케이션 실행 화면의 가장자리까지 이동한 경우, 상기 핸들러의 표시를 종료하도록 하는 휴대 전자 장치.
PCT/KR2021/015649 2020-11-06 2021-11-02 확장이 가능한 디스플레이를 갖는 전자 장치 WO2022098038A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US17/550,017 US20220164093A1 (en) 2020-11-06 2021-12-14 Electronic device with expandable display

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR20200148105 2020-11-06
KR10-2020-0148105 2020-11-06
KR1020200167860A KR20220061785A (ko) 2020-11-06 2020-12-03 확장이 가능한 디스플레이를 갖는 전자 장치
KR10-2020-0167860 2020-12-03

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/550,017 Continuation US20220164093A1 (en) 2020-11-06 2021-12-14 Electronic device with expandable display

Publications (1)

Publication Number Publication Date
WO2022098038A1 true WO2022098038A1 (ko) 2022-05-12

Family

ID=81458039

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2021/015649 WO2022098038A1 (ko) 2020-11-06 2021-11-02 확장이 가능한 디스플레이를 갖는 전자 장치

Country Status (2)

Country Link
US (1) US20220164093A1 (ko)
WO (1) WO2022098038A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160139320A (ko) * 2015-05-27 2016-12-07 엘지전자 주식회사 변형 가능한 디스플레이 장치 및 그의 동작 방법
KR20170000553A (ko) * 2015-06-24 2017-01-03 삼성전자주식회사 디스플레이의 확장 영역에 대한 사용 알림 제공 방법 및 이를 지원하는 전자 장치
KR20170038308A (ko) * 2015-09-30 2017-04-07 엘지전자 주식회사 이동 단말기 및 그 제어 방법
KR20170089661A (ko) * 2016-01-27 2017-08-04 엘지전자 주식회사 알림 및 어플리케이션의 제어에 관한 원버튼을 적용한 이동 통신 단말기
KR20190101184A (ko) * 2018-02-22 2019-08-30 삼성전자주식회사 디스플레이 영역의 크기 변경이 가능한 플렉시블 디스플레이를 포함하는 전자 장치 및 그 제어 방법

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9971473B2 (en) * 2013-10-04 2018-05-15 Panasonic Intellectual Property Corporation Of America Electronic device
US11429151B2 (en) * 2014-02-25 2022-08-30 Medibotics Llc Wearable devices for the wrist and/or arm with multiple and multi-configuration displays
US20150242083A1 (en) * 2014-02-27 2015-08-27 Nokia Corporation Circumferential span region of a virtual screen
WO2021100932A1 (ko) * 2019-11-22 2021-05-27 엘지전자 주식회사 디스플레이의 크기를 제어하는 전자 장치 및 그 제어 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160139320A (ko) * 2015-05-27 2016-12-07 엘지전자 주식회사 변형 가능한 디스플레이 장치 및 그의 동작 방법
KR20170000553A (ko) * 2015-06-24 2017-01-03 삼성전자주식회사 디스플레이의 확장 영역에 대한 사용 알림 제공 방법 및 이를 지원하는 전자 장치
KR20170038308A (ko) * 2015-09-30 2017-04-07 엘지전자 주식회사 이동 단말기 및 그 제어 방법
KR20170089661A (ko) * 2016-01-27 2017-08-04 엘지전자 주식회사 알림 및 어플리케이션의 제어에 관한 원버튼을 적용한 이동 통신 단말기
KR20190101184A (ko) * 2018-02-22 2019-08-30 삼성전자주식회사 디스플레이 영역의 크기 변경이 가능한 플렉시블 디스플레이를 포함하는 전자 장치 및 그 제어 방법

Also Published As

Publication number Publication date
US20220164093A1 (en) 2022-05-26

Similar Documents

Publication Publication Date Title
WO2021075786A1 (en) Electronic device and method of processing pop-up window using multi-window thereof
WO2022085885A1 (en) Method for controlling window and electronic device therefor
WO2022080616A1 (en) An electronic device and method for inducing input
WO2022114416A1 (ko) 확장이 가능한 디스플레이를 이용하여 멀티 윈도우를 제공하는 전자 장치
WO2022019635A1 (ko) 공유 화면과 비공유 화면을 함께 제공하는 전자 장치 및 그 제어 방법
WO2022060041A1 (ko) 콘텐트를 생성하기 위한 폴더블 전자 장치 및 그의 동작 방법
WO2022119276A1 (ko) 플렉서블 디스플레이 전자 장치 및 그 동작 방법
WO2022086272A1 (ko) 사용자 인터페이스를 제공하는 전자 장치 및 그 방법
WO2022030890A1 (ko) 다중 윈도우 이미지 캡쳐 방법 및 이를 위한 전자 장치
WO2022108192A1 (ko) 전자 장치 및 전자 장치의 멀티윈도우 제어방법
WO2022119319A1 (ko) 플렉서블 디스플레이의 확장에 따라 적어도 하나의 객체를 이동하여 디스플레이 하는 전자 장치 및 그 제어 방법
WO2022108125A1 (ko) 배터리를 포함하는 전자 장치 및 그 방법
WO2022030921A1 (ko) 전자 장치 및 그의 화면을 제어하는 방법
WO2022098038A1 (ko) 확장이 가능한 디스플레이를 갖는 전자 장치
WO2023191305A1 (ko) 플렉서블 디스플레이를 갖는 전자 장치
WO2023063720A1 (ko) 전자 장치의 디스플레이를 확장하는 방법 및 이를 지원하는 전자 장치
WO2024063342A1 (ko) 잠금 화면을 표시하는 전자 장치 및 그 동작 방법
WO2022080883A1 (ko) 전자 장치 및 전자 장치의 동작 방법
WO2024019311A1 (ko) 디스플레이 패널 상의 외부 객체의 접촉을 처리하는 전자 장치 및 방법
WO2022119118A1 (ko) 플렉서블 디스플레이를 포함하는 전자 장치 및 화면 제어 방법
WO2024063368A1 (ko) 터치 입력을 제어하기 위한 전자 장치 및 방법
WO2023063713A1 (ko) 플렉서블 디스플레이를 포함하는 전자 장치 및 전자 장치에서의 동작 방법
WO2022186525A1 (ko) 확장 가능한 하우징을 갖는 전자 장치 및 이의 제어 방법
WO2021162268A1 (ko) 전자 장치 및 그의 런쳐 화면간에 오브젝트의 편집을 동기화하는 방법
WO2024080553A1 (ko) 전자 장치 및 그 동작 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21889503

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21889503

Country of ref document: EP

Kind code of ref document: A1