WO2023200068A1 - 플렉서블 디스플레이의 표시 영역의 사이즈를 변경하기 위한 시각적 객체를 표시하는 전자 장치, 방법, 및 비일시적 컴퓨터 판독가능 저장 매체 - Google Patents

플렉서블 디스플레이의 표시 영역의 사이즈를 변경하기 위한 시각적 객체를 표시하는 전자 장치, 방법, 및 비일시적 컴퓨터 판독가능 저장 매체 Download PDF

Info

Publication number
WO2023200068A1
WO2023200068A1 PCT/KR2022/020389 KR2022020389W WO2023200068A1 WO 2023200068 A1 WO2023200068 A1 WO 2023200068A1 KR 2022020389 W KR2022020389 W KR 2022020389W WO 2023200068 A1 WO2023200068 A1 WO 2023200068A1
Authority
WO
WIPO (PCT)
Prior art keywords
state
size
display area
display
visual object
Prior art date
Application number
PCT/KR2022/020389
Other languages
English (en)
French (fr)
Inventor
최윤성
임은실
고정원
김우현
이보나
정유신
좌연주
한준성
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020220086597A external-priority patent/KR20230147491A/ko
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Priority to US18/146,722 priority Critical patent/US20230333592A1/en
Publication of WO2023200068A1 publication Critical patent/WO2023200068A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72448User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
    • H04M1/72454User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions according to context-related or environment-related conditions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72469User interfaces specially adapted for cordless or mobile telephones for operating the device by selecting functions from two or more displayed items, e.g. menus or icons

Definitions

  • An electronic device including a flexible display such as a rollable display may provide a state in which a portion of the flexible display is retracted into a housing of the electronic device and a state in which the portion of the flexible display is exposed outside the housing. there is.
  • the electronic device can have a relatively compact structure and provide a relatively large display area.
  • an electronic device includes a housing, a flexible display configured to slide into or out of the housing, and inserting at least a part of the flexible display into the housing or pulling out at least a part of the flexible display out of the housing. It may include an actuator, a memory configured to store instructions, and a processor operatively coupled to the flexible display.
  • the processor may be configured to receive user input to change the execution state of a software application when the instructions are executed.
  • the processor may be configured to identify whether the state of the display area of the flexible display exposed outside the housing is a reference state in response to the user input.
  • the processor may be configured to, when the instructions are executed, display a visual object for guiding a change in the state of the display area to the reference state based on identifying that the state of the display area is distinct from the reference state. You can.
  • the processor when executing the instructions, changes the size of the display area from a first size to a second size corresponding to the reference state, based at least in part on user input received while the visual object is displayed. It may be configured to control an actuator.
  • the processor may be configured to display a user interface of the software application within the display area having the second size when the instructions are executed.
  • a housing a flexible display that can be inserted into or withdrawn from the housing, and an actuator for inserting at least a portion of the flexible display into the housing or withdrawing at least a portion of the flexible display out of the housing.
  • a method for operating an electronic device may include receiving a user input to change the execution state of a software application.
  • the method may include an operation of identifying whether a state of a display area of the flexible display exposed outside the housing is a reference state in response to the user input.
  • the method may include displaying a visual object to guide changing the state of the display area to the reference state, based on identifying that the state of the display area is distinct from the reference state.
  • the method includes changing the size of the display area through the actuator from a first size to a second size corresponding to the reference state, based at least in part on user input received while the visual object is displayed. can do.
  • the method may include displaying a user interface of the software application within the display area having the second size.
  • a non-transitory computer-readable storage medium includes a housing, a flexible display that can be inserted into or withdrawn from the housing, and at least a portion of the flexible display that can be inserted into or pulled out of the housing.
  • One or more programs may be stored that, when executed by a processor of an electronic device including an actuator for retrieving a portion, cause the electronic device to receive user input to change the execution state of a software application.
  • the one or more programs in response to the user input, configure the electronic device to identify whether the state of the display area of the flexible display exposed outside the housing is a reference state.
  • the one or more programs when executed by the processor of the electronic device, are configured to guide changing the state of the display area to the reference state based on identifying that the state of the display area is distinct from the reference state. and instructions that cause the electronic device to display a visual object.
  • the one or more programs when executed by the processor of the electronic device, adjust the size of the display area from a first size to the standard through the actuator based at least in part on a user input received while the visual object is displayed. and instructions that cause the electronic device to change to a second size corresponding to the state.
  • the one or more programs may include instructions that, when executed by the processor of the electronic device, cause the electronic device to display a user interface of the software application within the display area having the second size. .
  • an electronic device includes a housing, a flexible display that can be inserted into or pulled out of the housing, and a device for inserting at least a portion of the flexible display into the housing or withdrawing at least a portion of the flexible display out of the housing. It may include an actuator, a memory configured to store instructions, and a processor operatively coupled to the flexible display.
  • the processor is configured to identify, when the instructions are executed, that content within the user interface is intersected with an edge of a display area of the flexible display exposed outside the housing while a user interface of a software application is displayed. It can be.
  • the processor may be configured to display a visual object for guiding a change in the state of the display area around the content based on the identification when the instructions are executed.
  • the processor when the instructions are executed, in response to user input to the visual object, extends the display area through the actuator to resume display of the portion of the content that was interrupted following the intersection with the edge. It can be configured to do so.
  • a housing a flexible display that can be inserted into or withdrawn from the housing, and an actuator for inserting at least a portion of the flexible display into the housing or withdrawing at least a portion of the flexible display out of the housing.
  • a method for operating an electronic device includes identifying that content within the user interface is intersected with an edge of a display area of the flexible display exposed outside the housing while a user interface of a software application is displayed. can do. The method may include, based on the identification, displaying a visual object to guide a change in the state of the display area around the content. The method may include, in response to user input about the visual object, extending the display area through the actuator to resume display of the portion of the content that was interrupted following the intersection with the edge. there is.
  • a non-transitory computer-readable storage medium includes a housing, a flexible display that can be inserted into or withdrawn from the housing, and at least a portion of the flexible display that can be inserted into or pulled out of the housing.
  • a processor of an electronic device including an actuator for extracting a portion
  • content in the user interface intersects an edge of the display area of the flexible display exposed outside the housing
  • One or more programs containing instructions that cause the electronic device to identify may be stored.
  • the one or more programs when executed by the processor of the electronic device, instructions that cause the electronic device to display a visual object for guiding a change in the state of the display area around the content based on the identification.
  • the one or more programs when executed by the processor of the electronic device, are configured to, in response to user input about the visual object, display the display to resume display of the portion of the content that was interrupted following the intersection with the edge. and instructions that cause the electronic device to extend an area through the actuator.
  • FIG. 1 shows exemplary components of an electronic device.
  • Figure 2 shows an example of changing the size of the display area of a flexible display of an electronic device.
  • FIG. 3 illustrates an example method of displaying a visual object for changing the size of the display area.
  • 4 and 5 show examples of user input to change the execution state of a software application.
  • 6-8B illustrate example visual objects for changing the size of a display area.
  • FIG. 9 shows an example method of displaying information for identifying whether to change the size of the display area.
  • Figure 10 shows an example of information for identifying whether to change the size of the display area.
  • 11 illustrates an example method of displaying another visual object.
  • Figures 12 and 13 show examples of other visual objects.
  • FIG. 14 illustrates an example method of adaptively changing the size of a display area according to a user input for an image associated with a visual object.
  • Figure 15 shows an example of adaptive change in the size of the display area according to user input.
  • Figure 16 illustrates an example method of discontinuing the display of a visual object over the passage of a predetermined amount of time.
  • Figure 17 shows an example of a visual object whose display ceases over a predetermined period of time.
  • FIG. 18 illustrates an example method of identifying the size of a display area through at least one input to a visual object.
  • FIG. 19 shows an example of a visual object that includes visual elements for identifying the size of the display area.
  • FIG. 20 illustrates an example method of displaying a visual object based on identification of content intersecting an edge of a display area.
  • 21 shows an example of a visual object displayed based on identification of content that intersects an edge of the display area.
  • FIG. 22A is a front view of a first state of an electronic device according to an embodiment.
  • FIG. 22B is a rear view of a first state of an electronic device according to an embodiment.
  • FIG. 22C is a front view of a second state of an electronic device according to an embodiment.
  • FIG. 22D is a rear view of a second state of an electronic device according to an embodiment.
  • FIG. 23A is an exploded perspective view of an electronic device according to an embodiment.
  • FIG. 23B is a cross-sectional view illustrating an example of an electronic device cut along line A-A' of FIG. 22A according to an embodiment.
  • An electronic device may include a flexible display that is at least partially inserted into a housing of the electronic device or at least partially pulled out of the housing.
  • the size of the display region of the flexible display exposed outside the housing may change depending on the insertion or withdrawal.
  • the size of the display area may change from a first size to a second size different from the first size depending on the insertion or extraction.
  • a user experience provided through the display area having the first size may be different from a user experience provided through the display area having the second size. Accordingly, a method for adaptively changing the size of the display area depending on the situation may be required.
  • FIG. 1 shows exemplary components of an electronic device according to one embodiment.
  • the electronic device 101 includes the electronic device 2001 shown in FIG. 20, the electronic device 2200 shown in FIGS. 22A to 22D, and the electronic device shown in FIGS. 23A and 23B. It may be implemented as device 2200.
  • the electronic device 101 may include a processor 120, a memory 130, a flexible display 140, and an actuator 150.
  • the processor 120 may be operatively coupled with the memory 130, the flexible display 140, and the actuator 150.
  • memory 130 may store one or more programs (or one or more software applications) including instructions.
  • programs or one or more software applications
  • the instructions shown in Figures 3, 4, 5, 6, 7, 8a, 8b, 9, 10, 11, 12, 13, 14, 15, 16, 17, 18, 19, 20, and Figure 21 It may be included to execute at least some of the operations illustrated through the descriptions.
  • the flexible display 140 may change the display state of the display area of the flexible display 140 based on control of the processor 120.
  • the actuator 150 may include the driving unit 2360 shown in FIGS. 23A and 23B.
  • the actuator 150 moves at least a portion of the flexible display 140 into the housing of the electronic device 101 or moves at least a portion of the flexible display 140 from the housing based on the control of the processor 120. can be withdrawn.
  • the flexible display 140 may be at least partially inserted into the housing of the electronic device 101 through the actuator 150.
  • the flexible display 140 may be a display that is at least partially rollable into the housing.
  • the flexible display 140 may be at least partially pulled out from the housing through the actuator 150.
  • the flexible display 140 may be at least partially exposed outside the housing.
  • the flexible display 140 may include a display region that is at least partially exposed outside the housing.
  • flexible display 140 may provide a plurality of states depending on the insertion into or withdrawal from the housing.
  • the size of the display area may be different within each of the plurality of states.
  • the plurality of states provided by the flexible display 140 can be illustrated through FIG. 2.
  • FIG. 2 shows an example of a change in the area of a display area of a display of an electronic device according to an embodiment.
  • the flexible display 140 is in one (a) state among the plurality of states, in which a part of the flexible display 140 is exposed and the other part of the flexible display 140 is in the first housing ( 201) and the second housing 202, a first state 210 inserted into the first housing 201 may be provided.
  • the first state 210 may be a state that provides a viewable area with a minimum area (or size).
  • the first state 210 may be a state in which the flexible display 140 provides a display area with a minimum area. Within the first state 210, the display area having the minimum area may be referred to as the first area 220.
  • the area of the flexible display 140 inserted into the first housing 201 may be referred to as the second area 230.
  • the first area 220 may be a viewable area.
  • the first area 220 may be an area exposed outside the first housing 201.
  • the second area 230 may be a non-viewable area by inserting into the first housing 201.
  • the second area 230 may be an area covered with the first housing 201 by being drawn into the first housing 201.
  • this document assumes that the first housing 201 and the second housing 202 are made of an opaque material, making it impossible to see when the second area 230 is inserted into the first housing 201.
  • first housing 201 and/or the second housing 202 may be made of a transparent material. In this case, even when the second area 230 is inserted into the first housing 201, at least a portion of the second area 230 may be visible through the first housing 201.
  • the flexible display 140 may provide a second state 250 in which the flexible display 140 is maximally exposed, as another state among the plurality of states.
  • the second state 250 may be a state in which the flexible display 140 provides a viewable area with the maximum area (or size).
  • the second state 250 may be a state in which the flexible display 140 provides a display area with the maximum area.
  • the first area 220 and the second area 230 may be visible areas.
  • the first area 220 and the second area 230 may be areas exposed outside the first housing 201.
  • the flexible display 140 may provide an intermediate state between the first state 210 and the second state 250 .
  • the intermediate state may mean a state in which a portion of the first region 220 and the second region 230 is exposed and the remaining portion of the second region 230 is retracted into the first housing 201 .
  • the portions of the first area 220 and the second area 230 may be visible areas.
  • the portions of the first area 220 and the second area 230 may be areas exposed outside the first housing 201 .
  • the remaining portion of the second area 230 may be an area that is not visible due to being drawn into the first housing 201 .
  • the remaining portion of the second area 230 may be a display area that is hidden by the first housing 201 by being drawn into the first housing 201 .
  • Figure 2 shows an example in which the second housing 202 is moved or slid in the first direction 235 to change from the first state 210 to the second state 250, but this is for convenience of explanation. will be.
  • the first housing 201 may be configured to move in a second direction opposite to the first direction 235 for transitioning from state 210 to state 250. It can also be moved or slid to (237).
  • the direction in which the display area extends when changing from the first state 210 to the second state 250 and the direction in which the display area shrinks when changing from the second state 250 to the first state 210 are: , may vary depending on the type of electronic device 101. For example, in portrait mode, the electronic device 101 displays the display area extending in a first horizontal direction or contracting in a second horizontal direction opposite to the first horizontal direction. It can be implemented as an electronic device 260 that includes a display 140. However, it is not limited to this.
  • FIG. 3 illustrates an example method of displaying a visual object for changing the size of the display area. This method may be executed by the electronic device 101 shown in FIG. 1 or the processor 120 of the electronic device 101.
  • 4 and 5 show examples of user input to change the execution state of a software application.
  • 6-8B illustrate example visual objects for changing the size of a display area.
  • the processor 120 may receive a user input to change the execution state of a software application.
  • the user input may be a user input for changing a state in which the software application is running in the background to a state in which the software application is running in the foreground.
  • the user input may be a user input for changing a state from not displaying the user interface of the software application being executed to a state displaying the user interface.
  • the user input may be a user input for displaying a screen containing a list of software applications running in the electronic device 101.
  • the user input changes the state of each of the software applications from a state running in the background to a state running in the foreground, or changes the state of each of the software applications from a state running in the foreground to a state running in the foreground. It may be a user input for calling the screen to change from the running state to the running state in the background.
  • the processor 120 may display a home screen 401 and a navigation bar 402 within the state 400 .
  • the processor 120 within state 400, may receive a user input 404 for an executable object 403 in the navigation bar 402 as the user input for displaying the screen.
  • Processor 120 may change state 400 to state 410 in response to user input 404 .
  • the processor 120 may display a screen 411 that includes a list of the software applications running in the electronic device 101.
  • screen 411 is an image 412 corresponding to the user interface of a first software application having a reduced size among the software applications running in the electronic device 101. ) may include.
  • screen 411 includes a portion of image 413 corresponding to the user interface of a second software application having a reduced size among the software applications and a portion of the image 413 corresponding to the user interface of a second software application having a reduced size. It may further include a portion of the image 414 corresponding to the user interface of the third software application.
  • screen 411 may be referred to as recent apps, app switcher, or task manager. However, it is not limited to this.
  • the processor 120 may display the home screen 401 within the state 420.
  • the processor 120 within state 420, receives a touch input 422 having a predetermined pattern, originating around an edge 421 of the home screen 401, as the user input for displaying the screen. can do.
  • the processor 120 may change the state 420 to the state 410 in response to the touch input 422 .
  • it is not limited to this.
  • the user input may be a user input for executing the software application.
  • the user input may be a user input for changing a state in which the software application is not running to a state in which the software application is running.
  • the user input may be a user input in which an operating system (OS) installed in the electronic device 101 provides a process identifier to the software application.
  • OS operating system
  • the processor 120 may display a home screen 501.
  • processor 120 converts user input 503 to an executable object 502 in home screen 501 for executing a software application. You can receive it.
  • it is not limited to this.
  • the processor 120 based on the user input received in operation 301, selects a flexible device exposed outside the housing (e.g., first housing 201) of the electronic device 101. It can be identified that the state of the display area of the display 140 is distinct from the reference state.
  • the state of the display area can be identified based on identifying the size of the display area when the user input is received.
  • identifying the state of the display area may include identifying that the display area has a first size corresponding to the first state 210 illustrated through the description of FIG. 2 .
  • identifying the state of the display area may include identifying that the display area has a second size corresponding to the second state 250 illustrated through the description of FIG. 2 .
  • identifying the state of the display area may include identifying that the display area has a third size corresponding to the intermediate state illustrated through the description of FIG. 2 .
  • identifying the state of the display area may include identifying that the display area has a first height corresponding to the first state 210 illustrated throughout the description of FIG. 2. You can. For example, identifying the state of the display area may include identifying that the display area has a second height corresponding to the second state 250 illustrated throughout the description of FIG. 2 . For example, identifying the state of the display area may include identifying that the display area has a third height corresponding to the intermediate state illustrated through the description of FIG. 2 .
  • processor 120 may, in response to the user input, identify whether the state of the display area is the reference state, and based on identifying that the state of the display area is not the reference state. Thus, it can be identified that the state of the display area is distinguished from the reference state.
  • the reference state may be a state of the display area when the user interface of the software application is displayed before the user input is received in operation 301.
  • the reference state may be the first state 210.
  • the reference state may be the second state 250.
  • the reference state may be the intermediate state.
  • the reference state may be state 1020.
  • the reference state may be state 1220.
  • the reference state may be state 1320.
  • the reference state may be state 1510.
  • the processor 120 stores data about the state of the display area while displaying the user interface under conditions in which the user interface is displayed, and responds to the user input using the stored data.
  • the reference state can be identified.
  • the data may be stored in response to a change in the execution state of the software application.
  • processor 120 may, in response to identifying that the execution state of the software application is changing from a foreground state to a background state, immediately prior to the change to the background state.
  • the data about the state (or size) of the display area may be stored. However, it is not limited to this.
  • the data may be stored in response to identifying a change in the size of the display area while the user interface is displayed. For example, if the state of the display area changes multiple times while the user interface is displayed, the processor 120 stores and updates the data each time the state of the display area changes. You can. For example, the processor 120 may store the data about the most recent state of the display area based on the update. However, it is not limited to this.
  • the data may include a value indicating the width of the display area and/or a value indicating the height of the display area.
  • the data may include a value representing the width of the user interface and/or a value representing the height of the user interface. However, it is not limited to this.
  • the reference state may be the state of the display area that was most frequently provided to display the user interface. For example, when the user interface is displayed a times in the display area having the first size and b times larger than a in the display area having the second size, the reference state is the second size. It may be in a state of providing the display area having .
  • the reference state may be identified based on past display heuristics, including usage history of the software application. However, it is not limited to this.
  • the reference state may be a state of the display area identified based on user input.
  • the processor 120 may receive the user input that sets the state (eg, size) of the display area when displaying the user interface.
  • the processor 120 may identify the reference state based on the user input. However, it is not limited to this.
  • the reference state may be a state of the display area identified based on the arrangement of content items within the user interface.
  • processor 120 may, in response to the user input, identify the placement of the content within the user interface and set the reference state to an area of the display area having a width or height corresponding to the placement of the content. It can be identified by status.
  • the processor 120 may identify the reference state as one of the first state 210, the second state 250, and the intermediate state based on the identified arrangement. However, it is not limited to this.
  • the reference state may be a state of the display area identified based on at least some attributes of content in the user interface.
  • the processor 120 identifies attributes of at least some of the contents and sets the state of the display area having a width or height corresponding to the identified attribute to the reference state. can be identified.
  • the processor 120 may identify the reference state as one of the first state 210, the second state 250, and the intermediate state based on the identified attribute.
  • the processor 120 may identify the reference state as the first state 210 based on identification that the aspect ratio of at least a portion of the content is 1 to 1.
  • the processor 120 may identify the reference state as the second state 250 based on identifying that the height of at least some of the content is longer than the width of at least some of the content.
  • the reference state may be a state of the display area identified based on the size of content in the user interface.
  • the processor 120 identifies the size of each of the contents and identifies a state of the display area having a width or height corresponding to the identified size as the reference state. can do.
  • the processor 120 may identify the reference state as one of the first state 210, the second state 250, and the intermediate state based on the identified size. However, it is not limited to this.
  • the reference state may be a state of the display area identified based on the number of content items displayed within the user interface. For example, if the number of content items in the user interface in first state 210 is equal to the number of content items in the user interface in second state 250, processor 120 determines the reference state. It can be identified as the first state 210. For another example, if the number of content items in the user interface in first state 210 is less than the number of content items in the user interface in second state 250, processor 120 may: can be identified as the second state 250. However, it is not limited to this.
  • processor 120 displays a visual object to guide changing the state of the display area to the reference state based on identifying that the state of the display area is distinct from the reference state. You can.
  • the visual object may be displayed within the screen containing a list of software applications running within the electronic device 101.
  • the visual object may be displayed in association with an image corresponding to the user interface of the software application having a reduced size.
  • processor 120 may, within state 600, within electronic device 101 while the display area has a first size corresponding to first state 210.
  • a visual object 603 associated with an image 602 corresponding to the user interface of the software application having a reduced size may be displayed.
  • the visual object 603 may use a representation for representing a second size, which is the size of the display area corresponding to the reference state, to indicate that the state of the display area is different from the reference state. ) can have.
  • visual object 603, together with image 602 may indicate the size of the user interface of the software application to be displayed within the display area having the second size.
  • visual object 603 may extend from edge 604 of image 602 by a height 605 corresponding to the difference between the first size and the second size.
  • height 605 may change depending on the difference between the first size and the second size. For example, if the second size corresponds to the second state 250, the height 605 is Ha, and the second size is between the first state 210 and the second state 205. In the case corresponding to the intermediate state, the height 605 may be Hb, which is shorter than Ha. However, it is not limited to this.
  • height 605 may be independent of the difference between the first size and the second size.
  • height 605 may correspond to the ratio of the first size and the second size. However, it is not limited to this. For example, height 605 may be independent of the ratio of the first size and the second size.
  • the visual object 603 may further include a visual element 610 for indicating a direction in which the user interface of the software application will be extended when the display area is changed to the second size.
  • a visual element 610 for indicating a direction in which the user interface of the software application will be extended when the display area is changed to the second size.
  • visual object 603 may also extend from edge 611 of image 602.
  • the visual object 603 extending from the edge 611 of the image 602 may further include a visual element to indicate a direction opposite to the direction in which the user interface will be extended.
  • the shape of the visual element may correspond to the shape of the visual element 610. However, it is not limited to this.
  • the processor 120 may, within state 700, while the display area has a first size corresponding to the second state 250, within the electronic device 101.
  • a visual object 703 associated with an image 702 corresponding to the user interface of the software application having a reduced size may be displayed.
  • image 702 unlike image 602 in state 600, may have the second size that is a size for representing the reference state.
  • image 702 may correspond to the user interface displayed within the display area having the second size corresponding to the first state 210 .
  • visual object 703 may, unlike visual object 603 within state 600, be configured to represent the first state of the display area, to indicate that the state of the display area is different from the reference state. It may have an expression to represent the difference between a size and the second size (or a ratio of the first size and the second size). For example, because the size of the area occupied by image 702 and visual object 703 adjacent to image 702 corresponds to the first size, visual object 703 may indicate the difference. .
  • visual object 703 may be configured to correspond to the difference between the first size and the second size (or the ratio of the first size and the second size) from edge 704 of image 702. It can extend as high as 705.
  • height 705 may change depending on the difference between the first size and the second size. For example, if the second size corresponds to the intermediate state between the first state 210 and the second state 250, then the height 705 is Hc and the second size corresponds to the first state 250. In corresponding cases, height 705 may be Hd, which is longer than Hc. However, it is not limited to this. For example, height 705 may be independent of the difference between the first size and the second size (or the ratio of the first size and the second size).
  • the visual object 703 may further include a visual element 710 for indicating a direction in which the user interface of the software application will be reduced when the display area is changed to the second size.
  • a visual element 710 for indicating a direction in which the user interface of the software application will be reduced when the display area is changed to the second size.
  • visual object 703 may also extend from edge 711 of image 702.
  • the visual object 703 extending from the edge 711 of the image 702 may further include a visual element for indicating a direction in which the user interface or the display area will be reduced.
  • the shape of the visual element may correspond to the shape of the visual element 710. However, it is not limited to this.
  • Figure 7 shows an example where the visual object 703 is adjacent to the image 702, but this is for convenience of explanation.
  • visual object 703 may be replaced with another visual object superimposed on image 702.
  • the other visual object may be superimposed on image 702 at a location adjacent edge 704.
  • the other visual object may be superimposed on image 702 at a location adjacent edge 711.
  • the shape of the other visual object may correspond to the shape of the visual element 710.
  • the visual object may be displayed together with the user interface of the software application.
  • the processor 120 may, based on identifying that the state of the display area is distinct from the reference state, The visual object may be displayed along with the user interface displayed in response to execution of the software application.
  • processor 120 may, in response to user input 503 received within state 500, based on identifying that the state of the display area is distinct from the reference state.
  • status 800 can be provided.
  • processor 120 may display, within the display area having the first size, a user interface 801 of the software application executed in response to user input 503.
  • the visual object 802 which is the visual object, can be displayed.
  • visual object 802 may be displayed at the location where user input 503 was received in operation 301.
  • a visual object 802 may be displayed at the location where user input 503 was received to guide that changing the size of the display area to the second size may be more appropriate.
  • visual object 802 may be superimposed on or floated on user interface 801 .
  • the visual object 802 may be moved according to a drag input on the visual object 802. However, it is not limited to this.
  • the visual object such as visual object 802
  • the visual object may include a visual element for indicating the second size corresponding to the reference state.
  • the visual object may include a bar-shaped indicator 803 including a gauge corresponding to the second size.
  • the gauge in the bar-shaped indicator 803 may be included to show the length corresponding to the second size.
  • the state of the gauge of the bar-shaped indicator 803 may change depending on the second size. For example, when the second size corresponds to the first state 210, the bar-shaped indicator 803 is displayed as a state 803-1, and the second size corresponds to the first state 210. When corresponding to the intermediate state between and the second state 250, the bar-shaped indicator 803 is displayed as a state 803-2, and the second size corresponds to the second state 250. In this case, the bar-shaped indicator 803 may be displayed as a state 803-3.
  • the visual object represents the second size and is a visual object for indicating whether a change from the first size to the second size is a reduction of the display area or an extension of the display area.
  • the visual object may have a length corresponding to the second size, and may vary depending on whether a change from the first size to the second size is a reduction of the display area or an extension of the display area. It may include a visual element 804 having a shape.
  • visual element 804 is displayed as state 804-1 and , if the first size corresponds to the first state 210 and the second size corresponds to the intermediate state between the first state 210 and the second state 250, the visual element 840 is: Indicated in state 804-2, if the first size corresponds to second state 250 and the second size corresponds to first state 210, then visual element 804 is displayed in state 804-2. -3), and if the first size corresponds to the second state 250 and the second size corresponds to the intermediate state, the visual element 804 will be displayed as state 804-4. You can.
  • the visual object includes text indicating the second size and whether a change from the first size to the second size is a reduction of the display area or an extension of the display area.
  • the visual object has a length corresponding to the second size, includes text 806 corresponding to the second size, and the change from the first size to the second size is indicated by the display. It may include a visual element 805, including an arrow 807 to indicate whether the area is reduced or the display area is extended.
  • visual element 805 may be in state 805-1, state 805-2, or state 805. -3), and when the change from the first size to the second size is a reduction of the display area, the visual element 805 is in state 805-4, state 805-5, or It can be displayed as status 805-6.
  • the processor 120 adjusts the size of the display area through the actuator 150 based at least in part on a user input received while the visual object is displayed. It is possible to change from size 1 to the second size. For example, the processor 120 may change the size of the display area from the first size to the second size in response to the user input for the visual object. For example, processor 120 may change the size of the display area from the first size to the second size in response to a user input for another visual object displayed in response to a user input for the visual object. You can. For example, the user input of operation 307 will be illustrated through FIGS. 9, 10, 11, 12, 13, 14, and 15. However, it is not limited to this.
  • the processor 120 may identify that the state of the display area corresponds to the reference state in operation 303.
  • Processor 120 may bypass or refrain from executing operations 305 to 307 based on identifying that the state of the display area corresponds to the reference state.
  • processor 120 may refrain from displaying the visual object based on identifying that the state of the display area corresponds to the reference state.
  • the processor 120 may, based on identifying that the state of the display area corresponds to the reference state, within a screen containing a list of software applications running within the electronic device 101, It is possible to display an image corresponding to the user interface of each of the software applications having a reduced size and refrain from displaying the visual object in connection with the image.
  • processor 120 may refrain from displaying the visual object with a user interface of a software application based on identifying that the state of the display area corresponds to the reference state.
  • the visual object may be displayed around an executable object for executing a software application.
  • the visual object may be displayed around an executable object for executing the software application to guide the size of the display area identified for display of the user interface of the software application.
  • processor 120 displays a visual object ( 853) can be displayed.
  • the visual object 853 may have a shape to indicate the second size.
  • the processor 120 changes the size of the display area to the second size through the actuator 150 in response to a user input for the visual object 853, and changes the size of the display area to the second size through the actuator 150.
  • a user interface of the software application represented by an executable object 852 may be displayed. However, it is not limited to this.
  • the electronic device 101 may display the visual object under conditions where the state of the display area is different from the reference state. Because the visual object guides that the state of the display area is different from the reference state and is used to change the state of the display area to the reference state, the electronic device 101 controls the visual object. Through display, an enhanced user experience can be provided. For example, the electronic device 101 may enhance the usability of the user interface of the software application by changing the size of the display area to the second size indicated by the visual object. For example, the electronic device 101 may display the user interface having a recommended size by changing the size of the display area to the second size indicated by the visual object. However, it is not limited to this.
  • FIG. 9 shows an example method of displaying information for identifying whether to change the size of the display area. This method may be executed by the electronic device 101 shown in FIG. 1 or the processor 120 of the electronic device 101.
  • Operation 901 of FIG. 9 may be included in operation 305 of FIG. 3
  • operations 903 to 911 of FIG. 9 may be included in operation 307 of FIG. 3 .
  • Figure 10 shows an example of information for identifying whether to change the size of the display area.
  • processor 120 may display within the display area having the first size an image corresponding to a user interface having a reduced size associated with the visual object.
  • the image may be displayed within a screen containing a list of software applications running within the electronic device 101.
  • processor 120 executes within electronic device 101 based on identifying that the state of the display area is distinct from the reference state.
  • a screen 1001 containing a list of software applications being developed may be displayed.
  • screen 1001 may include an image 1002 corresponding to a user interface of one of the software applications.
  • an image 1002 in screen 1001 may be associated with a visual object 1003 to guide changing the state of the display area to the reference state.
  • the visual object 1003 may further include a visual element 1003-1 for indicating a direction in which the user interface of the software application will be extended when the display area is changed to the second size. there is. However, it is not limited to this.
  • the processor 120 may receive a user input regarding the image.
  • processor 120 within state 1000, may receive user input 1005 for image 1002.
  • the processor 120 may display information for identifying whether to change the size of the display area to the second size in response to the user input. For example, referring to FIG. 10 , the processor 120 may change state 1000 to state 1010 in response to user input 1005. Within state 1010, the processor 120 may display information 1011 for identifying whether to change the size of the display area to the second size. For example, information 1011 may be superimposed on screen 1001. In one embodiment, information 1011 may be visually emphasized relative to screen 1001. For example, while information 1011 is displayed, screen 1001 may be blurred. However, it is not limited to this.
  • information 1011 may include a visual element 1012 indicating the first size, which is the current size of the display area, and a visual element 1013 indicating the second size corresponding to the aiming state.
  • the visual element 1012 includes an image corresponding to the user interface displayed within the display area having the first size
  • the visual element 1013 includes the image corresponding to the user interface having the second size. It may include an image corresponding to the user interface displayed within the display area. However, it is not limited to this.
  • the processor 120 may identify whether a first user input or a second user input is received while the information is displayed.
  • the first user input is a user input for maintaining the size of the display area at the first size
  • the second user input is a user input for changing the size of the display area to the second size. You can.
  • processor 120 executes operation 909 on the condition that the first user input is received while the information is displayed, and on the condition that the second user input is received while the information is displayed: Operation 911 may be executed.
  • processor 120 may change the size of the display area to the second size based on identifying that the second user input is received while the information is displayed. For example, referring to FIG. 10 , the processor 120 may, within state 1010, perform a procedure to select a visual element 1013 among the visual elements 1012 and 1013 within the information 1011. 2 User input (1015) can be received. The processor 120 may change the state 1010 to the state 1020 in response to the second user input 1015. For example, the processor 120 may change state 1010 to state 1020 based on changing the size of the display area to the second size through the actuator 150. Within state 1020, the processor 120 may display the user interface 1021 of the software application within the display area having the second size.
  • processor 120 may maintain the size of the display area at the first size based on identifying that the first user input is received while the information is displayed. there is. For example, referring to FIG. 10 , the processor 120 may, within state 1010, perform a procedure to select a visual element 1012 among visual elements 1012 and visual elements 1013 in information 1011. 1 User input (1014) can be received. Processor 120 may change state 1010 to state 1025 in response to first user input 1014. For example, within state 1025, the processor 120 may maintain the size of the display area at the first size. For example, the processor 120 may display the user interface 1026 of the software application within the display area having the first size. Although not shown in FIG.
  • the user interface 1026 may be visually different from the user interface 1021 .
  • the user interface 1026 provides a smaller amount of information than the user interface 1021, or at least some of the contents in the user interface 1026
  • the size of may be smaller than the size of at least some of the contents in the user interface 1021. However, it is not limited to this.
  • the electronic device 101 in response to a user input for the image associated with the displayed visual object based on identifying that the state of the display area is distinct from the reference state, provides the information. It can be displayed. Since the information is available to inquire whether to maintain or change the size of the display area, the electronic device 101 determines the user's intention related to the size of the display area through display of the information. It can be recognized. For example, the electronic device 101 may enhance the user experience related to determining the size of the display area through the information.
  • FIG. 11 illustrates an example method of displaying another visual object. This method may be executed by the electronic device 101 shown in FIG. 1 or the processor 120 of the electronic device 101.
  • Operation 1101 of FIG. 11 may be included in operation 305 of FIG. 3
  • operations 1103 to 1107 of FIG. 11 may be included in operation 307 of FIG. 3 .
  • Figures 12 and 13 show examples of other visual objects.
  • the processor 120 may display an image corresponding to a user interface associated with the visual object within the display area having the first size.
  • the image may be displayed within a screen containing a list of software applications running within the electronic device 101.
  • processor 120 determines that electronic device 101, based on identifying that the state of the display area is distinct from the reference state.
  • a screen 1201 containing a list of software applications running within the screen may be displayed.
  • screen 1201 may include an image 1202 corresponding to a user interface of one of the software applications.
  • an image 1202 in screen 1201 may be associated with a visual object 1203 to guide changing the state of the display area to the reference state.
  • the visual object 1203 may further include a visual element 1203-1 for indicating a direction in which the user interface of the software application will be extended when the display area is changed to the second size. there is. However, it is not limited to this.
  • the processor 120 may receive a user input regarding the image.
  • the user input may be a single tap input for the image, and may be an input for executing the software application represented by the image in the foreground.
  • the processor 120 may receive a user input regarding the image.
  • the user input may be a single tap input for the image, and may be an input for executing the software application represented by the image in the foreground.
  • it is not limited to this.
  • the processor 120 may display the user interface together with other visual objects within the display area having the first size in response to the user input for the image.
  • the other visual object may be a visual object for changing the size of the display area to the second size.
  • the other visual object may include an image corresponding to the user interface displayed within the display area having the second size.
  • processor 120 may receive user input 1205 for image 1202.
  • Processor 120 may change state 1200 to state 1210 in response to user input 1205.
  • processor 120 may display a user interface 1211 of the software application.
  • processor 120 may display user interface 1211 along with other visual objects 1212.
  • the size of another visual object 1212 may be determined by the size of the user interface of the software application (e.g., user interface 1221 in state 1220) displayed within the display area having the second size. It can accommodate any size.
  • other visual objects 1212 may be overlaid or floated on user interface 1211.
  • another visual object 1212 may be moved in response to a drag input for another visual object 1212.
  • different visual objects 1212 may be displayed for a predetermined amount of time and then disappear. However, it is not limited to this.
  • the other visual objects may be displayed within a navigation bar.
  • processor 120 may receive user input 1305 for image 1202.
  • Processor 120 may change state 1200 to state 1310 in response to user input 1305.
  • processor 120 may display a user interface 1311 of the software application.
  • processor 120 may display user interface 1311 along with other visual objects 1313.
  • other visual objects 1313 may be displayed within the navigation bar 1312, unlike other visual objects 1312.
  • other visual objects 1313 may be overlaid or floated on the navigation bar 1312.
  • other visual objects 1313 may be included within navigation bar 1312 as additional executable elements within bar 1312. However, it is not limited to this.
  • different visual objects 1312 may be displayed for a predetermined amount of time and then disappear. However, it is not limited to this.
  • the processor 120 may change the size of the display area to the second size in response to a user input for the other visual object. For example, referring to FIG. 12 , processor 120 may, within state 1210 , receive user input 1215 about another visual object 1212 . Processor 120 may change state 1210 to state 1220 in response to user input 1215. For example, the processor 120 changes state 1210 to state 1220 by changing the size of the display area from the first size to the second size through the actuator 150 in response to user input 1215. ) can be changed to . For example, in state 1220, the processor 120 may display the user interface 1221 of the software application within the display area having the second size.
  • processor 120 may, within state 1310 , receive user input 1315 about another visual object 1312 .
  • Processor 120 may change state 1310 to state 1320 in response to user input 1315.
  • the processor 120 changes the size of the display area from the first size to the second size through the actuator 150 in response to user input 1315, thereby changing state 1310 to state 1320.
  • the processor 120 may display the user interface 1321 of the software application within the display area having the second size.
  • the electronic device 101 determines the state of the software application running in the electronic device 101, such as the user input received in operation 1103, into a state of executing the software application in the foreground.
  • the other visual object may be displayed. Because the other visual object is available to change the size of the display area to the second size, the electronic device 101 can enhance the usability of the user interface through the other visual object. For example, the electronic device 101 displays the other visual object in an overlapping manner on the user interface to enhance accessibility of changing the size of the display area through the other visual object, or displays the other visual object in an overlapping manner on the user interface. can be displayed within the navigation bar.
  • FIG. 14 illustrates an example method of adaptively changing the size of a display area according to a user input for an image associated with a visual object. This method may be executed by the electronic device 101 shown in FIG. 1 or the processor 120 of the electronic device 101.
  • Operation 1401 of FIG. 14 may be included in operation 305 of FIG. 3
  • operations 1403 to 1407 of FIG. 14 may be included in operation 307 of FIG. 3 .
  • Figure 15 shows an example of adaptive change in the size of the display area according to user input.
  • the processor 120 may display an image associated with the visual object within the display area having the first size.
  • the image may be an executable object displayed within a screen containing a list of software applications running within the electronic device 101.
  • processor 120 executes within electronic device 101 based on identifying that the state of the display area is distinct from the reference state.
  • a screen 1501 containing a list of software applications being developed can be displayed.
  • screen 1501 may include an image 1502 corresponding to a user interface of one of the software applications.
  • an image 1502 on the screen may be associated with a visual object 1503 to guide changing the state of the display area to the reference state.
  • the visual object 1503 may further include a visual element 1503-1 for indicating a direction in which the user interface of the software application will be extended when the display area is changed to the second size. there is.
  • processor 120 may identify whether a first user input or a second user input is received while the image associated with the visual object is displayed.
  • the first user input may be an input indicating selection of the image among the image and the visual object
  • the second user input may be an input indicating selection of the visual object among the image and the visual object. It can be input.
  • processor 120 executes operation 1407 on the condition that the first user input is received while the image associated with the visual object is displayed, and while the image associated with the visual object is displayed.
  • Operation 1405 may be executed under the condition that the second user input is received.
  • processor 120 may change the size of the display area to the second size based on identifying that the second user input is received while the image associated with the visual object is displayed.
  • processor 120 within state 1500, receives a second user input 1505 for a visual object 1503 of image 1502 and visual object 1503. can do.
  • the processor 120 may change the state 1500 to the state 1510 in response to the second user input 1505.
  • processor 120 changes state 1500 to state 1510 by changing the size of the display area to the second size through actuator 150 in response to second user input 1505. It can be changed to .
  • processor 120 may display a user interface 1511 of the software application.
  • the second user input 1505 may be a touch input having a point of contact on the visual element 1503-1 within the visual object 1503. However, it is not limited to this.
  • processor 120 adjusts the size of the display area based on identifying that the first user input is received while the image associated with the visual object is displayed. It can be maintained at the first size.
  • processor 120 within state 1500, may receive first user input 1506 for image 1502 of image 1502 and visual object 1503. You can.
  • Processor 120 may change state 1500 to state 1520 in response to first user input 1506.
  • the processor 120 may display the user interface 1521 of the software application within the display area having the first size within the state 1520.
  • processor 120 together with user interface 1521, displays another visual object, such as another visual object 1212 in FIG. 12 or another visual object 1313 in FIG. 13. Visual objects can be displayed. However, it is not limited to this.
  • the electronic device 101 may change or maintain the size of the display area according to a touch input received while the image associated with the visual object is displayed. For example, the electronic device 101 maintains the size of the display area when the touch input is received for the image and adjusts the size of the display area when the touch input is received for the visual object. By changing this, user convenience related to control of the size of the display area can be enhanced.
  • Figure 16 illustrates an example method of discontinuing the display of a visual object over the passage of a predetermined amount of time. This method may be executed by the electronic device 101 shown in FIG. 1 or the processor 120 of the electronic device 101.
  • Operations 1601 to 1607 of FIG. 16 may be included in operation 305 of FIG. 3 .
  • Figure 17 shows an example of a visual object whose display ceases over a predetermined period of time.
  • the processor 120 may display the visual object together with the user interface of the software application within the display area having the first size.
  • processor 120 may display a visual object 802 along with a user interface 801 within the display area having the first size, such as state 800. You can.
  • processor 120 may, in response to the display of the visual object, identify whether a predetermined amount of time has elapsed from the timing of displaying the visual object. For example, processor 120 may execute operation 1605 while the predetermined time does not elapse from the timing and execute operation 1607 under the condition that the predetermined time elapses from the timing.
  • processor 120 may maintain displaying the visual object while identifying that the predetermined time has not elapsed from the timing. For example, processor 120 may maintain displaying the visual object to provide the ability to change the size of the display area while the predetermined time does not elapse from the timing. For example, referring to Figure 17, processor 120 may maintain state 800 while the predetermined time does not elapse from the timing.
  • processor 120 may cease displaying the visual object in response to identifying that the predetermined amount of time has elapsed from the timing. For example, because the predetermined time elapsed from the timing may mean that the user wishes to maintain the size of the display area at the first size, the processor 120 may determine that the predetermined time has elapsed from the timing. Display of the visual object may be discontinued on conditions that elapse from the timing. For example, referring to Figure 17, processor 120, within state 800, may identify that the predetermined time has elapsed from the timing. Processor 120 may change state 800 to state 1700 in response to the identification. For example, within state 1700, processor 120 may stop displaying visual object 802 along with user interface 801, unlike state 800. For example, visual object 802 may disappear from the display area having the first size within state 1700.
  • the electronic device 101 may adaptively stop displaying the visual object. For example, because a certain amount of time has elapsed after displaying the visual object may mean that it is the user's intention to maintain the size of the display area, the electronic device 101 stops displaying the visual object, The visibility of the user interface displayed with the visual object can be enhanced.
  • FIG. 18 illustrates an example method of identifying the size of a display area through at least one input to a visual object. This method may be executed by the electronic device 101 shown in FIG. 1 or the processor 120 of the electronic device 101.
  • Operations 1801 to 1809 of FIG. 18 may be included in operation 307 of FIG. 3 .
  • FIG. 19 shows an example of a visual object that includes visual elements for identifying the size of the display area.
  • the processor 120 may receive a touch input for the visual object displayed along with the user interface. For example, referring to FIG. 19, processor 120 may display a visual object 802 with a user interface 801 within the display area having the first size, such as state 800. You can.
  • the processor 120 may identify whether the time for which the touch input is maintained is longer than a predetermined time. For example, the processor 120 executes operation 1805 under the condition that the touch input is released before the predetermined time elapses, and under the condition that the touch input is maintained until the predetermined time elapses. , operation 1807 may be executed.
  • the processor 120 may change the size of the display area to the second size in response to the touch input on the visual object that is released before the predetermined time elapses.
  • the processor 120 may change the size of the display area to the second size by recognizing the touch input as a single tap input for the visual object.
  • the processor 120 may, within state 800, receive a touch input 1905 that is released before the predetermined time elapses.
  • Processor 120 may change state 800 to state 1910 in response to touch input 1905 .
  • processor 120 changes state 800 by changing the size of the display area to the second size through actuator 150 in response to touch input 1905. It can be changed to status (1910).
  • processor 120 may display a user interface 1911 of the software application.
  • processor 120 in response to a touch input on the visual object that is maintained for more than the predetermined time, displays a bar-shaped object having an enlarged size.
  • the visual object including an indicator can be displayed.
  • the processor 120 may configure the visual display area to include the bar-shaped indicator having the enlarged size.
  • Objects can be displayed.
  • the processor 120 may, within state 800, receive a touch input 1907 that is maintained for more than the predetermined time. The processor 120 may change the state 800 to the state 1920 in response to the touch input 1907.
  • the processor 120 may display a visual object 802 having an enlarged size along with the user interface 801.
  • the visual object 802 displayed within the state 1920 is compared with the visual object 802 displayed within the state 800, to provide the ability to control the size of the display area, It can be expanded.
  • visual objects 802 within state 1920 may be visually emphasized relative to user interface 801 or visually emphasized relative to visual objects 802 within state 800. . However, it is not limited to this.
  • the processor 120 may change the size of the display area to a size corresponding to a user input received through the bar-shaped indicator having the enlarged size.
  • the processor 120 may receive a user input 1921 through a visual object 802 having the enlarged size.
  • user input 1921 may be defined through the maintenance of touch input 1907.
  • user input 1921 may be an input following touch input 1907.
  • user input 1921 may be an input for adjusting the length of a gauge within the visual object 802.
  • the processor 120 may change state 1920 to state 1930 in response to user input 1921.
  • the processor 120 changes the size of the display area to a size defined based on the user input 1921 through the actuator 150 in response to the user input 1921, thereby changing the state 1920. You can change it to status (1930).
  • processor 120 may display a user interface 1931 of the software application within the display area having a size defined based on user input 1921.
  • the height h of the display area provided in state 1930 may be longer than the height provided through the first state 210 and shorter than the height provided through the second state 250. there is. However, it is not limited to this.
  • the electronic device 101 has a function to enlarge the visual object and input the size of the display area through the enlarged visual object in response to a long press input for the visual object. can be provided. For example, by providing this function, the electronic device 101 can adaptively provide the size of the display area.
  • FIG. 20 illustrates an example method of displaying a visual object based on identification of content intersecting an edge of a display area. This method may be executed by the electronic device 101 shown in FIG. 1 or the processor 120 of the electronic device 101.
  • 21 shows an example of a visual object displayed based on identification of content that intersects an edge of the display area.
  • the processor 120 displays a flexible display (eg, first housing 201) in which content within the user interface is exposed outside the housing (e.g., the first housing 201) while the user interface of the software application is displayed. It can be identified that it intersects the edge of the display area of 140). For example, the content may intersect the edge depending on a scrolling input (or sweeping input) received while the user interface is displayed. For example, the content may intersect with the edge according to a touch input that drags and then drops the content. However, it is not limited to this.
  • processor 120 may perform a process to move content 2102 within user interface 2101 while the user interface 2101 of a software application is displayed.
  • User input 2103 can be received.
  • the processor 120 may change state 2100 to state 2110 in response to user input 2103.
  • processor 120 may display user interface 2101 including content 2102 at a location identified based on user input 2103.
  • the processor 120 may identify that the content 2102 moved to the location is intersected with the edge 2111 of the display area.
  • display of a portion of content 2102 may be interrupted upon intersection with edge 2111.
  • processor 120 may display a visual object to guide a change in the state of the display area around the content, based on the identification. For example, referring to Figure 21, processor 120 may, within state 2110, identify that content 2102 intersects edge 2111, or determine content 2102 based on the intersection with edge 2111. In response to identifying that display of a portion of is discontinued, state 2110 may change to state 2120. Within state 2120, processor 120 may further display visual object 2121. For example, visual object 2121 may be displayed around content 2102 whose display is partially interrupted.
  • processor 120 in response to user input for the visual object, to resume display of the portion of the content that was interrupted following the intersection with the edge.
  • the display area can be extended through the actuator 150.
  • processor 120 within state 2120, may receive user input 2125 for a visual object 2121.
  • the processor 120 may change state 2120 to state 2130 in response to user input 2125.
  • the processor 120 may change state 2120 to state 2130 by extending the display area through the actuator 150 in response to user input 2125.
  • the extended display area, provided within state 2130 may display a user interface 2131 that includes an entire portion of content 2102, unlike the display area within state 2120. there is.
  • FIGS. 20 and 21 include FIGS. 3, 4, 5, 6, 7, 8a, 8b, 9, 10, 11, 12, 13, 14, 15, 16, 17, 18, and 19. It is not inextricably linked to the actions illustrated.
  • the electronic device 101 identifies, within a state in which the display area can be extended, whether the display of the part of the content within the display area is interrupted, and whether the display of the part of the content is interrupted. In response to identifying an interruption, the visual object may be displayed.
  • the electronic device 101 can reduce inconvenience caused by interruption of the display of the part of the content by providing a function to extend the display area through display of the visual object. For example, the electronic device 101 may provide an enhanced user experience through the display of the visual object.
  • FIG. 22A is a front view of a first state of an electronic device according to an embodiment.
  • FIG. 22B is a rear view of a first state of an electronic device according to an embodiment.
  • FIG. 22C is a front view of a second state of an electronic device according to an embodiment.
  • FIG. 22D is a rear view of a second state of an electronic device according to an embodiment.
  • the electronic device 2200 (e.g., the electronic device 101 of FIG. 1) according to an embodiment includes a first housing 2210 and a second housing. It may include 2220, a display 2230 (e.g., display 140 in FIG. 1), and a camera 2240.
  • the second housing 2220 may be slidable relative to the first housing 2210.
  • the second housing 2220 may move within a specified distance along the first direction (eg, +y direction) with respect to the first housing 2210.
  • the distance between the side 2220a of the second housing 2220 facing the first direction and the first housing 2210 may increase.
  • the second housing 2220 may move within a specified distance along a second direction (eg, -y direction) opposite to the first direction with respect to the first housing 2210.
  • a second direction eg, -y direction
  • the distance between the side 2220a of the second housing 2220 facing the first direction and the first housing 2210 may decrease.
  • the second housing 2220 may linearly reciprocate with respect to the first housing 2210 by sliding relative to the first housing 2210 .
  • at least a portion of the second housing 2220 may be retractable into the first housing 2210 or may be withdrawn from the first housing 2210 .
  • the electronic device 2200 may be called a “slidable electronic device” since the second housing 2220 is designed to be able to slide with respect to the first housing 2210. According to one embodiment, the electronic device 2200 moves at least a portion of the display 2230 into the inside of the second housing 2220 (or the first housing 2210) based on the slide movement of the second housing 2220. As it is designed to be rolled up, it can be named a “rollable electronic device”.
  • the first state of the electronic device 2200 is a state in which the second housing 2220 moves in the second direction (e.g., -y direction) (e.g., a contracted state, or a slide-in state (slide state). -in state))).
  • the second housing 2220 may be movable in the first direction, but may not be movable in the second direction.
  • the distance between the side surface 2220a of the second housing 2220 and the first housing 2210 may increase as the second housing 2220 moves.
  • a portion of the second housing 2220 may be retractable into the first housing 2210.
  • the first state of the electronic device 2200 may be defined as a state in which the second area 2230b of the display 2230 is not visually exposed from the outside of the electronic device 2200.
  • the second area 2230b of the display 2230 is formed by the first housing 2210 and/or the second housing 2220. ) and may not be visible from the outside of the electronic device 2200.
  • the second state of the electronic device 2200 is defined as a state in which the second housing 2220 is moved in the first direction (e.g., an extended state or a slide-out state). It can be.
  • the second housing 2220 may be movable in the second direction, but may not be movable in the first direction.
  • the distance between the side 2220a of the second housing 2220 and the first housing 2210 may decrease as the second housing 2220 moves, but does not increase. It may not be possible.
  • the second state of the electronic device 2200 may be defined as a state in which the second area 2230b of the display 2230 is visually exposed from the outside of the electronic device 2200.
  • the second area 2230b of the display 2230 is drawn out from the internal space of the electronic device 2200 and is visible from the outside of the electronic device 2200. (visible) can.
  • the second housing 2220 when the second housing 2220 moves from the first housing 2210 in the first direction (e.g., +y direction), at least a portion of the second housing 2220 and/or the display 2230
  • the second area 2230b may be drawn out from the first housing 2210 by the drawn-out length d1 corresponding to the moving distance of the second housing 2220.
  • the second housing 2220 may reciprocate within a specified distance d2.
  • the draw length d1 may have a size ranging from approximately 0 to a specified distance d2.
  • the state of the electronic device 2200 can be changed by manual operation by a user or by a driving module (not shown) disposed inside the first housing 2210 or the second housing 2220. ), it may be convertible between the second state and/or the first state.
  • the driving module may trigger an operation based on a user input.
  • user input for triggering the operation of the driving module may include touch input, force touch input, and/or gesture input through the display 2230.
  • the user input for triggering the operation of the driving module includes voice input (voice input) or input of a physical button exposed to the outside of the first housing 2210 or the second housing 2220. can do.
  • the driving module may be driven in a semi-automatic manner in which an operation is triggered when a manual operation by an external force of the user is detected.
  • the first state of the electronic device 2200 may be referred to as a first shape, and the second state of the electronic device 2200 may be referred to as a second shape.
  • the first shape may include a normal state, a collapsed state, or a closed state, and the second shape may include an open state.
  • the electronic device 2200 may form a third state (eg, an intermediate state) that is a state between the first state and the second state.
  • the third state may be referred to as a third shape, and the third shape may include a free stop state.
  • the display 2230 may be visible or viewable from the outside through the front direction (e.g., -z direction) of the electronic device 2200 so as to display visual information to the user.
  • the display 2230 may include a flexible display.
  • the display 2230 is disposed in the second housing 2220 and is pulled out from the internal space (not shown) of the electronic device 2200 as the second housing 2220 moves, or is pulled out from the electronic device 2200. It can be introduced into the internal space of (2200).
  • the internal space of the electronic device 2200 may refer to the space within the first housing 2210 and the second housing 2220 formed by combining the first housing 2210 and the second housing 2220. .
  • At least a portion of the display 2230 may be drawn into the internal space of the electronic device 2200.
  • the second housing 2220 moves in the first direction
  • at least a portion of the display 2230 moves into the internal space of the electronic device 2200. It can be withdrawn from the internal space of .
  • at least a portion of the display 2230 is rolled into the interior of the electronic device 2200, thereby entering the internal space of the electronic device 2200. It can be.
  • the area of the display 2230 visible from the outside of the electronic device 2200 may be expanded or reduced.
  • the display 2230 may include a first area 2230a and a second area 2230b.
  • the first area 2230a of the display 2230 is permanently visible from outside the electronic device 2200, regardless of whether the electronic device 2200 is in the second state or the first state. This may mean an area of the display 2230 that is available.
  • the first area 2230a may refer to a partial area of the display 2230 that is not incorporated into the internal space of the electronic device 2200.
  • the first area 2230a may move together with the second housing 2220 when the second housing 2220 moves.
  • the first area 2230a is located on the front of the electronic device 2200 together with the second housing 2220. It may move along one direction or a second direction.
  • the second area 2230b of the display 2230 is connected to the first area 2230a and enters the internal space of the electronic device 2200 as the second housing 2220 moves. Alternatively, it may be drawn out from the internal space of the electronic device 2200.
  • the second area 2230b of the display 2230 may be in a rolled state and drawn into the internal space of the electronic device 2200 in the first state of the electronic device 2200.
  • the second area 2230b of the display 2230 may be drawn into the internal space of the electronic device 2200 in the first state of the electronic device 2200 and may not be visible from the outside.
  • the second area 2230b of the display 2230 may be pulled out from the internal space of the electronic device 2200 in the second state.
  • the second area 2230b of the display 2230 may be visible from outside the electronic device 2200 in the second state.
  • the area of the display 2230 visible from the outside of the electronic device 2200 may include only the first area 2230a of the display 2230. there is.
  • the area of the display 2230 visible from the outside of the electronic device 2200 is at least a portion of the first area 2230a and the second area 2230b of the display 2230. It can be included.
  • the first housing 2210 of the electronic device 2200 includes a book cover 2211 surrounding the inner space of the first housing 2210 and a rear plate surrounding the rear of the book cover 2211 ( 2212).
  • the second housing 2220 of the electronic device 2200 may include a front cover 2221 surrounding the internal space of the electronic device 2200.
  • the front cover 2221 is inserted into the first cover area 2221a of the front cover 2221, which is not inserted into the inside of the first housing 2210, and the first cover 2221a is inserted into the first housing 2210.
  • it may include a second cover area 2221b that is drawn out.
  • the first cover area 2221a of the front cover 2221 may always be visible, regardless of whether the electronic device 2200 is in the second state or the first state.
  • at least a portion of the first cover area 2221a of the front cover 2221 may form the side surface 2220a of the second housing 2220.
  • the second cover area 2221b of the second housing 2220 may not be visible in the first state and may be visible in the second state.
  • the camera 2240 may acquire an image of a subject based on receiving light from the outside of the electronic device 2200.
  • the camera 2240 may include one or more lenses, an image sensor, and/or an image signal processor.
  • the camera 2240 is installed in the second housing so that it faces the rear of the electronic device 2200, which is opposite to the front of the electronic device 2200 where the first area 2230a of the display 2230 is disposed. It can be placed at (2220).
  • the camera 2240 is disposed on the front cover 2221 of the second housing 2220, and when the electronic device 2200 is in the first state, the camera 2240 opens the opening 2211a formed in the book cover 2211. Through this, it may be visible from outside the electronic device 2200.
  • the camera 2240 is disposed on the front cover 2221 of the second housing 2220, and when the electronic device 2200 is in the first state, the book cover 2211 and/or the rear plate ( 2212) and may not be visible from outside the electronic device 2200.
  • the camera 2240 may include a plurality of cameras.
  • the camera 2240 may include a wide-angle camera, an ultra-wide-angle camera, a telephoto camera, a proximity camera, and/or a depth camera.
  • the camera 2240 is not necessarily limited to including a plurality of cameras and may include one camera.
  • the camera 2240 may further include a camera (not shown) aimed at the front of the electronic device 2200 where the first area 2230a of the display 2230 is located.
  • the camera 2240 is an under-display camera (UDC) disposed below the display 2230 (e.g., in the +z direction from the display 2230). may be under display camera), but is not limited thereto.
  • UDC under-display camera
  • the electronic device 2200 may include a sensor module (not shown) and/or a camera module (not shown) disposed below the display 2230.
  • the sensor module may detect the external environment based on information (e.g., light) received through the display 2230.
  • the sensor module includes a receiver, proximity sensor, ultrasonic sensor, gesture sensor, gyro sensor, barometric pressure sensor, magnetic sensor, acceleration sensor, grip sensor, color sensor, IR (infrared) sensor, biometric sensor, and temperature sensor. It may include at least one of a sensor, a humidity sensor, a motor encoder, or an indicator.
  • the electronic device 2200 may detect the draw-out length (eg, draw-out length d1) using a sensor module.
  • the electronic device 2200 may generate retrieval information about the degree of retrieval detected by the sensor.
  • the electronic device 2200 may detect and/or confirm the extent to which the second housing 2220 has been withdrawn using the withdrawal information.
  • the pull-out information may include information about the pull-out length of the second housing 2220.
  • the combined form of the first housing 2210 and the second housing 2220 is not limited to the form and combination shown in FIGS. 22A, 22B, 22C, and 22D, and other shapes or parts may be used. It may also be implemented by combination and/or combination of.
  • FIG. 23A is an exploded perspective view of an electronic device according to an embodiment.
  • FIG. 23B is a cross-sectional view illustrating an example of an electronic device cut along line A-A' of FIG. 22A according to an embodiment.
  • the electronic device 2200 includes a first housing 2210, a second housing 2220, a display 2230, a camera 2240, and a battery 2250. , and a driving unit 2260.
  • the first housing 2210 and the second housing 2220 may be combined with each other to form the internal space 2201 of the electronic device 2200.
  • the second area 2230b of the display 2230 may be accommodated in the internal space 2201.
  • the first housing 2210 may include a book cover 2211, a back plate 2212, and a frame cover 2213.
  • the book cover 2211, the back plate 2212, and the frame cover 2213 included in the first housing 2210 are coupled to each other, so that the second housing 2220 is the first housing ( 2210), it may not move.
  • the book cover 2211 may form at least a portion of the outer surface of the electronic device 2200.
  • the book cover 2211 may form at least part of the side of the electronic device 2200 and at least part of the rear of the electronic device 2200.
  • the book cover 2211 may provide a surface on which the rear plate 2212 is seated.
  • the rear plate 2212 may be seated on one side of the book cover 2211.
  • the frame cover 2213 may support internal components of the electronic device 2200.
  • the frame cover 2213 may accommodate at least a portion of the battery 2250 and the driving unit 2260.
  • the battery 2250 and the driving unit 2260 may be accommodated in at least one of a recess or a hole included in the frame cover 2213.
  • the frame cover 2213 may be surrounded by a book cover 2211.
  • one side 2213a of the frame cover 2213 on which the battery 2250 is disposed is the second side of the book cover 2211 and/or the display 2230. It may face at least a portion of area 2230b.
  • the other side 2213b of the frame cover 2213 facing one side 2213a of the frame cover 2213 is the first side of the display 2230. It may face area 2230a, or front cover 2221.
  • the frame cover 2213 may include aluminum as a material, but is not limited thereto.
  • the second housing 2220 may include a front cover 2221, a rear cover 2222, and a slide cover 2223.
  • the front cover 2221, the rear cover 2222, and the slide cover 2223 are coupled to each other, so that when the second housing 2220 moves relative to the first housing 2210, It can be moved together with the second housing 2220.
  • the front cover 2221 may support internal components of the electronic device 2200.
  • the printed circuit board 2224 and/or the camera 2240 on which the electronic components of the electronic device 2200 (e.g., the processor 120 of FIG. 1) are disposed are located at the front facing the internal space 2201. It may be placed on one side (2221c) of the cover (2221).
  • the other side 2221d of the front cover 2221 facing the one side 2221c of the front cover 2221 is the first area 2230a of the display 2230 when the electronic device 2200 is in the first state. You can face it.
  • the rear cover 2222 may be coupled to the front cover 2221 to protect components of the electronic device 2200 disposed on the front cover 2221.
  • the rear cover 2222 may cover a portion of one surface 2221c of the front cover 2221.
  • the slide cover 2223 is disposed on the rear cover 2222 (e.g., in the +z direction) of the electronic device 2200 together with the rear plate 2212 and the book cover 2211. The exterior can be formed.
  • the slide cover 2223 may be coupled to one side of the rear cover 2222 to protect the rear cover 2222 and/or the front cover 2221.
  • the display 2230 when the electronic device 2200 is in the first state, the display 2230 may be bent by at least a portion of the display 2230 being rolled into the internal space 2201. According to one embodiment, the display 2230 may cover at least a portion of the frame cover 2213 and at least a portion of the front cover 2221. For example, when the electronic device 2200 is in the first state, the display 2230 covers the other side 2221d of the front cover 2221 and is between the front cover 2221 and the book cover 2211. Passing through, it may extend toward the internal space 2201. The display 2230 may pass between the front cover 2221 and the book cover 2211 and then surround the frame cover 2213. The display 2230 may cover one side 2213a of the frame cover 2213 within the internal space 2201.
  • the second area 2230b of the display 2230 may be drawn out from the internal space 2201.
  • the display 2230 may pass between the front cover 2221 and the book cover 2211 and be drawn out from the internal space 2201. .
  • the electronic device 2200 may include a support bar 2231 and a guide rail 2232 that support the display 2230.
  • the support bar 2231 includes a plurality of bars coupled to each other, and may be manufactured in a shape corresponding to the shape of the second area 2230b of the display 2230.
  • the support bar 2231 may move with the display 2230 as the display 2230 moves.
  • the support bar 2231 in a first state in which the second area 2230b of the display 2230 is wound within the internal space 2201, the support bar 2231 is connected to the second area 2230b of the display 2230. ) may be wound within the internal space 2201.
  • the support bar 2231 may move together with the second area 2230b of the display 2230 as the second housing 2220 moves in the first direction.
  • the guide rail 2232 may guide the movement of the support bar 2231.
  • the support bar 2231 may move along the guide rail 2232 coupled to the frame cover 2213.
  • the guide rail 2232 may be coupled to the frame cover 2213.
  • the guide rail 2232 is located at both edges of the frame cover 2213 spaced apart from each other along a third direction (e.g., +x direction) substantially perpendicular to the first direction (e.g., +y direction). It may include a plurality of guide rails 2232 arranged to be spaced apart from each other.
  • the driving unit 2260 may provide a driving force to the second housing 2220 so that the second housing 2220 can move relative to the first housing 2210.
  • the driving unit 2260 may include a motor 2261, a pinion gear 2262, and a rack gear 2263.
  • the motor 2261 may receive power from the battery 2250 and provide driving force to the second housing 2220.
  • the motor 2261 may be disposed in the first housing 2210 and not move when the second housing 2220 moves with respect to the first housing 2210.
  • the motor 2261 may be placed in a recess formed in the frame cover 2213.
  • the pinion gear 2262 is coupled to the motor 2261 and may rotate by driving force provided from the motor 2261.
  • the rack gear 2263 engages with the pinion gear 2262 and can move according to the rotation of the pinion gear 2262.
  • the rack gear 2263 may linearly reciprocate in the first or second direction according to the rotation of the pinion gear 2262.
  • the rack gear 2263 may be disposed in the second housing 2220.
  • the rack gear 2263 may be coupled to the front cover 2221 included in the second housing 2220.
  • the rack gear 2263 may be movable inside the operating space 2213p formed in the frame cover 2213.
  • the rack gear 2263 when the pinion gear 2262 rotates along a first rotation direction (e.g., clockwise in FIG. 21B), the rack gear 2263 may move in the first direction (e.g., +y direction). there is.
  • the rack gear 2263 moves along the first direction
  • the second housing 2220 coupled with the rack gear 2263 may move along the first direction.
  • the area of the display 2230 visible from the outside of the electronic device 2200 may be expanded.
  • the rack gear 2263 When the pinion gear 2262 rotates along the second rotation direction (eg, counterclockwise in FIG. 21B), the rack gear 2263 may move in the second direction (eg, -y direction).
  • the second housing 2220 coupled with the rack gear 2263 may move along the second direction.
  • the area of the display 2230 visible from the outside of the electronic device 2200 may be reduced.
  • the motor 2261 and the pinion gear 2262 are disposed in the first housing 2210, and the rack gear 2263 is disposed in the second housing 2220.
  • the embodiments are limited to this. It may not work.
  • the motor 2261 and the pinion gear 2262 may be disposed in the second housing 2220, and the rack gear 2263 may be disposed in the first housing 2210.
  • An electronic device, method, and non-transitory computer-readable storage medium provide an enhanced user experience (UX) by displaying a visual object for changing the size of the display area of a flexible display. can be provided.
  • UX enhanced user experience
  • an electronic device includes a housing, a flexible display that can be inserted into or withdrawn from the housing, and at least a portion of the flexible display that can be inserted into or out of the housing. It may include an actuator for extracting at least a portion of the flexible display, a memory configured to store instructions, and a processor operatively coupled to the flexible display.
  • the processor may be configured to receive user input to change the execution state of a software application when the instructions are executed. When the instructions are executed, the processor may be configured to identify whether the state of the display area of the flexible display exposed outside the housing is a reference state in response to the user input.
  • the processor is configured to display a visual object for guiding changing the state of the display area to the reference state based on identifying that the state of the display area is distinct from the reference state when the instructions are executed. It can be.
  • the processor adjusts the size of the display area through the actuator from a first size to a second size corresponding to the reference state, based at least in part on user input received while the visual object is displayed. It can be configured to change to .
  • the processor may be configured to display a user interface of the software application within the display area having the second size when the instructions are executed.
  • the processor may be further configured, when the instructions are executed, to refrain from displaying the visual object based on identifying that the state of the display area corresponds to the reference state.
  • the user input for changing the execution state of the software application may include a user input for displaying a screen including a list of software applications running in the electronic device.
  • the visual object may be displayed within the screen.
  • the processor when the instructions are executed, displays an image corresponding to the user interface included in the screen based on identifying that the state of the display area corresponds to the reference state. It may be configured to display within the display area having a size of 1. In one embodiment, the processor, when the instructions are executed, converts the image associated with the visual object to the image having the first size based on identifying that the state of the display area is distinct from the reference state. It may be configured to display within a display area. In one embodiment, the visual object may have a representation to indicate the second size.
  • the processor may be configured to receive user input regarding the image associated with the visual object while the image is displayed within the screen when the instructions are executed. In one embodiment, the processor may be configured to display information for identifying whether to change the size of the display area to the second size in response to the user input for the image when the instructions are executed. You can. In one embodiment, when the instructions are executed, the processor changes the size of the display area to the second size in response to a user input received while the information is displayed, and displays a display area having the second size. It may be configured to display the user interface within the display area. In one embodiment, when the instructions are executed, the processor maintains the size of the display area at the first size in response to another user input received while the information is displayed, and displays a display area having the first size. It may be configured to display the user interface within the display area.
  • the processor may be configured to receive user input regarding the image associated with the visual object while the image is displayed within the screen when the instructions are executed. In one embodiment, the processor, when the instructions are executed, in response to the user input for the image, within the display area having the first size, displays the user interface, the image having the second size. It may be configured to display together with another visual object including a reduced image of the user interface within a display area. In one embodiment, the processor, when the instructions are executed, in response to user input for the other visual object, changes the size of the display area to the second size and displays the display having the second size. It may be configured to display the user interface within the area.
  • the other visual objects may be overlaid or floated on the user interface.
  • the processor may be configured to receive user input regarding the image associated with the visual object while the image is displayed within the screen when the instructions are executed.
  • the processor in response to the user input for the image, displays the user interface, within the display area having the first size, and determines the state of the display area. It may be configured to display with another visual object for changing to the reference state.
  • the processor when the instructions are executed, in response to user input for the other visual object, changes the size of the display area to the second size and displays the display having the second size. It may be configured to display the user interface within the area.
  • the other visual object may be displayed within a navigation bar displayed within the display area.
  • the processor when executing the instructions, is configured to, in response to receiving a user input regarding the visual object while the image associated with the visual object is displayed within the screen, It may be configured to change the size to the second size and display the user interface within the display area having the second size.
  • the processor when executing the instructions, in response to receiving user input regarding the image associated with the visual object while the image is displayed within the screen, is configured to: It may be configured to display the user interface within the display area.
  • the user input for changing the execution state of the software application may include a user input for executing the software application.
  • the processor when the instructions are executed, within the display area having the first size, based on identifying that the state of the display area is distinct from the reference state, the software application and may be configured to display the visual object with the user interface displayed in response to execution.
  • the processor when the instructions are executed, may be configured to refrain from displaying the visual object based on identifying that the state of the display area corresponds to the reference state.
  • the visual object may be displayed at the location where the user input for executing the software application is received.
  • the visual object may be overlaid or floated on the user interface.
  • the processor may identify whether a predetermined amount of time has elapsed from the timing of displaying the visual object. In one embodiment, the processor may be configured to maintain display of the visual object along with the user interface while identifying that the predetermined time has not elapsed from the timing when the instructions are executed. In one embodiment, the processor may be further configured, when the instructions are executed, to stop displaying the visual object in response to identifying that the predetermined amount of time has elapsed from the timing.
  • the reference state may be a state of the display area when the user interface is displayed before the user input for changing the execution state of the software application is received.
  • the reference state may be a state of the display area identified based on the arrangement of content within the user interface.
  • the reference state may be a state of the display area identified based on attributes of at least some of the contents in the user interface.
  • the reference state may be a state of the display area identified based on the size of contents within the user interface.
  • the visual object may include a visual element for indicating the second size.
  • the visual element may include a bar-shaped indicator to show a length corresponding to the second size.
  • the processor may be configured to, when the instructions are executed, change the size of the display area to the second size in response to a touch input on the visual object that is released before a predetermined time has elapsed. You can.
  • the processor displays the visual object including the bar-shaped indicator having an enlarged size in response to a touch input on the visual object that is maintained for more than the predetermined time. It can be configured to do so.
  • the processor adjusts the size of the display area to a size corresponding to a user input received through the bar-shaped indicator having the enlarged size through the actuator. It can be configured to change.
  • an electronic device includes a housing, a flexible display that can be inserted into or pulled out of the housing, and at least a portion of the flexible display that can be inserted into or pulled out of the housing. It may include an actuator for retrieving a portion, a memory configured to store instructions, and a processor operatively coupled to the flexible display.
  • the processor when the instructions are executed, while the user interface of the software application is displayed, the content in the user interface intersects with an edge of the display area of the flexible display exposed outside the housing. It can be configured to identify.
  • the processor may be configured to display a visual object to guide a change in the state of the display area around the content based on the identification when the instructions are executed.
  • the processor when the instructions are executed, in response to user input for the visual object, adjusts the display area to resume display of the portion of the content that was interrupted following the intersection with the edge. It may be configured to extend through the actuator.
  • Electronic devices may be of various types.
  • Electronic devices may include, for example, portable communication devices (e.g., smartphones), computer devices, portable multimedia devices, portable medical devices, cameras, wearable devices, or home appliances.
  • Electronic devices according to embodiments of this document are not limited to the above-described devices.
  • first, second, or first or second may be used simply to distinguish one component from another, and to refer to that component in other respects (e.g., importance or order) is not limited.
  • One (e.g., first) component is said to be “coupled” or “connected” to another (e.g., second) component, with or without the terms “functionally” or “communicatively.”
  • any of the components can be connected to the other components directly (e.g. wired), wirelessly, or through a third component.
  • module used in various embodiments of this document may include a unit implemented in hardware, software, or firmware, and is interchangeable with terms such as logic, logic block, component, or circuit, for example. It can be used as A module may be an integrated part or a minimum unit of the parts or a part thereof that performs one or more functions. For example, according to one embodiment, the module may be implemented in the form of an application-specific integrated circuit (ASIC).
  • ASIC application-specific integrated circuit
  • Various embodiments of the present document are one or more instructions stored in a storage medium (e.g., built-in memory 1536 or external memory 1538) that can be read by a machine (e.g., electronic device 1501). It may be implemented as software (e.g., program 1540) including these.
  • a processor e.g., processor 1520 of a device (e.g., electronic device 1501) may call at least one command among one or more commands stored from a storage medium and execute it. This allows the device to be operated to perform at least one function according to the at least one instruction called.
  • the one or more instructions may include code generated by a compiler or code that can be executed by an interpreter.
  • a storage medium that can be read by a device may be provided in the form of a non-transitory storage medium.
  • 'non-transitory' only means that the storage medium is a tangible device and does not contain signals (e.g. electromagnetic waves), and this term refers to cases where data is semi-permanently stored in the storage medium. There is no distinction between temporary storage cases.
  • Computer program products are commodities and can be traded between sellers and buyers.
  • the computer program product may be distributed in the form of a machine-readable storage medium (e.g. compact disc read only memory (CD-ROM)) or through an application store (e.g. Play StoreTM) or on two user devices (e.g. It can be distributed (e.g. downloaded or uploaded) directly between smart phones) or online.
  • a machine-readable storage medium e.g. compact disc read only memory (CD-ROM)
  • an application store e.g. Play StoreTM
  • two user devices e.g. It can be distributed (e.g. downloaded or uploaded) directly between smart phones) or online.
  • at least a portion of the computer program product may be at least temporarily stored or temporarily created in a machine-readable storage medium, such as the memory of a manufacturer's server, an application store's server, or a relay server.
  • each component (e.g., module or program) of the above-described components may include a single or plural entity, and some of the plurality of entities may be separately placed in other components. there is.
  • one or more of the components or operations described above may be omitted, or one or more other components or operations may be added.
  • multiple components eg, modules or programs
  • the integrated component may perform one or more functions of each component of the plurality of components in the same or similar manner as those performed by the corresponding component of the plurality of components prior to the integration. .
  • operations performed by a module, program, or other component may be executed sequentially, in parallel, iteratively, or heuristically, or one or more of the operations may be executed in a different order, or omitted. Alternatively, one or more other operations may be added.

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Environmental & Geological Engineering (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

전자 장치가 제공된다. 상기 전자 장치는, 하우징과, 상기 하우징 안으로 슬라이드하거나 밖으로 슬라이드하도록 구성된 플렉서블 디스플레이와, 상기 하우징 안으로 상기 플렉서블 디스플레이의 적어도 일부를 인입하거나 상기 하우징 밖으로 상기 플렉서블 디스플레이의 적어도 일부를 인출하도록 구성된 액츄에이터와, 인스트럭션들을 저장하도록 구성된 메모리와, 상기 플렉서블 디스플레이와 작동적으로 결합된 프로세서를 포함할 수 있다. 상기 프로세서는, 표시 영역의 상태가 기준 상태와 구별됨을 식별하는 것에 기반하여, 상기 표시 영역의 상태를 상기 기준 상태로 변경할 것을 가이드하기 위한 시각적 객체를 표시하도록 구성될 수 있다.

Description

플렉서블 디스플레이의 표시 영역의 사이즈를 변경하기 위한 시각적 객체를 표시하는 전자 장치, 방법, 및 비일시적 컴퓨터 판독가능 저장 매체
아래의 설명들은, 플렉서블 디스플레이(flexible display)의 표시 영역의 사이즈를 변경하기 위한 시각적 객체를 표시하는 전자 장치(electronic device), 방법, 및 비일시적 컴퓨터 판독가능 저장 매체(non-transitory computer readable storage medium)에 관한 것이다.
롤러블(rollable) 디스플레이와 같은 플렉서블 디스플레이를 포함하는 전자 장치는, 상기 플렉서블 디스플레이의 일부가 상기 전자 장치의 하우징 안으로 인입된 상태 및 상기 플렉서블 디스플레이의 상기 일부를 상기 하우징 밖으로 노출하는 상태를 제공할 수 있다. 상기 전자 장치는, 상기 상태들을 제공하는 것을 통해, 상대적으로 콤팩트한 구조를 가지면서, 상대적으로 넓은 표시 영역을 제공할 수 있다.
위 정보는, 본 개시의 이해를 단지 보조하기 위한 배경 정보로 제공된다. 위 정보의 어떠한 것도 본 개시에 관하여 선행으로 적용할 수 있는 어떠한 결정 및 주장을 이루지 않는다.
일 실시예에 따른, 전자 장치는, 하우징과, 상기 하우징 안으로 슬라이드하거나 밖으로 슬라이드하도록 구성된 플렉서블 디스플레이와, 상기 하우징 안으로 상기 플렉서블 디스플레이의 적어도 일부를 인입하거나 상기 하우징 밖으로 상기 플렉서블 디스플레이의 적어도 일부를 인출하기 위한 액츄에이터와, 인스트럭션들을 저장하도록 구성된 메모리와, 상기 플렉서블 디스플레이와 작동적으로 결합된 프로세서를 포함할 수 있다. 상기 프로세서는, 상기 인스트럭션들이 실행될 시, 소프트웨어 어플리케이션의 실행 상태를 변경하기 위한 사용자 입력을 수신하도록 구성될 수 있다. 상기 프로세서는, 상기 인스트럭션들이 실행될 시, 상기 사용자 입력에 응답하여, 상기 하우징 밖으로 노출된, 상기 플렉서블 디스플레이의 표시 영역의 상태가 기준 상태인지 여부를 식별하도록 구성될 수 있다. 상기 프로세서는, 상기 인스트럭션들이 실행될 시, 상기 표시 영역의 상태가 상기 기준 상태와 구별됨을 식별하는 것에 기반하여, 상기 표시 영역의 상태를 상기 기준 상태로 변경할 것을 가이드하기 위한 시각적 객체를 표시하도록 구성될 수 있다. 상기 프로세서는, 상기 인스트럭션들이 실행될 시, 상기 시각적 객체가 표시되는 동안 수신되는 사용자 입력에 적어도 일부 기반하여, 상기 표시 영역의 사이즈를 제1 사이즈로부터 상기 기준 상태에 대응하는 제2 사이즈로 변경하도록 상기 엑츄에이터를 제어하도록 구성될 수 있다. 상기 프로세서는, 상기 인스트럭션들이 실행될 시, 상기 제2 사이즈를 가지는 상기 표시 영역 내에서 상기 소프트웨어 어플리케이션의 사용자 인터페이스를 표시하도록, 구성될 수 있다.
일 실시예에 따른, 하우징, 상기 하우징 안으로 인입되거나 인출될 수 있는 플렉서블 디스플레이, 및 상기 하우징 안으로 상기 플렉서블 디스플레이의 적어도 일부를 인입하거나 상기 하우징 밖으로 상기 플렉서블 디스플레이의 적어도 일부를 인출하기 위한 액츄에이터를 포함하는 전자 장치를 동작하기 위한 방법은, 소프트웨어 어플리케이션의 실행 상태를 변경하기 위한 사용자 입력을 수신하는 동작을 포함할 수 있다. 상기 방법은, 상기 사용자 입력에 응답하여, 상기 하우징 밖으로 노출된, 상기 플렉서블 디스플레이의 표시 영역의 상태가 기준 상태인지 여부를 식별하는 동작을 포함할 수 있다. 상기 방법은, 상기 표시 영역의 상태가 상기 기준 상태와 구별됨을 식별하는 것에 기반하여, 상기 표시 영역의 상태를 상기 기준 상태로 변경할 것을 가이드하기 위한 시각적 객체를 표시하는 동작을 포함할 수 있다. 상기 방법은, 상기 시각적 객체가 표시되는 동안 수신되는 사용자 입력에 적어도 일부 기반하여, 상기 액츄에이터를 통해 상기 표시 영역의 사이즈를 제1 사이즈로부터 상기 기준 상태에 대응하는 제2 사이즈로 변경하는 동작을 포함할 수 있다. 상기 방법은, 상기 제2 사이즈를 가지는 상기 표시 영역 내에서 상기 소프트웨어 어플리케이션의 사용자 인터페이스를 표시하는 동작을 포함할 수 있다.
일 실시예에 따른, 비일시적 컴퓨터 판독가능 저장 매체는, 하우징, 상기 하우징 안으로 인입되거나 인출될 수 있는 플렉서블 디스플레이, 및 상기 하우징 안으로 상기 플렉서블 디스플레이의 적어도 일부를 인입하거나 상기 하우징 밖으로 상기 플렉서블 디스플레이의 적어도 일부를 인출하기 위한 액츄에이터를 포함하는 전자 장치의 프로세서에 의해 실행될 시, 소프트웨어 어플리케이션의 실행 상태를 변경하기 위한 사용자 입력을 수신하도록 상기 전자 장치를 야기하는 인스트럭션들을 포함하는 하나 이상의 프로그램들을 저장할 수 있다. 상기 하나 이상의 프로그램들은, 상기 전자 장치의 상기 프로세서에 의해 실행될 시, 상기 사용자 입력에 응답하여, 상기 하우징 밖으로 노출된, 상기 플렉서블 디스플레이의 표시 영역의 상태가 기준 상태인지 여부를 식별하도록 상기 전자 장치를 야기하는 인스트럭션들을 포함할 수 있다. 상기 하나 이상의 프로그램들은, 상기 전자 장치의 상기 프로세서에 의해 실행될 시, 상기 표시 영역의 상태가 상기 기준 상태와 구별됨을 식별하는 것에 기반하여, 상기 표시 영역의 상태를 상기 기준 상태로 변경할 것을 가이드하기 위한 시각적 객체를 표시하도록 상기 전자 장치를 야기하는 인스트럭션들을 포함할 수 있다. 상기 하나 이상의 프로그램들은, 상기 전자 장치의 상기 프로세서에 의해 실행될 시, 상기 시각적 객체가 표시되는 동안 수신되는 사용자 입력에 적어도 일부 기반하여, 상기 액츄에이터를 통해 상기 표시 영역의 사이즈를 제1 사이즈로부터 상기 기준 상태에 대응하는 제2 사이즈로 변경하도록 상기 전자 장치를 야기하는 인스트럭션들을 포함할 수 있다. 상기 하나 이상의 프로그램들은, 상기 전자 장치의 상기 프로세서에 의해 실행될 시, 상기 제2 사이즈를 가지는 상기 표시 영역 내에서 상기 소프트웨어 어플리케이션의 사용자 인터페이스를 표시하도록, 상기 전자 장치를 야기하는 인스트럭션들을 포함할 수 있다.
일 실시예에 따른, 전자 장치는, 하우징과, 상기 하우징 안으로 인입되거나 인출될 수 있는 플렉서블 디스플레이와, 상기 하우징 안으로 상기 플렉서블 디스플레이의 적어도 일부를 인입하거나 상기 하우징 밖으로 상기 플렉서블 디스플레이의 적어도 일부를 인출하기 위한 액츄에이터와, 인스트럭션들을 저장하도록 구성된 메모리와, 상기 플렉서블 디스플레이와 작동적으로 결합된 프로세서를 포함할 수 있다. 상기 프로세서는, 상기 인스트럭션들이 실행될 시, 소프트웨어 어플리케이션의 사용자 인터페이스가 표시되는 동안, 상기 사용자 인터페이스 내의 콘텐트가 상기 하우징 밖으로 노출된 상기 플렉서블 디스플레이의 표시 영역의 가장자리와 교차됨(intersected with)을 식별하도록, 구성될 수 있다. 상기 프로세서는, 상기 인스트럭션들이 실행될 시, 상기 식별에 기반하여, 상기 콘텐트 주변에서 상기 표시 영역의 상태의 변경을 가이드하기 위한 시각적 객체를 표시하도록 구성될 수 있다. 상기 프로세서는, 상기 인스트럭션들이 실행될 시, 상기 시각적 객체에 대한 사용자 입력에 응답하여, 상기 가장자리와의 상기 교차에 따라 중단된 상기 콘텐트의 일부의 표시를 재개하기 위해 상기 표시 영역을 상기 액츄에이터를 통해 연장하도록, 구성될 수 있다.
일 실시예에 따른, 하우징, 상기 하우징 안으로 인입되거나 인출될 수 있는 플렉서블 디스플레이, 및 상기 하우징 안으로 상기 플렉서블 디스플레이의 적어도 일부를 인입하거나 상기 하우징 밖으로 상기 플렉서블 디스플레이의 적어도 일부를 인출하기 위한 액츄에이터를 포함하는 전자 장치를 동작하기 위한 방법은, 소프트웨어 어플리케이션의 사용자 인터페이스가 표시되는 동안, 상기 사용자 인터페이스 내의 콘텐트가 상기 하우징 밖으로 노출된 상기 플렉서블 디스플레이의 표시 영역의 가장자리와 교차됨(intersected with)을 식별하는 동작을 포함할 수 있다. 상기 방법은, 상기 식별에 기반하여, 상기 콘텐트 주변에서 상기 표시 영역의 상태의 변경을 가이드하기 위한 시각적 객체를 표시하는 동작을 포함할 수 있다. 상기 방법은, 상기 시각적 객체에 대한 사용자 입력에 응답하여, 상기 가장자리와의 상기 교차에 따라 중단된 상기 콘텐트의 일부의 표시를 재개하기 위해 상기 표시 영역을 상기 액츄에이터를 통해 연장하는 동작을 포함할 수 있다.
일 실시예에 따른, 비일시적 컴퓨터 판독가능 저장 매체는, 하우징, 상기 하우징 안으로 인입되거나 인출될 수 있는 플렉서블 디스플레이, 및 상기 하우징 안으로 상기 플렉서블 디스플레이의 적어도 일부를 인입하거나 상기 하우징 밖으로 상기 플렉서블 디스플레이의 적어도 일부를 인출하기 위한 액츄에이터를 포함하는 전자 장치의 프로세서에 의해 실행될 시, 소프트웨어 어플리케이션의 사용자 인터페이스가 표시되는 동안, 상기 사용자 인터페이스 내의 콘텐트가 상기 하우징 밖으로 노출된 상기 플렉서블 디스플레이의 표시 영역의 가장자리와 교차됨(intersected with)을 식별하도록, 상기 전자 장치를 야기하는 인스트럭션들을 포함하는 하나 이상의 프로그램들을 저장할 수 있다. 상기 하나 이상의 프로그램들은, 상기 전자 장치의 상기 프로세서에 의해 실행될 시, 상기 식별에 기반하여, 상기 콘텐트 주변에서 상기 표시 영역의 상태의 변경을 가이드하기 위한 시각적 객체를 표시하도록 상기 전자 장치를 야기하는 인스트럭션들을 포함할 수 있다. 상기 하나 이상의 프로그램들은, 상기 전자 장치의 상기 프로세서에 의해 실행될 시, 상기 시각적 객체에 대한 사용자 입력에 응답하여, 상기 가장자리와의 상기 교차에 따라 중단된 상기 콘텐트의 일부의 표시를 재개하기 위해 상기 표시 영역을 상기 액츄에이터를 통해 연장하도록, 상기 전자 장치를 야기하는 인스트럭션들을 포함할 수 있다.
도 1은 전자 장치의 예시적인(exemplary) 구성요소들을 도시한다.
도 2는 전자 장치의 플렉서블 디스플레이의 표시 영역의 사이즈의 변경의 예를 도시한다.
도 3은 표시 영역의 사이즈를 변경하기 위한 시각적 객체를 표시하는 예시적인 방법을 도시한다.
도 4 및 5는 소프트웨어 어플리케이션의 실행 상태를 변경하기 위한 사용자 입력의 예를 도시한다.
도 6 내지 8b는 표시 영역의 사이즈를 변경하기 위한 예시적인 시각적 객체를 도시한다.
도 9는 표시 영역의 사이즈를 변경할 것인지 여부를 식별하기 위한 정보를 표시하는 예시적인 방법을 도시한다.
도 10은 표시 영역의 사이즈를 변경할 것인지 여부를 식별하기 위한 정보의 예를 도시한다.
도 11은 다른 시각적 객체를 표시하는 예시적인 방법을 도시한다.
도 12 및 13은 다른 시각적 객체의 예를 도시한다.
도 14는 시각적 객체와 연계된 이미지에 대한 사용자 입력에 따라 표시 영역의 사이즈를 적응적으로 변경하는 예시적인 방법을 도시한다.
도 15는 사용자 입력에 따른 표시 영역의 사이즈의 적응적 변경의 예를 도시한다.
도 16은 미리 결정된 시간의 경과에 따라 시각적 객체의 표시를 중단하는 예시적인 방법을 도시한다.
도 17은 미리 결정된 시간의 경과에 따라 표시가 중단되는 시각적 객체의 예를 도시한다.
도 18은 표시 영역의 사이즈를 시각적 객체에 대한 적어도 하나의 입력을 통해 식별하는 예시적인 방법을 도시한다.
도 19는 표시 영역의 사이즈를 식별하기 위한 시각적 요소를 포함하는 시각적 객체의 예를 도시한다.
도 20은 표시 영역의 가장자리와 교차된 콘텐트의 식별에 기반하여 시각적 객체를 표시하는 예시적인 방법을 도시한다.
도 21은 표시 영역의 가장자리와 교차된 콘텐트의 식별에 기반하여 표시되는 시각적 객체의 예를 도시한다.
도 22a는, 일 실시예에 따른 전자 장치의 제1 상태의 전면도(front view)이다.
도 22b는, 일 실시예에 따른 전자 장치의 제1 상태의 후면도(rear view)이다.
도 22c는, 일 실시예에 따른 전자 장치의 제2 상태의 전면도(front view)이다.
도 22d는, 일 실시예에 따른 전자 장치의 제2 상태의 후면도(rear view)이다.
도 23a는, 일 실시예에 따른 전자 장치의 분해 사시도(exploded perspective view)이다.
도 23b는, 일 실시예에 따른 전자 장치를 도 22a의 A-A'를 따라 절단한 예를 도시한 단면도(cross-sectional view)이다.
전자 장치는, 상기 전자 장치의 하우징 안으로 적어도 부분적으로 인입되거나 상기 하우징 밖으로 적어도 부분적으로 인출되는 플렉서블 디스플레이를 포함할 수 있다. 상기 하우징 밖으로 노출되는 상기 플렉서블 디스플레이의 표시 영역(display region)의 사이즈는, 상기 인입 또는 상기 인출에 따라 변경될 수 있다. 예를 들면, 상기 표시 영역의 사이즈는 상기 인입 또는 상기 인출에 따라 제1 사이즈로부터 상기 제1 사이즈와 다른 제2 사이즈로 변경될 수 있다. 예를 들면, 상기 제1 사이즈를 가지는 상기 표시 영역을 통해 제공되는 사용자 경험은 상기 제2 사이즈를 가지는 상기 표시 영역을 통해 제공되는 사용자 경험과 다를 수 있다. 따라서, 상황에 따라 적응적으로 상기 표시 영역의 사이즈를 변경하기 위한 방안이 요구될 수 있다.
도 1은 일 실시예에 따른 전자 장치의 예시적인(exemplary) 구성요소들을 도시한다.
도 1을 참조하면, 전자 장치(101)는, 도 20 내에서 도시된 전자 장치(2001), 도 22a 내지 도 22d 내에서 도시된 전자 장치(2200), 도 23a 및 도 23b 내에서 도시된 전자 장치(2200)로 구현될 수 있다.
전자 장치(101)는, 프로세서(120), 메모리(130), 플렉서블 디스플레이(140), 및 액츄에이터(150)를 포함할 수 있다.
예를 들면, 프로세서(120)는, 메모리(130), 플렉서블 디스플레이(140), 및 액츄에이터(150)와 작동적으로 결합될 수 있다.
예를 들면, 메모리(130)는, 인스트럭션들을 포함하는 하나 이상의 프로그램들(또는 하나 이상의 소프트웨어 어플리케이션들)을 저장할 수 있다. 예를 들면, 상기 인스트럭션들은, 도 3, 4, 5, 6, 7, 8a, 8b, 9, 10, 11, 12, 13, 14, 15, 16, 17, 18, 19, 20, 및 도 21의 설명들을 통해 예시되는 동작들의 적어도 일부를 실행하기 위해 포함될 수 있다.
예를 들면, 플렉서블 디스플레이(140)는, 프로세서(120)의 제어에 기반하여, 플렉서블 디스플레이(140)의 표시 영역의 표시 상태를 변경할 수 있다.
예를 들면, 액츄에이터(150)는, 도 23a 및 도 23b 내에서 도시된 구동부(2360)를 포함할 수 있다. 예를 들면, 액츄에이터(150)는, 프로세서(120)의 제어에 기반하여, 전자 장치(101)의 하우징 안으로 플렉서블 디스플레이(140)의 적어도 일부를 인입하거나 상기 하우징으로부터 플렉서블 디스플레이(140)의 적어도 일부를 인출할 수 있다.
예를 들면, 플렉서블 디스플레이(140)는, 액츄에이터(150)를 통해, 전자 장치(101)의 상기 하우징 안으로 적어도 부분적으로(at least partially) 인입될 수 있다. 예를 들면, 플렉서블 디스플레이(140)는, 상기 하우징 안으로(into) 적어도 부분적으로 말릴 수 있는(rollable) 디스플레이일 수 있다. 플렉서블 디스플레이(140)는, 액츄에이터(150)를 통해, 상기 하우징으로부터 적어도 부분적으로 인출될 수 있다. 예를 들면, 플렉서블 디스플레이(140)는, 상기 하우징 밖으로 적어도 부분적으로 노출될 수 있다. 예를 들면, 플렉서블 디스플레이(140)는, 상기 하우징 밖으로 적어도 부분적으로 노출된, 표시 영역(display region)을 포함할 수 있다. 예를 들면, 플렉서블 디스플레이(140)는, 상기 하우징 안으로의 상기 인입 또는 상기 하우징으로부터의 상기 인출에 따라, 복수의 상태들을 제공할 수 있다. 예를 들면, 상기 표시 영역의 사이즈는 상기 복수의 상태들 각각 내에서 서로 다를 수 있다. 예를 들면, 플렉서블 디스플레이(140)에 의해 제공되는 상기 복수의 상태들은 도 2를 통해 예시될 수 있다. 도 2는 일 실시예에 따른 전자 장치의 디스플레이의 표시 영역의 면적의 변경의 예를 도시한다.
도 2를 참조하면, 플렉서블 디스플레이(140)는, 상기 복수의 상태들 중 하나의(a) 상태로, 플렉서블 디스플레이(140)의 일부가 노출되고 플렉서블 디스플레이(140)의 다른 일부가 제1 하우징(201) 및 제2 하우징(202) 중 제1 하우징(201) 안으로 인입된 제1 상태(210)를 제공할 수 있다. 일 실시예에서, 제1 상태(210)는, 최소 면적(또는 사이즈)을 가지는 시인가능한(viewable) 영역을 제공하는 상태일 수 있다. 일 실시예에서, 제1 상태(210)는, 플렉서블 디스플레이(140)가, 최소 면적을 가지는 표시 영역을 제공하는 상태일 수 있다. 제1 상태(210) 내에서, 최소 면적을 가지는 상기 표시 영역은, 제1 영역(220)으로 참조될 수 있다. 제1 상태(210) 내에서, 제1 하우징(201) 안으로 인입된 플렉서블 디스플레이(140)의 영역은, 제2 영역(230)으로 참조될 수 있다. 제1 상태(210) 내에서, 제1 영역(220)은, 시인 가능한 영역일 수 있다. 제1 상태(210) 내에서, 제1 영역(220)은, 제1 하우징(201) 밖에 노출된 영역일 수 있다. 제1 상태(210) 내에서, 제2 영역(230)은, 제1 하우징(201) 안으로 인입함(insert)으로써 시인 불가능한(non-viewable) 영역일 수 있다. 제1 상태(210) 내에서, 제2 영역(230)은, 제1 하우징(201) 안으로 인입함으로써 제1 하우징(201)으로 가려지는(covered with) 영역일 수 있다. 본 문서는, 설명의 편의를 위해 제1 하우징(201) 및 제2 하우징(202)이 불투명한 소재로 형성된 것을 가정하여 제2 영역(230)이 제1 하우징(201) 안으로 인입된 경우 시인 불가능한 것으로 설명하나 이는 예시에 불과하며, 제1 하우징(201) 및/또는 제2 하우징(202)의 적어도 일부 영역은 투명한 소재로 형성될 수 있다. 이러한 경우, 제2 영역(230)이 제1 하우징(201) 안으로 인입된 경우에도 제2 영역(230)의 적어도 일부는 제1 하우징(201)을 통해 시인 가능할 수 있다.
플렉서블 디스플레이(140)는, 상기 복수의 상태들 중 다른(another) 상태로, 플렉서블 디스플레이(140)가 최대로 노출된 제2 상태(250)를 제공할 수 있다. 일 실시예에서, 제2 상태(250)는, 플렉서블 디스플레이(140)가, 최대 면적(또는 사이즈)을 가지는, 시인가능한 영역을 제공하는 상태일 수 있다. 제2 상태(250)는, 플렉서블 디스플레이(140)가, 최대 면적을 가지는 표시 영역을 제공하는 상태일 수 있다. 제2 상태(250) 내에서, 제1 영역(220) 및 제2 영역(230)은 시인가능한 영역일 수 있다. 제2 상태(250) 내에서, 제1 영역(220) 및 제2 영역(230)은 제1 하우징(201) 밖에 노출된 영역일 수 있다.
도 2 내에 도시하지 않았으나, 플렉서블 디스플레이(140)는 제1 상태(210)와 제2 상태(250) 사이의 중간 상태를 제공할 수 있다. 상기 중간 상태는, 제1 영역(220) 및 제2 영역(230)의 일부가 노출되고, 제2 영역(230)의 남은 일부가 제1 하우징(201) 안으로 인입된 상태를 의미할 수 있다. 상기 중간 상태 내에서, 제1 영역(220) 및 제2 영역(230)의 상기 일부는, 시인가능한 영역일 수 있다. 상기 중간 상태 내에서, 제1 영역(220) 및 제2 영역(230)의 상기 일부는, 제1 하우징(201) 밖에 노출된 영역일 수 있다. 상기 중간 상태 내에서, 제2 영역(230)의 상기 남은 일부는, 제1 하우징(201) 안으로 인입함으로써 시인불가능한 영역일 수 있다. 상기 중간 상태 내에서, 제2 영역(230)의 상기 남은 일부는, 제1 하우징(201) 안으로 인입함으로써 제1 하우징(201)으로 가려지는 표시 영역일 수 있다.
도 2는 제1 상태(210)로부터 제2 상태(250)로의 전환을 위해 제2 하우징(202)이 제1 방향(235)으로 이동되거나 슬라이드되는 예를 도시하고 있으나, 이는 설명의 편의를 위한 것이다. 예를 들면, 전자 장치(101)의 구현 또는 설계에 따라, 제1 하우징(201)이, 상태(210)로부터 상태(250)로의 전환을 위해, 제1 방향(235)에 반대인 제2 방향(237)으로 이동되거나 슬라이드될 수도 있다.
제1 상태(210)로부터 제2 상태(250)로 변경될 시 상기 표시 영역이 연장되는 방향 및 제2 상태(250)로부터 제1 상태(210)로 변경될 시 상기 표시 영역이 축소되는 방향은, 전자 장치(101)의 유형에 따라 달라질 수 있다. 예를 들면, 전자 장치(101)는, 포트레이트 모드(portrait mode) 내에서, 제1 수평 방향(horizontal direction)으로 연장되거나 상기 제1 수평 방향에 반대인 제2 수평 방향으로 축소되는 상기 표시 영역을 제공하는 디스플레이(140)를 포함하는 전자 장치(260)로 구현될 수 있다. 하지만, 이에 제한되지 않는다.
도 3은 표시 영역의 사이즈를 변경하기 위한 시각적 객체를 표시하는 예시적인 방법을 도시한다. 이러한 방법은, 도 1 내에서 도시된 전자 장치(101) 또는 전자 장치(101)의 프로세서(120)에 의해 실행될 수 있다.
도 4 및 5는 소프트웨어 어플리케이션의 실행 상태를 변경하기 위한 사용자 입력의 예를 도시한다.
도 6 내지 8b는 표시 영역의 사이즈를 변경하기 위한 예시적인 시각적 객체를 도시한다.
도 3을 참조하면, 동작 301에서, 프로세서(120)는, 소프트웨어 어플리케이션의 실행 상태를 변경하기 위한 사용자 입력을 수신할 수 있다.
일 실시예에서, 상기 사용자 입력은, 상기 소프트웨어 어플리케이션이 백그라운드(background) 내에서 실행되는 상태를 상기 소프트웨어 어플리케이션이 포어그라운드(foreground) 내에서 실행되는 상태로 변경하기 위한 사용자 입력일 수 있다. 예를 들면, 상기 사용자 입력은, 실행되고 있는 상기 소프트웨어 어플리케이션의 사용자 인터페이스를 표시하지 않은 상태를 상기 사용자 인터페이스를 표시하는 상태로 변경하기 위한 사용자 입력일 수 있다.
일 실시예에서, 상기 사용자 입력은, 전자 장치(101) 내에서 실행되고 있는 소프트웨어 어플리케이션들의 목록을 포함하는 화면을 표시하기 위한 사용자 입력일 수 있다. 예를 들면, 상기 사용자 입력은, 상기 소프트웨어 어플리케이션들 각각의 상태를 상기 백그라운드 내에서 실행되는 상태로부터 상기 포어그라운드 내에서 실행되는 상태로 변경하거나, 상기 소프트웨어 어플리케이션들 각각의 상태를 상기 포어그라운드 내에서 실행되는 상태로부터 상기 백그라운드 내에서 실행되는 상태로 변경하기 위한 상기 화면을 호출하기 위한 사용자 입력일 수 있다.
예를 들어, 도 4를 참조하면, 프로세서(120)는, 상태(400) 내에서, 홈 화면(home screen)(401) 및 네비게이션 바(navigation bar)(402)를 표시할 수 있다. 프로세서(120)는, 상태(400) 내에서, 네비게이션 바(402) 내의 실행가능한 객체(403)에 대한 사용자 입력(404)을 상기 화면을 표시하기 위한 상기 사용자 입력으로 수신할 수 있다. 프로세서(120)는, 사용자 입력(404)에 응답하여, 상태(400)를 상태(410)로 변경할 수 있다. 상태(410) 내에서, 프로세서(120)는, 전자 장치(101) 내에서 실행되고 있는 상기 소프트웨어 어플리케이션들의 목록을 포함하는 화면(411)을 표시할 수 있다. 상태(410) 내에서, 화면(411)은, 전자 장치(101) 내에서 실행되고 있는 상기 소프트웨어 어플리케이션들 중 감소된 사이즈(reduced size)를 가지는 제1 소프트웨어 어플리케이션의 사용자 인터페이스에 대응하는 이미지(412)를 포함할 수 있다. 상태(410) 내에서, 화면(411)은, 상기 소프트웨어 어플리케이션들 중 감소된 사이즈를 가지는 제2 소프트웨어 어플리케이션의 사용자 인터페이스에 대응하는 이미지(413)의 일부 및 상기 소프트웨어 어플리케이션들 중 감소된 사이즈를 가지는 제3 소프트웨어 어플리케이션의 사용자 인터페이스에 대응하는 이미지(414)의 일부를 더 포함할 수 있다. 예를 들면, 화면(411)은, 리센트 앱스(recent apps), 앱 전환기(app switcher), 또는 태스크 매니저(task manager)로 참조될 수 있다. 하지만, 이에 제한되지 않는다.
다른 예를 들면, 프로세서(120)는, 상태(420) 내에서, 홈 화면(401)을 표시할 수 있다. 프로세서(120)는, 상태(420) 내에서, 홈 화면(401)의 가장자리(421) 주변에서 야기되는, 미리 결정된 패턴을 가지는 터치 입력(422)을 상기 화면을 표시하기 위한 상기 사용자 입력으로 수신할 수 있다. 프로세서(120)는, 터치 입력(422)에 응답하여, 상태(420)를 상태(410)로 변경할 수 있다. 하지만, 이에 제한되지 않는다.
다시 도 3을 참조하면, 일 실시예에서, 상기 사용자 입력은, 상기 소프트웨어 어플리케이션을 실행하기 위한 사용자 입력일 수 있다. 예를 들면, 상기 사용자 입력은, 상기 소프트웨어 어플리케이션이 실행되지 않는 상태를 상기 소프트웨어 어플리케이션이 실행되는 상태로 변경하기 위한 사용자 입력일 수 있다. 예를 들면, 상기 사용자 입력은, 전자 장치(101) 내에 설치된 운영 체제(OS, operating system)가 상기 소프트웨어 어플리케이션에게 프로세스 식별자(process identifier)를 제공하는 사용자 입력일 수 있다. 예를 들어, 도 5를 참조하면, 상태(500) 내에서, 프로세서(120)는, 홈 화면(501)을 표시할 수 있다. 상태(500) 내에서, 프로세서(120)는, 소프트웨어 어플리케이션을 실행하기 위한 홈 화면(501) 내의 실행가능한 객체(502)에 대한 사용자 입력(503)을 상기 소프트웨어 어플리케이션을 실행하기 위한 상기 사용자 입력으로 수신할 수 있다. 하지만, 이에 제한되지 않는다.
다시 도 3을 참조하면, 동작 303에서, 프로세서(120)는, 동작 301에서 수신되는 상기 사용자 입력에 기반하여, 전자 장치(101)의 하우징(예: 제1 하우징(201)) 밖으로 노출된 플렉서블 디스플레이(140)의 표시 영역의 상태가 기준 상태와 구별됨을 식별할 수 있다.
예를 들면, 상기 표시 영역의 상기 상태는, 상기 사용자 입력이 수신될 시의 상기 표시 영역의 사이즈를 식별하는 것에 기반하여, 식별될 수 있다.
예를 들면, 상기 표시 영역의 상기 상태를 식별하는 것은, 상기 표시 영역이 도 2의 설명을 통해 예시된 제1 상태(210)에 대응하는 제1 사이즈를 가짐을 식별하는 것을 포함할 수 있다. 예를 들면, 상기 표시 영역의 상기 상태를 식별하는 것은, 상기 표시 영역이 도 2의 설명을 통해 예시된 제2 상태(250)에 대응하는 제2 사이즈를 가짐을 식별하는 것을 포함할 수 있다. 예를 들면, 상기 표시 영역의 상기 상태를 식별하는 것은, 상기 표시 영역이 도 2의 설명을 통해 예시된 상기 중간 상태에 대응하는 제3 사이즈를 가짐을 식별하는 것을 포함할 수 있다.
예를 들면, 상기 표시 영역의 상기 상태를 식별하는 것은, 상기 표시 영역이 도 2의 설명을 통해 예시된 제1 상태(210)에 대응하는 제1 높이(height)를 가짐을 식별하는 것을 포함할 수 있다. 예를 들면, 상기 표시 영역의 상기 상태를 식별하는 것은, 상기 표시 영역이 도 2의 설명을 통해 예시된 제2 상태(250)에 대응하는 제2 높이를 가짐을 식별하는 것을 포함할 수 있다. 예를 들면, 상기 표시 영역의 상기 상태를 식별하는 것은, 상기 표시 영역이 도 2의 설명을 통해 예시된 상기 중간 상태에 대응하는 제3 높이를 가짐을 식별하는 것을 포함할 수 있다.
예를 들면, 프로세서(120)는, 상기 사용자 입력에 응답하여, 상기 표시 영역의 상기 상태가 상기 기준 상태인지 여부를 식별하고, 상기 표시 영역의 상기 상태가 상기 기준 상태가 아님을 식별하는 것에 기반하여 상기 표시 영역의 상태가 상기 기준 상태와 구별됨을 식별할 수 있다.
예를 들면, 상기 기준 상태는, 동작 301에서 상기 사용자 입력이 수신되기 전 상기 소프트웨어 어플리케이션의 상기 사용자 인터페이스가 표시되었을 시의 상기 표시 영역의 상태일 수 있다. 예를 들어, 상기 사용자 인터페이스가 상기 사용자 입력이 수신되기 전 도 2의 설명을 통해 정의된 제1 상태(210) 내에서 표시되었던 경우, 상기 기준 상태는 제1 상태(210)일 수 있다. 다른 예를 들어, 상기 사용자 인터페이스가 상기 사용자 입력이 수신되기 전 도 2의 설명을 통해 정의된 제2 상태(250) 내에서 표시되었던 경우, 상기 기준 상태는 제2 상태(250)일 수 있다. 또 다른 예를 들어, 상기 사용자 인터페이스가 상기 사용자 입력이 수신되기 전 도 2의 설명을 통해 정의된 상기 중간 상태 내에서 표시되었던 경우, 상기 기준 상태는 상기 중간 상태일 수 있다.
예를 들어, 상기 사용자 입력이 수신되기 전 마지막으로(또는 가장 최근) 표시되었던 상기 사용자 인터페이스가 아래에서 예시될 도 10 내의 사용자 인터페이스(1021)인 경우, 상기 기준 상태는, 상태(1020)일 수 있다. 예를 들어, 상기 사용자 입력이 수신되기 전 마지막으로 표시되었던 상기 사용자 인터페이스가 아래에서 예시될 도 12 내의 사용자 인터페이스(1221)인 경우, 상기 기준 상태는, 상태(1220)일 수 있다. 예를 들어, 상기 사용자 입력이 수신되기 전 마지막으로 표시되었던 상기 사용자 인터페이스가 아래에서 예시될 도 13 내의 사용자 인터페이스(1321)인 경우, 상기 기준 상태는, 상태(1320)일 수 있다. 예를 들어, 상기 사용자 입력이 수신되기 전 마지막으로 표시되었던 상기 사용자 인터페이스가 사용자 인터페이스(1511)인 경우, 상기 기준 상태는, 상태(1510)일 수 있다. 하지만, 이에 제한되지 않는다.
예를 들면, 프로세서(120)는, 상기 사용자 인터페이스가 표시되는 조건 상에서 상기 사용자 인터페이스를 표시하는 동안의 상기 표시 영역의 상태에 대한 데이터를 저장하고, 상기 저장된 데이터를 이용하여 상기 사용자 입력에 응답하여 상기 기준 상태를 식별할 수 있다.
예를 들면, 상기 데이터는, 상기 소프트웨어 어플리케이션의 실행 상태의 변경에 응답하여, 저장될 수 있다. 예를 들면, 프로세서(120)는, 상기 소프트웨어 어플리케이션의 상기 실행 상태가 포어그라운드(foreground) 상태로부터 백그라운드(background) 상태로 변경되는 것을 식별하는 것에 응답하여, 상기 백그라운드 상태로의 상기 변경 바로 직전의 상기 표시 영역의 상기 상태(또는 사이즈)에 대한 상기 데이터를 저장할 수 있다. 하지만, 이에 제한되지 않는다.
예를 들면, 상기 데이터는, 상기 사용자 인터페이스가 표시되는 동안 상기 표시 영역의 상기 사이즈의 변경을 식별하는 것에 응답하여, 저장될 수 있다. 예를 들어, 상기 사용자 인터페이스가 표시되는 동안 상기 표시 영역의 상기 상태가 복수 회(multiple times) 변경된 경우, 프로세서(120)는, 상기 표시 영역의 상기 상태가 변경할 때마다 상기 데이터를 저장하고 갱신할 수 있다. 예를 들면, 프로세서(120)는, 상기 갱신에 기반하여, 상기 표시 영역의 가장 최근 상태에 대한 상기 데이터를 저장할 수 있다. 하지만, 이에 제한되지 않는다.
예를 들면, 상기 데이터는, 상기 표시 영역의 너비(width)를 나타내기(indicate) 위한 값 및/또는 상기 표시 영역의 높이를 나타내기 위한 값을 포함할 수 있다. 예를 들면, 상기 데이터는, 상기 사용자 인터페이스의 너비를 나타내기 위한 값 및/또는 상기 사용자 인터페이스의 높이를 나타내기 위한 값을 포함할 수 있다. 하지만, 이에 제한되지 않는다.
예를 들면, 상기 기준 상태는, 상기 사용자 인터페이스를 표시하기 위해, 가장 자주 제공되었던 상기 표시 영역의 상태일 수 있다. 예를 들어, 상기 사용자 인터페이스가 제1 사이즈를 가지는 상기 표시 영역 내에서 a회 표시되고 상기 제2 사이즈를 가지는 상기 표시 영역 내에서 a보다 큰 b회 표시된 경우, 상기 기준 상태는, 상기 제2 사이즈를 가지는 상기 표시 영역을 제공하는 상태일 수 있다. 예를 들면, 상기 기준 상태는, 상기 소프트웨어 어플리케이션의 사용 이력을 포함하는 과거 표시 휴리스틱스(past display heuristics)에 기반하여, 식별될 수 있다. 하지만, 이에 제한되지 않는다.
예를 들면, 상기 기준 상태는, 사용자 입력에 기반하여 식별된 상기 표시 영역의 상태일 수 있다. 예를 들면, 프로세서(120)는, 상기 사용자 인터페이스를 표시할 시의 상기 표시 영역의 상태(예: 사이즈)를 설정하는 상기 사용자 입력을 수신할 수 있다. 예를 들면, 프로세서(120)는, 상기 사용자 입력에 기반하여 상기 기준 상태를 식별할 수 있다. 하지만, 이에 제한되지 않는다.
예를 들면, 상기 기준 상태는, 상기 사용자 인터페이스 내의 콘텐트 아이템들의 배치에 기반하여 식별된 상기 표시 영역의 상태일 수 있다. 예를 들면, 프로세서(120)는, 상기 사용자 입력에 응답하여, 상기 사용자 인터페이스 내의 상기 콘텐트의 배치를 식별하고, 상기 기준 상태를 상기 콘텐트의 상기 배치에 대응하는 너비 또는 높이를 가지는 상기 표시 영역의 상태로 식별할 수 있다. 예를 들면, 프로세서(120)는, 상기 식별된 배치에 기반하여, 상기 기준 상태를 제1 상태(210), 제2 상태(250), 및 상기 중간 상태 중 하나의 상태로 식별할 수 있다. 하지만, 이에 제한되지 않는다.
예를 들면, 상기 기준 상태는, 상기 사용자 인터페이스 내의 콘텐트의 적어도 일부의 속성에 기반하여 식별된 상기 표시 영역의 상태일 수 있다. 예를 들면, 프로세서(120)는, 상기 사용자 입력에 응답하여, 상기 콘텐트들의 적어도 일부의 속성을 식별하고, 상기 식별된 속성에 대응하는 너비 또는 높이를 가지는 상기 표시 영역의 상태를 상기 기준 상태로 식별할 수 있다. 예를 들면, 프로세서(120)는, 상기 식별된 속성에 기반하여, 상기 기준 상태를 제1 상태(210), 제2 상태(250), 및 상기 중간 상태 중 하나의 상태로 식별할 수 있다. 예를 들면, 프로세서(120)는, 상기 콘텐트의 적어도 일부의 종횡비가 1 대 1이라는 식별에 기반하여, 상기 기준 상태를 제1 상태(210)로 식별할 수 있다. 예를 들면, 프로세서(120)는, 상기 콘텐트의 적어도 일부의 높이가 상기 콘텐트들의 적어도 일부의 너비보다 김을 식별하는 것에 기반하여, 상기 기준 상태를 제2 상태(250)로 식별할 수 있다. 하지만, 이에 제한되지 않는다.
예를 들면, 상기 기준 상태는, 상기 사용자 인터페이스 내의 콘텐트의 사이즈에 기반하여 식별된 상기 표시 영역의 상태일 수 있다. 예를 들면, 프로세서(120)는, 상기 사용자 입력에 응답하여, 상기 콘텐트들 각각의 사이즈를 식별하고, 상기 식별된 사이즈에 대응하는 너비 또는 높이를 가지는 상기 표시 영역의 상태를 상기 기준 상태로 식별할 수 있다. 예를 들면, 프로세서(120)는, 상기 식별된 사이즈에 기반하여, 상기 기준 상태를 제1 상태(210), 제2 상태(250), 및 상기 중간 상태 중 하나의 상태로 식별할 수 있다. 하지만, 이에 제한되지 않는다.
예를 들면, 상기 기준 상태는, 상기 사용자 인터페이스 내에서 표시되는 콘텐트 아이템들의 수에 기반하여 식별된 상기 표시 영역의 상태일 수 있다. 예를 들어, 제1 상태(210) 내의 상기 사용자 인터페이스 내의 상기 콘텐트 아이템들의 수가 제2 상태(250) 내의 상기 사용자 인터페이스 내의 상기 콘텐트 아이템들의 수와 동일한 경우, 프로세서(120)는, 상기 기준 상태를 제1 상태(210)로 식별할 수 있다. 다른 예를 들어, 제1 상태(210) 내의 상기 사용자 인터페이스 내의 상기 콘텐트 아이템들의 수가 제2 상태(250) 내의 상기 사용자 인터페이스 내의 상기 콘텐트 아이템들의 수보다 적은 경우, 프로세서(120)는, 상기 기준 상태를 제2 상태(250)로 식별할 수 있다. 하지만, 이에 제한되지 않는다.
동작 305에서, 프로세서(120)는, 상기 표시 영역의 상기 상태가 상기 기준 상태와 구별됨을 식별하는 것에 기반하여, 상기 표시 영역의 상기 상태를 상기 기준 상태로 변경할 것을 가이드하기 위한 시각적 객체를 표시할 수 있다.
예를 들면, 상기 시각적 객체는, 전자 장치(101) 내에서 실행되고 있는 소프트웨어 어플리케이션들의 목록을 포함하는 상기 화면 내에서 표시될 수 있다. 예를 들면, 상기 시각적 객체는, 감소된 사이즈를 가지는 상기 소프트웨어 어플리케이션의 상기 사용자 인터페이스에 대응하는 이미지와 연계로 표시될 수 있다. 예를 들어, 도 6을 참조하면, 프로세서(120)는, 상태(600) 내에서, 상기 표시 영역이 제1 상태(210)에 대응하는 제1 사이즈를 가지는 동안, 전자 장치(101) 내에서 실행되고 있는 소프트웨어 어플리케이션들의 목록을 포함하는 화면(601) 내에서, 감소된 사이즈를 가지는 상기 소프트웨어 어플리케이션의 상기 사용자 인터페이스에 대응하는 이미지(602)와 연계된 시각적 객체(603)를 표시할 수 있다. 예를 들면, 시각적 객체(603)는, 상기 표시 영역의 상기 상태가 상기 기준 상태와 다름을 나타내기 위해, 상기 기준 상태에 대응하는 상기 표시 영역의 사이즈인 제2 사이즈를 나타내기 위한 표현(representation)을 가질 수 있다. 예를 들면, 시각적 객체(603)는, 이미지(602)와 함께, 상기 제2 사이즈를 가지는 상기 표시 영역 내에서 표시될 상기 소프트웨어 어플리케이션의 상기 사용자 인터페이스의 사이즈를 나타낼(indicate) 수 있다.
예를 들면, 시각적 객체(603)는, 이미지(602)의 가장자리(604)로부터 상기 제1 사이즈와 상기 제2 사이즈 사이의 차이에 대응하는 높이(605)만큼 연장될 수 있다. 예를 들면, 높이(605)는, 상기 제1 사이즈와 상기 제2 사이즈 사이의 차이에 따라 변경될 수 있다. 예를 들어, 상기 제2 사이즈가 제2 상태(250)에 대응하는 경우, 높이(605)는, Ha이고, 상기 제2 사이즈가 제1 상태(210) 및 제2 상태(205) 사이의 상기 중간 상태에 대응하는 경우, 높이(605)는, Ha보다 짧은 Hb일 수 있다. 하지만, 이에 제한되지 않는다. 예를 들면, 높이(605)는, 상기 제1 사이즈와 상기 제2 사이즈 사이의 상기 차이와 독립적일 수도 있다.
예를 들면, 높이(605)는, 상기 제1 사이즈와 상기 제2 사이즈의 비에 대응할 수 있다. 하지만, 이에 제한되지 않는다. 예를 들면, 높이(605)는, 상기 제1 사이즈와 상기 제2 사이즈의 상기 비와 독립적일 수 있다.
예를 들면, 시각적 객체(603)는, 상기 표시 영역이 상기 제2 사이즈로 변경될 시 상기 소프트웨어 어플리케이션의 상기 사용자 인터페이스가 연장될 방향을 나타내기 위한 시각적 요소(610)를 더 포함할 수 있다. 하지만, 이에 제한되지 않는다.
도 6은 시각적 객체(603)가 이미지(602)의 가장자리(604)로부터 연장되는 예를 도시하고 있으나, 시각적 객체(603)는 이미지(602)의 가장자리(611)로부터 연장될 수도 있다. 예를 들면, 이미지(602)의 가장자리(611)로부터 연장되는 시각적 객체(603)는, 상기 사용자 인터페이스가 연장될 방향에 반대인 방향을 나타내기 위한 시각적 요소를 더 포함할 수 있다. 예를 들면, 상기 시각적 요소의 형상은, 시각적 요소(610)의 형상에 대응할 수 있다. 하지만, 이에 제한되지 않는다.
다른 예를 들어, 도 7을 참조하면, 프로세서(120)는, 상태(700) 내에서, 상기 표시 영역이 제2 상태(250)에 대응하는 제1 사이즈를 가지는 동안, 전자 장치(101) 내에서 실행되고 있는 소프트웨어 어플리케이션들의 목록을 포함하는 화면(701) 내에서, 감소된 사이즈를 가지는 상기 소프트웨어 어플리케이션의 상기 사용자 인터페이스에 대응하는 이미지(702)와 연계된 시각적 객체(703)를 표시할 수 있다. 예를 들면, 이미지(702)는, 상태(600) 내에서의 이미지(602)와 달리, 상기 기준 상태를 나타내기 위한 사이즈인 상기 제2 사이즈를 가질 수 있다. 예를 들면, 이미지(702)는, 제1 상태(210)에 대응하는 상기 제2 사이즈를 가지는 상기 표시 영역 내에서 표시되는 상기 사용자 인터페이스에 대응할 수 있다. 예를 들면, 시각적 객체(703)는, 상기 표시 영역의 상기 상태가 상기 기준 상태와 다름을 나타내기 위해, 상태(600) 내에서의 시각적 객체(603)와 달리, 상기 표시 영역의 상기 제1 사이즈와 상기 제2 사이즈 사이의 차이(또는 상기 제1 사이즈와 상기 제2 사이즈의 비)를 나타내기 위한 표현을 가질 수 있다. 예를 들면, 이미지(702) 및 이미지(702)에 인접한 시각적 객체(703)에 의해 점유되는 영역의 사이즈는 상기 제1 사이즈에 대응하기 때문에, 시각적 객체(703)는, 상기 차이를 나타낼 수 있다. 예를 들면, 시각적 객체(703)는, 이미지(702)의 가장자리(704)로부터 상기 제1 사이즈와 상기 제2 사이즈 사이의 차이(또는 상기 제1 사이즈와 상기 제2 사이즈의 비)에 대응하는 높이(705)만큼 연장될 수 있다. 예를 들면, 높이(705)는, 상기 제1 사이즈와 상기 제2 사이즈 사이의 차이에 따라 변경될 수 있다. 예를 들어, 상기 제2 사이즈가 제1 상태(210)와 제2 상태(250) 사이의 상기 중간 상태에 대응하는 경우, 높이(705)는, Hc이고, 상기 제2 사이즈가 제1 상태에 대응하는 경우, 높이(705)는, Hc보다 긴 Hd일 수 있다. 하지만, 이에 제한되지 않는다. 예를 들면, 높이(705)는, 상기 제1 사이즈와 상기 제2 사이즈 사이의 상기 차이(또는 상기 제1 사이즈와 상기 제2 사이즈의 상기 비)와 독립적일 수도 있다.
예를 들면, 시각적 객체(703)는, 상기 표시 영역이 상기 제2 사이즈로 변경될 시 상기 소프트웨어 어플리케이션의 상기 사용자 인터페이스가 감소될 방향을 나타내기 위한 시각적 요소(710)를 더 포함할 수 있다. 하지만, 이에 제한되지 않는다.
도 7은 시각적 객체(703)가 이미지(702)의 가장자리(704)로부터 연장되는 예를 도시하고 있으나, 시각적 객체(703)는 이미지(702)의 가장자리(711)로부터 연장될 수도 있다. 예를 들면, 이미지(702)의 가장자리(711)로부터 연장되는 시각적 객체(703)는, 상기 사용자 인터페이스 또는 상기 표시 영역이 축소될 방향을 나타내기 위한 시각적 요소를 더 포함할 수 있다. 예를 들면, 상기 시각적 요소의 형상은, 시각적 요소(710)의 형상에 대응할 수 있다. 하지만, 이에 제한되지 않는다.
도 7은 시각적 객체(703)가 이미지(702)에 인접하는 예를 도시하고 있으나, 이는 설명의 편의를 위한 것이다. 예를 들면, 시각적 객체(703)는, 이미지(702) 상에 중첩된 다른 시각적 객체로 대체될 수도 있다. 예를 들면, 상기 다른 시각적 객체는, 가장자리(704)에 인접한 위치에서 이미지(702) 상에 중첩될 수 있다. 예를 들면, 상기 다른 시각적 객체는, 가장자리(711)에 인접한 위치에서 이미지(702) 상에 중첩될 수 있다. 예를 들면, 상기 다른 시각적 객체의 형상은, 시각적 요소(710)의 형상에 대응할 수 있다.
다시 도 3을 참조하면, 상기 시각적 객체는, 상기 소프트웨어 어플리케이션의 사용자 인터페이스와 함께 표시될 수 있다. 예를 들어, 동작 301에서 수신되는 상기 사용자 입력이 상기 소프트웨어 어플리케이션을 실행하기 위한 사용자 입력인 경우, 프로세서(120)는, 상기 표시 영역의 상기 상태가 상기 기준 상태와 구별됨을 식별하는 것에 기반하여, 상기 소프트웨어 어플리케이션의 실행에 응답하여 표시되는 상기 사용자 인터페이스와 함께 상기 시각적 객체를 표시할 수 있다. 예를 들어, 도 8a를 참조하면, 프로세서(120)는, 상태(500) 내에서 수신되는 사용자 입력(503)에 응답하여 상기 표시 영역의 상기 상태가 상기 기준 상태와 구별됨을 식별하는 것에 기반하여, 상태(800)를 제공할 수 있다. 예를 들면, 상태(800) 내에서, 프로세서(120)는, 상기 제1 사이즈를 가지는 상기 표시 영역 내에서, 사용자 입력(503)에 응답하여 실행된 상기 소프트웨어 어플리케이션의 사용자 인터페이스(801)와 함께, 상기 시각적 객체인 시각적 객체(802)를 표시할 수 있다. 일 실시예에서, 시각적 객체(802)는, 사용자 입력(503)이 동작 301에서 수신된 위치에서 표시될 수 있다. 예를 들면, 시각적 객체(802)는, 상기 표시 영역의 사이즈를 상기 제2 사이즈로 변경하는 것이 보다 적합할 수 있음을 가이드하기 위해, 사용자 입력(503)이 수신된 상기 위치에서 표시될 수 있다. 일 실시예에서, 시각적 객체(802)는, 사용자 인터페이스(801) 상에 중첩되거나(superimposed on) 플로팅(floated on) 수 있다. 예를 들면, 시각적 객체(802)는, 시각적 객체(802)에 대한 드래그 입력에 따라 이동될 수 있다. 하지만, 이에 제한되지 않는다.
예를 들면, 시각적 객체(802)와 같은 상기 시각적 객체는, 다양한 형상들을 가질 수 있다.
예를 들면, 상기 시각적 객체는, 상기 기준 상태에 대응하는 상기 제2 사이즈를 나타내기 위한 시각적 요소를 포함할 수 있다. 예를 들면, 상기 시각적 객체는 상기 제2 사이즈에 대응하는 게이지(gaze)를 포함하는 바 형상의(bar-shaped) 인디케이터(803)를 포함할 수 있다. 예를 들면, 바 형상의 인디케이터(803) 내의 상기 게이지는, 상기 제2 사이즈에 대응하는 길이를 보여주기 위해 포함될 수 있다. 예를 들면, 바 형상의 인디케이터(803)의 상기 게이지의 상태는, 상기 제2 사이즈에 따라 변경될 수 있다. 예를 들어, 상기 제2 사이즈가 제1 상태(210)에 대응하는 경우, 바 형상의 인디케이터(803)는, 상태(803-1)로 표시되고, 상기 제2 사이즈가 제1 상태(210)와 제2 상태(250) 사이의 상기 중간 상태에 대응하는 경우, 바 형상의 인디케이터(803)는, 상태(803-2)로 표시되며, 상기 제2 사이즈가 제2 상태(250)에 대응하는 경우, 바 형상의 인디케이터(803)는, 상태(803-3)로 표시될 수 있다.
다른 예를 들면, 상기 시각적 객체는, 상기 제2 사이즈를 나타내고, 상기 제1 사이즈로부터 상기 제2 사이즈로의 변경이 상기 표시 영역의 축소인지 또는 상기 표시 영역의 연장인지 여부를 나타내기 위한, 시각적 요소를 포함할 수 있다. 예를 들면, 상기 시각적 객체는, 상기 제2 사이즈에 대응하는 길이를 가지고, 상기 제1 사이즈로부터 상기 제2 사이즈로의 변경이 상기 표시 영역의 축소인지 또는 상기 표시 영역의 연장인지 여부에 따라 다른 형상을 가지는 시각적 요소(804)를 포함할 수 있다. 예를 들어, 상기 제1 사이즈가 제1 상태(210)에 대응하고 상기 제2 사이즈가 제2 상태(250)에 대응하는 경우, 시각적 요소(804)는, 상태(804-1)로 표시되고, 상기 제1 사이즈가 제1 상태(210)에 대응하고 상기 제2 사이즈가 제1 상태(210)와 제2 상태(250) 사이의 상기 중간 상태에 대응하는 경우, 시각적 요소(840)는, 상태(804-2)로 표시되고, 상기 제1 사이즈가 제2 상태(250)에 대응하고 상기 제2 사이즈가 제1 상태(210)에 대응하는 경우, 시각적 요소(804)는, 상태(804-3)로 표시되며, 상기 제1 사이즈가 제2 상태(250)에 대응하고 상기 제2 사이즈가 상기 중간 상태에 대응하는 경우, 시각적 요소(804)는, 상태(804-4)로 표시될 수 있다.
또 다른 예를 들면, 상기 시각적 객체는, 상기 제2 사이즈를 나타내는 텍스트를 포함하고, 상기 제1 사이즈로부터 상기 제2 사이즈로의 변경이 상기 표시 영역의 축소인지 또는 상기 표시 영역의 연장인지 여부를 나타내기 위한 화살표를 포함하는 시각적 요소를 포함할 수 있다. 예를 들면, 상기 시각적 객체는, 상기 제2 사이즈에 대응하는 길이를 가지고, 상기 제2 사이즈에 대응하는 텍스트(806)를 포함하고, 상기 제1 사이즈로부터 상기 제2 사이즈로의 변경이 상기 표시 영역의 축소인지 또는 상기 표시 영역의 연장인지 여부를 나타내기 위한 화살표(807)를 포함하는, 시각적 요소(805)를 포함할 수 있다. 예를 들어, 상기 제1 사이즈로부터 상기 제2 사이즈로의 변경이 상기 표시 영역의 연장인 경우, 시각적 요소(805)는, 상태(805-1), 상태(805-2), 또는 상태(805-3)로 표시되고, 상기 제1 사이즈로부터 상기 제2 사이즈로의 변경이 상기 표시 영역의 축소인 경우, 시각적 요소(805)는, 상태(805-4), 상태(805-5), 또는 상태(805-6)로 표시될 수 있다.
한편, 다시 도 3을 참조하면, 동작 307에서, 프로세서(120)는, 상기 시각적 객체가 표시되는 동안 수신되는 사용자 입력에 적어도 일부 기반하여, 액츄에이터(150)를 통해 상기 표시 영역의 사이즈를 상기 제1 사이즈로부터 상기 제2 사이즈로 변경할 수 있다. 예를 들면, 프로세서(120)는, 상기 시각적 객체에 대한 상기 사용자 입력에 응답하여, 상기 표시 영역의 사이즈를 상기 제1 사이즈로부터 상기 제2 사이즈로 변경할 수 있다. 예를 들면, 프로세서(120)는, 상기 시각적 객체에 대한 사용자 입력에 응답하여 표시되는 다른 시각적 객체에 대한 사용자 입력에 응답하여, 상기 표시 영역의 사이즈를 상기 제1 사이즈로부터 상기 제2 사이즈로 변경할 수 있다. 예를 들면, 동작 307의 상기 사용자 입력은, 도 9, 10, 11, 12, 13, 14, 및 도 15를 통해 예시될 것이다. 하지만, 이에 제한되지 않는다.
한편, 도 3 내에서 도시하지 않았으나, 프로세서(120)는, 동작 303에서, 상기 표시 영역의 상기 상태가 상기 기준 상태에 대응함을 식별할 수 있다. 프로세서(120)는, 상기 표시 영역의 상기 상태가 상기 기준 상태에 대응함을 식별하는 것에 기반하여, 동작 305 내지 동작 307을 실행하는 것을 우회하거나 삼가할 수 있다. 예를 들면, 프로세서(120)는, 상기 표시 영역의 상기 상태가 상기 기준 상태에 대응함을 식별하는 것에 기반하여, 상기 시각적 객체를 표시하는 것을 삼가할 수 있다. 예를 들면, 프로세서(120)는, 상기 표시 영역의 상기 상태가 상기 기준 상태에 대응함을 식별하는 것에 기반하여, 전자 장치(101) 내에서 실행되고 있는 소프트웨어 어플리케이션들의 목록을 포함하는 화면 내에서, 감소된 사이즈를 가지는 상기 소프트웨어 어플리케이션들 각각의 사용자 인터페이스에 대응하는 이미지를 표시하고, 상기 시각적 객체를 상기 이미지와 연계로 표시하는 것을 삼가할 수 있다. 예를 들면, 프로세서(120)는, 상기 표시 영역의 상기 상태가 상기 기준 상태에 대응함을 식별하는 것에 기반하여, 소프트웨어 어플리케이션의 사용자 인터페이스와 함께 상기 시각적 객체를 표시하는 것을 삼가할 수 있다.
한편, 도 3 내에서 도시하지 않았으나, 일 실시예에서, 상기 시각적 객체는, 소프트웨어 어플리케이션을 실행하기 위한 실행가능한 객체 주변에서 표시될 수 있다. 예를 들면, 상기 시각적 객체는, 소프트웨어 어플리케이션의 사용자 인터페이스의 표시를 위해 식별된 상기 표시 영역의 사이즈를 가이드하기 위해, 상기 소프트웨어 어플리케이션을 실행하기 위한 실행가능한 객체 주변에서 표시될 수 있다. 예를 들어, 도 8b를 참조하면, 상태(850)와 같이, 프로세서(120)는, 소프트웨어 어플리케이션을 실행하기 위한 홈 화면(851) 내의 실행가능한 객체(852) 옆에서 상기 시각적 객체인 시각적 객체(853)를 표시할 수 있다. 예를 들면, 시각적 객체(853)는, 상기 제2 사이즈를 나타내기 위한 형상을 가질 수 있다. 도 8b 내에서 도시하지 않았으나, 프로세서(120)는, 시각적 객체(853)에 대한 사용자 입력에 응답하여, 상기 표시 영역의 사이즈를 상기 제2 사이즈로 액츄에이터(150)를 통해 변경하고, 상기 제2 사이즈를 가지는 상기 표시 영역 내에서, 실행가능한 객체(852)에 의해 나타내어지는 상기 소프트웨어 어플리케이션의 사용자 인터페이스를 표시할 수 있다. 하지만, 이에 제한되지 않는다.
상술한 바와 같이, 전자 장치(101)는, 상기 표시 영역의 상기 상태가 상기 기준 상태와 다른 조건 상에서, 상기 시각적 객체를 표시할 수 있다. 상기 시각적 객체는, 상기 표시 영역의 상기 상태가 상기 기준 상태와 다름을 가이드하고, 상기 표시 영역의 상기 상태를 상기 기준 상태로 변경하기 위해 이용되기 때문에, 전자 장치(101)는, 상기 시각적 객체의 표시를 통해, 강화된 사용자 경험을 제공할 수 있다. 예를 들면, 전자 장치(101)는, 상기 시각적 객체에 의해 나타내어지는 상기 제2 사이즈로 상기 표시 영역의 사이즈를 변경함으로써, 상기 소프트웨어 어플리케이션의 상기 사용자 인터페이스의 사용성을 강화할 수 있다. 예를 들면, 전자 장치(101)는, 상기 시각적 객체에 의해 나타내어지는 상기 제2 사이즈로 상기 표시 영역의 사이즈를 변경함으로써, 추천된 사이즈를 가지는 상기 사용자 인터페이스를 표시할 수 있다. 하지만, 이에 제한되지 않는다.
도 9는 표시 영역의 사이즈를 변경할 것인지 여부를 식별하기 위한 정보를 표시하는 예시적인 방법을 도시한다. 이러한 방법은, 도 1 내에서 도시된 전자 장치(101) 또는 전자 장치(101)의 프로세서(120)에 의해 실행될 수 있다.
도 9의 동작 901은 도 3의 동작 305 내에 포함되고, 도 9의 동작 903 내지 동작 911은 도 3의 동작 307 내에 포함될 수 있다.
도 10은 표시 영역의 사이즈를 변경할 것인지 여부를 식별하기 위한 정보의 예를 도시한다.
도 9를 참조하면, 동작 901에서, 프로세서(120)는, 상기 시각적 객체와 연계된, 감소된 사이즈를 가지는 사용자 인터페이스에 대응하는, 이미지를 상기 제1 사이즈를 가지는 상기 표시 영역 내에서 표시할 수 있다. 예를 들면, 상기 이미지는, 전자 장치(101) 내에서 실행되고 있는 소프트웨어 어플리케이션들의 목록을 포함하는 화면 내에서 표시될 수 있다. 예를 들어, 도 10을 참조하면, 상태(1000) 내에서, 프로세서(120)는, 상기 표시 영역의 상기 상태가 상기 기준 상태와 구별됨을 식별하는 것에 기반하여, 전자 장치(101) 내에서 실행되고 있는 소프트웨어 어플리케이션들의 목록을 포함하는 화면(1001)을 표시할 수 있다. 예를 들면, 상태(1000) 내에서, 화면(1001)은, 상기 소프트웨어 어플리케이션들 중 하나의 소프트웨어 어플리케이션의 사용자 인터페이스에 대응하는 이미지(1002)를 포함할 수 있다. 상태(1000) 내에서, 화면(1001) 내의 이미지(1002)는, 상기 표시 영역의 상기 상태를 상기 기준 상태로 변경할 것을 가이드하기 위한 시각적 객체(1003)와 연계될 수 있다. 예를 들면, 시각적 객체(1003)는, 상기 표시 영역이 상기 제2 사이즈로 변경될 시 상기 소프트웨어 어플리케이션의 상기 사용자 인터페이스가 연장될 방향을 나타내기 위한 시각적 요소(1003-1)를 더 포함할 수 있다. 하지만, 이에 제한되지 않는다.
다시 도 9를 참조하면, 동작 903에서, 프로세서(120)는, 상기 이미지에 대한 사용자 입력을 수신할 수 있다. 예를 들어, 도 10을 참조하면, 프로세서(120)는, 상태(1000) 내에서, 이미지(1002)에 대한 사용자 입력(1005)을 수신할 수 있다.
다시 도 9를 참조하면, 동작 905에서, 프로세서(120)는, 상기 사용자 입력에 응답하여, 상기 표시 영역의 사이즈를 상기 제2 사이즈로 변경할 것인지 여부를 식별하기 위한 정보를 표시할 수 있다. 예를 들어, 도 10을 참조하면, 프로세서(120)는, 사용자 입력(1005)에 응답하여, 상태(1000)를 상태(1010)로 변경할 수 있다. 상태(1010) 내에서, 프로세서(120)는, 상기 표시 영역의 사이즈를 상기 제2 사이즈로 변경할 것인지 여부를 식별하기 위한 정보(1011)를 표시할 수 있다. 예를 들면, 정보(1011)는, 화면(1001) 상에 중첩될 수 있다. 일 실시예에서, 정보(1011)는, 화면(1001)에 대하여 시각적으로 강조될 수 있다. 예를 들면, 정보(1011)가 표시되는 동안, 화면(1001)은, 블러(blur)될 수 있다. 하지만, 이에 제한되지 않는다.
예를 들면, 정보(1011)는, 상기 표시 영역의 현재 사이즈인 상기 제1 사이즈를 나타내는 시각적 요소(1012) 및 상기 가준 상태에 대응하는 상기 제2 사이즈를 나타내는 시각적 요소(1013)를 포함할 수 있다. 일 실시예에서, 시각적 요소(1012)는, 상기 제1 사이즈를 가지는 상기 표시 영역 내에서 표시되는 상기 사용자 인터페이스에 대응하는 이미지를 포함하고, 시각적 요소(1013)는, 상기 제2 사이즈를 가지는 상기 표시 영역 내에서 표시되는 상기 사용자 인터페이스에 대응하는 이미지를 포함할 수 있다. 하지만, 이에 제한되지 않는다.
다시 도 9를 참조하면, 동작 907에서, 프로세서(120)는, 상기 정보가 표시되는 동안 제1 사용자 입력이 수신되는지 또는 제2 사용자 입력이 수신되는지 여부를 식별할 수 있다. 예를 들면, 상기 제1 사용자 입력은 상기 표시 영역의 사이즈를 상기 제1 사이즈로 유지하기 위한 사용자 입력이고, 상기 제2 사용자 입력은 상기 표시 영역의 사이즈를 상기 제2 사이즈로 변경하기 위한 사용자 입력일 수 있다. 예를 들면, 프로세서(120)는, 상기 정보가 표시되는 동안 상기 제1 사용자 입력이 수신되는 조건 상에서, 동작 909를 실행하고, 상기 정보가 표시되는 동안 상기 제2 사용자 입력이 수신되는 조건 상에서, 동작 911을 실행할 수 있다.
동작 909에서, 프로세서(120)는, 상기 정보가 표시되는 동안 상기 제2 사용자 입력이 수신됨을 식별하는 것에 기반하여, 상기 표시 영역의 사이즈를 상기 제2 사이즈로 변경할 수 있다. 예를 들어, 도 10을 참조하면, 프로세서(120)는, 상태(1010) 내에서, 정보(1011) 내의 시각적 요소(1012) 및 시각적 요소(1013) 중 시각적 요소(1013)를 선택하기 위한 제2 사용자 입력(1015)을 수신할 수 있다. 프로세서(120)는, 제2 사용자 입력(1015)에 응답하여, 상태(1010)를 상태(1020)로 변경할 수 있다. 예를 들면, 프로세서(120)는, 액츄에이터(150)를 통해 상기 표시 영역의 사이즈를 상기 제2 사이즈로 변경하는 것에 기반하여, 상태(1010)를 상태(1020)로 변경할 수 있다. 상태(1020) 내에서, 프로세서(120)는, 상기 소프트웨어 어플리케이션의 사용자 인터페이스(1021)를 상기 제2 사이즈를 가지는 상기 표시 영역 내에서 표시할 수 있다.
다시 도 9를 참조하면, 동작 911에서, 프로세서(120)는, 상기 정보가 표시되는 동안 상기 제1 사용자 입력이 수신됨을 식별하는 것에 기반하여, 상기 표시 영역의 사이즈를 상기 제1 사이즈로 유지할 수 있다. 예를 들어, 도 10을 참조하면, 프로세서(120)는, 상태(1010) 내에서, 정보(1011) 내의 시각적 요소(1012) 및 시각적 요소(1013) 중 시각적 요소(1012)를 선택하기 위한 제1 사용자 입력(1014)을 수신할 수 있다. 프로세서(120)는, 제1 사용자 입력(1014)에 응답하여, 상태(1010)를 상태(1025)로 변경할 수 있다. 예를 들면, 상태(1025) 내에서, 프로세서(120)는, 상기 표시 영역의 사이즈를 상기 제1 사이즈로 유지할 수 있다. 예를 들면, 프로세서(120)는, 상기 제1 사이즈를 가지는 상기 표시 영역 내에서 상기 소프트웨어 어플리케이션의 사용자 인터페이스(1026)를 표시할 수 있다. 도 10 내에서 도시하지 않았으나, 일 실시예에서, 사용자 인터페이스(1026)는, 사용자 인터페이스(1021)와 시각적으로 다를 수 있다. 예를 들면, 상기 제1 사이즈 및 상기 제2 사이즈는 서로 다르기 때문에, 사용자 인터페이스(1026)는, 사용자 인터페이스(1021)보다 작은 양의 정보를 제공하거나, 사용자 인터페이스(1026) 내의 콘텐트들 중 적어도 일부의 사이즈는, 사용자 인터페이스(1021) 내의 콘텐트들 중 적어도 일부의 사이즈보다 작을 수 있다. 하지만, 이에 제한되지 않는다.
상술한 바와 같이, 전자 장치(101)는, 상기 표시 영역의 상태가 상기 기준 상태와 구별됨을 식별하는 것에 기반하여 표시되는 상기 시각적 객체와 연계된 상기 이미지에 대한 사용자 입력에 응답하여, 상기 정보를 표시할 수 있다. 상기 정보는, 상기 표시 영역의 사이즈를 유지할 것인지 또는 변경할 것인지 여부를 문의하기 위해 이용가능하기 때문에, 전자 장치(101)는, 상기 정보의 표시를 통해, 상기 표시 영역의 사이즈와 관련된 사용자의 의도를 인식할 수 있다. 예를 들면, 전자 장치(101)는, 상기 표시 영역의 사이즈의 결정과 관련된 사용자 경험을 상기 정보를 통해 강화할 수 있다.
도 11은 다른 시각적 객체를 표시하는 예시적인 방법을 도시한다. 이러한 방법은, 도 1 내에서 도시된 전자 장치(101) 또는 전자 장치(101)의 프로세서(120)에 의해 실행될 수 있다.
도 11의 동작 1101은 도 3의 동작 305 내에 포함되고, 도 11의 동작 1103 내지 동작 1107은 도 3의 동작 307 내에 포함될 수 있다.
도 12 및 13은 다른 시각적 객체의 예를 도시한다.
도 11을 참조하면, 동작 1101에서, 프로세서(120)는, 상기 시각적 객체와 연계된, 사용자 인터페이스에 대응하는 이미지를 상기 제1 사이즈를 가지는 상기 표시 영역 내에서 표시할 수 있다. 예를 들면, 상기 이미지는, 전자 장치(101) 내에서 실행되고 있는 소프트웨어 어플리케이션들의 목록을 포함하는 화면 내에서 표시될 수 있다. 예를 들어, 도 12 및 도 13를 참조하면, 상태(1200) 내에서, 프로세서(120)는, 상기 표시 영역의 상기 상태가 상기 기준 상태와 구별됨을 식별하는 것에 기반하여, 전자 장치(101) 내에서 실행되고 있는 소프트웨어 어플리케이션들의 목록을 포함하는 화면(1201)을 표시할 수 있다. 예를 들면, 상태(1200) 내에서, 화면(1201)은, 상기 소프트웨어 어플리케이션들 중 하나의 소프트웨어 어플리케이션의 사용자 인터페이스에 대응하는 이미지(1202)를 포함할 수 있다. 상태(1200) 내에서, 화면(1201) 내의 이미지(1202)는, 상기 표시 영역의 상기 상태를 상기 기준 상태로 변경할 것을 가이드하기 위한 시각적 객체(1203)와 연계될 수 있다. 예를 들면, 시각적 객체(1203)는, 상기 표시 영역이 상기 제2 사이즈로 변경될 시 상기 소프트웨어 어플리케이션의 상기 사용자 인터페이스가 연장될 방향을 나타내기 위한 시각적 요소(1203-1)를 더 포함할 수 있다. 하지만, 이에 제한되지 않는다.
다시 도 11을 참조하면, 동작 1103에서, 프로세서(120)는, 상기 이미지에 대한 사용자 입력을 수신할 수 있다. 예를 들면, 상기 사용자 입력은, 상기 이미지에 대한 싱글 탭 입력으로, 상기 이미지에 의해 나타내어지는 상기 소프트웨어 어플리케이션을 포어그라운드 내에서 실행하기 위한 입력일 수 있다. 하지만, 이에 제한되지 않는다.
동작 1105에서, 프로세서(120)는, 상기 이미지에 대한 상기 사용자 입력에 응답하여, 상기 제1 사이즈를 가지는 상기 표시 영역 내에서, 상기 사용자 인터페이스를 다른 시각적 객체와 함께 표시할 수 있다. 예를 들면, 상기 다른 시각적 객체는, 상기 표시 영역의 사이즈를 상기 제2 사이즈로 변경하기 위한 시각적 객체일 수 있다.
일 실시예에서, 상기 다른 시각적 객체는, 상기 제2 사이즈를 가지는 상기 표시 영역 내에서 표시되는 상기 사용자 인터페이스에 대응하는 이미지를 포함할 수 있다. 예를 들어, 도 12를 참조하면, 상태(1200) 내에서, 프로세서(120)는, 이미지(1202)에 대한 사용자 입력(1205)을 수신할 수 있다. 프로세서(120)는, 사용자 입력(1205)에 응답하여, 상태(1200)를 상태(1210)로 변경할 수 있다. 예를 들면, 상태(1210) 내에서, 프로세서(120)는, 상기 소프트웨어 어플리케이션의 사용자 인터페이스(1211)를 표시할 수 있다. 예를 들면, 상태(1210) 내에서, ,프로세서(120)는, 사용자 인터페이스(1211)와 함께, 다른 시각적 객체(1212)를 표시할 수 있다. 예를 들면, 다른 시각적 객체(1212)의 사이즈는, 상기 제2 사이즈를 가지는 상기 표시 영역 내에서 표시되는 상기 소프트웨어 어플리케이션의 사용자 인터페이스(예: 상태(1220) 내에서의 사용자 인터페이스(1221))의 사이즈에 대응할 수 있다. 일 실시예에서, 다른 시각적 객체(1212)는, 사용자 인터페이스(1211) 상에 중첩되거나 플로팅될 수 있다. 예를 들면, 다른 시각적 객체(1212)는, 다른 시각적 객체(1212)에 대한 드래그 입력에 응답하여, 이동될 수 있다. 일 실시예에서, 상태(1210) 내에서, 다른 시각적 객체(1212)는, 미리 결정된 시간 동안 표시된 후, 사라질 수 있다. 하지만, 이에 제한되지 않는다.
다시 도 11을 참조하면, 일 실시예에서, 상기 다른 시각적 객체는, 네비게이션 바 내에서 표시될 수 있다. 예를 들어, 도 13을 참조하면, 상태(1200) 내에서, 프로세서(120)는, 이미지(1202)에 대한 사용자 입력(1305)을 수신할 수 있다. 프로세서(120)는, 사용자 입력(1305)에 응답하여, 상태(1200)를 상태(1310)로 변경할 수 있다. 예를 들면, 상태(1310) 내에서, 프로세서(120)는, 상기 소프트웨어 어플리케이션의 사용자 인터페이스(1311)를 표시할 수 있다. 예를 들면, 상태(1310) 내에서, 프로세서(120)는, 사용자 인터페이스(1311)와 함께, 다른 시각적 객체(1313)를 표시할 수 있다. 예를 들면, 다른 시각적 객체(1313)는, 다른 시각적 객체(1312)와 달리, 네비게이션 바(1312) 내에서 표시될 수 있다. 일 실시예에서, 다른 시각적 객체(1313)는, 네비게이션 바(1312) 상에 중첩되거나 플로팅될 수 있다. 일 실시예에서, 다른 시각적 객체(1313)는, 바(1312) 내의 추가적인 실행가능한 요소로 네비게이션 바(1312) 내에 포함될 수 있다. 하지만, 이에 제한되지 않는다. 일 실시예에서, 상태(1310) 내에서, 다른 시각적 객체(1312)는, 미리 결정된 시간 동안 표시된 후, 사라질 수 있다. 하지만, 이에 제한되지 않는다.
다시 도 11을 참조하면, 동작 1107에서, 프로세서(120)는, 상기 다른 시각적 객체에 대한 사용자 입력에 응답하여, 상기 표시 영역의 사이즈를 상기 제2 사이즈로 변경할 수 있다. 예를 들어, 도 12를 참조하면, 프로세서(120)는, 상태(1210) 내에서, 다른 시각적 객체(1212)에 대한 사용자 입력(1215)을 수신할 수 있다. 프로세서(120)는, 사용자 입력(1215)에 응답하여, 상태(1210)를 상태(1220)로 변경할 수 있다. 예를 들면, 프로세서(120)는, 사용자 입력(1215)에 응답하여 액츄에이터(150)를 통해 상기 표시 영역의 사이즈를 상기 제1 사이즈로부터 상기 제2 사이즈로 변경함으로써 상태(1210)를 상태(1220)로 변경할 수 있다. 예를 들면, 상태(1220) 내에서, 프로세서(120)는, 상기 제2 사이즈를 가지는 상기 표시 영역 내에서, 상기 소프트웨어 어플리케이션의 사용자 인터페이스(1221)를 표시할 수 있다.
다른 예를 들어, 도 13을 참조하면, 프로세서(120)는, 상태(1310) 내에서, 다른 시각적 객체(1312)에 대한 사용자 입력(1315)을 수신할 수 있다. 프로세서(120)는, 사용자 입력(1315)에 응답하여, 상태(1310)를 상태(1320)로 변경할 수 있다. 예를 들면, 프로세서(120)는, 사용자 입력(1315)에 응답하여 액츄에이터(150)를 통해 상기 표시 영역의 사이즈를 상기 제1 사이즈로부터 상기 제2 사이즈로 변경함으로써 상태(1310)를 상태(1320)로 변경할 수 있다. 예를 들면, 상태(1320) 내에서, 프로세서(120)는, 상기 제2 사이즈를 가지는 상기 표시 영역 내에서, 상기 소프트웨어 어플리케이션의 사용자 인터페이스(1321)를 표시할 수 있다.
상술한 바와 같이, 전자 장치(101)는, 동작 1103에서 수신되는 상기 사용자 입력과 같이 전자 장치(101) 내에서 실행되고 있는 상기 소프트웨어 어플리케이션의 상태를 상기 소프트웨어 어플리케이션을 상기 포어그라운드 내에서 실행하는 상태로 변경하기 위한 사용자 입력에 응답하여, 상기 다른 시각적 객체를 표시할 수 있다. 상기 다른 시각적 객체는, 상기 표시 영역의 사이즈를 상기 제2 사이즈로 변경하기 위해 이용가능하기 때문에, 전자 장치(101)는, 상기 다른 시각적 객체를 통해, 상기 사용자 인터페이스의 사용성을 강화할 수 있다. 예를 들면, 전자 장치(101)는, 상기 다른 시각적 객체를 통한 상기 표시 영역의 사이즈의 변경의 접근성을 강화하기 위해, 상기 다른 시각적 객체를 상기 사용자 인터페이스 상에 중첩으로 표시하거나, 상기 다른 시각적 객체를 네비게이션 바 내에서 표시할 수 있다.
도 14는 시각적 객체와 연계된 이미지에 대한 사용자 입력에 따라 표시 영역의 사이즈를 적응적으로 변경하는 예시적인 방법을 도시한다. 이러한 방법은, 도 1 내에서 도시된 전자 장치(101) 또는 전자 장치(101)의 프로세서(120)에 의해 실행될 수 있다.
도 14의 동작 1401은 도 3의 동작 305 내에 포함되고, 도 14의 동작 1403 내지 동작 1407은 도 3의 동작 307 내에 포함될 수 있다.
도 15는 사용자 입력에 따른 표시 영역의 사이즈의 적응적 변경의 예를 도시한다.
도 14를 참조하면, 동작 1401에서, 프로세서(120)는, 상기 시각적 객체와 연계된, 이미지를 상기 제1 사이즈를 가지는 상기 표시 영역 내에서 표시할 수 있다. 예를 들면, 상기 이미지는, 전자 장치(101) 내에서 실행되고 있는 소프트웨어 어플리케이션들의 목록을 포함하는 화면 내에서 표시되는 실행가능한 객체일 수 있다. 예를 들어, 도 15를 참조하면, 상태(1500) 내에서, 프로세서(120)는, 상기 표시 영역의 상기 상태가 상기 기준 상태와 구별됨을 식별하는 것에 기반하여, 전자 장치(101) 내에서 실행되고 있는 소프트웨어 어플리케이션들의 목록을 포함하는 화면(1501)을 표시할 수 있다. 예를 들면, 상태(1500) 내에서, 화면(1501)은, 상기 소프트웨어 어플리케이션들 중 하나의 소프트웨어 어플리케이션의 사용자 인터페이스에 대응하는 이미지(1502)를 포함할 수 있다. 상태(1500) 내에서, 화면 내의 이미지(1502)는, 상기 표시 영역의 상기 상태를 상기 기준 상태로 변경할 것을 가이드하기 위한 시각적 객체(1503)와 연계될 수 있다. 예를 들면, 시각적 객체(1503)는, 상기 표시 영역이 상기 제2 사이즈로 변경될 시 상기 소프트웨어 어플리케이션의 상기 사용자 인터페이스가 연장될 방향을 나타내기 위한 시각적 요소(1503-1)를 더 포함할 수 있다. 하지만, 이에 제한되지 않는다.
다시 도 14를 참조하면, 동작 1403에서, 프로세서(120)는, 상기 시각적 객체와 연계된 상기 이미지가 표시되는 동안 제1 사용자 입력이 수신되는지 또는 제2 사용자 입력이 수신되는지 여부를 식별할 수 있다. 예를 들면, 상기 제1 사용자 입력은, 상기 이미지 및 상기 시각적 객체 중 상기 이미지를 선택함을 나타내는 입력일 수 있고, 상기 제2 사용자 입력은 상기 이미지 및 상기 시각적 객체 중 상기 시각적 객체를 선택함을 나타내는 입력일 수 있다. 예를 들면, 프로세서(120)는, 상기 시각적 객체와 연계된 상기 이미지가 표시되는 동안 상기 제1 사용자 입력이 수신되는 조건 상에서 동작 1407을 실행하고, 상기 시각적 객체와 연계된 상기 이미지가 표시되는 동안 상기 제2 사용자 입력이 수신되는 조건 상에서 동작 1405을 실행할 수 있다.
동작 1405에서, 프로세서(120)는, 상기 시각적 객체와 연계된 상기 이미지가 표시되는 동안 상기 제2 사용자 입력이 수신됨을 식별하는 것에 기반하여, 상기 표시 영역의 사이즈를 상기 제2 사이즈로 변경할 수 있다. 예를 들어, 도 15를 참조하면, 프로세서(120)는, 상태(1500) 내에서, 이미지(1502) 및 시각적 객체(1503) 중 시각적 객체(1503)에 대한 제2 사용자 입력(1505)을 수신할 수 있다. 프로세서(120)는, 제2 사용자 입력(1505)에 응답하여, 상태(1500)를 상태(1510)로 변경할 수 있다. 예를 들면, 프로세서(120)는, 제2 사용자 입력(1505)에 응답하여 액츄에이터(150)를 통해 상기 표시 영역의 상기 사이즈를 상기 제2 사이즈로 변경함으로써, 상태(1500)를 상태(1510)로 변경할 수 있다. 예를 들면, 상태(1510) 내에서, 프로세서(120)는, 상기 소프트웨어 어플리케이션의 사용자 인터페이스(1511)를 표시할 수 있다. 일 실시예에서, 제2 사용자 입력(1505)는, 시각적 객체(1503) 내의 시각적 요소(1503-1) 상에서 접촉점을 가지는 터치 입력일 수도 있다. 하지만, 이에 제한되지 않는다.
다시 도 14를 참조하면, 동작 1407에서, 프로세서(120)는, 상기 시각적 객체와 연계된 상기 이미지가 표시되는 동안 상기 제1 사용자 입력이 수신됨을 식별하는 것에 기반하여, 상기 표시 영역의 사이즈를 상기 제1 사이즈로 유지할 수 있다. 예를 들어, 도 15를 참조하면, 프로세서(120)는, 상태(1500) 내에서, 이미지(1502) 및 시각적 객체(1503) 중 이미지(1502)에 대한 제1 사용자 입력(1506)을 수신할 수 있다. 프로세서(120)는, 제1 사용자 입력(1506)에 응답하여, 상태(1500)를 상태(1520)로 변경할 수 있다. 예를 들면, 프로세서(120)는, 상태(1520) 내에서, 상기 제1 사이즈를 가지는 상기 표시 영역 내에서, 상기 소프트웨어 어플리케이션의 사용자 인터페이스(1521)를 표시할 수 있다. 일 실시예에서, 도 15 내에서 도시하지 않았으나, 프로세서(120)는, 사용자 인터페이스(1521)와 함께, 도 12 내의 다른 시각적 객체(1212) 또는 도 13 내의 다른 시각적 객체(1313)와 같은, 다른 시각적 객체를 표시할 수 있다. 하지만, 이에 제한되지 않는다.
상술한 바와 같이, 전자 장치(101)는, 상기 시각적 객체와 연계된 상기 이미지가 표시되는 동안 수신되는 터치 입력에 따라, 상기 표시 영역의 사이즈를 변경하거나 유지할 수 있다. 예를 들면, 전자 장치(101)는, 상기 터치 입력이 상기 이미지에 대하여 수신될 시, 상기 표시 영역의 사이즈를 유지하고 상기 터치 입력이 상기 시각적 객체에 대하여 수신될 시, 상기 표시 영역의 사이즈를 변경함으로써, 상기 표시 영역의 사이즈의 제어와 관련된 사용자 편의성을 강화할 수 있다.
도 16은 미리 결정된 시간의 경과에 따라 시각적 객체의 표시를 중단하는 예시적인 방법을 도시한다. 이러한 방법은, 도 1 내에서 도시된 전자 장치(101) 또는 전자 장치(101)의 프로세서(120)에 의해 실행될 수 있다.
도 16의 동작 1601 내지 동작 1607은 도 3의 동작 305 내에 포함될 수 있다.
도 17은 미리 결정된 시간의 경과에 따라 표시가 중단되는 시각적 객체의 예를 도시한다.
도 16을 참조하면, 동작 1601에서, 프로세서(120)는, 상기 제1 사이즈를 가지는 상기 표시 영역 내에서, 상기 시각적 객체를 상기 소프트웨어 어플리케이션의 상기 사용자 인터페이스와 함께 표시할 수 있다. 예를 들어, 도 17을 참조하면, 프로세서(120)는, 상태(800)와 같이, 상기 제1 사이즈를 가지는 상기 표시 영역 내에서, 시각적 객체(802)를 사용자 인터페이스(801)와 함께 표시할 수 있다.
다시 도 16을 참조하면, 동작 1603에서, 프로세서(120)는, 상기 시각적 객체의 표시에 응답하여, 미리 결정된 시간이 상기 시각적 객체를 표시한 타이밍으로부터 경과되는지 여부를 식별할 수 있다. 예를 들면, 프로세서(120)는, 상기 미리 결정된 시간이 상기 타이밍으로부터 경과되지 않는 동안, 동작 1605을 실행하고, 상기 미리 결정된 시간이 상기 타이밍으로부터 경과되는 조건 상에서 동작 1607을 실행할 수 있다.
동작 1605에서, 프로세서(120)는, 상기 미리 결정된 시간이 상기 타이밍으로부터 경과되지 않음을 식별하는 동안, 상기 시각적 객체를 표시하는 것을 유지할 수 있다. 예를 들면, 상기 미리 결정된 시간이 상기 타이밍으로부터 경과되지 않는 동안 상기 표시 영역의 사이즈를 변경하는 기능을 제공하기 위해, 프로세서(120)는, 상기 시각적 객체를 표시하는 것을 유지할 수 있다. 예를 들어, 도 17을 참조하면, 프로세서(120)는, 상기 미리 결정된 시간이 상기 타이밍으로부터 경과되지 않는 동안, 상태(800)를 유지할 수 있다.
다시 도 16을 참조하면, 동작 1607에서, 프로세서(120)는, 상기 미리 결정된 시간이 상기 타이밍으로부터 경과됨을 식별하는 것에 응답하여, 상기 시각적 객체를 표시하는 것을 중단할 수 있다. 예를 들면, 상기 미리 결정된 시간이 상기 타이밍으로부터 경과됨은, 사용자가 상기 표시 영역의 사이즈를 상기 제1 사이즈로 유지하는 것을 원함을 의미할 수 있기 때문에, 프로세서(120)는, 상기 미리 결정된 시간이 상기 타이밍으로부터 경과되는 조건 상에서 상기 시각적 객체의 표시를 중단할 수 있다. 예를 들어, 도 17을 참조하면, 프로세서(120)는, 상태(800) 내에서, 상기 미리 결정된 시간이 상기 타이밍으로부터 경과됨을 식별할 수 있다. 프로세서(120)는, 상기 식별에 응답하여, 상태(800)를 상태(1700)로 변경할 수 있다. 예를 들면, 상태(1700) 내에서, 프로세서(120)는, 상태(800)와 달리, 사용자 인터페이스(801)와 함께 시각적 객체(802)를 표시하는 것을 중단할 수 있다. 예를 들면, 시각적 객체(802)는, 상태(1700) 내에서, 상기 제1 사이즈를 가지는 상기 표시 영역으로부터 사라질(disappear) 수 있다.
상술한 바와 같이, 전자 장치(101)는, 상기 시각적 객체의 표시를 적응적으로 중단할 수 있다. 예를 들어, 상기 시각적 객체의 표시 후 일정 시간이 경과됨은, 상기 표시 영역의 사이즈를 유지하는 것이 사용자 의도임을 의미할 수 있기 때문에, 전자 장치(101)는, 상기 시각적 객체의 표시를 중단함으로써, 상기 시각적 객체와 함께 표시되었던 사용자 인터페이스의 시인성을 강화할 수 있다.
도 18은 표시 영역의 사이즈를 시각적 객체에 대한 적어도 하나의 입력을 통해 식별하는 예시적인 방법을 도시한다. 이러한 방법은, 도 1 내에서 도시된 전자 장치(101) 또는 전자 장치(101)의 프로세서(120)에 의해 실행될 수 있다.
도 18의 동작 1801 내지 동작 1809는 도 3의 동작 307 내에 포함될 수 있다.
도 19는 표시 영역의 사이즈를 식별하기 위한 시각적 요소를 포함하는 시각적 객체의 예를 도시한다.
도 18을 참조하면, 동작 1801에서, 프로세서(120)는, 상기 사용자 인터페이스와 함께 표시되는 상기 시각적 객체에 대한 터치 입력을 수신할 수 있다. 예를 들어, 도 19를 참조하면, 프로세서(120)는, 상태(800)와 같이, 상기 제1 사이즈를 가지는 상기 표시 영역 내에서, 시각적 객체(802)를 사용자 인터페이스(801)와 함께 표시할 수 있다.
다시 도 18을 참조하면, 동작 1803에서, 프로세서(120)는, 상기 터치 입력이 유지되는 시간이 미리 결정된 시간 이상인지 여부를 식별할 수 있다. 예를 들면, 프로세서(120)는, 상기 미리 결정된 시간이 경과되기 전 상기 터치 입력이 해제되는 조건 상에서, 동작 1805을 실행하고, 상기 미리 결정된 시간이 경과될 때까지 상기 터치 입력이 유지되는 조건 상에서, 동작 1807을 실행할 수 있다.
동작 1805에서, 프로세서(120)는, 상기 미리 결정된 시간이 경과되기 전 해제되는 상기 시각적 객체 상의 상기 터치 입력에 응답하여, 상기 표시 영역의 사이즈를 상기 제2 사이즈로 변경할 수 있다. 예를 들면, 프로세서(120)는, 동작 1805에서, 상기 터치 입력을 상기 시각적 객체에 대한 싱글 탭 입력으로 인식함으로써, 상기 표시 영역의 사이즈를 상기 제2 사이즈로 변경할 수 있다. 예를 들어, 도 19을 참조하면, 프로세서(120)는, 상태(800) 내에서, 상기 미리 결정된 시간이 경과되기 전 해제되는 터치 입력(1905)을 수신할 수 있다. 프로세서(120)는, 터치 입력(1905)에 응답하여, 상태(800)를 상태(1910)로 변경할 수 있다. 예를 들면, 상태(1910) 내에서, 프로세서(120)는, 터치 입력(1905)에 응답하여 액츄에이터(150)를 통해 상기 표시 영역의 사이즈를 상기 제2 사이즈로 변경함으로써, 상태(800)를 상태(1910)로 변경할 수 있다. 예를 들면, 상태(1910) 내에서, 프로세서(120)는, 상기 소프트웨어 어플리케이션의 사용자 인터페이스(1911)를 표시할 수 있다.
다시 도 18을 참조하면, 동작 1807에서, 프로세서(120)는, 상기 미리 결정된 시간 이상 유지되는 상기 시각적 객체 상의 터치 입력에 응답하여, 확대된 사이즈(enlarged size)를 가지는 바 형상의(bar-shaped) 인디케이터를 포함하는 상기 시각적 객체를 표시할 수 있다. 예를 들면, 프로세서(120)는, 상기 제2 사이즈와 구별되는 다른 사이즈로 상기 표시 영역의 사이즈를 변경하는 기능을 제공하기 위해, 상기 확대된 사이즈를 가지는 상기 바 형상의 인디케이터를 포함하는 상기 시각적 객체를 표시할 수 있다. 예를 들어, 도 19을 참조하면, 프로세서(120)는, 상태(800) 내에서, 상기 미리 결정된 시간 이상 유지되는 터치 입력(1907)을 수신할 수 있다. 프로세서(120)는, 터치 입력(1907)에 응답하여, 상태(800)를 상태(1920)로 변경할 수 있다. 예를 들면, 상태(1920) 내에서, 프로세서(120)는, 확대된 사이즈를 가지는 시각적 객체(802)를 사용자 인터페이스(801)와 함께 표시할 수 있다. 예를 들면, 상태(1920) 내에서 표시되는 시각적 객체(802)는, 상태(800) 내에서 표시되는 시각적 객체(802)와 대조하여, 상기 표시 영역의 사이즈를 제어하는 기능을 제공하기 위해, 확대될 수 있다. 일 실시예에서, 상태(1920) 내에서의 시각적 객체(802)는, 사용자 인터페이스(801)에 대하여 시각적으로 강조되거나 상태(800) 내에서의 시각적 객체(802)에 대하여 시각적으로 강조될 수 있다. 하지만, 이에 제한되지 않는다.
다시 도 18을 참조하면, 동작 1809에서, 프로세서(120)는, 상기 표시 영역의 사이즈를, 상기 확대된 사이즈를 가지는 상기 바 형상의 인디케이터를 통해 수신되는 사용자 입력에 대응하는 사이즈로 변경할 수 있다. 예를 들어, 도 19을 참조하면, 상태(1920) 내에서, 프로세서(120)는, 상기 확대된 사이즈를 가지는 시각적 객체(802)를 통해 사용자 입력(1921)을 수신할 수 있다. 일 실시예에서, 사용자 입력(1921)은, 터치 입력(1907)의 유지를 통해 정의될 수 있다. 일 실시예에서, 사용자 입력(1921)은, 터치 입력(1907) 다음의 입력일 수도 있다. 하지만, 이에 제한되지 않는다. 예를 들면, 사용자 입력(1921)은, 시각적 객체(802) 내의 게이지의 길이를 조절하기 위한 입력일 수 있다. 프로세서(120)는, 사용자 입력(1921)에 응답하여, 상태(1920)를 상태(1930)로 변경할 수 있다. 예를 들면, 프로세서(120)는, 사용자 입력(1921)에 응답하여 액츄에이터(150)를 통해 상기 표시 영역의 사이즈를 사용자 입력(1921)에 기반하여 정의된 사이즈로 변경함으로써, 상태(1920)를 상태(1930)로 변경할 수 있다. 예를 들면, 상태(1930)와 같이, 프로세서(120)는, 사용자 입력(1921)에 기반하여 정의된 사이즈를 가지는 상기 표시 영역 내에서 상기 소프트웨어 어플리케이션의 사용자 인터페이스(1931)를 표시할 수 있다, 예를 들면, 상태(1930) 내에서 제공되는 상기 표시 영역의 높이(h)는, 제1 상태(210)를 통해 제공되는 높이보다 길고, 제2 상태(250)을 통해 제공되는 높이보다 짧을 수 있다. 하지만, 이에 제한되지 않는다.
상술한 바와 같이, 전자 장치(101)는, 상기 시각적 객체에 대한 롱 프레스 입력에 응답하여, 상기 시각적 객체를 확대하고, 상기 확대된 시각적 객체를 통해 상기 표시 영역의 사이즈를 입력할 수 있는 기능을 제공할 수 있다. 예를 들면, 전자 장치(101)는, 이러한 기능을 제공함으로써, 상기 표시 영역의 사이즈를 적응적으로 제공할 수 있다.
도 20은 표시 영역의 가장자리와 교차된 콘텐트의 식별에 기반하여 시각적 객체를 표시하는 예시적인 방법을 도시한다. 이러한 방법은, 도 1 내에서 도시된 전자 장치(101) 또는 전자 장치(101)의 프로세서(120)에 의해 실행될 수 있다.
도 21은 표시 영역의 가장자리와 교차된 콘텐트의 식별에 기반하여 표시되는 시각적 객체의 예를 도시한다.
도 20을 참조하면, 동작 2001에서, 프로세서(120)는, 소프트웨어 어플리케이션의 사용자 인터페이스가 표시되는 동안, 상기 사용자 인터페이스 내의 콘텐트가 상기 하우징(예: 제1 하우징(201)) 밖으로 노출된 플렉서블 디스플레이(140)의 표시 영역의 가장자리와 교차됨을 식별할 수 있다. 예를 들면, 상기 콘텐트는, 상기 사용자 인터페이스가 표시되는 동안 수신되는 스크롤 입력(또는 스위핑 입력)에 따라 상기 가장자리와 교차될 수 있다. 예를 들면, 상기 콘텐트는, 상기 콘텐트를 드래그한 후 드롭하는 터치 입력에 따라 상기 가장자리와 교차될 수 있다. 하지만, 이에 제한되지 않는다.
예를 들어, 도 21을 참조하면, 상태(2100) 내에서, 프로세서(120)는, 소프트웨어 어플리케이션의 사용자 인터페이스(2101)가 표시되는 동안, 사용자 인터페이스(2101) 내의 콘텐트(2102)를 이동하기 위한 사용자 입력(2103)을 수신할 수 있다. 프로세서(120)는, 사용자 입력(2103)에 응답하여, 상태(2100)를 상태(2110)로 변경할 수 있다. 예를 들면, 상태(2110) 내에서, 프로세서(120)는, 사용자 입력(2103)에 기반하여 식별된 위치에서 콘텐트(2102)를 포함하는 사용자 인터페이스(2101)를 표시할 수 있다. 예를 들면, 상태(2110) 내에서, 프로세서(120)는, 상기 위치로 이동된 콘텐트(2102)가 상기 표시 영역의 가장자리(2111)와 교차됨(intersected with)을 식별할 수 있다. 예를 들면, 상태(2110) 내에서, 가장자리(2111)와의 교차에 따라 콘텐트(2102)의 일부의 표시는 중단될 수 있다.
다시 도 20을 참조하면, 동작 2003에서, 프로세서(120)는, 상기 식별에 기반하여, 상기 콘텐트 주변에서 상기 표시 영역의 상태의 변경을 가이드하기 위한 시각적 객체를 표시할 수 있다. 예를 들어, 도 21을 참조하면, 프로세서(120)는, 상태(2110) 내에서, 콘텐트(2102)가 가장자리(2111)와 교차됨을 식별하거나, 가장자리(2111)와의 교차에 따라 콘텐트(2102)의 일부의 표시가 중단됨을 식별하는 것에 응답하여, 상태(2110)를 상태(2120)로 변경할 수 있다. 상태(2120) 내에서, 프로세서(120)는, 시각적 객체(2121)를 더 표시할 수 있다. 예를 들면, 시각적 객체(2121)는, 표시가 부분적으로 중단된 콘텐트(2102) 주변에서 표시될 수 있다.
다시 도 20을 참조하면, 동작 2005에서, 프로세서(120)는, 상기 시각적 객체에 대한 사용자 입력에 응답하여, 상기 가장자리와의 상기 교차에 따라 중단된 상기 콘텐트의 일부의 표시를 재개하기 위해, 상기 표시 영역을 액츄에이터(150)를 통해 연장할 수 있다. 예를 들어, 도 21을 참조하면, 프로세서(120)는, 상태(2120) 내에서, 시각적 객체(2121)에 대한 사용자 입력(2125)을 수신할 수 있다. 프로세서(120)는, 사용자 입력(2125)에 응답하여, 상태(2120)를 상태(2130)로 변경할 수 있다. 예를 들면, 프로세서(120)는, 사용자 입력(2125)에 응답하여 액츄에이터(150)를 통해 상기 표시 영역을 연장함으로써, 상태(2120)를 상태(2130)로 변경할 수 있다. 예를 들면, 상태(2130) 내에서 제공되는, 상기 연장된 표시 영역은, 상태(2120) 내의 상기 표시 영역과 달리, 콘텐트(2102)의 전체 부분을 포함하는 사용자 인터페이스(2131)를 표시할 수 있다.
도 20 및 도 21을 통해 예시된 동작들은 도 3, 4, 5, 6, 7, 8a, 8b, 9, 10, 11, 12, 13, 14, 15, 16, 17, 18, 및 도 19를 통해 예시된 동작들과 불가분적으로 연결된(inextricably linked) 것은 아니다.
상술한 바와 같이, 전자 장치(101)는, 상기 표시 영역을 연장할 수 있는 상태 내에서, 상기 표시 영역 내의 콘텐트의 일부의 표시가 중단되는지 여부를 식별하고, 상기 콘텐트의 상기 일부의 상기 표시가 중단됨을 식별하는 것에 응답하여, 상기 시각적 객체를 표시할 수 있다. 전자 장치(101)는, 상기 시각적 객체의 표시를 통해, 상기 표시 영역을 연장할 수 있는 기능을 제공함으로써, 상기 콘텐트의 상기 일부의 상기 표시가 중단됨에 따라 야기되는 불편함을 감소시킬 수 있다. 예를 들면, 전자 장치(101)는, 상기 시각적 객체의 표시를 통해, 강화된 사용자 경험을 제공할 수 있다.
도 22a는, 일 실시예에 따른 전자 장치의 제1 상태의 전면도(front view)이다. 도 22b는, 일 실시예에 따른 전자 장치의 제1 상태의 후면도(rear view)이다. 도 22c는, 일 실시예에 따른 전자 장치의 제2 상태의 전면도(front view)이다. 도 22d는, 일 실시예에 따른 전자 장치의 제2 상태의 후면도(rear view)이다.
도 22a, 도 22b, 도 22c, 및 도 22d를 참조하면, 일 실시예에 따른 전자 장치(2200)(예: 도 1의 전자 장치(101))는, 제1 하우징(2210), 제2 하우징(2220), 디스플레이(2230)(예: 도 1의 디스플레이 (140)), 및 카메라(2240)를 포함할 수 있다. 일 실시예에 따르면, 제2 하우징(2220)은, 제1 하우징(2210)에 대하여 슬라이딩 가능(slidable)할 수 있다. 예를 들어, 제2 하우징(2220)은, 제1 하우징(2210)에 대하여 제1 방향(예: +y 방향)을 따라 지정된 거리 이내의 범위에서 이동할 수 있다. 제2 하우징(2220)이 제1 방향을 따라 이동하면, 제1 방향을 향하는 제2 하우징(2220)의 측면(2220a)과 제1 하우징(2210) 사이의 거리는 증가할 수 있다. 다른 예를 들어, 제2 하우징(2220)은, 제1 하우징(2210)에 대하여 제1 방향에 반대인 제2 방향(예: -y 방향)을 따라 지정된 거리 이내의 범위에서 이동할 수 있다. 제2 하우징(2220)이 제2 방향을 따라 이동하면, 제1 방향을 향하는 제2 하우징(2220)의 측면(2220a)과 제1 하우징(2210) 사이의 거리는 감소할 수 있다. 일 실시예에 따르면, 제2 하우징(2220)은, 제1 하우징(2210)에 대하여 상대적으로 슬라이딩함으로써, 제1 하우징(2210)에 대하여 직선 왕복 운동할 수 있다. 예를 들어, 제2 하우징(2220)의 적어도 일부는, 제1 하우징(2210) 내로 인입 가능하거나, 제1 하우징(2210)으로부터 인출 가능할 수 있다.
일 실시예에 따르면, 전자 장치(2200)는, 제2 하우징(2220)이 제1 하우징(2210)에 대하여 슬라이딩 가능하도록 설계됨에 따라 "슬라이더블(slidable) 전자 장치"로 명명될 수 있다. 일 실시예에 따르면, 전자 장치(2200)는, 디스플레이(2230)의 적어도 일부분이 제2 하우징(2220)의 슬라이드 이동에 기반하여 제2 하우징(2220)(또는 제1 하우징(2210))의 내부에서 감기도록 설계됨에 따라 "롤러블 전자 장치"로 명명될 수 있다.
일 실시예에 따르면, 전자 장치(2200)의 제1 상태는, 제2 하우징(2220)이 제2 방향(예: -y 방향)으로 이동한 상태(예: 수축 상태, 또는 슬라이드 인 상태(slide-in state))로 정의될 수 있다. 예를 들어, 전자 장치(2200)의 제1 상태에서, 제2 하우징(2220)은, 제1 방향으로 이동 가능하지만, 제2 방향으로 이동 가능하지 않을 수 있다. 전자 장치(2200)의 제1 상태에서, 제2 하우징(2220)의 측면(2220a)과 제1 하우징(2210) 사이의 거리는, 제2 하우징(2220)의 이동에 따라 증가할 수 있다. 다른 예를 들어, 전자 장치(2200)의 제1 상태에서, 제2 하우징(2220)의 일부는 제1 하우징(2210) 내로 인출 가능할 수 있다. 예를 들면, 전자 장치(2200)의 상기 제1 상태에서, 제2 하우징(2220)이 제1 하우징(2210)에 대하여 인입되는 것은 불가능할 수 있다. 일 실시예에 따르면, 전자 장치(2200)의 제1 상태는, 디스플레이(2230)의 제2 영역(2230b)이 전자 장치(2200)의 외부에서 시각적으로 노출되지 않는 상태로 정의될 수 있다. 예를 들어, 전자 장치(2200)의 제1 상태에서, 디스플레이(2230)의 제2 영역(2230b)은, 제1 하우징(2210) 및/또는 제2 하우징(2220)이 형성하는 전자 장치(2200)의 내부 공간(미도시)의 내부에 위치하여, 전자 장치(2200)의 외부에서 시인되지 않을(not be visible) 수 있다.
일 실시예에 따르면, 전자 장치(2200)의 제2 상태는, 제2 하우징(2220)이 제1 방향으로 이동한 상태(예: 확장 상태, 또는 슬라이드 아웃 상태(slide-out state))로 정의될 수 있다. 예를 들어, 전자 장치(2200)의 제2 상태에서, 제2 하우징(2220)은, 제2 방향으로 이동 가능하지만, 제1 방향으로 이동 가능하지 않을 수 있다. 전자 장치(2200)의 제2 상태에서, 제2 하우징(2220)의 측면(2220a)과 제1 하우징(2210) 사이의 거리는, 제2 하우징(2220)의 이동에 따라 감소할 수 있으나, 증가하지 않을 수 있다. 다른 예를 들어, 전자 장치(2200)의 제2 상태에서, 제2 하우징(2220)의 일부는 제1 하우징(2210) 내로 인입 가능할 수 있으나, 제1 하우징(2210)으로부터 인출 가능하지 않을 수 있다. 일 실시예에 따르면, 전자 장치(2200)의 제2 상태는, 디스플레이(2230)의 제2 영역(2230b)이 전자 장치(2200)의 외부에서 시각적으로 노출된 상태로 정의될 수 있다. 예를 들어, 전자 장치(2200)의 제2 상태에서, 디스플레이(2230)의 제2 영역(2230b)은, 전자 장치(2200)의 내부 공간으로부터 인출되어, 전자 장치(2200)의 외부에서 시인될(visible) 수 있다.
일 실시예에 따르면, 제2 하우징(2220)이 제1 하우징(2210)으로부터 제1 방향(예: +y 방향)으로 이동할 경우, 제2 하우징(2220)의 적어도 일부 및/또는 디스플레이(2230)의 제2 영역(2230b)은, 제2 하우징(2220)의 이동 거리에 대응되는 인출 길이(d1)만큼 제1 하우징(2210)으로부터 인출될 수 있다. 일 실시 예에 따르면, 제2 하우징(2220)은 지정된 거리(d2) 이내로 왕복이동 할 수 있다. 일 실시예에 따르면, 인출 길이(d1)는 대략 0 내지 지정된 거리(d2)의 크기를 가질 수 있다.
일 실시예에 따르면, 전자 장치(2200)의 상태는, 사용자에 의한 수동 조작(manual operation)으로, 또는 제1 하우징(2210) 또는 제2 하우징(2220)의 내부에 배치된 구동 모듈(미도시)에 의한 자동 조작(automatic operation)으로, 제2 상태 및/또는 제1 상태의 사이에서 전환 가능할(convertible) 수 있다. 일 실시 예에 따르면, 상기 구동 모듈은, 사용자 입력에 기반하여 동작이 트리거될 수 있다. 일 실시 예에 따르면, 구동 모듈의 동작을 트리거하기 위한 사용자 입력은, 디스플레이(2230)를 통한 터치 입력, 포스 터치 입력, 및/또는 제스처 입력을 포함할 수 있다. 다른 실시예에 따르면, 구동 모듈의 동작을 트리거하기 위한 사용자 입력은, 음성 입력(보이스 입력), 또는 제1 하우징(2210) 또는 제2 하우징(2220)의 외부로 노출된 물리 버튼의 입력을 포함할 수 있다. 일 실시 예에 따르면, 구동 모듈은 사용자의 외력에 의한 수동 조작을 감지하면 동작이 트리거 되는, 반자동 방식으로 구동될 수 있다.
일 실시예에 따르면, 전자 장치(2200)의 제1 상태는 제1 형상으로 참조될 수 있고, 전자 장치(2200)의 제2 상태는 제2 형상으로 참조될 수 있다. 예를 들면, 제1 형상은 기본(normal) 상태, 축소 상태, 또는 닫힌 상태를 포함할 수 있고, 제2 형상은, 열린 상태를 포함할 수 있다. 일 실시 예에 따르면, 전자 장치(2200)는 제1 상태와 제2 상태의 사이의 상태인 제3 상태(예: 중간 상태)를 형성할 수 있다. 예를 들면, 제3 상태는 제3 형상으로 참조될 수 있으며, 제3 형상은, 프리 스탑(free stop) 상태를 포함할 수 있다.
일 실시 예에 따르면, 디스플레이(2230)는, 사용자에게 시각적 정보를 표시할 수 있도록, 전자 장치(2200)의 전면 방향(예: -z 방향)을 통해 외부에서 시인 가능할(visible 또는 viewable) 수 있다. 예를 들어, 디스플레이(2230)는, 플렉서블 디스플레이를 포함할 수 있다. 일 실시예에 따르면, 디스플레이(2230)는, 제2 하우징(2220)에 배치되고, 제2 하우징(2220)의 이동에 따라 전자 장치(2200)의 내부 공간(미도시)으로부터 인출되거나, 전자 장치(2200)의 내부 공간으로 인입될 수 있다. 전자 장치(2200)의 내부 공간은, 제1 하우징(2210)과 제2 하우징(2220)의 결합에 의해 형성되는 제1 하우징(2210) 및 제2 하우징(2220)의 내의 공간을 의미할 수 있다. 예를 들어, 전자 장치(2200)의 제1 상태에서, 디스플레이(2230)의 적어도 일부는 전자 장치(2200)의 내부 공간으로 말려 들어가, 인입될 수 있다. 디스플레이(2230)의 적어도 일부가 전자 장치(2200)의 내부 공간에 인입된 상태에서, 제2 하우징(2220)이 제1 방향으로 이동하면, 디스플레이(2230)의 적어도 일부는, 전자 장치(2200)의 내부 공간으로부터 인출될 수 있다. 다른 예를 들어, 제2 하우징(2220)이 제2 방향으로 이동하면, 디스플레이(2230)의 적어도 일부는, 전자 장치(2200)의 내부로 말려 들어감으로써, 전자 장치(2200)의 내부 공간으로 인입될 수 있다. 디스플레이(2230)의 적어도 일부가 인출되거나 인입됨에 따라, 전자 장치(2200)의 외부에서 시인 가능한 디스플레이(2230)의 면적은, 확장 또는 축소될 수 있다. 일 실시예에 따르면, 디스플레이(2230)는, 제1 영역(2230a) 및 제2 영역(2230b)을 포함할 수 있다.
일 실시 예에 따르면, 디스플레이(2230)의 제1 영역(2230a)은, 전자 장치(2200)가 제2 상태인지 또는 제1 상태인지 여부에 무관하게, 고정적으로 전자 장치(2200)의 외부에서 시인 가능한 디스플레이(2230)의 영역을 의미할 수 있다. 예를 들어, 제1 영역(2230a)은, 전자 장치(2200)의 내부 공간 내로 말려들어 가지 않은 디스플레이(2230)의 일부 영역을 의미할 수 있다. 일 실시예에 따르면, 제1 영역(2230a)은, 제2 하우징(2220)이 이동하면, 제2 하우징(2220)과 함께 이동할 수 있다. 예를 들어, 제1 영역(2230a)은, 제2 하우징(2220)이 제1 방향 또는 제2 방향을 따라 이동하면, 제2 하우징(2220)과 함께 전자 장치(2200)의 전면 상에서, 제1 방향 또는 제2 방향을 따라 이동할 수 있다.
일 실시 예에 따르면, 디스플레이(2230)의 제2 영역(2230b)은, 제1 영역(2230a)에 연결되고, 제2 하우징(2220)의 이동에 따라, 전자 장치(2200)의 내부 공간으로 인입되거나, 또는 전자 장치(2200)의 내부 공간으로부터 외부로 인출될 수 있다. 예를 들어, 디스플레이(2230)의 제2 영역(2230b)은, 전자 장치(2200)의 제1 상태에서, 말려진 상태로 전자 장치(2200)의 내부 공간 내에 인입된 상태일 수 있다. 디스플레이(2230)의 제2 영역(2230b)은, 전자 장치(2200)의 제1 상태에서, 전자 장치(2200)의 내부 공간으로 인입되어 외부에서 시인 가능하지 않을 수 있다. 다른 예를 들어, 디스플레이(2230)의 제2 영역(2230b)은, 전자 장치(2200)의 제2 상태에서, 전자 장치(2200)의 내부 공간으로부터 인출된 상태일 수 있다. 디스플레이(2230)의 제2 영역(2230b)은, 제2 상태에서, 전자 장치(2200)의 외부에서 시인 가능할 수 있다.
일 실시 예에 따르면, 전자 장치(2200)의 제1 상태에서, 전자 장치(2200)의 외부에서 시인 가능한 디스플레이(2230)의 면적은, 디스플레이(2230)의 제1 영역(2230a)만을 포함할 수 있다. 전자 장치(2200)의 제2 상태에서 전자 장치(2200)의 외부에서 시인 가능한 디스플레이(2230)의 면적은, 디스플레이(2230)의 제1 영역(2230a) 및 제2 영역(2230b)의 적어도 일부를 포함할 수 있다.
일 실시 예에 따르면, 전자 장치(2200)의 제1 하우징(2210)은, 제1 하우징(2210)의 내부 공간을 둘러싸는 북 커버(2211) 및 북 커버(2211)의 후면을 감싸는 후면 플레이트(2212)를 포함할 수 있다. 전자 장치(2200)의 제2 하우징(2220)은, 전자 장치(2200)의 내부 공간을 감싸는 프런트 커버(2221)를 포함할 수 있다.
일 실시 예에 따르면, 프런트 커버(2221)는, 제1 하우징(2210)의 내부로 삽입되지 않는 프런트 커버(2221)의 제1 커버 영역(2221a) 및, 제1 하우징(2210)의 내부로 삽입 또는 인출되는 제2 커버 영역(2221b)을 포함할 수 있다. 프런트 커버(2221)의 제1 커버 영역(2221a)은, 전자 장치(2200)가 제2 상태 및 제1 상태인지 여부에 무관하게, 항상 시인 가능할 수 있다. 일 실시예에 따르면, 프런트 커버(2221)의 제1 커버 영역(2221a)의 적어도 일부는, 제2 하우징(2220)의 측면(2220a)을 형성할 수 있다. 일 실시 예에 따르면, 제2 하우징(2220)의 제2 커버 영역(2221b)은, 제1 상태에서 시인 가능하지 않고, 제2 상태에서 시인 가능할 수 있다.
카메라(2240)는, 전자 장치(2200)의 외부로부터 빛을 수신하는 것에 기반하여, 피사체(a subject)에 대한 이미지를 획득할 수 있다. 일 실시 예에 따르면, 카메라(2240)는, 하나 또는 복수의 렌즈들, 이미지 센서 및/또는 이미지 시그널 프로세서를 포함할 수 있다. 일 실시예에 따르면, 카메라(2240)는, 디스플레이(2230)의 제1 영역(2230a)이 배치되는 전자 장치(2200)의 전면에 반대인 전자 장치(2200)의 후면을 향하도록, 제2 하우징(2220)에 배치될 수 있다. 예를 들어, 카메라(2240)는, 제2 하우징(2220)의 프런트 커버(2221)에 배치되고, 전자 장치(2200)가 제1 상태일 때, 북 커버(2211)에 형성된 개구(2211a)를 통해, 전자 장치(2200)의 외부에서 시인 가능할 수 있다. 다른 예를 들어, 카메라(2240)는, 제2 하우징(2220)의 프런트 커버(2221)에 배치되고, 전자 장치(2200)가 제1 상태일 때, 북 커버(2211) 및/또는 후면 플레이트(2212)에 의해 가려져, 전자 장치(2200)의 외부에서 시인 가능하지 않을 수 있다.
일 실시예에 따르면, 카메라(2240)는, 복수개의 카메라들을 포함할 수 있다. 예를 들면, 카메라(2240)는, 광각 카메라, 초 광각 카메라, 망원 카메라, 근접 카메라 및/또는 뎁스 카메라를 포함할 수 있다. 다만, 카메라(2240)가 반드시 복수의 카메라들을 포함하는 것으로 한정되는 것은 아니며, 하나의 카메라를 포함할 수 있다.
일 실시예에 따르면, 카메라(2240)는, 디스플레이(2230)의 제1 영역(2230a)이 배치되는 전자 장치(2200)의 전면을 지향하는 카메라(미도시)를 더 포함할 수 있다. 카메라(2240)가 전자 장치(2200)의 전면을 지향할 경우, 카메라(2240)는, 디스플레이(2230)의 아래(예: 디스플레이(2230)로부터 +z 방향)에 배치되는 언더 디스플레이 카메라(UDC, under display camera)일 수 있으나, 이에 제한되지 않는다.
일 실시 예에 따르면, 전자 장치(2200)는 디스플레이(2230) 아래에 배치되는 센서 모듈(미도시) 및/또는 카메라 모듈(미도시)을 포함할 수 있다. 센서 모듈은 디스플레이(2230)를 관통하여 수신되는 정보(예: 빛)를 기반으로 외부 환경을 검출할 수 있다. 일 실시 예에 따르면, 상기 센서 모듈은, 리시버, 근접 센서, 초음파 센서, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 모터 엔코더(motor encoder) 또는 인디케이터 중 적어도 하나를 포함할 수 있다. 일 실시 예에 따르면, 전자 장치(2200)의 적어도 일부 센서 모듈은, 디스플레이(2230)의 일부 영역을 통해 외부에서 시각적으로 노출될 수 있다. 일 실시 예에 따르면, 전자 장치(2200)는 센서 모듈을 이용하여 인출 길이(예: 인출 길이(d1))를 감지할 수 있다. 일 실시 예에 따르면, 전자 장치(2200)는 센서가 감지한 인출된 정도에 관한 대한 인출 정보를 생성할 수 있다. 예를 들면, 전자 장치(2200)는 인출 정보를 이용하여 제2 하우징(2220)의 인출된 정도를 감지 및/또는 확인할 수 있다. 일 실시 예에 따르면, 인출 정보는 제2 하우징(2220)의 인출 길이에 관한 정보를 포함할 수 있다.
일 실시 예에 따르면, 제1 하우징(2210)과 제2 하우징(2220)의 결합 형태는, 도 22a, 도 22b, 도 22c 및 도 22d에 도시된 형태 및 결합으로 제한되지 않으며, 다른 형상이나 부품의 조합 및/또는 결합에 의해 구현될 수도 있다.
도 23a는, 일 실시예에 따른 전자 장치의 분해 사시도(exploded perspective view)이다. 도 23b는, 일 실시예에 따른 전자 장치를 도 22a의 A-A'를 따라 절단한 예를 도시한 단면도(cross-sectional view)이다.
도 23a 및 도 23b를 참조하면, 일 실시예에 따른, 전자 장치(2200)는, 제1 하우징(2210), 제2 하우징(2220), 디스플레이(2230), 카메라(2240), 배터리(2250), 및 구동부(2260)를 포함할 수 있다. 일 실시예에 따르면, 제1 하우징(2210) 및 제2 하우징(2220)은, 서로 결합되어 전자 장치(2200)의 내부 공간(2201)을 형성할 수 있다. 예를 들어, 전자 장치(2200)의 제1 상태에서, 디스플레이(2230)의 제2 영역(2230b)은, 내부 공간(2201)에 수용될 수 있다.
일 실시예에 따르면, 제1 하우징(2210)은, 북 커버(2211), 후면 플레이트(2212), 및 프레임 커버(2213)를 포함할 수 있다. 일 실시예에 따르면, 제1 하우징(2210)에 포함된 북 커버(2211), 후면 플레이트(2212), 및 프레임 커버(2213)는, 서로 결합되어, 제2 하우징(2220)이 제1 하우징(2210)에 대하여 이동할 때, 이동하지 않을 수 있다. 일 실시예에 따르면, 북 커버(2211)는, 전자 장치(2200)의 외면의 적어도 일부를 형성할 수 있다. 예를 들어, 북 커버(2211)는, 전자 장치(2200)의 측면의 적어도 일부를 형성하고, 전자 장치(2200)의 후면의 적어도 일부를 형성할 수 있다. 일 실시예에 따르면, 북 커버(2211)는, 후면 플레이트(2212)가 안착되는 면을 제공할 수 있다. 후면 플레이트(2212)는, 북 커버(2211)의 일 면에 안착될 수 있다.
일 실시예에 따르면, 프레임 커버(2213)는, 전자 장치(2200)의 내부 구성 요소들을 지지할 수 있다. 예를 들어, 프레임 커버(2213)는, 배터리(2250) 및 구동부(2260)의 적어도 일부를 수용할 수 있다. 배터리(2250) 및 구동부(2260)는, 프레임 커버(2213)에 포함된 리세스 또는 홀 중 적어도 하나에 수용될 수 있다. 일 실시예에 따르면, 프레임 커버(2213)는, 북 커버(2211)에 의해 둘러싸일(surrounded) 수 있다. 예를 들어, 전자 장치(2200)의 제1 상태에서, 배터리(2250)가 배치되는 프레임 커버(2213)의 일 면(2213a)은, 북 커버(2211) 및/또는 디스플레이(2230)의 제2 영역(2230b)의 적어도 일부를 마주할 수 있다. 다른 예를 들어, 전자 장치(2200)의 제1 상태에서, 프레임 커버(2213)의 일 면(2213a)을 마주하는 프레임 커버(2213)의 타 면(2213b)은, 디스플레이(2230)의 제1 영역(2230a), 또는 프런트 커버(2221)를 마주할 수 있다. 예를 들어, 프레임 커버(2213)는, 소재로 알루미늄을 포함할 수 있으나, 이에 제한되지 않는다.
일 실시예에 따르면, 제2 하우징(2220)은, 프런트 커버(2221), 리어 커버(2222), 및 슬라이드 커버(2223)를 포함할 수 있다. 일 실시예에 따르면, 프런트 커버(2221), 리어 커버(2222), 및 슬라이드 커버(2223)는, 서로 결합되어, 제2 하우징(2220)이 제1 하우징(2210)에 대하여 상대적으로 이동하면, 제2 하우징(2220)과 함께 이동할 수 있다. 프런트 커버(2221)는, 전자 장치(2200)의 내부 구성 요소들을 지지할 수 있다. 예를 들어, 전자 장치(2200)의 전자 부품들(예: 도 1의 프로세서(120))이 배치된 인쇄 회로 기판(2224) 및/또는 카메라(2240)는, 내부 공간(2201)을 향하는 프런트 커버(2221)의 일 면(2221c)에 배치될 수 있다. 프런트 커버(2221)의 일 면(2221c)을 마주하는 프런트 커버(2221)의 타 면(2221d)은, 전자 장치(2200)가 제1 상태일 때, 디스플레이(2230)의 제1 영역(2230a)과 마주할 수 있다. 일 실시예에 따르면, 리어 커버(2222)는, 프런트 커버(2221)에 결합되어, 프런트 커버(2221)에 배치된 전자 장치(2200)의 구성 요소들을 보호할 수 있다. 예를 들어, 리어 커버(2222)는, 프런트 커버(2221)의 일 면(2221c)의 일부를 덮을 수 있다. 일 실시예에 따르면, 슬라이드 커버(2223)는, 리어 커버(2222) 상(예: +z 방향)에 배치되어, 후면 플레이트(2212), 및 북 커버(2211)와 함께 전자 장치(2200)의 외면을 형성할 수 있다. 슬라이드 커버(2223)는, 리어 커버(2222)의 일 면에 결합되어, 리어 커버(2222) 및/또는 프런트 커버(2221)를 보호할 수 있다.
일 실시예에 따르면, 전자 장치(2200)가 제1 상태일 때, 디스플레이(2230)는, 적어도 일부가 내부 공간(2201)으로 말려 들어감으로써(rolled into), 굽어질 수 있다. 일 실시예에 따르면, 디스플레이(2230)는, 프레임 커버(2213)의 적어도 일부, 및 프런트 커버(2221)의 적어도 일부를 감쌀(covering) 수 있다. 예를 들어, 전자 장치(2200)가 제1 상태일 때, 디스플레이(2230)는, 프런트 커버(2221)의 타 면(2221d)을 덮고, 프런트 커버(2221)와 북 커버(2211)의 사이를 통과하여, 내부 공간(2201)을 향해 연장될 수 있다. 디스플레이(2230)는, 프런트 커버(2221)와 북 커버(2211)의 사이를 통과한 후, 프레임 커버(2213)를 둘러쌀 수 있다. 디스플레이(2230)는, 내부 공간(2201) 내에서, 프레임 커버(2213)의 일 면(2213a)을 덮을 수 있다. 일 실시예에 따르면, 제2 하우징(2220)이 제1 방향으로 이동하면, 디스플레이(2230)의 제2 영역(2230b)은, 내부 공간(2201)으로부터 인출될 수 있다. 예를 들어, 제2 하우징(2220)이 제2 방향으로 이동함에 따라, 디스플레이(2230)는, 프런트 커버(2221)와 북 커버(2211) 사이를 통과하여 내부 공간(2201)으로부터 인출될 수 있다.
일 실시예에 따르면, 전자 장치(2200)는, 디스플레이(2230)를 지지하는 지지 바(2231) 및 가이드 레일(2232)을 포함할 수 있다. 예를 들어, 지지 바(2231)는, 서로 결합된 복수의 바들을 포함하고, 디스플레이(2230)의 제2 영역(2230b)의 형상에 대응되는 형상으로 제작될 수 있다. 일 실시예에 따르면, 지지 바(2231)는, 디스플레이(2230)가 이동함에 따라, 디스플레이(2230)와 함께 이동할 수 있다. 일 실시예에 따르면, 디스플레이(2230)의 제2 영역(2230b)이 내부 공간(2201) 내에 감겨진 상태인 제1 상태에서, 지지 바(2231)는, 디스플레이(2230)의 제2 영역(2230b)과 함께 내부 공간(2201) 내에서 감겨져 있을 수 있다. 지지 바(2231)는, 제2 하우징(2220)이 제1 방향으로 이동함에 따라, 디스플레이(2230)의 제2 영역(2230b)과 함께 이동할 수 있다. 일 실시예에 따르면, 가이드 레일(2232)은, 지지 바(2231)의 운동을 가이드할 수 있다. 예를 들어, 디스플레이(2230)가 이동함에 따라, 지지 바(2231)는, 프레임 커버(2213)에 결합된 가이드 레일(2232)을 따라 이동할 수 있다. 일 실시예에 따르면, 가이드 레일(2232)은, 프레임 커버(2213)에 결합될 수 있다. 예를 들어, 가이드 레일(2232)는, 제1 방향(예: +y 방향)에 실질적으로 수직인 제3 방향(예: +x 방향)을 따라 서로 이격되는 프레임 커버(2213)의 양 가장 자리들에 서로 이격되어 배치되는 복수의 가이드 레일(2232)들을 포함할 수 있다.
일 실시예에 따르면, 구동부(2260)는, 제2 하우징(2220)이 제1 하우징(2210)에 대하여 상대적으로 이동할 수 있도록, 제2 하우징(2220)에 구동력을 제공할 수 있다. 일 실시예에 따르면, 구동부(2260)는, 모터(2261), 피니언 기어(2262), 및 랙 기어(2263)를 포함할 수 있다. 모터(2261)는, 배터리(2250)로부터 전력을 공급받아, 제2 하우징(2220)에 구동력을 제공할 수 있다. 일 실시예에 따르면, 모터(2261)는, 제1 하우징(2210)에 배치되어, 제2 하우징(2220)이 제1 하우징(2210)에 대하여 이동할 때, 이동하지 않을 수 있다. 예를 들어, 모터(2261)는, 프레임 커버(2213)에 형성된 리세스에 배치될 수 있다. 일 실시예에 따르면, 피니언 기어(2262)는, 모터(2261)에 결합되고, 모터(2261)로부터 제공된 구동력에 의해 회전할 수 있다. 일 실시예에 따르면, 랙 기어(2263)는, 피니언 기어(2262)와 맞물리고, 피니언 기어(2262)의 회전에 따라 이동할 수 있다. 예를 들어, 랙 기어(2263)는, 피니언 기어(2262)의 회전에 따라, 제1 방향 또는 제2 방향으로, 직선 왕복 운동할 수 있다. 일 실시예에 따르면, 랙 기어(2263)는, 제2 하우징(2220)에 배치될 수 있다. 예를 들어, 랙 기어(2263)는, 제2 하우징(2220)에 포함된 프런트 커버(2221)에 결합될 수 있다. 일 실시예에 따르면, 랙 기어(2263)는, 프레임 커버(2213)에 형성된 작동 공간(2213p)의 내부에서 이동 가능할 수 있다.
일 실시예에 따르면, 피니언 기어(2262)가 제1 회전 방향(예: 도 21b에서 시계 방향)을 따라 회전하면, 랙 기어(2263)는, 제1 방향(예: +y 방향)으로 이동할 수 있다. 랙 기어(2263)가 제1 방향을 따라 이동하면, 랙 기어(2263)와 결합된 제2 하우징(2220)은, 제1 방향을 따라 이동할 수 있다. 제2 하우징(2220)이 제1 방향을 따라 이동함에 따라, 전자 장치(2200)의 외부에서 시인 가능한 디스플레이(2230)의 면적은 확장될 수 있다. 피니언 기어(2262)가 제2 회전 방향(예: 도 21b에서 반시계 방향)을 따라 회전하면, 랙 기어(2263)는, 제2 방향(예: -y 방향)으로 이동할 수 있다. 랙 기어(2263)가 제2 방향을 따라 이동하면, 랙 기어(2263)와 결합된 제2 하우징(2220)은, 제2 방향을 따라 이동할 수 있다. 제2 하우징(2220)이 제2 방향을 따라 이동함에 따라, 전자 장치(2200)의 외부에서 시인 가능한 디스플레이(2230)의 면적은 축소될 수 있다.
상술한 설명에서, 모터(2261) 및 피니언 기어(2262)가 제1 하우징(2210)에 배치되고, 랙 기어(2263)가 제2 하우징(2220)이 배치되는 것으로 설명하였으나, 실시예들은 이에 제한되지 않을 수 있다. 실시예들에 따라, 모터(2261) 및 피니언 기어(2262)는 제2 하우징(2220)에 배치되고, 랙 기어(2263)는 제1 하우징(2210)에 배치될 수 있다.
일 실시예에 따른 전자 장치, 방법, 비일시적 컴퓨터 판독가능 저장 매체는, 플렉서블 디스플레이의 표시 영역의 사이즈를 변경하기 위한 시각적 객체를 표시함으로써, 강화된(enhanced) 사용자 경험(UX, user experience)을 제공할 수 있다.
상술한 바와 같은, 일 실시예에 따른, 전자 장치(electronic device)는, 하우징과, 상기 하우징 안으로 인입되거나 인출될 수 있는 플렉서블 디스플레이와, 상기 하우징 안으로 상기 플렉서블 디스플레이의 적어도 일부를 인입하거나 상기 하우징 밖으로 상기 플렉서블 디스플레이의 적어도 일부를 인출하기 위한 액츄에이터와, 인스트럭션들을 저장하도록 구성된 메모리와, 상기 플렉서블 디스플레이와 작동적으로 결합된 프로세서를 포함할 수 있다. 상기 프로세서는, 상기 인스트럭션들이 실행될 시, 소프트웨어 어플리케이션의 실행 상태를 변경하기 위한 사용자 입력을 수신하도록 구성될 수 있다. 상기 프로세서는, 상기 인스트럭션들이 실행될 시, 상기 사용자 입력에 응답하여, 상기 하우징 밖으로 노출된, 상기 플렉서블 디스플레이의 표시 영역의 상태가 기준 상태인지 여부를 식별하도록 구성될 수 있다. 상기 프로세서는, 상기 인스트럭션들이 실행될 시, 상기 표시 영역의 상태가 상기 기준 상태와 구별됨을 식별하는 것에 기반하여, 상기 표시 영역의 상기 상태를 상기 기준 상태로 변경할 것을 가이드하기 위한 시각적 객체를 표시하도록 구성될 수 있다. 상기 프로세서는, 상기 인스트럭션들이 실행될 시, 상기 시각적 객체가 표시되는 동안 수신되는 사용자 입력에 적어도 일부 기반하여, 상기 액츄에이터를 통해 상기 표시 영역의 사이즈를 제1 사이즈로부터 상기 기준 상태에 대응하는 제2 사이즈로 변경하도록 구성될 수 있다. 상기 프로세서는, 상기 인스트럭션들이 실행될 시, 상기 제2 사이즈를 가지는 상기 표시 영역 내에서 상기 소프트웨어 어플리케이션의 사용자 인터페이스를 표시하도록, 구성될 수 있다.
일 실시예에서, 상기 프로세서는, 상기 인스트럭션들이 실행될 시, 상기 표시 영역의 상기 상태가 상기 기준 상태에 대응함을 식별하는 것에 기반하여, 상기 시각적 객체를 표시하는 것을 삼가하도록, 더 구성될 수 있다.
일 실시예에서, 상기 소프트웨어 어플리케이션의 상기 실행 상태를 변경하기 위한 상기 사용자 입력은, 상기 전자 장치 내에서 실행되고 있는 소프트웨어 어플리케이션들의 목록을 포함하는 화면을 표시하기 위한 사용자 입력을 포함할 수 있다. 일 실시예에서, 상기 시각적 객체는, 상기 화면 내에서 표시될 수 있다.
일 실시예에서, 상기 프로세서는, 상기 인스트럭션들이 실행될 시, 상기 표시 영역의 상기 상태가 상기 기준 상태에 대응함을 식별하는 것에 기반하여, 상기 화면 내에 포함된, 상기 사용자 인터페이스에 대응하는 이미지를 상기 제1 사이즈를 가지는 상기 표시 영역 내에서 표시하도록 구성될 수 있다. 일 실시예에서, 상기 프로세서는, 상기 인스트럭션들이 실행될 시, 상기 표시 영역의 상기 상태가 상기 기준 상태와 구별됨을 식별하는 것에 기반하여, 상기 시각적 객체와 연계된 상기 이미지를 상기 제1 사이즈를 가지는 상기 표시 영역 내에서 표시하도록, 구성될 수 있다. 일 실시예에서, 상기 시각적 객체는, 상기 제2 사이즈를 나타내기 위한 표현(representation)을 가질 수 있다.
일 실시예에서, 상기 프로세서는, 상기 인스트럭션들이 실행될 시, 상기 시각적 객체와 연계된 상기 이미지가 상기 화면 내에서 표시되는 동안, 상기 이미지에 대한 사용자 입력을 수신하도록 구성될 수 있다. 일 실시예에서, 상기 프로세서는, 상기 인스트럭션들이 실행될 시, 상기 이미지에 대한 상기 사용자 입력에 응답하여, 상기 표시 영역의 사이즈를 상기 제2 사이즈로 변경할 것인지 여부를 식별하기 위한 정보를 표시하도록 구성될 수 있다. 일 실시예에서, 상기 프로세서는, 상기 인스트럭션들이 실행될 시, 상기 정보가 표시되는 동안 수신되는 사용자 입력에 응답하여, 상기 표시 영역의 상기 사이즈를 상기 제2 사이즈로 변경하고, 상기 제2 사이즈를 가지는 상기 표시 영역 내에서 상기 사용자 인터페이스를 표시하도록 구성될 수 있다. 일 실시예에서, 상기 프로세서는, 상기 인스트럭션들이 실행될 시, 상기 정보가 표시되는 동안 수신되는 다른 사용자 입력에 응답하여, 상기 표시 영역의 사이즈를 상기 제1 사이즈로 유지하고, 상기 제1 사이즈를 가지는 상기 표시 영역 내에서 상기 사용자 인터페이스를 표시하도록, 구성될 수 있다.
일 실시예에서, 상기 프로세서는, 상기 인스트럭션들이 실행될 시, 상기 시각적 객체와 연계된 상기 이미지가 상기 화면 내에서 표시되는 동안, 상기 이미지에 대한 사용자 입력을 수신하도록 구성될 수 있다. 일 실시예에서, 상기 프로세서는, 상기 인스트럭션들이 실행될 시, 상기 이미지에 대한 상기 사용자 입력에 응답하여, 상기 제1 사이즈를 가지는 상기 표시 영역 내에서, 상기 사용자 인터페이스를, 상기 제2 사이즈를 가지는 상기 표시 영역 내의 상기 사용자 인터페이스의 축소된 이미지를 포함하는 다른(another) 시각적 객체와 함께 표시하도록 구성될 수 있다. 일 실시예에서, 상기 프로세서는, 상기 인스트럭션들이 실행될 시, 상기 다른 시각적 객체에 대한 사용자 입력에 응답하여, 상기 표시 영역의 상기 사이즈를 상기 제2 사이즈로 변경하고, 상기 제2 사이즈를 가지는 상기 표시 영역 내에서 상기 사용자 인터페이스를 표시하도록, 구성될 수 있다.
일 실시예에서, 상기 다른 시각적 객체는, 상기 사용자 인터페이스 상에 중첩되거나 플로팅될 수 있다.
일 실시예에서, 상기 프로세서는, 상기 인스트럭션들이 실행될 시, 상기 시각적 객체와 연계된 상기 이미지가 상기 화면 내에서 표시되는 동안, 상기 이미지에 대한 사용자 입력을 수신하도록 구성될 수 있다. 일 실시예에서, 상기 프로세서는, 상기 인스트럭션들이 실행될 시, 상기 이미지에 대한 상기 사용자 입력에 응답하여, 상기 제1 사이즈를 가지는 상기 표시 영역 내에서, 상기 사용자 인터페이스를, 상기 표시 영역의 상태를 상기 기준 상태로 변경하기 위한 다른(another) 시각적 객체와 함께 표시하도록 구성될 수 있다. 일 실시예에서, 상기 프로세서는, 상기 인스트럭션들이 실행될 시, 상기 다른 시각적 객체에 대한 사용자 입력에 응답하여, 상기 표시 영역의 상기 사이즈를 상기 제2 사이즈로 변경하고, 상기 제2 사이즈를 가지는 상기 표시 영역 내에서 상기 사용자 인터페이스를 표시하도록, 구성될 수 있다. 일 실시예에서, 상기 다른 시각적 객체는, 상기 표시 영역 내에서 표시되는 네비게이션 바(navigation bar) 내에서 표시될 수 있다.
일 실시예에서, 상기 프로세서는, 상기 인스트럭션들이 실행될 시, 상기 시각적 객체와 연계된 상기 이미지가 상기 화면 내에서 표시되는 동안 상기 시각적 객체에 대한 사용자 입력을 수신하는 것에 응답하여, 상기 표시 영역의 상기 사이즈를 상기 제2 사이즈로 변경하고, 상기 제2 사이즈를 가지는 상기 표시 영역 내에서 상기 사용자 인터페이스를 표시하도록 구성될 수 있다. 일 실시예에서, 상기 프로세서는, 상기 인스트럭션들이 실행될 시, 상기 시각적 객체와 연계된 상기 이미지가 상기 화면 내에서 표시되는 동안 상기 이미지에 대한 사용자 입력을 수신하는 것에 응답하여, 상기 제1 사이즈를 가지는 상기 표시 영역 내에서, 상기 사용자 인터페이스를 표시하도록, 구성될 수 있다.
일 실시예에서, 상기 소프트웨어 어플리케이션의 상기 실행 상태를 변경하기 위한 상기 사용자 입력은, 상기 소프트웨어 어플리케이션을 실행하기 위한 사용자 입력을 포함할 수 있다. 일 실시예에서, 상기 프로세서는, 상기 인스트럭션들이 실행될 시, 상기 표시 영역의 상기 상태가 상기 기준 상태와 구별됨을 식별하는 것에 기반하여, 상기 제1 사이즈를 가지는 상기 표시 영역 내에서, 상기 소프트웨어 어플리케이션의 실행에 응답하여 표시되는 상기 사용자 인터페이스와 함께 상기 시각적 객체를 표시하도록 구성될 수 있다. 일 실시예에서, 상기 프로세서는, 상기 인스트럭션들이 실행될 시, 상기 표시 영역의 상기 상태가 상기 기준 상태에 대응함을 식별하는 것에 기반하여, 상기 시각적 객체를 표시하는 것을 삼가하도록 구성될 수 있다.
일 실시예에서, 상기 시각적 객체는, 상기 소프트웨어 어플리케이션을 실행하기 위한 상기 사용자 입력이 수신된 위치에서 표시될 수 있다.
일 실시예에서, 상기 시각적 객체는, 상기 사용자 인터페이스 상에 중첩되거나, 플로팅될 수 있다.
일 실시예에서, 상기 프로세서는, 상기 인스트럭션들이 실행될 시, 미리 결정된 시간이 상기 시각적 객체를 표시한 타이밍으로부터 경과되는지 여부를 식별할 수 있다. 일 실시예에서, 상기 프로세서는, 상기 인스트럭션들이 실행될 시, 상기 미리 결정된 시간이 상기 타이밍으로부터 경과되지 않음을 식별하는 동안, 상기 사용자 인터페이스와 함께 상기 시각적 객체를 표시하는 것을 유지하도록 구성될 수 있다. 일 실시예에서, 상기 프로세서는, 상기 인스트럭션들이 실행될 시, 상기 미리 결정된 시간이 상기 타이밍으로부터 경과됨을 식별하는 것에 응답하여, 상기 시각적 객체를 표시하는 것을 중단하도록, 더 구성될 수 있다.
일 실시예에서, 상기 기준 상태는, 상기 소프트웨어 어플리케이션의 상기 실행 상태를 변경하기 위한 상기 사용자 입력이 수신되기 전 상기 사용자 인터페이스가 표시되었을 시의 상기 표시 영역의 상태일 수 있다.
일 실시예에서, 상기 기준 상태는, 상기 사용자 인터페이스 내의 콘텐트들의 배치에 기반하여 식별된, 상기 표시 영역의 상태일 수 있다.
일 실시예에서, 상기 기준 상태는, 상기 사용자 인터페이스 내의 콘텐트들의 적어도 일부의 속성에 기반하여 식별된, 상기 표시 영역의 상태일 수 있다.
일 실시예에서, 상기 기준 상태는, 상기 사용자 인터페이스 내의 콘텐트들의 사이즈에 기반하여 식별된, 상기 표시 영역의 상태일 수 있다.
일 실시예에서, 상기 시각적 객체는, 상기 제2 사이즈를 나타내기 위한 시각적 요소를 포함할 수 있다.
일 실시예에서, 상기 시각적 요소는, 상기 제2 사이즈에 대응하는 길이를 보여주기 위한 바 형상의(bar-shaped) 인디케이터를 포함할 수 있다.
일 실시예에서, 상기 프로세서는, 상기 인스트럭션들이 실행될 시, 미리 결정된 시간이 경과되기 전 해제되는 상기 시각적 객체 상의 터치 입력에 응답하여, 상기 표시 영역의 상기 사이즈를 상기 제2 사이즈로 변경하도록 구성될 수 있다. 일 실시예에서, 상기 프로세서는, 상기 인스트럭션들이 실행될 시, 상기 미리 결정된 시간 이상 유지되는 상기 시각적 객체 상의 터치 입력에 응답하여, 확대된 사이즈를 가지는 상기 바 형상의 인디케이터를 포함하는 상기 시각적 객체를 표시하도록 구성될 수 있다. 일 실시예에서, 상기 프로세서는, 상기 인스트럭션들이 실행될 시, 상기 표시 영역의 사이즈를, 상기 확대된 사이즈를 가지는 상기 바 형상의 상기 인디케이터를 통해 수신되는 사용자 입력에 대응하는 사이즈로, 상기 액츄에이터를 통해 변경하도록, 구성될 수 있다.
상술한 바와 같은, 일 실시예에 따른 전자 장치는, 하우징과, 상기 하우징 안으로 인입되거나 인출될 수 있는 플렉서블 디스플레이와, 상기 하우징 안으로 상기 플렉서블 디스플레이의 적어도 일부를 인입하거나 상기 하우징 밖으로 상기 플렉서블 디스플레이의 적어도 일부를 인출하기 위한 액츄에이터와, 인스트럭션들을 저장하도록 구성된 메모리와, 상기 플렉서블 디스플레이와 작동적으로 결합된 프로세서를 포함할 수 있다. 일 실시예에서, 상기 프로세서는, 상기 인스트럭션들이 실행될 시, 소프트웨어 어플리케이션의 사용자 인터페이스가 표시되는 동안, 상기 사용자 인터페이스 내의 콘텐트가 상기 하우징 밖으로 노출된 상기 플렉서블 디스플레이의 표시 영역의 가장자리와 교차됨(intersected with)을 식별하도록 구성될 수 있다. 일 실시예에서, 상기 프로세서는, 상기 인스트럭션들이 실행될 시, 상기 식별에 기반하여, 상기 콘텐트 주변에서 상기 표시 영역의 상태의 변경을 가이드하기 위한 시각적 객체를 표시하도록 구성될 수 있다. 일 실시예에서, 상기 프로세서는, 상기 인스트럭션들이 실행될 시, 상기 시각적 객체에 대한 사용자 입력에 응답하여, 상기 가장자리와의 상기 교차에 따라 중단된 상기 콘텐트의 일부의 표시를 재개하기 위해 상기 표시 영역을 상기 액츄에이터를 통해 연장하도록, 구성될 수 있다.
본 문서에 개시된 다양한 실시예들에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치(예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 또는 가전 장치를 포함할 수 있다. 본 문서의 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.
본 문서의 다양한 실시예들 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시예들로 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나", "A 또는 B 중 적어도 하나", "A, B 또는 C", "A, B 및 C 중 적어도 하나", 및 "A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에, "기능적으로" 또는 "통신적으로"라는 용어와 함께 또는 이런 용어 없이, "커플드" 또는 "커넥티드"라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 제 3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.
본 문서의 다양한 실시예들에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로와 같은 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일실시예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다.
본 문서의 다양한 실시예들은 기기(machine)(예: 전자 장치(1501)) 의해 읽을 수 있는 저장 매체(storage medium)(예: 내장 메모리(1536) 또는 외장 메모리(1538))에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예: 프로그램(1540))로서 구현될 수 있다. 예를 들면, 기기(예: 전자 장치(1501))의 프로세서(예: 프로세서(1520))는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장 매체는, 비일시적(non-transitory) 저장 매체의 형태로 제공될 수 있다. 여기서, ‘비일시적’은 저장 매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장 매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.
일실시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory(CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어™)를 통해 또는 두 개의 사용자 장치들(예: 스마트 폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.
다양한 실시예들에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있으며, 복수의 개체 중 일부는 다른 구성요소에 분리 배치될 수도 있다. 다양한 실시예들에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시예들에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.

Claims (15)

  1. 전자 장치(electronic device)에 있어서,
    하우징;
    상기 하우징 안으로 슬라이드하거나 밖으로 슬라이드하도록 구성된 플렉서블 디스플레이;
    상기 하우징 안으로 상기 플렉서블 디스플레이의 적어도 일부를 인입하거나 상기 하우징 밖으로 상기 플렉서블 디스플레이의 적어도 일부를 인출하도록 구성된 액츄에이터;
    인스트럭션들을 저장하도록 구성된 메모리; 및
    상기 플렉서블 디스플레이와 작동적으로 결합된 프로세서를 포함하고, 상기 프로세서는, 상기 인스트럭션들이 실행될 시,
    소프트웨어 어플리케이션의 실행 상태를 변경하기 위한 사용자 입력을 수신하고,
    상기 사용자 입력에 응답하여, 상기 하우징 밖으로 노출된, 상기 플렉서블 디스플레이의 표시 영역의 상태가 기준 상태인지 여부를 식별하고,
    상기 표시 영역의 상태가 상기 기준 상태와 구별됨을 식별하는 것에 기반하여, 상기 표시 영역의 상기 상태를 상기 기준 상태로 변경할 것을 가이드하기 위한 시각적 객체를 표시하고,
    상기 시각적 객체가 표시되는 동안 수신되는 사용자 입력에 적어도 일부 기반하여, 상기 표시 영역의 사이즈를 제1 사이즈로부터 상기 기준 상태에 대응하는 제2 사이즈로 변경하도록 상기 엑츄에이터를 제어하고,
    상기 제2 사이즈를 가지는 상기 표시 영역 내에서 상기 소프트웨어 어플리케이션의 사용자 인터페이스를 표시하도록, 구성되는,
    전자 장치.
  2. 청구항 1에 있어서, 상기 프로세서는, 상기 인스트럭션들이 실행될 시,
    상기 표시 영역의 상기 상태가 상기 기준 상태에 대응함을 식별하는 것에 기반하여, 상기 시각적 객체를 표시하는 것을 삼가하도록, 더 구성되는,
    전자 장치.
  3. 청구항 1에 있어서, 상기 소프트웨어 어플리케이션의 상기 실행 상태를 변경하기 위한 상기 사용자 입력은,
    상기 전자 장치 내에서 실행되고 있는 소프트웨어 어플리케이션들의 목록을 포함하는 화면을 표시하기 위한 사용자 입력을 포함하고,
    상기 시각적 객체는,
    상기 화면 내에서 표시되는,
    전자 장치.
  4. 청구항 3에 있어서, 상기 프로세서는, 상기 인스트럭션들이 실행될 시,
    상기 표시 영역의 상기 상태가 상기 기준 상태에 대응함을 식별하는 것에 기반하여, 상기 화면 내에 포함된, 상기 사용자 인터페이스의 이미지를 상기 제1 사이즈를 가지는 상기 표시 영역 내에서 표시하고,
    상기 표시 영역의 상기 상태가 상기 기준 상태와 구별됨을 식별하는 것에 기반하여, 상기 시각적 객체와 연계된 상기 이미지를 상기 제1 사이즈를 가지는 상기 표시 영역 내에서 표시하도록, 구성되고,
    상기 시각적 객체는,
    상기 제2 사이즈를 나타내기 위한 표현(representation)을 가지는,
    전자 장치.
  5. 청구항 4에 있어서, 상기 프로세서는, 상기 인스트럭션들이 실행될 시,
    상기 시각적 객체와 연계된 상기 이미지가 상기 화면 내에서 표시되는 동안, 상기 이미지에 대한 사용자 입력을 수신하고,
    상기 이미지에 대한 상기 사용자 입력에 응답하여, 상기 표시 영역의 사이즈를 상기 제2 사이즈로 변경할 것인지 여부를 식별하기 위한 정보를 표시하고,
    상기 정보가 표시되는 동안 수신되는 사용자 입력에 응답하여, 상기 표시 영역의 상기 사이즈를 상기 제2 사이즈로 변경하고, 상기 제2 사이즈를 가지는 상기 표시 영역 내에서 상기 사용자 인터페이스를 표시하고,
    상기 정보가 표시되는 동안 수신되는 다른 사용자 입력에 응답하여, 상기 표시 영역의 사이즈를 상기 제1 사이즈로 유지하고, 상기 제1 사이즈를 가지는 상기 표시 영역 내에서 상기 사용자 인터페이스를 표시하도록, 구성되는,
    전자 장치.
  6. 청구항 4에 있어서, 상기 프로세서는, 상기 인스트럭션들이 실행될 시,
    상기 시각적 객체와 연계된 상기 이미지가 상기 화면 내에서 표시되는 동안, 상기 이미지에 대한 사용자 입력을 수신하고,
    상기 이미지에 대한 상기 사용자 입력에 응답하여, 상기 제1 사이즈를 가지는 상기 표시 영역 내에서, 상기 사용자 인터페이스를, 상기 제2 사이즈를 가지는 상기 표시 영역 내의 상기 사용자 인터페이스의 축소된 이미지를 포함하는 다른(another) 시각적 객체와 함께 표시하고,
    상기 다른 시각적 객체에 대한 사용자 입력에 응답하여, 상기 표시 영역의 상기 사이즈를 상기 제2 사이즈로 변경하고, 상기 제2 사이즈를 가지는 상기 표시 영역 내에서 상기 사용자 인터페이스를 표시하도록, 구성되는,
    전자 장치.
  7. 청구항 6에 있어서, 상기 다른 시각적 객체는,
    상기 사용자 인터페이스 상에 중첩되거나 플로팅되는,
    전자 장치.
  8. 청구항 4에 있어서, 상기 프로세서는, 상기 인스트럭션들이 실행될 시,
    상기 시각적 객체와 연계된 상기 이미지가 상기 화면 내에서 표시되는 동안, 상기 이미지에 대한 사용자 입력을 수신하고,
    상기 이미지에 대한 상기 사용자 입력에 응답하여, 상기 제1 사이즈를 가지는 상기 표시 영역 내에서, 상기 사용자 인터페이스를, 상기 표시 영역의 상태를 상기 기준 상태로 변경하기 위한 다른(another) 시각적 객체와 함께 표시하고,
    상기 다른 시각적 객체에 대한 사용자 입력에 응답하여, 상기 표시 영역의 상기 사이즈를 상기 제2 사이즈로 변경하고, 상기 제2 사이즈를 가지는 상기 표시 영역 내에서 상기 사용자 인터페이스를 표시하도록, 구성되고,
    상기 다른 시각적 객체는,
    상기 표시 영역 내에서 표시되는 네비게이션 바(navigation bar) 내에서 표시되는,
    전자 장치.
  9. 청구항 4에 있어서, 상기 프로세서는, 상기 인스트럭션들이 실행될 시,
    상기 시각적 객체와 연계된 상기 이미지가 상기 화면 내에서 표시되는 동안 상기 시각적 객체에 대한 사용자 입력을 수신하는 것에 응답하여, 상기 표시 영역의 상기 사이즈를 상기 제2 사이즈로 변경하고, 상기 제2 사이즈를 가지는 상기 표시 영역 내에서 상기 사용자 인터페이스를 표시하고,
    상기 시각적 객체와 연계된 상기 이미지가 상기 화면 내에서 표시되는 동안 상기 이미지에 대한 사용자 입력을 수신하는 것에 응답하여, 상기 제1 사이즈를 가지는 상기 표시 영역 내에서, 상기 사용자 인터페이스를 표시하도록, 구성되는,
    전자 장치.
  10. 청구항 1에 있어서, 상기 소프트웨어 어플리케이션의 상기 실행 상태를 변경하기 위한 상기 사용자 입력은,
    상기 소프트웨어 어플리케이션을 실행하기 위한 사용자 입력을 포함하고,
    상기 프로세서는, 상기 인스트럭션들이 실행될 시,
    상기 표시 영역의 상기 상태가 상기 기준 상태와 구별됨을 식별하는 것에 기반하여, 상기 제1 사이즈를 가지는 상기 표시 영역 내에서, 상기 소프트웨어 어플리케이션의 실행에 응답하여 표시되는 상기 사용자 인터페이스와 함께 상기 시각적 객체를 표시하고,
    상기 표시 영역의 상기 상태가 상기 기준 상태에 대응함을 식별하는 것에 기반하여, 상기 시각적 객체를 표시하는 것을 삼가하도록 구성되는,
    전자 장치.
  11. 청구항 10에 있어서, 상기 시각적 객체는,
    상기 소프트웨어 어플리케이션을 실행하기 위한 상기 사용자 입력이 수신된 위치에서 표시되는,
    전자 장치.
  12. 청구항 11에 있어서, 상기 시각적 객체는,
    상기 사용자 인터페이스 상에 중첩되거나, 플로팅되는,
    전자 장치.
  13. 청구항 10에 있어서, 상기 프로세서는, 상기 인스트럭션들이 실행될 시,
    미리 결정된 시간이 상기 시각적 객체를 표시한 타이밍으로부터 경과되는지 여부를 식별하고,
    상기 미리 결정된 시간이 상기 타이밍으로부터 경과되지 않음을 식별하는 동안, 상기 사용자 인터페이스와 함께 상기 시각적 객체를 표시하는 것을 유지하고,
    상기 미리 결정된 시간이 상기 타이밍으로부터 경과됨을 식별하는 것에 응답하여, 상기 시각적 객체를 표시하는 것을 중단하도록, 더 구성되는,
    전자 장치.
  14. 청구항 1에 있어서, 상기 기준 상태는,
    상기 소프트웨어 어플리케이션의 상기 실행 상태를 변경하기 위한 상기 사용자 입력이 수신되기 전 상기 사용자 인터페이스가 표시되었을 시의 상기 표시 영역의 상태인,
    전자 장치.
  15. 청구항 1에 있어서, 상기 기준 상태는,
    상기 사용자 인터페이스 내의 콘텐트의 배치에 기반하여 식별된, 상기 표시 영역의 상태인,
    전자 장치.
PCT/KR2022/020389 2022-04-14 2022-12-14 플렉서블 디스플레이의 표시 영역의 사이즈를 변경하기 위한 시각적 객체를 표시하는 전자 장치, 방법, 및 비일시적 컴퓨터 판독가능 저장 매체 WO2023200068A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US18/146,722 US20230333592A1 (en) 2022-04-14 2022-12-27 Electronic device, method, and non-transitory computer-readable storage medium for displaying visual object for changing size of display region of flexible display

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR20220046572 2022-04-14
KR10-2022-0046572 2022-04-14
KR10-2022-0086597 2022-07-13
KR1020220086597A KR20230147491A (ko) 2022-04-14 2022-07-13 플렉서블 디스플레이의 표시 영역의 사이즈를 변경하기 위한 시각적 객체를 표시하는 전자 장치, 방법, 및 비일시적 컴퓨터 판독가능 저장 매체

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US18/146,722 Continuation US20230333592A1 (en) 2022-04-14 2022-12-27 Electronic device, method, and non-transitory computer-readable storage medium for displaying visual object for changing size of display region of flexible display

Publications (1)

Publication Number Publication Date
WO2023200068A1 true WO2023200068A1 (ko) 2023-10-19

Family

ID=88329729

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2022/020389 WO2023200068A1 (ko) 2022-04-14 2022-12-14 플렉서블 디스플레이의 표시 영역의 사이즈를 변경하기 위한 시각적 객체를 표시하는 전자 장치, 방법, 및 비일시적 컴퓨터 판독가능 저장 매체

Country Status (1)

Country Link
WO (1) WO2023200068A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170005557A (ko) * 2015-07-06 2017-01-16 엘지전자 주식회사 변형 가능한 디스플레이 장치 및 그의 동작 방법
WO2021085658A1 (ko) * 2019-10-28 2021-05-06 엘지전자 주식회사 크기가 변경되는 디스플레이를 포함하는 전자 장치 및 그 제어 방법
WO2021095925A1 (ko) * 2019-11-14 2021-05-20 엘지전자 주식회사 이동 단말기 및 그 제어 방법
KR20210154723A (ko) * 2020-06-12 2021-12-21 삼성전자주식회사 복수의 상태들을 갖는 디스플레이를 포함하는 전자 장치 및 그 제어 벙법
KR20220008742A (ko) * 2020-07-14 2022-01-21 삼성전자주식회사 플렉서블 디스플레이를 포함하는 전자 장치 및 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170005557A (ko) * 2015-07-06 2017-01-16 엘지전자 주식회사 변형 가능한 디스플레이 장치 및 그의 동작 방법
WO2021085658A1 (ko) * 2019-10-28 2021-05-06 엘지전자 주식회사 크기가 변경되는 디스플레이를 포함하는 전자 장치 및 그 제어 방법
WO2021095925A1 (ko) * 2019-11-14 2021-05-20 엘지전자 주식회사 이동 단말기 및 그 제어 방법
KR20210154723A (ko) * 2020-06-12 2021-12-21 삼성전자주식회사 복수의 상태들을 갖는 디스플레이를 포함하는 전자 장치 및 그 제어 벙법
KR20220008742A (ko) * 2020-07-14 2022-01-21 삼성전자주식회사 플렉서블 디스플레이를 포함하는 전자 장치 및 방법

Similar Documents

Publication Publication Date Title
WO2021221180A1 (ko) 콘텐츠를 표시하는 이동 단말기 및 그 제어 방법
WO2017014390A1 (en) Electronic device having flexible display
WO2015009128A1 (en) Flexible device, method for controlling device, and method and apparatus for displaying object by flexible device
WO2016017956A1 (en) Wearable device and method of operating the same
WO2015037932A1 (en) Display apparatus and method for performing function of the same
WO2015186862A1 (en) Display device and method of controlling therefor
WO2015016508A1 (en) Character input method and display apparatus
EP2494697A2 (en) Mobile device and method for providing user interface (ui) thereof
WO2015020417A1 (en) Method for displaying and an electronic device thereof
WO2019139367A1 (en) Display device and method for touch interface
WO2016064140A1 (en) Providing method for inputting and electronic device
WO2016129923A1 (ko) 디스플레이 장치 및 디스플레이 방법 및 컴퓨터 판독가능 기록매체
WO2016089074A1 (en) Device and method for receiving character input through the same
WO2022119143A1 (ko) 전자 장치 및 전자 장치의 디스플레이 확장 방법
WO2018038288A1 (ko) 이동 단말기
WO2022055255A1 (ko) 사용자 인터페이스를 제공하는 전자 장치 및 그 방법
WO2017078314A1 (en) Electronic device for displaying multiple screens and control method therefor
WO2015147375A1 (ko) 디스플레이 장치
WO2023200068A1 (ko) 플렉서블 디스플레이의 표시 영역의 사이즈를 변경하기 위한 시각적 객체를 표시하는 전자 장치, 방법, 및 비일시적 컴퓨터 판독가능 저장 매체
WO2015088196A1 (ko) 자막 편집 장치 및 자막 편집 방법
WO2020027483A1 (en) Electronic device including digital pen
WO2016129843A1 (en) Display apparatus and display method
WO2023204379A1 (ko) 플렉서블 디스플레이의 표시 영역의 사이즈의 변경에 화면의 변경을 가이드하기 위한 윈도우를 표시하는 전자 장치, 방법, 및 비일시적 컴퓨터 판독가능 저장 매체
WO2016068645A1 (en) Display apparatus, system, and controlling method thereof
WO2021149844A1 (ko) 콘텐츠를 표시하는 전자 장치 및 그 제어 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22937581

Country of ref document: EP

Kind code of ref document: A1