WO2024034832A1 - 변형 가능한 디스플레이의 표시 영역 내에서 화면을 표시하기 위한 전자 장치 및 그 방법 - Google Patents

변형 가능한 디스플레이의 표시 영역 내에서 화면을 표시하기 위한 전자 장치 및 그 방법 Download PDF

Info

Publication number
WO2024034832A1
WO2024034832A1 PCT/KR2023/008482 KR2023008482W WO2024034832A1 WO 2024034832 A1 WO2024034832 A1 WO 2024034832A1 KR 2023008482 W KR2023008482 W KR 2023008482W WO 2024034832 A1 WO2024034832 A1 WO 2024034832A1
Authority
WO
WIPO (PCT)
Prior art keywords
electronic device
display area
display
size
image
Prior art date
Application number
PCT/KR2023/008482
Other languages
English (en)
French (fr)
Inventor
김혜령
이형민
김요셉
정한철
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020220113813A external-priority patent/KR20240020621A/ko
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Publication of WO2024034832A1 publication Critical patent/WO2024034832A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning

Definitions

  • the descriptions below relate to an electronic device and method for displaying a screen within a display area of a deformable display.
  • an electronic device including a plurality of foldable housings may provide a user experience based on the shape of the electronic device to the user using a flexible display disposed across the plurality of housings.
  • the electronic device can change the content displayed on the flexible display.
  • electronic devices that roll up or unfold flexible displays are being developed.
  • an electronic device includes a first housing, a second housing movable with respect to the first housing, and an extension or decrease depending on the movement of the second housing. It may include a display including a display area, and a processor.
  • the processor may identify that the size of the display area exposed outside the first housing is extended while displaying the first portion of content within the display area.
  • the processor may identify an attribute of content displayed through the display area based on identifying that the size of the display area is extended. Based on the attribute, the processor may display a second part connected to the first part within the content along with the first part of the content within the display area having the extended size.
  • a method of an electronic device may include an operation of identifying that the size of the display area exposed outside the first housing is extended while displaying a first portion of content within the display area.
  • the method of the electronic device may include an operation of identifying an attribute of content displayed through the display area based on identifying that the size of the display area is extended.
  • the method of the electronic device displays, based on the attribute, a second part connected to the first part within the content, together with the first part of the content, within the display area having the extended size. It may include actions such as:
  • FIG. 1 shows an example of a block diagram of an electronic device, according to an embodiment.
  • 2A-2B illustrate an example of an operation in which an electronic device transforms between states in different configurations, according to an embodiment.
  • FIG. 3A illustrates an example of a screen according to a change in the display area of an electronic device, according to an embodiment.
  • FIG. 3B illustrates an example of a screen according to a change in the display area of an electronic device, according to an embodiment.
  • FIG. 3C shows an example of a screen according to a change in the display area of an electronic device, according to an embodiment.
  • FIG. 3D illustrates an example of a screen according to a change in the display area of an electronic device, according to an embodiment.
  • FIG. 4A shows an example of a screen according to a change in the display area of an electronic device, according to an embodiment.
  • FIG. 4B illustrates an example of a screen according to a change in the display area of an electronic device, according to an embodiment.
  • Figure 5 shows an example of a screen according to a change in the display area of an electronic device, according to an embodiment.
  • Figure 6 shows an example of a screen according to a change in the display area of an electronic device, according to an embodiment.
  • Figure 7 shows an example of a screen according to a change in the display area of an electronic device, according to an embodiment.
  • FIGS. 8A and 8B illustrate an example of a screen according to a change in the display area of an electronic device, according to an embodiment.
  • Figure 9 shows an example of a flowchart regarding the operation of an electronic device, according to an embodiment.
  • Figure 10 shows an example of a flowchart regarding the operation of an electronic device, according to an embodiment.
  • 11A to 11B show an example of a flowchart regarding the operation of an electronic device, according to an embodiment.
  • FIG. 12A shows an example of a top plan view of an electronic device in a first state, according to an embodiment.
  • FIG. 12B shows an example of a bottom view of an electronic device in a first state, according to an embodiment.
  • FIG. 12C shows an example of a top view of an electronic device in a second state, according to an embodiment.
  • FIG. 12D shows an example of a bottom view of an electronic device in a second state, according to an embodiment.
  • FIGS. 13A and 13B illustrate an example of an exploded perspective view of an electronic device, according to an embodiment.
  • FIG. 14A shows an example of a cross-sectional view of an electronic device in a first state, according to an embodiment.
  • FIG. 14B shows an example of a cross-sectional view of an electronic device in a second state, according to an embodiment.
  • FIG. 1 shows an example of a block diagram of an electronic device, according to an embodiment.
  • the electronic device 101 may include at least one of a processor 120, a memory 130, a display 140, and an actuator 150.
  • Processor 120, memory 130, display 140, and actuator 150 are electrically and/or operationally connected to each other by electronic components such as a communication bus 110. Can be connected (electronically and/or operably coupled with each other).
  • a communication bus 110 can be connected (electronically and/or operably coupled with each other).
  • the embodiment is not limited thereto.
  • the type and/or number of hardware components included in the electronic device 101 are not limited to those shown in FIG. 1 .
  • the electronic device 101 may include only some of the hardware components shown in FIG. 1 .
  • the electronic device 101 may further include a housing that forms the exterior of the electronic device 101. The appearance of the electronic device 101 formed by the housing will be described later with reference to FIGS. 2A and 2B.
  • the processor 120 of the electronic device 101 may include hardware components for processing data based on one or more instructions.
  • Hardware components for processing data include, for example, an arithmetic and logic unit (ALU), a floating point unit (FPU), a field programmable gate array (FPGA), an application processor (AP), and/or a central processing unit (CPU).
  • ALU arithmetic and logic unit
  • FPU floating point unit
  • FPGA field programmable gate array
  • AP application processor
  • CPU central processing unit
  • the number of processors 120 may be one or more.
  • the processor 120 may have the structure of a multi-core processor, such as a dual core, quad core, or hexa core.
  • the memory 130 of the electronic device 101 may include hardware components for storing data and/or instructions input and/or output to the processor 120.
  • Memory 130 may include, for example, volatile memory such as random-access memory (RAM), and/or non-volatile memory such as read-only memory (ROM).
  • Volatile memory may include, for example, at least one of dynamic RAM (DRAM), static RAM (SRAM), cache RAM, and pseudo SRAM (PSRAM).
  • Non-volatile memory may include, for example, at least one of programmable ROM (PROM), erasable ROM (EPROM), electrically erasable PROM (EEPROM), flash memory, hard disk, compact disk, and embedded multi media card (eMMC). You can.
  • one or more instructions indicating operations and/or operations to be performed by processor 120 on data may be stored.
  • a collection of one or more instructions may be referred to as firmware, operating system, process, routine, sub-routine, and/or application.
  • the electronic device 101 and/or the processor 120 may execute a set of a plurality of instructions distributed in the form of an operating system, firmware, driver, and/or application. At least one of the operations of FIGS. 9 to 11B may be performed.
  • the display 140 of the electronic device 101 may output visualized information to the user.
  • the display 140 may be a flexible display that can be deformed by an external force applied to the display 140.
  • the display 140 may include a liquid crystal display (LCD), a plasma display panel (PDP), one or more light emitting diodes (LEDs), and/or one or more organic light emitting diodes (OLEDs).
  • LCD liquid crystal display
  • PDP plasma display panel
  • LEDs light emitting diodes
  • OLEDs organic light emitting diodes
  • the display 140 may include a sensor (eg, touch sensor panel (TSP)) for detecting an external object (eg, a user's finger) on the display 140.
  • a sensor eg, touch sensor panel (TSP)
  • the electronic device 101 may detect an external object touching the display 140 or floating on the display 140 .
  • the electronic device 101 performs a function associated with a specific visual object corresponding to a portion of the display 140 with which the external object is in contact, among the visual objects displayed within the display 140. You can run .
  • the actuator 150 of the electronic device 101 may change the display 140 and/or the shape of the electronic device 101.
  • the actuator 150 may be referred to as a driving unit.
  • the actuator 150 may include hardware (eg, a motor) for outputting kinetic energy from electrical energy.
  • the actuator 150 converts the rotational motion of the motor into a linear motion (or translation) applied to the display 140.
  • motion may include a gear (e.g., rack gear) to change the motion.
  • the actuator 150 may include a plurality of gears (engaged to each other) to control the rotational force (eg, torque) of the motor.
  • the plurality of gears may be referred to as a gear assembly of the actuator 150 or a transmission unit.
  • the processor 120 changes the frequency, voltage, and/or current of the power signal applied to the motor of the actuator 150, so that the display 140 and/or the electronic device 101 The speed and/or direction of deformation can be adjusted. Exemplary operations in which the electronic device 101 controls the actuator 150 to adjust the shape of the display 140 according to an embodiment will be described later with reference to FIGS. 2A and 2B.
  • the electronic device 101 may display a screen within a display area formed on the display 140.
  • the electronic device 101 may display at least one of an image such as a photo, a lock screen, a home screen, wall paper, or a visual object on the screen.
  • the image may have a format based on joint photographic experts group (JEPG) and/or moving picture experts group (MPEG).
  • JEPG joint photographic experts group
  • MPEG moving picture experts group
  • the lock screen, home screen, and/or wall paper may be displayed based on execution of the application.
  • the electronic device 101 displays the image based on the width, height, size, and/or area of the display area related to the shape of the display 140, which is adjusted by the actuator 150. Portions of the lock screen, home screen, wall paper, and/or visual objects may be selectively displayed.
  • the electronic device 101 selectively displays a portion of the image, lock screen, home screen, wall paper, and/or visual object as shown in FIGS. 3, 4, 5, and 6. This will be described later with reference to FIG. 7 and/or FIGS. 8A to 8B.
  • the electronic device 101 may move the image, lock screen, home screen, and/or wall paper based on enlarging or reducing the display area based on deformation of the display 140. For example, while the display 140 is at least partially retracted into the housing of the electronic device 101, the size of the display area may be reduced based on the retraction of the display 140.
  • the electronic device 101 may display an image while the display area exposed outside the first housing has the first size.
  • the first size may include a size in which the display area is maximally expanded.
  • the electronic device 101 receives an input indicating changing the size of the display area from a first size to a second size smaller than the second size while the image is displayed within the display area having the first size. You can receive it.
  • the input may include an input to a button exposed to the outside of the electronic device 101.
  • the electronic device 101 may change the size of the display area from the first size to the second size according to movement of the second housing in the first direction.
  • the first direction may be a direction in which the second housing is introduced into the first housing.
  • the second size may include a size in which the display area is reduced to the minimum.
  • the electronic device 101 displays a portion of the image identified from the image in a second direction opposite to the first direction. You can move in any direction.
  • part of the image may be a part that includes a subject.
  • the second direction may be a direction in which the second housing is pulled out from the first housing.
  • the electronic device 101 may maintain display of the portion of the image by moving the portion of the image in the second direction.
  • the electronic device 101 may move the part of the image in the second direction and display the part of the image on the screen.
  • the electronic device 101 can maintain the display of the subject independently of enlarging or reducing the display area.
  • the electronic device 101 may enhance the user experience of the user of the electronic device 101 by moving the part of the image identified from the image and displaying it on the screen. .
  • the electronic device 101 may perform different operations based on the user interface (UI) of the display 140.
  • An input indicating modifying the display 140 may include an input indicating changing the size of the display area.
  • the electronic device 101 may perform different operations based on the layout of the screen displayed on the display 140. For example, the electronic device 101 may, based on identifying a single image occupying the entire display area of the display 140, such as a lock screen and/or a home screen, determine the single image. Based on my subject, the single image can be moved within a display area controlled by deformation of the display 140. For example, the electronic device 101 may, based on identifying a plurality of visual objects displayed within a scrollable area by a user's gesture, such as a scroll view, within the display area of the display 140, display the plurality of visual objects. At least one of the visual objects can be identified.
  • the electronic device 101 may maintain display of at least one of the plurality of visual objects while the display area is reduced based on identifying at least one of the plurality of visual objects. According to one embodiment, the electronic device 101 may identify a visual object included in the scroll view area based on the inclusion of the scroll view area in the layout of the screen displayed in the display 140. The electronic device 101 may maintain display of the visual object on the screen based on identifying the visual object.
  • the electronic device 101 may identify a subject included in an image. According to one embodiment, the electronic device 101 may identify at least one subject in the image based on at least one feature point included in the image.
  • the subject may include the foreground object among background objects or foreground objects, which are distinguished by arrangement between objects in an image, such as a photograph.
  • the electronic device 101 may recognize a subject in an image based on predetermined categories to distinguish the foreground object, such as a person, animal, and/or doll. Recognizing a subject by the electronic device 101 may include selecting a category that matches a foreground object in an image from among the predetermined categories. However, it is not limited to this.
  • the electronic device 101 may determine that the subject is included in a specific category corresponding to a face, based on identifying the eyes, nose, mouth, and/or ears included in the subject. there is.
  • the electronic device 101 provides hardware (e.g., neural processing unit (NPU), and/or graphic processing unit (GPU)) for performing calculations related to artificial intelligence, and functions related to artificial intelligence.
  • the subject may be identified based on information obtained based on software and/or an external electronic device (eg, a server providing functions related to artificial intelligence).
  • the information may include the probability that a subject in the image matches a designated category (eg, animals, plants, natural objects, and/or objects).
  • the information may include subcategories that subdivide the category.
  • a subcategory may include information such as 'people', 'dogs', and/or 'cats'.
  • the electronic device 101 may store, in metadata corresponding to an image, whether a subject is included in the image or the result of recognizing the subject included in the image.
  • the electronic device 101 may obtain information identifying the subject in the image from the metadata.
  • the electronic device 101 may identify the area in the image where the subject is captured based on the above information.
  • the electronic device 101 receives an input indicating that the display area is changed to a second size that is different from the first size. You can receive it.
  • the input may include a gesture of pressing a button exposed to the outside of the housing of the electronic device 101. A description of the change in size will be provided later in FIGS. 2A and 2B.
  • the electronic device 101 may change the size of the display area using the actuator 150 based on the received input. For example, the electronic device 101 may move the second housing using the actuator 150 .
  • the electronic device 101 may adjust the display area of the display 140 exposed outside the first housing based on the movement of the second housing.
  • the electronic device 101 may display a first screen including at least one image within the display area of the display 140.
  • the first screen may be a screen containing a single image.
  • the first screen may be a screen that includes at least one image provided through an application (eg, a gallery application).
  • the first screen may be a screen that includes at least one image provided through an application related to SNS (social network service).
  • the first screen provided through an application related to SNS may include a scroll view area.
  • the electronic device 101 may receive the input while displaying the first screen including the at least one image.
  • the electronic device 101 may move the at least one image based on receiving the input through the first screen including the at least one image.
  • the electronic device 101 moves the at least one image based on the position of the at least one image within the display area while the size of the display area is changed by the actuator 150. You can.
  • the electronic device 101 may maintain display of the at least one image on the screen by moving the at least one image.
  • the electronic device 101 may display a second screen that is different from the first screen.
  • the second screen may not include the at least one image.
  • the electronic device 101 may receive an input indicating a change in the display area while displaying the second screen.
  • the electronic device 101 may change the size of the display area using the actuator 150 based on receiving the input.
  • the electronic device 101 may display a third screen overlapping the second screen based on the first size while changing the size of the display area by the actuator 150.
  • the third screen may be obtained from an application corresponding to the second screen.
  • the third screen may correspond to a second size that is different from the first size.
  • the electronic device 101 may display content within the display area.
  • the content may include content consisting of only text, such as a document, content containing both text and images, content consisting of only images, content containing a single image, and/or video, and/or at least It can contain a web page containing one container.
  • the electronic device 101 may identify properties of the content based on the configuration of the content. However, it is not limited to this.
  • the electronic device 101 may display the first part of content within the display area.
  • the first part may be at least a portion of the content.
  • the electronic device 101 may identify that the size of the display area exposed outside the first housing is extended.
  • the electronic device 101 may identify an attribute of content displayed through the display area based on identifying that the size of the display area is extended.
  • the properties of the content may be classified by the electronic device 101 based on at least part of the content displayed in the display area.
  • the content property may be classified by the electronic device 101 as a first property.
  • the property of the content may be classified by the electronic device 101 as a second property when the content includes text among images, video, or text (e.g., a document such as a text file).
  • the property of the content may be classified by the electronic device 101 as a third property if the content includes a web page and/or a scroll view provided by an application related to multimedia.
  • the attribute of the content includes a user interface (UI) with a different layout depending on the size of the display area
  • the electronic device 101 may classify it as a fourth attribute. Description of the properties of the content will be described later with reference to FIGS. 3A to 3D.
  • the electronic device 101 displays the first part within the content, together with the first part of the content, within the display area having the extended size, based on the properties of the content.
  • the second part connected to can be displayed.
  • the electronic device 101 may display the second part by adjusting the position of the first part based on identifying the properties of the content displaying the first part.
  • the electronic device 101 may display the second part by fixing the position of the first part based on identifying the properties of the content displaying the first part. A description of the operation of displaying the first part and the second part will be described later with reference to FIGS. 3A to 3D.
  • FIGS. 2A-2B illustrate an example of an operation in which an electronic device transforms between states in different configurations, according to an embodiment.
  • the electronic device 101 of FIGS. 2A and 2B may be an example of the electronic device 101 of FIG. 1 .
  • the electronic device 101 and the display 140 of FIG. 1 may include the electronic device 101 and the display 140 of FIGS. 2A and 2B.
  • the electronic device 101 may be a terminal owned by a user.
  • terminals include personal computers (PCs) such as laptops and desktops, smartphones, smartpads, tablet personal computers (PCs), smartwatches, and HMDs ( It may include smart accessories such as head-mounted devices.
  • the housing 210 of the electronic device 101 is an interior where one or more hardware components (e.g., one or more hardware described above with reference to FIG. 1) included in the electronic device 101 are disposed. Can include space. The housing 210 may form the external shape of the electronic device 101.
  • the electronic device 101 may have a deformable form factor. Transforming the electronic device 101 may mean that at least one of dimensions such as width, height, and/or thickness of the electronic device 101 is changed. At least one of the sizes is changed passively by an external force applied to the electronic device 101, and/or by one or more actuators included in the electronic device 101 (e.g., It can be actively changed by the actuator 150 of 1).
  • the housing 210 may be divided into an interconnected first housing 211 and a second housing 212.
  • the electronic device 101 uses an actuator (e.g., the actuator 150 in FIG. 1) to adjust the positional relationship between the first housing 211 and the second housing 212 to display the display. (140), and/or the shape of the electronic device 101 may be changed.
  • the display 140 of the electronic device 101 may be disposed across one side of the first housing 211 and one side of the second housing 212 .
  • the display 140 is disposed, and one surface formed by the first housing 211 and the second housing 212 may be referred to as a front surface.
  • the electronic device 101 changes the shape of the display 140 by changing at least one of the width, width, and/or area of at least a portion of the display 140 exposed to the outside. It may include actions that change .
  • the display 140 may be insertable into the first housing 211 or extractable from the first housing 211, based on the deformation of the electronic device 101.
  • the display 140 is inserted into the first housing 211, the size of the area where the display 140 is exposed to the outside may be reduced.
  • the display 140 is pulled out from the first housing 211, the size of the area where the display 140 is exposed to the outside may increase.
  • the display area of the display 140 may refer to an area formed by pixels disposed on an area where the display 140 is exposed to the outside, among the pixels included in the display 140.
  • the display area may be referred to as an active area of the display 140.
  • the electronic device 101 may adjust the display area by inserting the display 140 into the housing 210 or pulling it out from the housing 210 using an actuator.
  • the electronic device 101 may switch between states 200 and 205 using an actuator.
  • the states 200 and 205 of the electronic device 101 include the dimensions (e.g., width, height, thickness, and/or aspect ratio) of the electronic device 101 and/or the display 140. It may be distinguished according to an aspect ratio. States 200 and 205 may be distinguished depending on the distance between the first housing 211 and the second housing 212 of the electronic device 101 .
  • the distance between the first housing 211 and the second housing 212 is one side of the first housing 211 (e.g., the lower surface of the first housing 211), and the first housing ( 211) and may be the distance between the other side of the second housing 212 (e.g., the upper surface of the second housing 212) that is parallel to the one side of the first housing 211 and is spaced apart from the one side of the first housing 211. there is.
  • Each of the states 200 and 205 of FIGS. 2A to 2B is such that, as the electronic device 101 is deformed, the surface area of the electronic device 101 and/or the area of the display area of the display 140 is reduced to a minimum, or It may be at its maximum.
  • a state in which the surface area of the electronic device 101 and/or the area of the display area is minimized, such as state 200 is referred to as a slide-in state or a rolled state.
  • a closed state a roll-in state, and/or a contracted state.
  • a state in which the surface area of the electronic device 101 and/or the area of the display area is maximized is referred to as a slide-out state or an unfolded state.
  • the state of the electronic device 101 may further include another state between a state 200 in which the area of the display area is minimum and a state 205 in which the area of the display area is maximum.
  • the other states may be referred to as intermediate states, sub-rolled states, and/or sub-opened states.
  • the display 140 included in the electronic device 101 may have a rectangular shape.
  • corners of the display 140 may have the shape of a rounded corner.
  • the height direction parallel to the relatively long side may be referred to as the height.
  • the width direction parallel to the relatively short side may be referred to as the width.
  • the height h1 in the state 200 of FIG. 2A may be the minimum value of the height of the display area at the time when the area of the portion of the display 140 exposed to the outside is minimized (e.g., in the slide-in state). .
  • the ratio of height and width within state 200 to the width of the display area may be 4.5:3.
  • the height h2 of the display 140 in the state 205 of FIG. 2A is the maximum height of the display area at the time when the area of the portion of the display 140 exposed to the outside is maximized (e.g., slide-out state).
  • the ratio of the height and width in state 205 to the width of the display area may be 21:9.
  • the height h2 may be the maximum height of the deformable display 140.
  • the state of the electronic device 101 may include states 200 and 205, as well as an intermediate state where the height and width ratio is 16:9.
  • an embodiment of the electronic device 101 is shown in which the shape of the electronic device 101 is changed along the width direction, either the width direction or the height direction.
  • the width w1 in state 200 and the width w2 in state 205 of FIG. 2B may be the minimum and maximum values of the width of the deformable display 140, respectively.
  • the electronic device 101 may change the aspect ratio of the display 140 to an aspect ratio suitable for content output from the electronic device 101.
  • the aspect ratio may be selected from 4.5:3, 16:9, and 21:9.
  • the electronic device 101 uses one or more sensors (e.g., Hall sensors) to detect electronic signals among the states 200 and 205 and intermediate states between the states 200 and 205.
  • a state corresponding to the current form of device 101 may be identified.
  • the electronic device 101 includes a Hall sensor
  • a magnet included in the Hall sensor is located in the second housing 212
  • one or more magnetic sensors included in the Hall sensor are located in the first housing 211. can be placed.
  • the magnitude of the magnetic field identified by each of the one or more magnetic sensors and generated by the magnet is determined according to the positional relationship between the first housing 211 and the second housing 212. can be changed.
  • the electronic device 101 may identify the shape of the electronic device 101 based on the magnitude of the magnetic field identified by the one or more magnetic sensors. Identification of the form by the electronic device 101 may be performed based on the operating system and/or firmware running on the processor (e.g., processor 120 of FIG. 1) of the electronic device 101. .
  • the electronic device 101 activates an actuator (e.g., actuator 150 in FIG. 1) to change the display 140 and/or the shape of the electronic device 101 into states 200, 205) can be changed.
  • the electronic device 101 may indicate that a designated event may include a software interrupt (SWI) generated from an operating system, firmware, and/or application running on the electronic device 101. there is.
  • the software interrupt may be generated by an application to play multimedia content (eg, video) with a specific aspect ratio.
  • the software interrupt may be generated based on the location of the electronic device 101 identified by one or more sensors.
  • the software interrupt may be generated based on conditions input by the electronic device 101 and/or the user (eg, conditions indicated by time, place, situation, or a combination thereof).
  • a designated event for changing the shape of the display 140 and/or the electronic device 101 may be generated based on a user's gesture.
  • the designated event may be triggered by a gesture performed on the display 140.
  • the gesture may include at least one of a pinch-to-zoom gesture, a swipe gesture, a drag gesture, or a gesture for tapping a designated visual object displayed on the display 140 (e.g., an icon displaying an aspect ratio).
  • the gesture may be generated by pressing the button 220 exposed to the outside of a portion of the housing 210 of the electronic device 101.
  • the electronic device 101 may include a display 140 and/or a button 220 for receiving an input for changing the shape of the electronic device 101.
  • a button 220 is shown exposed to the outside of at least a portion of the housing 210 of the electronic device 101.
  • the electronic device 101 may identify the input by the user.
  • the electronic device 101 may detect the pressure of pressing the button 220, an external object (e.g., The input may be identified based on the duration during which the user's fingertip is in contact with the button 220 and/or the duration during which the button 220 is pressed. For example, the first gesture of pressing the button 220 for more than a designated period (eg, 5 seconds) may be matched to an input that turns on or turns off the electronic device 101. In the above example, a second gesture of pressing the button 220 shorter than the designated period may be matched to an input for changing the shape.
  • a designated period eg, 5 seconds
  • the button 220 may be exposed to the outside through the upper surface of the second housing 212.
  • the button 220 may be exposed to the outside through the side of the second housing 212.
  • the location of button 220 is not limited to the examples in FIGS. 2A and/or 2B.
  • a designated event for changing the shape of the display 140 and/or the electronic device 101 is when the electronic device 101 receives a voice signal including a designated word and/or sentence. It can occur based on Although not shown, the electronic device 101 may acquire the voice signal using one or more microphones.
  • the designated event may be generated in response to the electronic device 101 receiving a wireless signal from an external electronic device (e.g., a pointing device such as a remote control and/or a digitizer that is wirelessly connected to the electronic device 101). there is.
  • the wireless signal may be transmitted from the external electronic device to the electronic device 101 based on a user's gesture identified through the external electronic device.
  • the gesture identified by the external electronic device may include, for example, at least one of a movement following a designated trajectory of the external electronic device and/or a gesture of pressing a button of the external electronic device. .
  • the trajectory may be referred to as a path.
  • the electronic device 101 in response to a designated event for changing the display 140 and/or the shape of the electronic device 101, displays states 200, 205, and states (
  • the actuator may be controlled based on the current form of the electronic device 101 identified among the intermediate states between 200 and 205). Based on control of the actuator, the size, such as width and/or height, and/or area of the display area may be adjusted. 2A to 2B, within a roll-in state such as state 200, the area of the display area is minimized, and within a roll-out state such as state 205, the area of the display area is minimized. can be maximized.
  • the electronic device 101 may identify a change in the display area while displaying content (eg, an image) within the display area formed on the display 140. As the size and/or area of the display area changes, the electronic device 101 may identify and move at least a portion of the content. The electronic device 101 may enhance the user experience of the electronic device 101 by moving at least a portion of the content and displaying it on the screen.
  • content eg, an image
  • the electronic device 101 may expand the display area by deforming the electronic device 101 and/or the display 140 within the states 200 and 205, Alternatively, a reduction can be identified. In response to identifying a reduction in the display area, the electronic device 101 may maintain display of at least a portion of the content. The electronic device 101 may enhance the user experience of the electronic device 101 by maintaining the display of at least a portion of the content.
  • FIG. 3A illustrates an example of a screen according to a change in the display area of an electronic device, according to an embodiment.
  • FIG. 3B illustrates an example of a screen according to a change in the display area of an electronic device, according to an embodiment.
  • FIG. 3C shows an example of a screen according to a change in the display area of an electronic device, according to an embodiment.
  • FIG. 3D illustrates an example of a screen according to a change in the display area of an electronic device, according to an embodiment.
  • the electronic device 101 of FIGS. 3A, 3B, 3C, and/or 3D may be an example of the electronic device 101 of FIGS. 1, 2A, and/or 2B.
  • 3A, 3B, 3C, and/or 3D may be an example of the display 140 of FIGS. 1, 2A, and/or 2B.
  • the operations of FIGS. 3A, 3B, 3C, and/or 3D may be executed by processor 120 of FIG. 1.
  • the electronic device 101 may include a first housing 211 and a second housing 212 that is movable with respect to the first housing 211. You can.
  • the electronic device 101 may display a screen through the display 140 exposed outside the first housing 211.
  • the electronic device 101 may include a display 140 that includes a display area that extends or decreases as the second housing 212 moves.
  • the electronic device 101 may adjust the size of the display area displayed through the display 140 based on the movement of the second housing 212.
  • the electronic device 101 may display the screen 310 within the display area of the display 140.
  • the electronic device 101 can display content within the display area.
  • the electronic device 101 may identify attributes of the content while displaying the content. For example, the electronic device 101 may identify the properties of the content based on at least part of the content. For example, the electronic device 101 may identify properties of the content based on at least a portion of the content displayed on the screen 310.
  • the content property may be classified by the electronic device 101 as a first property.
  • the property of the content may be classified by the electronic device 101 as a second property when the content includes text among images, video, or text (e.g., a document such as a text file).
  • the electronic device 101 may classify it as a third property.
  • content classified as a third attribute may include at least one container.
  • the at least one container may be a group of images and/or text that are repeatedly displayed within the scroll view.
  • the attribute of the content includes a user interface (UI) with a different layout depending on the size of the display area
  • the electronic device 101 may classify it as a fourth attribute.
  • the attributes of the content are not limited by the above.
  • the electronic device 101 may display one image or video in the display area based on the content of the first attribute illustrated above. For example, the electronic device 101 may identify the properties of the content within the slide-in state 300 in which the second housing 212 is inserted into the first housing 211, such as state 300. there is. For example, the electronic device 101 may identify that content displayed on the screen 310 corresponds to the first attribute within the state 300. For example, within the state 300, the electronic device 101 may display the image and/or video by matching the center point of the display area. For example, the electronic device 101 may display the first portion 320 of the image and/or video within the display area. The electronic device 101 may identify that the size of the display area is extended while displaying the first portion 320 .
  • the electronic device 101 changes to the state 305 while displaying the center point of the image and/or video by matching the center point of the display area within the state 300.
  • the state 305 may include a slide-out state in which the second housing 212 is pulled out from the first housing 211 .
  • the electronic device 101 may match the center point of the content to the center point of the display area and display it.
  • the electronic device 101 displays a second part 330 connected to the first part 320 together with the first part 320 of the content. It can be displayed.
  • the second part 330 includes a sub-area connected to the first edge of the first part 320, such as a first sub-area 330-1 (sub-area), and a second sub-area It may include a sub-region connected to the second edge of the first part 320, such as the sub-region 330-2.
  • the electronic device 101 may identify at least one visual object (eg, a person) within content of the first attribute. Based on identifying the at least one visual object, the electronic device 101 may match the center point of the at least one visual object to the center point of the display area and display the display.
  • at least one visual object eg, a person
  • the electronic device 101 may identify a state that is different from the state in which at least one image is identified while displaying content in the display area.
  • a state different from the state in which at least one image is identified may include a state in which only text is displayed in the display area.
  • content that displays only text in the display area may be classified by the electronic device 101 as content of the second attribute.
  • the electronic device 101 may identify that the size of the display area is extended based on the content of the second attribute. While the size of the display area is extended, the electronic device 101 may move and display the content or display a portion of the content that is not displayed within the display area.
  • the electronic device 101 displays a portion of the content that is not displayed within the display area. It can be displayed. Displaying the screen 310 based on the content of the second attribute may be substantially the same as the operation of FIGS. 3B and/or 3C, which will be described later.
  • the electronic device 101 may display a screen 310 including a scroll view within the display area based on the content of the third attribute.
  • the content of the third attribute may include a web page included in the content, and/or content including a scroll view provided by an application related to multimedia.
  • the electronic device 101 may display at least one container included in the content on the screen 310 based on the content of the third attribute.
  • the electronic device 101 may identify, within the state 300, that content displayed within the screen 310 corresponds to the third attribute.
  • the electronic device 101 may move the content within the display area while identifying the content corresponding to the third attribute. In a state where the content corresponding to the third attribute is identified, the electronic device 101 fixes the content within the display area and displays the first parts 340 and 360 and the second parts 350 and 370. It can be displayed.
  • the scroll view may include at least one container.
  • the at least one container may be at least a portion of content included in the scroll view.
  • the at least one container may be referred to as an area for distinguishing visual objects included in the scroll view.
  • the electronic device 101 may receive input for at least some of the at least one container.
  • the electronic device 101 may perform an operation matching the input based on receiving an input for at least some of the at least one container.
  • the electronic device 101 may display a third portion 340, which is at least a portion of the content, within the display area based on content of the third attribute. For example, the electronic device 101 may identify that the size of the display area is extended while displaying the third portion 340. The electronic device 101 may display the fourth part 350 connected to the third part 340 of the content based on the extension of the size of the display area. For example, the electronic device 101 may maintain the position of the third portion 340 including the container included in the content within the display area. For example, the electronic device 101 may include a fourth part ( 350) can be displayed together with the third part 340.
  • the electronic device 101 may identify that the size of the display area is extended based on the second housing 212 moving. While the second housing 212 moves, the electronic device 101 may move the content in a direction matching the direction in which the second housing 212 moves. The electronic device 101 may move in a direction matching the direction in which the second housing 212 moves and display the fourth part 350 of the content together with the third part 340.
  • the electronic device 101 may display a fifth portion 360, which is at least part of content of the third attribute, on the screen 310.
  • the electronic device 101 may identify that the size of the display area is extended while displaying the fifth portion 360.
  • the electronic device 101 may display the sixth part 370 connected to the fifth part 360 of the content based on the extension of the size of the display area.
  • the electronic device 101 may display a sixth part 370 that is different from the fifth part 360 while fixing the position of the fifth part 360 in the display area. there is.
  • the electronic device 101 may identify a state 301 (eg, a slide-in state) in which the size of the display area is the minimum size.
  • the electronic device 101 may identify the properties of content displayed on the screen 310 within the state 301 .
  • the electronic device 101 may identify the displayed screen 310 based on the content.
  • the electronic device 101 may display content of the fourth attribute on the screen 310 in the state 301 .
  • Content of the fourth attribute may include a user interface with a different layout depending on the size of the display area.
  • the electronic device 101 may identify that the size of the display area is extended in a state 301 of displaying the screen 310 within the user interface, which is the first user interface.
  • the electronic device 101 may identify a state 306 in which the size of the display area has been expanded (eg, a slide-out state).
  • the electronic device 101 may display the screen 310 based on a second user interface that is different from the first user interface based on the completion of the display area extension.
  • the second user interface may include different information from the first user interface.
  • the electronic device 101 may change the screen displaying the first user interface to the screen displaying the second user interface. While changing the screen displaying the first user interface to the screen displaying the second user interface, the electronic device 101 adjusts the alpha value of the screen 310 to display the screen 310. ) can be changed.
  • the alpha value may mean transparency of the screen 310. For example, the higher the alpha value, the clearer the screen 310 can be displayed.
  • the electronic device 101 may perform operations such as fade-in and/or fade-out when changing the user interface by adjusting the alpha value.
  • the electronic device 101 can identify the properties of content.
  • the electronic device 101 may move the content displayed within the display area or maintain display of the content based on the properties of the content.
  • the electronic device 101 may display the content in different ways when the display area changes, depending on the properties of the content.
  • content displayed in the different ways may include content that provides a plurality of user interfaces.
  • the electronic device 101 can enhance the user experience of the electronic device 101 by selecting different display methods according to the properties of the content.
  • FIG. 4A shows an example of a screen according to a change in the display area of an electronic device, according to an embodiment.
  • the electronic device 101 of FIG. 4A may be an example of the electronic device 101 of FIGS. 1, 2A, 2B, 3A, 3B, 3C, and/or 3D.
  • the display 140 of FIG. 4A may be an example of the display 140 of FIGS. 1, 2A, 2B, 3A, 3B, 3C, and/or 3D.
  • the electronic device 101 may include a first housing 211 and a second housing 212.
  • the second housing 212 may be movable relative to the first housing 211 .
  • the electronic device 101 may include a display area exposed outside the first housing 211 .
  • the electronic device 101 may include a display area having a first size in a slide-out state in which the second housing 212 is pulled out.
  • the first size may be the maximum size of the display area.
  • the electronic device 101 may display an image while the display area has a first size. While the image is displayed in a display area having a first size, the electronic device 101 may receive an input indicating changing the size of the display area from the first size to the second size.
  • the second size may include the size of the display area in the slide-in state.
  • the second size may be the minimum size of the display area.
  • the input may include at least one of a pinch-to-zoom gesture, a swipe gesture, a drag gesture, or a gesture for tapping a designated visual object displayed on display 140 (e.g., an icon displaying an aspect ratio).
  • the input may include a gesture of pressing a button (eg, button 220 in FIG. 2) exposed to the outside of a portion of the housing 210 of the electronic device 101.
  • the electronic device 101 may identify an object included in the content of the first attribute based on identifying the content of the first attribute. For example, the electronic device 101 may identify content of the first attribute including one image or video within the display area. The electronic device 101 may identify the object 420 while displaying an image. The object 420 may be referred to as a subject. According to one embodiment, the electronic device 101 may obtain information identifying a subject in an image from metadata. The electronic device 101 may identify the area in the image where the subject is captured based on the above information. According to one embodiment, the electronic device 101 may receive the input while the object 420 is identified. According to one embodiment, the electronic device 101 may move the second housing 212 in response to the input.
  • the electronic device 101 may move the second housing 212 in the first direction (a) in response to the input. While the second housing 212 moves in the first direction (a), the electronic device 101 may move the image. For example, the electronic device 101 may move the image in the second direction (b). For example, the second direction (b) may be opposite to the first direction (a).
  • the electronic device 101 may display the object 420 included in the image on the screen 310 by moving the image in the second direction (b). For example, the electronic device 101 may identify a portion 430 of the image including the object 420.
  • the electronic device 101 may maintain display of a portion 430 of the image including the object 420 by moving the image in the second direction (b).
  • the electronic device 101 may identify that the change in size from the first size to the second size has been completed. For example, in response to completion of the change in the size, the electronic device 101 may display the portion 430 of the image in which the movement in the second direction (b) has stopped. The electronic device 101 may display a portion 430 of the image within a predetermined partial area within the display area having the second size.
  • the predetermined partial area within the display area having the second size is the first edge of the first edge 440 of the display area and the second edge 450 that is shorter than the first edge 440. It may include the midpoint of (440).
  • the first edge 440 may be matched to a relatively long side among the edges that are the boundaries of the display 140.
  • the second edge 450 may match a relatively short side among the edges of the display 140.
  • the electronic device 101 is displayed within the screen 310 of the display 140 while the state of the electronic device 101 is changed from the slide-out state to the slide-in state. You can move the displayed image.
  • the electronic device 101 may move the image while detecting the object 420 included in the image.
  • the electronic device 101 may enhance the user experience of the electronic device 101 by moving the image and maintaining the display of the object 420 within the screen 310 .
  • FIG. 4B illustrates an example of a screen according to a change in the display area of an electronic device, according to an embodiment.
  • the electronic device 101 of FIG. 4B may be an example of the electronic device 101 of FIGS. 1, 2A, 2B, 3A, 3B, 3C, 3D, and/or 4A.
  • the display 140 of FIG. 4B may be an example of the display 140 of FIGS. 1, 2A, 2B, 3A, 3B, 3C, 3D, and/or 4A.
  • the electronic device 101 may identify content of the first attribute that includes one image and/or video in the display area.
  • the electronic device 101 may identify the image 460 displayed on the screen 310 of the display 140.
  • the electronic device 101 can identify different states (e.g., a state in which the object is not identified) in which an object (e.g., the object 420 in FIG. 4A) is identified in the image 460 displayed within the screen 310. there is.
  • the electronic device 101 receives an input to change the size of the display area in a state that is different from the state in which a part of the image in which the subject was captured (e.g., a state in which the subject is not identified). You can receive it.
  • the electronic device 101 may change the display area from a first size (e.g., the maximum size of the display area) to a second size (e.g., the minimum size of the display area) in response to the input. there is.
  • the display area may be changed based on movement of the second housing 212 from the first size to the second size.
  • the electronic device 101 may move the second housing 212 to reduce the display area based on the input.
  • the display area may be reduced.
  • the electronic device 101 may move the image while the size of the display area changes from the first size to the second size as the second housing 212 moves.
  • the electronic device 101 may move the midpoint of the first edge of the image and the second edge shorter than the first edge to a predetermined partial area of the display area.
  • the predetermined partial area may be an area including the midpoint of a relatively long side of the screen 310 displayed on the display 140.
  • the electronic device 101 may move the identified image while the subject is not captured in the identified image.
  • the electronic device 101 can move the image and display it on the screen 310 of the display 140.
  • the electronic device 101 moves the image in the second direction (b) to display the screen 310. It can be displayed within.
  • the electronic device 101 may position the center of the image in a predetermined partial area of the display area by moving the image in the second direction (b).
  • the center of the image may include an intersection between a straight line perpendicular to the center of a first edge of the image and a straight line perpendicular to the center of a second edge of the image.
  • the electronic device 101 may enhance the user experience of the electronic device 101 by displaying the image within a predetermined partial area of the display area.
  • Figure 5 shows an example of a screen according to a change in the display area of an electronic device, according to an embodiment.
  • the electronic device 101 of FIG. 5 may be an example of the electronic device 101 of FIGS. 1, 2A, 2B, 3A, 3B, 3C, 3D, 4A, and/or 4B.
  • the display 140 of FIG. 5 may be an example of the display 140 of FIGS. 1, 2A, 2B, 3A, 3B, 3C, 3D, 4A, and/or 4B.
  • the electronic device 101 may display an image on the screen 310 of the display 140.
  • the electronic device 101 can identify the properties of content displayed on the screen 310.
  • the electronic device 101 may identify that the property of the content is a first property (eg, a property of content displaying one image and/or video in the display area).
  • the electronic device 101 may identify a plurality of objects 510 and 520 within the content based on identifying the content of the first attribute.
  • the electronic device 101 may identify a plurality of objects 510 and 520 within the image.
  • the plurality of objects 510 and 520 may be referred to as subjects.
  • the electronic device 101 may identify a plurality of areas 515 and 525 including the plurality of objects 510 and 520 within the identified state.
  • the plurality of objects 510 and 520 may include a first object 510 and a second object 520 .
  • the first object 510 may be different from the second object 520.
  • the first area 515 including the first object 510 may be different from the second area 525 including the second object 520 .
  • the first area 515 may include the first object 510.
  • the second area 525 may include the second object 520.
  • the electronic device 101 may designate an area 530 including the plurality of areas 515 and 525. Although not shown in the drawing, the number of plural objects is not limited.
  • the electronic device 101 may obtain information identifying a subject in an image from metadata. The electronic device 101 may identify the area in the image where the subject is captured based on the above information.
  • the electronic device 101 may obtain information indicating the area 530.
  • the information may include parameters representing at least one of the coordinates (eg, x-coordinate and y-coordinate) of one corner of the area 530, the width, or the height of the area 530.
  • the electronic device 101 includes at least one of the coordinates of one corner of the first area 515, the width or the height of the first area 515.
  • parameters, and parameters including at least one of the coordinates of one corner of the second area 525 and the width or height of the second area 525 may be obtained.
  • the electronic device 101 may obtain first parameters including the coordinates of the lower left corner of the first area 515, the width, and the height of the first area 515.
  • the electronic device 101 may obtain second parameters including the coordinates of the lower left corner of the second area 525, the width, and the height of the second area 525.
  • the electronic device 101 may obtain a third parameter for designating the area 530 based on the first parameter and the second parameter.
  • the electronic device 101 may identify the area 530 based on the third parameter.
  • the electronic device 101 may receive an input for changing the size of the display area while displaying a plurality of objects 510 and 520 included in the image.
  • the electronic device 101 may move the second housing 212 in response to receiving the input for changing the size of the display area.
  • the electronic device 101 may, in response to the input, while the display area has a first size (e.g., the maximum size of the display area), change the display area to a second size (e.g., the minimum size of the display area). size) can be changed.
  • the electronic device 101 may display the area 530 on the screen 310 while the size of the display area is changed.
  • the electronic device 101 moves the image in the second direction (b) while the size of the display area changes based on the movement of the second housing 212, and moves the image in the area ( 530) can be maintained.
  • the electronic device 101 may stop moving the area 530 in the second direction (b) in response to completion of the change in the size. For example, while the second housing 212 moves in the first direction (a), the electronic device 101 moves the image in the second direction (b) within a predetermined partial area within the display area. It can be displayed in .
  • the predetermined partial area within the display area may include a midpoint of a first edge of a first edge of the display area and a second edge shorter than the first edge. The first edge may correspond to a relatively long side of the display area.
  • the predetermined partial area may include a partial area including the center of the display area.
  • the electronic device 101 may display the center point of the visual object 510 identified in the image within at least a partial area of the screen 310.
  • the electronic device 101 displays a region 530 including the plurality of objects 510 and 520 within a state in which the plurality of objects 510 and 520 are identified. ) can be specified.
  • the electronic device 101 displays the area 530 including the plurality of objects 510 and 520 on the screen 310 while the display area is reduced based on the movement of the second housing 212. You can.
  • the electronic device 101 may enhance the user experience of the electronic device 101 by displaying an area 530 including the plurality of objects 510 and 520 on the screen.
  • Figure 6 shows an example of a screen according to a change in the display area of an electronic device, according to an embodiment.
  • the electronic device 101 of FIG. 6 is one of the electronic devices 101 of FIGS. 1, 2A, 2B, 3A, 3B, 3C, 3D, 4A, 4B, and/or 5. Yes it could be.
  • Display 140 of Figure 6 may be an example of display 140 of Figures 1, 2A, 2B, 3A, 3B, 3C, 3D, 4A, 4B, and/or 5. there is.
  • the electronic device 101 may identify a plurality of objects 610 and 620 included in the content based on identifying the content of the first attribute. .
  • the electronic device 101 may display an image in a display area having a first size.
  • the electronic device 101 may identify a plurality of objects 610 and 620 included in the image while displaying the image.
  • the electronic device 101 may identify a plurality of areas 615 and 625 including the plurality of objects 610 and 620, respectively.
  • the electronic device 101 may identify each of a plurality of areas 615 and 625 corresponding to each of the plurality of objects 610 and 620.
  • the first area 615 may correspond to the first object 610.
  • the second area 625 may correspond to the second object 620.
  • the electronic device 101 may identify a larger area among the plurality of areas 615 and 625. For example, the electronic device 101 may identify the first area 615 that is wider than the second area 625.
  • the number of plural objects and/or plural regions is not limited. For example, when identifying three or more objects in the image, the electronic device 101 may identify areas corresponding to each of the objects.
  • the electronic device 101 may identify the area with the largest size among areas corresponding to each of the plurality of objects.
  • the electronic device 101 may maintain the display of the area with the largest size by moving the image in the second direction (b) while the second housing 212 moves in the first direction (a). .
  • the electronic device 101 may receive an input for changing the size of the display area while the display area has a first size (eg, the maximum size of the display area).
  • the input may include a gesture of pressing the button 220 disposed on one side of the second housing 212.
  • the electronic device 101 may move the second housing 212 to reduce the display area.
  • the second housing 212 may move in the first direction (a) in response to the input.
  • the electronic device 101 may display the identified first area 615 on the screen while the display area is reduced.
  • the electronic device 101 may move the image in a second direction (b) opposite to the first direction (a) while the second housing 212 moves in the first direction (a).
  • the electronic device 101 may maintain the display of the first area 615 including the first object 610 in the image by moving the image in the second direction (b).
  • the electronic device 101 identifies a plurality of objects 610 and 620 and creates areas 615 corresponding to each of the plurality of objects 610 and 620. 625) can be identified.
  • the electronic device 101 may identify a relatively large area (eg, the first area 615 in FIG. 6) among the areas 615 and 625.
  • the electronic device 101 may reduce the display area of the display 140 by moving the second housing 212 in the first direction (a). While the display area is reduced, the electronic device 101 moves the image in the second direction (b) to display the area identified as the relatively wide area (e.g., the first area 615 in FIG. 6). The mark can be maintained.
  • the electronic device may maintain the display of the first area 615 identified as being wider than the second area 625 .
  • the electronic device 101 moves the image displayed within the display area in a direction opposite to the direction in which the second housing 212 moves, thereby displaying a plurality of visual images identified within the display area.
  • the display of objects can be maintained.
  • the electronic device 101 may enhance the user experience of the electronic device 101 by maintaining a display of the area identified as the relatively large area.
  • Figure 7 shows an example of a screen according to a change in the display area of an electronic device, according to an embodiment.
  • the electronic device 101 of FIG. 7 is the electronic device 101 of FIGS. 1, 2A, 2B, 3A, 3B, 3C, 3D, 4A, 4B, 5, and/or 6. ) may be an example of.
  • the display 140 of FIG. 7 is similar to the display 140 of FIGS. 1, 2A, 2B, 3A, 3B, 3C, 3D, 4A, 4B, 5, and/or 6. This may be an example.
  • the electronic device 101 may identify properties of content displayed within the display area. For example, the electronic device 101 may classify content including a scroll view, such as a web page and/or application related to multimedia, as a third attribute. The electronic device 101 may identify that the size of the display area is adjusted based on identifying the content of the third attribute.
  • the electronic device 101 may include a scrollable area along a first direction (a) or a second direction (b) within a display area having a first size (e.g., maximum size of the display area). there is.
  • the scrollable area may be referred to as a scroll view area.
  • the electronic device 101 may display at least one of repeated visual objects (eg, containers).
  • the electronic device 101 can execute a function to view the visual objects based on scrolling.
  • the scroll view area may include a text view area and/or an image view area.
  • the scroll view area may include a plurality of visual objects 710.
  • the plurality of visual objects 710 may include a visual object 714 representing text, a visual object 712 representing an image, and/or a visual object 713 for receiving input.
  • a visual object may include a combination of the above examples (eg, a visual object representing text, a visual object representing an image, and/or a visual object for receiving input).
  • a visual object combining the above examples may be referred to as a visual object 711. However, it is not limited to this.
  • the electronic device 101 displays at least one visual object among an image and a plurality of visual objects 710 within a scrollable area within a state 700. 1 Can be displayed in series along direction (a).
  • the electronic device 101 may identify the visual object with the largest size among the plurality of visual objects 710 .
  • the visual object with the largest size may be referred to as visual object 711.
  • the electronic device 101 may receive an input for changing the size of the display area while the image and the at least one visual object are continuously displayed.
  • the input may include a gesture of pressing the button 220 disposed outside the second housing 212.
  • the electronic device 101 may change the display area of the display 140 in response to receiving the input.
  • the electronic device 101 may move the second housing 212 in the first direction (a) to reduce the display area.
  • the electronic device 101 may identify an image and at least one visual object 711 among the plurality of visual objects 710 while the display area is reduced.
  • the electronic device 101 may move at least one identified visual object 711 in the second direction (b) while the display area is reduced.
  • the electronic device 101 may maintain the display of the at least one visual object 711 by moving the at least one visual object 711 in the second direction (b).
  • the electronic device 101 determines the center of the at least one visual object 711 in advance within the display area. It can be displayed within a determined area.
  • the center of the visual object 711 is between the straight line connecting the midpoints of the relatively long sides of the visual object 711 and the straight line connecting the midpoints of the relatively short sides of the visual object 711. It may be the intersection of .
  • the predetermined area within the display area may be an area including a straight line perpendicular to the center of a relatively long first edge of the display area.
  • the electronic device 101 may display a visual object (eg, the visual object 711 of FIG. 7) with the largest size among a plurality of visual objects.
  • the electronic device 101 may maintain the display of the largest visual object while the display area is reduced by movement of the second housing 212 .
  • the electronic device 101 may enhance the user experience of the electronic device 101 by maintaining the display.
  • FIGS. 8A and 8B illustrate an example of a screen according to a change in the display area of an electronic device, according to an embodiment.
  • the electronic device 101 of FIGS. 8A to 8B includes FIGS. 1, 2A, 2B, 3A, 3B, 3C, 3D, 4A, 4B, 5, 6, and/or This may be an example of the electronic device 101 of number 7.
  • the electronic device 101 may identify content including a user interface having a different layout depending on the size of the display area. For example, content including a user interface with a different layout depending on the size of the display area may be classified by the electronic device 101 as content of the fourth attribute. The electronic device 101 may identify that the size of the display area is adjusted based on identifying the content of the fourth attribute. The electronic device 101 may change from a slide-in state to a slide-out state. The electronic device 101 may display the first screen 810 provided from the application while the display area exposed outside the first housing 211 has the first size in the slide-in state. The first size may be a size in which the display area has the maximum size when the second housing 212 is pulled out.
  • the electronic device 101 may receive an input indicating changing the size of the display area while the first screen 810 is displayed within the display area having the first size.
  • input indicating to change the size of the display area may be a pinch-to-zoom gesture, a swipe gesture, a drag gesture, or a designated visual object displayed on display 140 (e.g., an icon displaying an aspect ratio). It may include at least one of the gestures of tapping.
  • the gesture may include a gesture of pressing a button 220 exposed to the outside in a portion of the housing 210 of the electronic device 101.
  • the input indicating changing the size of the display area may include an input indicating changing the size of the display area from the first size to a second size that is different from the first size.
  • the input indicating changing the size of the display area may include an input changing from a slide-in state to a slide-out state.
  • the size of the display area may be changed from the first size to the second size as the second housing 212 moves in the first direction (a) based on the input.
  • a user interface (UI) displayed within the display area may change.
  • the electronic device 101 may obtain an image related to the changed UI displayed in the display area.
  • the image related to the changed UI may correspond to the image 820 representing the second screen 830, which will be described later.
  • the electronic device 101 may obtain an image 820 representing the second screen 830 based on the second size based on the application.
  • the second size may include the maximum size of the display area.
  • the second size may be the size of the display area in the slide-out state of the electronic device 101.
  • the second screen 830 may include a screen displayed by the electronic device 101 in a slide-out state.
  • the electronic device 101 changes the size of the display area from a first size to a second size as the second housing 212 moves in the first direction (a) based on the input. While being changed, at least a portion of the image 820 may be displayed overlapping on the first screen 810 .
  • the electronic device 101 may display the second screen 830 within the display area of the second size after the size of the display area is changed to the second size.
  • the electronic device 101 may display the second screen 830 by fading out the image 820 based on the size of the display area being changed to the second size.
  • the fade-out operation can be performed by adjusting the alpha value of the image 820.
  • the alpha value may mean transparency of the image 820.
  • the electronic device 101 may display the images 820 by combining them based on alpha values. For example, while displaying the image 820, the electronic device 101 may adjust the transparency of the image 820 by adjusting the alpha value associated with the image 820.
  • the electronic device 101 displays the image 820 acquired from the second screen 830 while the size of the display area changes according to the movement of the second housing 212. can be displayed.
  • the electronic device 101 may convert the image 820 to the second screen 830 by fading out (or adjusting the alpha value) based on the change in size of the display area being completed.
  • the electronic device 101 can provide a smooth screen transition by fading and switching the image 820 to the second screen 830.
  • the electronic device 101 can enhance the user experience of the electronic device 101 by smoothly switching the image 820 to the second screen 830.
  • the first size in FIG. 8B, described later, may be a different size from the first size in FIG. 8A.
  • the second size of FIG. 8B, which will be described later, may be a different size from the second size of FIG. 8A.
  • the first screen of FIG. 8B, which will be described later, may be a different screen from the first screen of FIG. 8A.
  • the second screen of FIG. 8B, which will be described later, may be a different screen from the first screen of FIG. 8A.
  • the image of FIG. 8B, described later, may be a different image from the image of FIG. 8A.
  • the electronic device 101 may display the first screen 860 provided from the application while the display area has the first size.
  • the first size may be the maximum size of the display area in the slide-out state in which the second housing 212 of the electronic device 101 is pulled out.
  • the electronic device 101 may receive an input indicating change to a second size that is different from the first size.
  • the second size may be the minimum size of the display area as the second housing 212 of the electronic device 101 moves in the first direction (a).
  • the electronic device 101 may receive an input indicating changing the size of the display area while the first screen 860 is displayed within the display area having the first size. You can.
  • the electronic device 101 may receive an input indicating that the size of the display area is changed from the first size to the second size.
  • the input may include a gesture of pressing the button 220 exposed to the outside of the electronic device 101.
  • the electronic device 101 may acquire an image 870 representing the second screen 880 of the second size in response to receiving the input.
  • the electronic device 101 may move the second housing 212 in the first direction (a) based on the input of the size of the display area.
  • the electronic device 101 overlaps the image on the first screen 860 while the size of the display area changes from the first size to the second size as the second housing 212 moves. 870) can be displayed.
  • the electronic device 101 displays the first screen 860 while the size of the display area is changed to the second size according to the movement of the second housing 212 in the first direction (a). ) and at least a part of the second screen 880 may be moved in a second direction (b) opposite to the first direction (a).
  • the electronic device 101 displays the first screen 860 by moving at least a portion of the first screen 860 and/or at least a portion of the second screen 880 in the second direction (b). At least a portion, and/or at least a portion of the second screen 880 may be displayed.
  • the electronic device 101 may identify that the size of the display area has changed to the second size.
  • the electronic device 101 may display the second screen 880 within the display area of the second size based on the size of the display area being changed to the second size.
  • the electronic device 101 may fade out at least a portion of the image 870 while changing from at least a portion of the image 870 to the second screen 880.
  • the electronic device 101 may display the second screen 880 within the display area by fading out at least a portion of the image 870.
  • the electronic device 101 may receive an input indicating a change from the first size to the second size.
  • the electronic device 101 may obtain an image 870 of the second screen 880 indicating the second size in response to receiving the input.
  • the electronic device 101 may display the image 870 in an overlapping manner on the first screen 860 while changing from the first size to the second size.
  • the electronic device 101 may change the image 870 displayed on the screen to the second screen 880 based on the size of the display area being changed to the second size.
  • the electronic device 101 can smoothly change the image 870 to the second screen 880 by fading out the image 870.
  • the electronic device 101 displays the image 870 in an overlapping manner on the first screen 860 while changing from the first screen 860 to the second screen 880.
  • the user experience of (101) can be enhanced.
  • the electronic device 101 can enhance the user experience of the electronic device 101 by fading out the image 870 and smoothly changing it to the second screen 880.
  • Figure 9 shows an example of a flowchart regarding the operation of an electronic device, according to an embodiment.
  • the electronic device of FIG. 9 includes FIGS. 1, 2A, 2B, 3A, 3B, 3C, 3D, 4A, 4B, 5, 6, 7, 8A and/or 8B. This may be an example of the electronic device 101.
  • at least one of the operations of FIG. 9 may be performed by the electronic device 101 of FIG. 1 and/or the processor 120 of FIG. 1 .
  • the electronic device determines that the display area exposed outside the first housing (e.g., the first housing 211 of FIGS. 2A and 2B) has a first size. Images can be displayed while holding. For example, the display area may change according to movement of a movable second housing (eg, second housing 212 in FIGS. 2A and 2B) with respect to the first housing.
  • the first size may be the maximum size of the display area when the second housing is pulled out (eg, in a slide-out state).
  • an electronic device may identify an object included in the image.
  • the object may be referred to as a subject.
  • the objects may include people, animals, and dolls.
  • the electronic device changes the size of the display area from the first size to a second size smaller than the first size.
  • the second size which is smaller than the first size, may be the minimum size of the display area when the second housing is in a retracted state (eg, a slide-in state).
  • the change of the display area from the first size to the second size means that the display area changes according to the movement of the second housing in the first direction (e.g., the first direction (a) of FIG. 3).
  • the input may include an input indicating changing the size of the display area.
  • the input indicating changing the size of the display area may be a button (e.g., FIG. 2a) exposed to the outside in a portion of the housing of the electronic device (e.g., the housing 210 in FIGS. 2A and 2B). It may include a gesture of pressing the button 220 in FIG. 2B.
  • the electronic device may change the size of the display area from the first size to the second size in response to the input.
  • the electronic device may move the second housing in a first direction to change from the first size to the second size.
  • the electronic device moves a portion of the image identified from the image in a second direction opposite to the first direction (e.g., second direction (b) in FIG. 3). You can move.
  • Part of the image may include objects and/or subjects included within the image.
  • the electronic device may maintain display of a portion of the image within the display area by moving the image in a second direction.
  • the electronic device may display the part of the image in the display area while the display area is changed from the first size to the second size.
  • the electronic device may enhance the user experience of the electronic device by maintaining a display of the portion of the image within the display area.
  • Figure 10 shows an example of a flowchart regarding the operation of an electronic device, according to an embodiment.
  • the electronic device of FIG. 10 may be an example of the electronic device 101 of FIGS. 1 to 8B and/or the electronic device of FIG. 9 . At least one of the operations of FIG. 10 may be performed by the electronic device 101 of FIG. 1 and/or the processor 120 of FIG. 1 .
  • an electronic device may include a first housing (e.g., the first housing 211 in FIGS. 2A and 2B).
  • the electronic device may change the size of the display area based on a second housing (e.g., the second housing 212 in FIGS. 2A and 2B) that is movable relative to the first housing.
  • the electronic device may include a display that includes a display area that extends or decreases as the second housing moves.
  • the electronic device may include an actuator for moving the second housing.
  • the electronic device may display the first screen provided from the application while the display area exposed outside the first housing has the first size.
  • the first screen may be referred to as the first screen 810 in FIG. 8A and/or the first screen 860 in FIG. 8B.
  • the first size may include the maximum size and/or minimum size of the display area according to movement of the second housing.
  • the electronic device may receive an input indicating changing the size of the display area.
  • the electronic device may change the size of the display area by moving the second housing relative to the first housing.
  • the electronic device may change the size of the display area from a first size to a second size that is different from the first size.
  • the second size may include the minimum size and/or maximum size of the display area according to movement of the second housing.
  • the input may include a gesture of pressing a button (e.g., button 220 in FIGS. 2A and 2B) exposed to the outside of the housing of the electronic device (e.g., housing 210 in FIGS. 2A and 2B). .
  • the electronic device displays a second screen (the second screen 830 in FIG. 8A and/or the second screen 830 in FIG. 8B) based on the second size based on the application in response to the input.
  • An image representing the second screen 880 (eg, the image 820 in FIG. 8A and/or the image 870 in FIG. 8B) may be obtained.
  • the image may include an image representing a second screen that is different from the first screen.
  • the image may include an image representing a screen having a second size that is different from the first size.
  • the electronic device may display at least a portion of the acquired image while the size of the display area is changed. For example, while the electronic device changes from the first size to the second size according to the movement of the second housing in the first direction (e.g., the first direction (a) in FIG. 3) based on the input, At least a portion of the image may be displayed by superimposing it on the first screen. According to one embodiment, while the second housing moves in the first direction, the electronic device moves the image in a second direction opposite to the first direction (e.g., the second direction (b) in FIG. 3). Thus, at least a portion of the image can be displayed within the display area.
  • the electronic device may display at least a portion of the acquired image while the size of the display area is changed. For example, while the electronic device changes from the first size to the second size according to the movement of the second housing in the first direction (e.g., the first direction (a) in FIG. 3) based on the input, At least a portion of the image may be displayed by superimposing it on
  • the electronic device may display a second screen in a display area of the second size after the size of the display area is changed to the second size. For example, the electronic device may identify completion of the change in size of the display area from the first size to the second size. For example, based on the size of the display area being completely changed to the second size, the electronic device may fade out at least a portion of the image and change it to a second screen.
  • the electronic device may acquire an image representing a second screen of the second size in response to receiving an input indicating changing the size of the display area.
  • the electronic device may display the image within a screen, overlapping with a first screen that is different from the second screen, while changing the size of the display area.
  • the electronic device may stop displaying the image and display the second screen based on completion of changing the size of the display area.
  • the electronic device stops displaying the image it may fade out the image and display a second screen.
  • the electronic device can smooth the transition to the second screen by fading out the image.
  • the electronic device may enhance the user experience of the electronic device by overlapping the image on the first screen and switching to the second screen while changing from the first size to the second size.
  • FIGS. 11A to 11B show an example of a flowchart regarding the operation of an electronic device, according to an embodiment.
  • the electronic device of FIGS. 11A to 11B may be an example of the electronic device 101 of FIGS. 1 to 8 and/or the electronic device of FIGS. 9 to 10 .
  • At least one of the operations of FIGS. 11A to 11B may be performed by the electronic device 101 of FIG. 1 and/or the processor 120 of FIG. 1 .
  • the electronic device may display a screen within the display area.
  • the electronic device may receive an input indicating changing the size of the display area while displaying a screen within the display area.
  • the input indicating changing the size of the display area is a button (e.g., the button of FIGS. 2a and 2b) exposed to the outside of the housing (e.g., the housing 210 of FIGS. 2A and 2B) included in the electronic device. It may include a gesture of pressing (220)).
  • the electronic device may identify an image displayed on the screen. For example, while displaying a screen through a display (eg, display 140 of FIG. 1), the electronic device may identify whether an image is being displayed within the screen.
  • the electronic device may identify a visual object included in the image based on identifying the image.
  • the visual object may be referred to as a subject.
  • the visual objects may be referred to as people, animals, and/or dolls.
  • the visual object may include a visual object representing text displayed on the screen of the electronic device, a visual object representing an image, and/or a visual object for receiving an input.
  • the electronic device may identify an area including the visual object based on identifying the visual object.
  • the area may include the visual object.
  • the area may be referred to as a shape such as a square.
  • the area may be composed of a closed curve like the shape above.
  • the electronic device determines a first edge of the image and a second edge shorter than the first edge.
  • the midpoint of the edge can be moved to a predetermined area of the display area.
  • the electronic device may move the image and move the center of the image to the center of the display area.
  • the electronic device may move the midpoint of the image to a predetermined area of the display area in a state that is different from the state in which a visual object is identified in the image.
  • the predetermined area of the display area may include an intersection between a straight line perpendicular to the center of a relatively long side of the display area and a straight line perpendicular to the center of a relatively short side of the display area.
  • the electronic device may maintain display by moving the image to the predetermined area.
  • the electronic device can enhance the user experience of the electronic device by moving the image to the predetermined area and maintaining the display.
  • the electronic device may identify whether there are multiple identified visual objects. For example, the electronic device can identify whether there are multiple areas containing the visual object.
  • the electronic device selects a region containing the plurality of visual objects based on identifying the plurality of visual objects. can be displayed within a predetermined partial area.
  • the electronic device may designate an area containing the plurality of visual objects.
  • the electronic device may move the area including the plurality of visual objects in a second direction opposite to the first direction while the display area is reduced as the second housing moves in the first direction.
  • the electronic device may maintain a display of the area containing the plurality of visual objects based on moving the area containing the plurality of visual objects in the second direction.
  • the electronic device may display the visual objects included in the image on the screen. For example, the electronic device may move the visual object in a second direction while the display area is reduced as the second housing moves in the first direction. The electronic device may maintain display of the visual object by moving the visual object in a second direction.
  • the electronic device may move an area containing the visual object.
  • the electronic device may move the area including the visual object while the display area is reduced as the second housing moves in the first direction.
  • the electronic device may move the area containing the visual object to a predetermined area.
  • the electronic device may move the visual object to a predetermined area and maintain display of the visual object within the display area.
  • the electronic device moves the second housing, which is movable relative to the first housing, in the first direction. It is possible to determine whether it is done or not.
  • the first direction may be a direction from the second housing toward the first housing.
  • the electronic device may acquire an image representing the first screen.
  • the first screen of the electronic device may be a screen displayed in a state having a first size.
  • the first size may include the maximum size of the display area that can be formed as the second housing moves.
  • the electronic device may display an image representing the obtained first screen on the screen.
  • the electronic device may display the image within the display area while moving the second housing in the first direction in response to receiving an input indicating changing the size of the display area.
  • the electronic device may display an image representing the first screen within the display area while reducing the size of the display area.
  • the electronic device may display a second screen based on completing a change in the size of the display area. For example, while displaying an image representing the first screen, the electronic device may display the second screen within the display area after the change in size of the display area is completed.
  • the second screen may be a screen corresponding to a display area having a second size that is different from the first size.
  • the second size may be the minimum size of the display area.
  • the electronic device may fade out the image and switch to the second screen.
  • the electronic device may acquire images representing the third screen and the fourth screen.
  • the electronic device may include an image representing the third screen while the second housing moves in a second direction different from the first direction (e.g., the second direction (b) in FIG. 3), and the Each image representing the fourth screen can be acquired.
  • the third screen may be a screen displayed within the display area when the housing is retracted (eg, in a slide-in state).
  • the fourth screen may be a screen displayed within the display area when the housing is pulled out (eg, in a slide-out state).
  • the electronic device may display an image representing the fourth screen on the screen. For example, while the second housing moves in the second direction and the display area expands, the electronic device may display an image representing the fourth screen in an overlapping manner on the third screen.
  • the electronic device may display the fourth screen based on the change in size of the display area being completed. For example, the electronic device may display the fourth screen based on the completion of expansion of the display area. For example, the electronic device may display the fourth screen after the change of the display area is completed while displaying an image representing the third screen on the screen. According to one embodiment, the electronic device may convert an image representing the third screen to the fourth screen. For example, when switching an image representing the third screen to the fourth screen, the electronic device may fade out the image representing the third screen and switch to the fourth screen. As described above, according to one embodiment, the electronic device can smooth the transition to the fourth screen by fading out the image representing the third screen. The electronic device can enhance the user experience of the electronic device by smoothing the transition to the fourth screen.
  • FIGS. 12A to 12D and/or 13A to 13B an exemplary structure of an electronic device for modifying a display according to an embodiment is described.
  • FIG. 12A shows an example of a top plan view of an electronic device in a first state, according to an embodiment.
  • the electronic device 101 has a first housing 1210, a first direction 1261 parallel to the y-axis, or a second direction parallel to the y-axis and opposite to the first direction 1261 ( 1262) may include a second housing 1220 movable with respect to the first housing 1210, and a display 1230 (eg, the display).
  • the electronic device 101 may be in the first state.
  • the second housing 1220 may be movable relative to the first housing 1210 in a first direction 1261 of the first direction 1261 and the second direction 1262. there is.
  • the second housing 1220 may not be movable in the second direction 1262 with respect to the first housing 1210.
  • the display 1230 may provide the display area with the smallest size.
  • the display area may correspond to area 1230a.
  • an area of the display 1230 e.g., area 1230b in FIG. 12C
  • the area may be obscured by the first housing 1210.
  • the region may be rolled into the first housing 1210.
  • region 1230a may include a planar portion, unlike the region including a curved portion. However, it is not limited to this.
  • region 1230a may, in the first state, include a curved portion that extends from the planar portion and is located within an edge portion.
  • the first state may be referred to as a slide-in state or a closed state in that at least a portion of the second housing 1220 is located within the first housing 1210.
  • the first state may be referred to as a reduced state in terms of providing the display area with the smallest size. However, it is not limited to this.
  • the first housing 1210 is exposed through a portion of the area 1230a and faces the first image sensor 1250- in the camera module 180 in the third direction 1263 parallel to the z-axis. 1) may be included.
  • the second housing 1220 is exposed through a portion of the second housing 1220 and is oriented in a fourth direction parallel to the z-axis and opposite to the third direction 1263. May include one or more second image sensors within camera module 180, facing 1264.
  • the one or more second image sensors may be illustrated through the description of FIG. 12B.
  • FIG. 12B shows an example of a bottom view of an electronic device in a first state, according to an embodiment.
  • one or more second image sensors 1250-2 disposed in the second housing 1220 are configured to operate for the one or more second image sensors 1250-2. It may be positioned within a structure disposed within first housing 1210. For example, light from the outside of the electronic device 101 may be received by one or more second image sensors 1250-2 through the structure in the first state. For example, since one or more second image sensors 1250-2 are located within the structure in the first state, one or more second image sensors 1250-2 are located in the structure in the first state. It can be exposed through the above structure.
  • the above structure can be implemented in various ways.
  • the structure may be an opening or a notch.
  • the structure may be an opening 1212a in the plate 1212 of the first housing 1210 that surrounds at least a portion of the second housing 1220.
  • the structure may be an opening 1212a in the plate 1212 of the first housing 1210 that surrounds at least a portion of the second housing 1220.
  • one or more second image sensors 1250-2 included in the second housing 1220 may be obscured by the plate 1212 of the first housing 1210. there is.
  • the first state may be changed to the second state.
  • the first state (or the second state) may be changed to the second state (or the first state) through one or more intermediate states between the first state and the second state. there is.
  • the first state may be changed to the second state (or the first state) based on a predefined user input.
  • the first state (or the second state) is in response to a user input to a physical button exposed through a part of the first housing 1210 or a part of the second housing 1220, It can be changed to state 2 (or the first state).
  • the first state (or the second state) may be changed to the second state (or the first state) in response to a touch input on an executable object displayed within the display area. there is.
  • the first state changes to the second state (or the first state) in response to a touch input having a contact point on the display area and having a pressing intensity greater than a reference intensity. It can be.
  • the first state (or the second state) may be changed to the second state (or the first state) in response to a voice input received through the microphone of the electronic device 101.
  • the first state (or the second state) may include the first housing 1210 and/or the second housing 1220 to move the second housing 1220 relative to the first housing 1210. In response to an external force applied to, it may be changed to the second state (or the first state).
  • the first state responds to a user input identified in an external electronic device (e.g., earbuds or smart watch) connected to the electronic device 101.
  • an external electronic device e.g., earbuds or smart watch
  • it can be changed to the second state (or the first state).
  • it is not limited to this.
  • the second state can be illustrated through the description of FIGS. 12C and 12D.
  • FIG. 12C shows an example of a top view of an electronic device in a second state, according to an embodiment.
  • the electronic device 101 may be in the second state.
  • the second housing 1220 may be movable relative to the first housing 1210 in a second direction 1262 of the first direction 1261 and the second direction 1262. there is.
  • the second housing 1220 may not be movable in the first direction 1261 with respect to the first housing 1210.
  • the display 1230 may provide the display area with the largest size.
  • the display area may correspond to area 330c including area 1230a and area 1230b.
  • the area 1230b that was included in the first housing 1210 in the first state may be exposed in the second state.
  • area 1230a may include a planar portion.
  • region 1230a may include a curved portion extending from the planar portion and located within an edge portion.
  • the region 1230b unlike the region 1230a in the first state, may include a flat portion and a curved portion.
  • region 1230b may include a curved portion extending from the planar portion of region 1230b and located within an edge portion.
  • the second state may be referred to as a slide-out state or an open state in that at least a portion of the second housing 1220 is located outside the first housing 1210.
  • the second state may be referred to as an expanded state in terms of providing the display area with the largest size. However, it is not limited to this.
  • the second housing 1220 may be moved together with the area 1230a.
  • one or more second image sensors 1250-2 facing the fourth direction 1264 may change the state of the electronic device 101 from the first state to the second state.
  • the state may be moved according to the movement of the second housing 1220 in the first direction 1261.
  • the relative positional relationship between one or more second image sensors 1250-2 and the structure illustrated through the description of FIG. 5B may be related to the movement of one or more second image sensors 1250-2. Accordingly, it may change.
  • the change in the relative positional relationship can be illustrated through FIG. 12D.
  • FIG. 12D shows an example of a bottom view of an electronic device in a second state, according to an embodiment.
  • one or more second image sensors 1250-2 may be located outside the structure.
  • one or more second image sensors 1250-2 may be positioned outside the opening 1212a in the plate 1212.
  • one or more second image sensors 1250-2 are located outside the opening 1212a in the second state.
  • the relative positional relationship within the second state is, within the first state. It may be different from the above relative position relationship.
  • one or more second image sensors 1250-2 in the second state may Unlike the one or more second image sensors 1250-2 in , they may be exposed.
  • the electronic device 101 may be in an intermediate state between the first state and the second state.
  • the size of the display area in the intermediate state may be larger than the size of the display area in the first state and smaller than the size of the display area in the second state.
  • the display area within the intermediate state may correspond to an area including part of area 1230a and area 1230b.
  • a portion of area 1230b is exposed and another portion (or remaining portion) of area 1230b is obscured by or covered by first housing 1210. It can be dried inside.
  • first housing 1210 it is not limited to this.
  • the electronic device 101 is connected to the first housing of the electronic device 101 (e.g., the first housing 1210 of FIG. 12) with respect to the second housing of the electronic device 101 (e.g., the second housing of FIG. 12). 1220)) may include structures for moving.
  • the above structures can be illustrated through the description of FIGS. 13A and 13B.
  • FIGS. 13A and 13B illustrate an example of an exploded perspective view of an electronic device, according to an embodiment.
  • the electronic device 101 may include a first housing 1210, a second housing 1220, a display 1230, and a driver 1360.
  • the first housing 1210 may include a book cover 1311, a plate 1212, and a frame cover 1313.
  • the book cover 1311 may at least partially form a side portion of the outer surface of the electronic device 101.
  • the book cover 1311 may at least partially form the rear portion of the outer surface.
  • the book cover 1311 may include an opening 1311a for one or more second image sensors 1250-2.
  • the book cover 1311 may include a surface that supports the plate 1212.
  • the book cover 1311 may be combined with the plate 1212.
  • the book cover 1311 may include a frame cover 1313.
  • the book cover 1311 may be combined with the frame cover 1313.
  • plate 1212 may at least partially form the rear portion of the outer surface.
  • the plate 1212 may include an opening 1212a for one or more second image sensors 1250-2.
  • plate 1212 may be placed on the surface of book cover 1311.
  • opening 1212a may be aligned with opening 1311a.
  • the frame cover 1313 may be at least partially surrounded by the book cover 1311.
  • the frame cover 1313 may be at least partially surrounded by the display 1230.
  • the frame cover 1313 is at least partially surrounded by the display 1230, but the position of the frame cover 1313 can be maintained independent of movement of the display 1230.
  • the frame cover 1313 may be arranged in relation to at least some of the components of the display 1230.
  • the frame cover 1313 may include rails 1313a that provide (or guide) a movement path for at least one component of the display 1230.
  • the frame cover 1313 may be combined with at least one component of the electronic device 101.
  • the frame cover 1313 may support a rechargeable battery 189.
  • the battery 189 may be supported through a recess or hole in the surface 1313b of the frame cover 1313.
  • the frame cover 1313 may be coupled with one end of a flexible printed circuit board (FPCB) 1325 on a side of the frame cover 1313.
  • FPCB flexible printed circuit board
  • another end of the FPCB 1325 may be connected to the PCB 1324 through at least one connector.
  • the PCB 1324 may be electrically connected to another PCB (not shown in FIGS. 13A and 13B) that supplies power to the motor 1361 through the FPCB 1325.
  • the frame cover 1313 may be combined with at least one structure of the electronic device 101 for a plurality of states including the first state and the second state.
  • the frame cover 1313 can fasten the motor 1361 of the driving unit 1360.
  • the second housing 1220 may include a front cover 1321 and a slide cover 1322.
  • the front cover 1321 may be at least partially surrounded by the display 1230.
  • the front cover 1321 unlike the frame cover 1313, allows the display 1230 to move with the second housing 1220 being moved relative to the first housing 1210. It may be combined with at least a portion of the area 1230a of the display 1230 surrounding the .
  • the front cover 1321 may be combined with at least one component of the electronic device 101.
  • the front cover 1321 may be combined with a printed circuit board (PCB) 1324 that includes components of the electronic device 101.
  • PCB 1324 may include a processor 120 (not shown in FIGS. 13A and 13B).
  • the front cover 1321 may include one or more second image sensors 1250-2.
  • the front cover 1321 may be combined with at least one structure of the electronic device 101 for a plurality of states including the first state and the second state.
  • the front cover 1321 can fix the rack gear 1363 of the driving unit 1360.
  • the front cover 1321 may be combined with the slide cover 1322.
  • the slide cover 1322 may include at least one component of the electronic device 101 coupled within the front cover 1321 and/or at least one component of the electronic device 101 coupled within the front cover 1321. To protect the structure, it can be combined with a front cover 1321.
  • the slide cover 1322 may include a structure for the at least one component.
  • the slide cover 1322 may include one or more openings 1326 for one or more second image sensors 1250-2.
  • one or more openings 1326 may be aligned with one or more second image sensors 1250-2 disposed on the front cover 1321.
  • the size of each of the one or more openings 1326 may correspond to the size of each of the one or more second image sensors 1250-2.
  • the display 1230 may include a support member 1331.
  • the support member 1331 may include a plurality of bars.
  • the plurality of bars may be coupled to each other.
  • the driving unit 1360 may include a motor 1361, a pinion gear 1362, and a rack gear 1363.
  • motor 1361 may operate based on power from battery 189.
  • the power may be provided to the motor 1361 in response to the predefined user input.
  • the pinion gear 1362 may be coupled to the motor 1361 through a shaft.
  • the pinion gear 1362 may be rotated based on the operation of the motor 1361 transmitted through the shaft.
  • rack gear 1363 may be arranged in relation to pinion gear 1362.
  • the teeth of the rack gear 1363 may mesh with those of the pinion gear 1362.
  • the rack gear 1363 may be moved in the first direction 1261 or the second direction 1262 according to the rotation of the pinion gear 1362.
  • the second housing 1220 is moved in the first direction 1261 and the second direction by the rack gear 1363 that moves according to the rotation of the pinion gear 1362 due to the operation of the motor 1361. It can be moved in direction 1262.
  • the first state of the electronic device 101 may be changed to a state different from the first state (e.g., the one or more intermediate states) through the movement of the second housing 1220 in the first direction 1261.
  • the second state of the electronic device 101 may be changed to a state different from the second state (e.g., the one or more intermediate states) through the movement of the second housing 1220 in the second direction 1262. states or the first state).
  • a state different from the second state e.g., the one or more intermediate states
  • FIGS. 14A and 14B This can be exemplified through:
  • FIG. 14A shows an example of a cross-sectional view of an electronic device in a first state, according to an embodiment.
  • FIG. 14B shows an example of a cross-sectional view of an electronic device in a second state, according to an embodiment.
  • the motor 1361 may be operated based at least in part on the predefined user input received within the first state 1490.
  • the pinion gear 1362 may be rotated in the first rotation direction 1411 based at least in part on the operation of the motor 1361.
  • the rack gear 1363 may be moved in the first direction 1361 based at least in part on the rotation of the pinion gear 1362 in the first rotation direction 1411.
  • the second housing 1320 is positioned above the rack gear 1363 in the first direction 1361. Based at least in part on the movement, it may be moved in the first direction 1261.
  • the front cover 1321 in the second housing 1320 is coupled to at least a portion of the area 1230a of the display 1230 and secures the rack gear 1363, so that the display 1230,
  • the rack gear 1363 may be moved based at least in part on the movement of the rack gear 1363 in the first direction 1361.
  • display 1230 can be moved along rails 1313a.
  • the shape of at least some of the plurality of bars of the support member 1331 of the display 1230 may change when the state 1490 is changed to the second state 1495.
  • the area 1230b of the display 1230 may be moved according to the movement of the display 1230.
  • the area 1230b may be moved through the space between the book cover 1311 and the frame cover 1313 when the state 1490 is changed to the state 1495 according to the predefined user input. You can.
  • region 1230b within state 1495 may be exposed, unlike region 1230b rolled into the space within state 1490.
  • the front cover 1321 in the second housing 1320 is coupled to the PCB 1324 connected to the other end of the FPCB 1325 and fixes the rack gear 1363, so that the front cover 1321 of the FPCB 1325
  • the shape may change when state 1490 changes to state 1495.
  • Motor 1361 may be operated based at least in part on the predefined user input received within state 1495.
  • the pinion gear 1362 may be rotated in the second rotation direction 1412 based at least in part on the operation of the motor 1361.
  • the rack gear 1363 may be moved in the second direction 1362 based at least in part on the rotation of the pinion gear 1362 in the second direction of rotation 1412.
  • the second housing 1320 supports the rack gear 1363 in the second direction 1362. Based at least in part on the movement, it may be moved in a second direction 1262.
  • the front cover 1321 in the second housing 1320 is coupled to at least a portion of the area 1230a of the display 1230 and secures the rack gear 1363, so that the display 1230, Based at least in part on the movement of the rack gear 1363 in the second direction 1362, the rack gear 1363 may be moved.
  • display 1230 can be moved along rails 1313a.
  • the shape of at least some of the plurality of bars of the support member 1331 of the display 1230 may change when state 1495 is changed to state 1490.
  • the area 1230b of the display 1230 may be moved according to the movement of the display 1230.
  • the area 1230b may be moved through the space between the book cover 1311 and the frame cover 1313 when the state 1495 is changed to the state 1490 according to the predefined user input. You can.
  • region 1230b within state 1490 may be rolled into the space, unlike region 1230b exposed within state 1495.
  • the front cover 1321 in the second housing 1320 is coupled to the PCB 1324 connected to the other end of the FPCB 1325 and fixes the rack gear 1363, so that the front cover 1321 of the FPCB 1325
  • the shape may change when state 1495 changes to state 1490.
  • 12A to 14B show the height of the display area when the first state (or the second state) is changed to the second state (or the first state) in portrait mode.
  • the electronic device 101 is changed and the width of the display area is maintained, this is for convenience of explanation.
  • the electronic device 101 increases the height of the display area. It can be implemented by maintaining and changing the width of the display area.
  • the electronic device 101 includes a first housing 211, a second housing 212 movable with respect to the first housing 211, and the second housing 212. It may include a display 140 including a display area that is extended or reduced according to the movement, and a processor 120.
  • the processor 120 may identify that the size of the display area exposed outside the first housing 211 is extended while displaying the first portion of content within the display area.
  • the processor may identify an attribute of content displayed through the display area based on identifying that the display area is extended. Based on the attribute, the processor may display a second part connected to the first part within the content along with the first part of the content within the display area having the extended size.
  • the processor identifies the attribute based on at least one of an image included in the content, a text included in the content, a video included in the content, or a container included in the content. You can.
  • the processor based on identifying that the first portion of an image included in the content based on the attribute is displayed through the display area, has the extended size.
  • the second part of the image may be displayed together with the first part disposed at the center point of the display area.
  • the processor may identify a visual object within the image included in the content based on the attribute.
  • the processor may maintain a display of the visual object within the display area based on identifying the visual object.
  • the processor may display the first portion including the container based on at least one container included in the content based on the attribute.
  • the processor may display a second part that is different from the first part and is connected to the first part while the position of the first part in the display area is fixed.
  • the processor may identify a plurality of visual objects included in the image based on identifying an image identified based on the attribute.
  • the processor may display the center point of the area including the plurality of visual objects in correspondence to the center point of the display area.
  • the processor may change the first user interface (user interface) of the content displayed in the display area to a second user interface based on the extension of the display area and display the content.
  • the processor when changing the first user interface of the content, changes the first user interface to the second user interface based on adjusting the alpha value of the display area. It can be changed to .
  • the processor may display information in the second user interface that is different from information displayed in the first user interface.
  • the processor may move and display the content in response to a direction in which the second housing moves, based on the movement of the second housing.
  • a method of an electronic device includes identifying that the size of the display area exposed outside the first housing is extended while displaying a first portion of content within the display area.
  • the method of the electronic device may include an operation of identifying an attribute of content displayed through the display area based on identifying that the display area is extended.
  • the method of the electronic device displays, based on the attribute, a second part connected to the first part within the content, together with the first part of the content, within the display area having the extended size. It may include actions such as:
  • the method of the electronic device is based on at least one of an image included in the content, a text included in the content, a video included in the content, or a container included in the content, It may include an operation to identify the attribute.
  • the method of the electronic device is based on identifying that the first part of an image included in the content is displayed through the display area based on the attribute, and the extension and displaying the second portion of the image together with the first portion disposed at a center point of the display area having a size specified in the image.
  • the method of the electronic device may include identifying a visual object in the image included in the content based on the attribute.
  • the method of the electronic device may include maintaining a display of the visual object within the display area based on identifying the visual object.
  • the method of the electronic device may include displaying the first portion including the container based on at least one container included in the content based on the attribute.
  • the method of the electronic device may include displaying a second part that is different from the first part and is connected to the first part while fixing the position of the first part in the display area. You can.
  • the method of the electronic device may include an operation of identifying a plurality of visual objects included in the image based on identifying an image identified based on the attribute. there is.
  • the method of the electronic device may include displaying a center point of an area including the plurality of visual objects in correspondence to a center point of the display area.
  • the method of the electronic device may change the first user interface of the content displayed in the display area to a second user interface and display the content based on the extension of the display area.
  • the method of the electronic device when changing the first user interface of the content, changes the first user interface to the second user based on adjusting the alpha value of the display area. It can include actions that change the interface.
  • the method of the electronic device may include displaying information in the second user interface that is different from information displayed in the first user interface.
  • the method of the electronic device moves and displays the content in response to the direction in which the second housing moves, based on the movement of the second housing that is movable with respect to the first housing. It may include actions such as:
  • an electronic device e.g., the electronic device 101 of FIG. 1 includes a first housing (e.g., the first housing of FIGS. 2A and 2B). 211)), a second housing movable relative to the first housing (e.g., the second housing 212 in FIGS. 2A to 2B), and a display area that extends or decreases according to the movement of the second housing. It may include a display (e.g., display 140 in FIG. 1) and a processor (e.g., processor 120 in FIG. 1). While displaying content in the display area, the processor 120 It is possible to identify a change in the size of the display area exposed outside the first housing 211.
  • a display e.g., display 140 in FIG. 1
  • a processor e.g., processor 120 in FIG.
  • the processor based on identifying the change in the size of the display area, displays at least one image based on the content.
  • the processor may identify whether the at least one image is displayed based on the content while the size of the display area is changed in a first state in which the processor identifies that the at least one image is displayed based on the content.
  • the processor may move the at least one image within the display area based at least on whether the one image is included in the display area, wherein the processor may, in a second state different from the first state, move the at least one image within the display area. While the size is being changed, the content may be moved within the display area based on an edge of a portion of the content displayed within the display area.
  • an electronic device e.g., the electronic device 101 of FIG. 1 includes a first housing (e.g., the first housing of FIGS. 2A and 2B). 211)), a second housing movable relative to the first housing (e.g., the second housing 212 in FIGS. 2A to 2B), and a display area that extends or decreases according to the movement of the second housing.
  • a display e.g., display 140 in FIG. 1
  • an actuator for moving the second housing e.g., actuator 150 in FIG. 1
  • a processor e.g., processor 120 in FIG.
  • the processor may receive an input indicating that while the display area exposed outside the first housing has a first size, the display area is changed to a second size that is different from the first size.
  • the processor may change the size of the display area using the actuator based on the received input.
  • the processor is configured to, based on receiving the input based on a first screen including at least one image, display the display area of the at least one image while the size of the display area is changed by the actuator. Based on my location, I can move the at least one image.
  • the processor is configured to, based on receiving the input based on a second screen different from the first screen, change the size of the display area by the actuator while changing the second screen based on the first size.
  • a third screen obtained from an application corresponding to the second screen and having the second size may be displayed by superimposing the screen.
  • the processor is configured to: based on receiving the input within a condition that identifies the at least one image while the size of the display area has the first size greater than the second size, , while the size of the display area is changed, the image may be moved based on a visual object identified within the image.
  • the processor changes the size of the display area based on receiving the input in a state that includes an area for scrolling a plurality of images including the at least one image. , display of any one of the plurality of images may be maintained based on scrolling of the area.
  • the processor may combine and display the third screen and the fourth screen displayed based on the first size based on an alpha value. .
  • the processor may maintain display of the plurality of visual objects in the display area based on identifying the plurality of visual objects identified in the at least one image.
  • an electronic device e.g., the electronic device 101 of FIG. 1 includes a first housing (e.g., the first housing of FIGS. 2A and 2B). 211)), a second housing movable relative to the first housing (e.g., the second housing 212 in FIGS. 2A to 2B), and a display area that extends or decreases according to the movement of the second housing.
  • a display e.g., display 140 in FIG. 1
  • an actuator for moving the second housing e.g., actuator 150 in FIG. 1
  • a processor e.g., processor 120 in FIG. 1 It can be included.
  • the processor may display an image while a display area exposed outside the first housing has a first size.
  • the processor receives input indicating to change the size of the display area from the first size to a second size that is smaller than the first size while the image is displayed within the display area having the first size. can do.
  • the processor in response to the input, changes the size of the display area from the first size to the second size according to movement of the second housing in a first direction (e.g., first direction (a) in FIG. 3). While changing to , the display of the portion of the image is displayed by moving the portion of the image identified from the image in a second direction opposite to the first direction (e.g., the second direction (b) in FIG. 3). It can be maintained.
  • the processor is configured to, in response to completion of the change in the size, place the portion of the image that has stopped moving in the second direction into a predetermined display area within the display area having the second size. It can be displayed within a partial area.
  • the predetermined portion within the display area may include a midpoint of the first edge among a first edge of the display area and a second edge shorter than the first edge.
  • the processor in response to the input, changes the size from the first size to the second size according to movement of the second housing in a first direction, while , a portion of the image identified from the image, which is area 515 in Figure 5, and a second area identified from the image that is different from the first area (e.g., area 525 in Figure 5).
  • the third area e.g, area 530 in FIG. 5
  • the display of the third area can be maintained.
  • the processor is configured to, in response to completion of the change in the size, define the third area where the movement in the second direction has ceased to be a predetermined portion within the display area having the second size. It can be displayed within the area.
  • the processor is configured to change the size from the first size to the second size according to movement of the second housing in a first direction in response to the input. Based on identifying the first region of the portion of the image and a second partial region identified from the image, which is different from the first region, that is larger than the second region, the first region is positioned in the first direction. By moving in the opposite second direction, display of the first area among the first area and the second area can be maintained.
  • the processor is configured to change the size according to movement of the second housing in a first direction in response to the input, within a state different from the state in which the subject is identified as the portion of the image captured. While changing from the first size to the second size, the midpoint of the first edge of the image and the second edge shorter than the first edge may be moved to a predetermined area of the display area.
  • the processor is configured to display the image, and at least one visual display area within the display area having the first size, within a scrollable area along the first direction or the second direction. Objects may be displayed in series along the first direction.
  • the processor may move the image and the at least one visual object continuously displayed within the area in the second direction in response to the input.
  • the processor displays the at least one visual object among the plurality of visual objects and the image based on identifying a plurality of visual objects within the region of the display area. Can move in 2 directions.
  • the processor is configured to, in response to completion of the change in the size, display the image, the movement of which has ceased in the second direction, and at least one visual object in the display area having the second size. It can be displayed within a predetermined partial area within.
  • an electronic device includes a first housing (e.g., the first housing 211 of FIGS. 2A and 2B), and a device that is movable with respect to the first housing.
  • a display e.g., display 140 in FIG. 1 including a second housing (e.g., second housing 212 in FIGS. 2A and 2B) and a display area that extends or decreases in accordance with the movement of the second housing.
  • an actuator for the movement of the second housing e.g., actuator 150 in FIG. 1
  • a processor e.g., processor 120 in FIG. 1).
  • the processor may display a first screen provided from an application while a display area exposed outside the first housing has a first size.
  • the processor provides input indicating that while the first screen is displayed within the display area having the first size, the size of the display area is changed from the first size to a second size that is different from the first size.
  • the processor may obtain an image representing a second screen based on the second size based on the application in response to the input.
  • the processor is configured to overlap the display area on the first screen while changing the size of the display area from the first size to the second size in accordance with movement of the second housing in a first direction based on the input. , can display at least a portion of the image.
  • the processor may display the second screen within the display area of the second size.
  • the processor is configured to display the first screen while changing the size from the first size to the second size according to movement of the second housing in a first direction in response to the input. By moving a portion of the screen and a portion of the second screen in a second direction opposite to the first direction, display of the portion of the screen can be maintained.
  • the processor displays the second screen within the display area by fading out at least a portion of the image while transitioning from at least a portion of the image to the second screen. It can be displayed.
  • a method of manufacturing an electronic device includes using a first housing (e.g., the first housing 211 of FIGS. 2A and 2B). )) may include an operation of displaying an image while the display area exposed to the outside has a first size.
  • the method of the electronic device includes changing the size of the display area from the first size to a second size smaller than the first size while the image is displayed within the display area having the first size. It may include the operation of receiving the indicated input.
  • the method of the electronic device includes adjusting the size of the display area to the size of the second housing (e.g., the first direction (a) of FIG.
  • a portion of the image identified from the image is moved in a second direction opposite to the first direction (e.g., in FIG. 3). and maintaining the display of the portion of the image by moving in the second direction (b)).
  • the method of the electronic device includes displaying the portion of the image that has stopped moving in the second direction in response to completion of the change in the size, the portion having the second size. It may include an operation of displaying within a predetermined partial area within the area.
  • the predetermined portion within the display area may include a midpoint of the first edge among a first edge of the display area and a second edge shorter than the first edge.
  • the method of the electronic device may include, in response to the input, the size being changed from the first size to the second size according to movement of the second housing in a first direction.
  • moving a third area comprising a portion of the image identified from the image that is one area and a second area identified from the image that is different from the first area in a second direction opposite to the first direction, It may include an operation of maintaining the display of the third area.
  • the method of the electronic device may include, in response to completion of the change in the size, the third area in which the movement in the second direction is stopped, the display area having the second size, It may include an operation of displaying within a predetermined partial area within.
  • the method of the electronic device may include, in response to the input, the size being changed from the first size to the second size according to movement of the second housing in a first direction. Based on identifying the first region that is larger than the second region among the portion of the image that is region 1 and a second partial region identified from the image that is different from the first region, the first region is defined as the first region.
  • the display may include maintaining the display of the first area among the first area and the second area by moving in a second direction opposite to the first direction.
  • the method of the electronic device may include, in a state different from a state in which a subject identifies a portion of the captured image, the size of the second housing in a first direction in response to the input. While changing from the first size to the second size according to movement, the midpoint of the first edge of the first edge of the image and the second edge shorter than the first edge moves to a predetermined area of the display area. It may include moving actions.
  • the method of the electronic device includes, within the display area having the first size, within a scrollable area along the first direction or the second direction, the image, and It may include displaying at least one visual object in series along the first direction.
  • the method of the electronic device may include moving the image and the at least one visual object continuously displayed within the area in the second direction in response to the input.
  • the method of the electronic device includes, based on identifying a plurality of visual objects within the region of the display area, the at least one visual object among the plurality of visual objects, and the It may include moving the image in the second direction.
  • the method of the electronic device includes adjusting the image, the movement of which has stopped in the second direction, and the at least one visual object to the second size in response to completion of the change of the size.
  • the branch may include an operation of displaying within a predetermined partial area within the display area.
  • a method of manufacturing an electronic device includes using a first housing (e.g., the first housing 211 of FIGS. 2A and 2B). )) may include an operation of displaying the first screen provided from the application while the display area exposed to the outside has the first size.
  • the method of the electronic device includes changing the size of the display area from the first size to a second size different from the first size while the first screen is displayed within the display area having the first size. It may include an operation of receiving an input indicating that The method of the electronic device may include obtaining an image representing a second screen based on the second size based on the application in response to the input.
  • the method of the electronic device includes adjusting the size of the display area to the second housing (e.g., the first direction (a) of FIG. 3) in a first direction (e.g., the first direction (a) of FIG. 3) based on the input.
  • 2 may include an operation of displaying at least a portion of the image in an overlapping manner on the first screen while changing from the first size to the second size according to movement of the housing 212).
  • the method of the electronic device may include an operation of displaying the second screen within the display area of the second size after the size of the display area is changed to the second size.
  • the method of the electronic device may include, in response to the input, the size being changed from the first size to the second size according to movement of the second housing in a first direction.
  • the method may include maintaining display of a portion of the first screen and a portion of the second screen by moving the portion of the screen in a second direction opposite to the first direction.
  • the method of the electronic device includes, while transitioning from at least a portion of the image to the second screen, fading out at least a portion of the image to display the image within the display area. It may include an operation of displaying a second screen.
  • Electronic devices may be of various types.
  • Electronic devices may include, for example, portable communication devices (e.g., smartphones), computer devices, portable multimedia devices, portable medical devices, cameras, electronic devices, or home appliances.
  • Electronic devices according to embodiments of this document are not limited to the above-described devices.
  • first, second, or first or second may be used simply to distinguish one component from another, and to refer to that component in other respects (e.g., importance or order) is not limited.
  • One (e.g., first) component is said to be “coupled” or “connected” to another (e.g., second) component, with or without the terms “functionally” or “communicatively.” Where mentioned, it means that any of the components can be connected to the other components directly (e.g. wired), wirelessly, or through a third component.
  • module used in various embodiments of this document may include a unit implemented in hardware, software, or firmware, and is interchangeable with terms such as logic, logic block, component, or circuit, for example. It can be used as A module may be an integrated part or a minimum unit of the parts or a part thereof that performs one or more functions. For example, according to one embodiment, the module may be implemented in the form of an application-specific integrated circuit (ASIC).
  • ASIC application-specific integrated circuit
  • Various embodiments of the present document are software (e.g., one or more instructions stored in a storage medium (e.g., internal memory or external memory) that can be read by a machine (e.g., electronic device 101). : It can be implemented as a program).
  • a processor e.g., processor 120
  • a device e.g., electronic device 101
  • the one or more instructions may include code generated by a compiler or code that can be executed by an interpreter.
  • a storage medium that can be read by a device may be provided in the form of a non-transitory storage medium.
  • 'non-transitory' only means that the storage medium is a tangible device and does not contain signals (e.g. electromagnetic waves), and this term refers to cases where data is semi-permanently stored in the storage medium. There is no distinction between temporary storage cases.
  • Computer program products are commodities and can be traded between sellers and buyers.
  • the computer program product may be distributed in the form of a machine-readable storage medium (e.g. compact disc read only memory (CD-ROM)) or through an application store (e.g. Play StoreTM) or on two user devices (e.g. It can be distributed (e.g. downloaded or uploaded) directly between smart phones) or online.
  • a machine-readable storage medium e.g. compact disc read only memory (CD-ROM)
  • an application store e.g. Play StoreTM
  • two user devices e.g. It can be distributed (e.g. downloaded or uploaded) directly between smart phones) or online.
  • at least a portion of the computer program product may be at least temporarily stored or temporarily created in a machine-readable storage medium, such as the memory of a manufacturer's server, an application store's server, or a relay server.
  • each component (e.g., module or program) of the above-described components may include a single or plural entity, and some of the plurality of entities may be separately placed in other components. there is.
  • one or more of the components or operations described above may be omitted, or one or more other components or operations may be added.
  • multiple components eg, modules or programs
  • the integrated component may perform one or more functions of each component of the plurality of components in the same or similar manner as those performed by the corresponding component of the plurality of components prior to the integration. .
  • operations performed by a module, program, or other component may be executed sequentially, in parallel, iteratively, or heuristically, or one or more of the operations may be executed in a different order, or omitted. Alternatively, one or more other operations may be added.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

일 실시 예(an embodiment)에 따른, 전자 장치(electronic device)는, 제1 하우징(housing), 상기 제1 하우징에 대하여 이동가능한 제2 하우징, 상기 제2 하우징의 상기 이동에 따라, 연장되거나 감소되는 표시 영역을 포함하는 디스플레이, 및 프로세서를 포함할 수 있다. 상기 프로세서는, 상기 표시 영역 내에 콘텐트의 제1 부분을 표시하는 동안, 상기 제1 하우징 밖으로 노출된 상기 표시 영역의 사이즈가 연장됨을 식별할 수 있다. 상기 프로세서는, 상기 표시 영역의 사이즈가 연장됨을 식별하는 것에 기반하여, 상기 표시 영역을 통하여 표시된 콘텐트의 속성(attribute)을 식별할 수 있다. 상기 프로세서는, 상기 속성에 기반하여, 상기 연장된 사이즈를 가지는 상기 표시 영역 내에, 상기 콘텐트의 상기 제1 부분과 함께, 상기 콘텐트 내에서 상기 제1 부분에 연결된 제2 부분을 표시할 수 있다.

Description

변형 가능한 디스플레이의 표시 영역 내에서 화면을 표시하기 위한 전자 장치 및 그 방법
아래의 설명들은, 변형 가능한 디스플레이의 표시 영역 내에서 화면을 표시하기 위한 전자 장치 및 방법에 관한 것이다.
플렉서블 디스플레이를 이용하여, 변형 가능한(deformable) 폼 팩터를 가지는 전자 장치가 개발되고 있다. 예를 들어, 접힘 가능한(foldable) 복수의 하우징들을 포함하는 전자 장치는, 상기 복수의 하우징들을 가로질러 배치된 플렉서블 디스플레이를 이용하여, 사용자에게 전자 장치의 형태에 기반하는 사용자 경험을 제공할 수 있다. 예를 들어, 사용자의 외력에 의해 접혀지거나, 또는 펼쳐지는 플렉서블 디스플레이의 형태에 기반하여, 전자 장치는 플렉서블 디스플레이 상에 표시되는 콘텐트를 변경할 수 있다. 예를 들어, 플렉서블 디스플레이를 감거나, 또는 펼치는 전자 장치가 개발되고 있다.
일 실시 예(an embodiment)에 따른, 전자 장치(electronic device)는, 제1 하우징(housing), 상기 제1 하우징에 대하여 이동가능한 제2 하우징, 상기 제2 하우징의 상기 이동에 따라, 연장되거나 감소되는 표시 영역을 포함하는 디스플레이, 및 프로세서를 포함할 수 있다. 상기 프로세서는, 상기 표시 영역 내에 콘텐트의 제1 부분을 표시하는 동안, 상기 제1 하우징 밖으로 노출된 상기 표시 영역의 사이즈가 연장됨을 식별할 수 있다. 상기 프로세서는, 상기 표시 영역의 사이즈가 연장됨을 식별하는 것에 기반하여, 상기 표시 영역을 통하여 표시된 콘텐트의 속성(attribute)을 식별할 수 있다. 상기 프로세서는, 상기 속성에 기반하여, 상기 연장된 사이즈를 가지는 상기 표시 영역 내에, 상기 콘텐트의 상기 제1 부분과 함께, 상기 콘텐트 내에서 상기 제1 부분에 연결된 제2 부분을 표시할 수 있다.
일 실시 예에 따른, 전자 장치의 방법은, 표시 영역 내에 콘텐트의 제1 부분을 표시하는 동안, 제1 하우징 밖으로 노출된 상기 표시 영역의 사이즈가 연장됨을 식별하는 동작을 포함할 수 있다. 상기 전자 장치의 상기 방법은, 상기 표시 영역의 사이즈가 연장됨을 식별하는 것에 기반하여, 상기 표시 영역을 통하여 표시된 콘텐트의 속성(attribute)을 식별하는 동작을 포함할 수 있다. 상기 전자 장치의 상기 방법은, 상기 속성에 기반하여, 상기 연장된 사이즈를 가지는 상기 표시 영역 내에, 상기 콘텐트의 상기 제1 부분과 함께, 상기 콘텐트 내에서 상기 제1 부분과 연결된 제2 부분을 표시하는 동작을 포함할 수 있다.
도 1은, 일 실시 예에 따른, 전자 장치의 블록도(block diagram)의 일 예를 도시한다.
도 2a 내지 도 2b는, 일 실시 예에 따른, 전자 장치가 상이한 형태들 내에 있는 상태들 사이에서 변형되는 동작의 일 예를 도시한다.
도 3a는, 일 실시 예에 따른, 전자 장치의 표시 영역의 변화에 따른 화면의 일 예를 도시한다.
도 3b는, 일 실시 예에 따른, 전자 장치의 표시 영역의 변화에 따른 화면의 일 예를 도시한다.
도 3c는, 일 실시 예에 따른, 전자 장치의 표시 영역의 변화에 따른 화면의 일 예를 도시한다.
도 3d는, 일 실시 예에 따른, 전자 장치의 표시 영역의 변화에 따른 화면의 일 예를 도시한다.
도 4a는, 일 실시 예에 따른, 전자 장치의 표시 영역의 변화에 따른 화면의 일 예를 도시한다.
도 4b는, 일 실시 예에 따른, 전자 장치의 표시 영역의 변화에 따른 화면의 일 예를 도시한다.
도 5는, 일 실시 예에 따른, 전자 장치의 표시 영역의 변화에 따른 화면의 일 예를 도시한다.
도 6은, 일 실시 예에 따른, 전자 장치의 표시 영역의 변화에 따른 화면의 일 예를 도시한다.
도 7은, 일 실시 예에 따른, 전자 장치의 표시 영역의 변화에 따른 화면의 일 예를 도시한다.
도 8a 내지 도 8b는, 일 실시 예에 따른, 전자 장치의 표시 영역의 변화에 따른 화면의 일 예를 도시한다.
도 9는, 일 실시 예에 따른, 전자 장치의 동작에 관한 흐름도의 일 예를 도시한다.
도 10은, 일 실시 예에 따른, 전자 장치의 동작에 관한 흐름도의 일 예를 도시한다.
도 11a 내지 도 11b는, 일 실시 예에 따른, 전자 장치의 동작에 관한 흐름도의 일 예를 도시한다.
도 12a는, 일 실시 예에 따른, 제1 상태 내의 전자 장치의 평면도(top plan view)의 일 예를 도시한다.
도 12b는, 일 실시 예에 따른, 제1 상태 내의 전자 장치의 저면도(bottom view)의 일 예를 도시한다.
도 12c는, 일 실시 예에 따른, 제2 상태 내의 전자 장치의 평면도의 일 예를 도시한다.
도 12d는, 일 실시 예에 따른, 제2 상태 내의 전자 장치의 저면도의 일 예를 도시한다.
도 13a 및 도 13b는, 일 실시 예에 따른, 전자 장치의 분해 사시도(exploded perspective view)의 일 예를 도시한다.
도 14a는, 일 실시 예에 따른, 제1 상태 내의 전자 장치의 단면도(cross-sectional view)의 일 예를 도시한다.
도 14b는, 일 실시 예에 따른, 제2 상태 내의 전자 장치의 단면도의 일 예를 도시한다.
도 1은, 일 실시 예에 따른, 전자 장치의 블록도(block diagram)의 일 예를 도시한다.
도 1을 참고하면, 일 실시 예에 따른, 전자 장치(101)는, 프로세서(120), 메모리(130), 디스플레이(140), 액추에이터(150) 중 적어도 하나를 포함할 수 있다. 프로세서(120), 메모리(130), 디스플레이(140), 및 액추에이터(150)는 통신 버스(a communication bus)(110)와 같은 전자 소자(electronical component)에 의해 서로 전기적으로, 및/또는 작동적으로 연결될 수 있다(electronically and/or operably coupled with each other). 상이한 블록들에 기반하여 도시되었으나, 실시 예가 이에 제한되는 것은 아니다. 전자 장치(101)에 포함된 하드웨어 컴포넌트의 타입, 및/또는 개수는 도 1에 도시된 바에 제한되지 않는다. 예를 들어, 전자 장치(101)는, 도 1에 도시된 하드웨어 컴포넌트 중 일부만 포함할 수 있다. 비록 도시되지 않았지만, 전자 장치(101)는, 상기 전자 장치(101)의 외관을 형성하는 하우징을 더 포함할 수 있다. 상기 하우징에 의해 형성되는 상기 전자 장치(101)의 외관은 도 2a 내지 도 2b를 참고하여 후술된다.
일 실시 예에 따른, 전자 장치(101)의 프로세서(120)는, 하나 이상의 인스트럭션들에 기반하여 데이터를 처리하기 위한 하드웨어 컴포넌트를 포함할 수 있다. 데이터를 처리하기 위한 하드웨어 컴포넌트는, 예를 들어, ALU(arithmetic and logic unit), FPU(floating point unit), FPGA(field programmable gate array), AP(application processor), 및/또는 CPU(central processing unit)를 포함할 수 있다. 프로세서(120)의 개수는 하나 이상일 수 있다. 예를 들어, 프로세서(120)는, 듀얼 코어(dual core), 쿼드 코어(quad core), 또는 헥사 코어(hexa core)와 같은 멀티-코어 프로세서의 구조를 가질 수 있다.
일 실시 예에 따른, 전자 장치(101)의 메모리(130)는 프로세서(120)에 입력, 및/또는 출력되는 데이터, 및/또는 인스트럭션을 저장하기 위한 하드웨어 컴포넌트를 포함할 수 있다. 메모리(130)는, 예를 들어, RAM(random-access memory)와 같은 휘발성 메모리(volatile memory), 및/또는 ROM(read-only memory)와 같은 비휘발성 메모리(non-volatile memory)를 포함할 수 있다. 휘발성 메모리는, 예를 들어, DRAM(dynamic RAM), SRAM(static RAM), Cache RAM, PSRAM(pseudo SRAM) 중 적어도 하나를 포함할 수 있다. 비휘발성 메모리는, 예를 들어, PROM(programmable ROM), EPROM(erasable ROM), EEPROM(electrically erasable PROM), 플래시 메모리, 하드디스크, 컴팩트 디스크, eMMC(embedded multi media card) 중 적어도 하나를 포함할 수 있다.
메모리(130) 내에서, 프로세서(120)가 데이터에 수행할 연산, 및/또는 동작을 나타내는 하나 이상의 인스트럭션들이 저장될 수 있다. 하나 이상의 인스트럭션들의 집합은, 펌 웨어, 운영 체제, 프로세스, 루틴, 서브-루틴, 및/또는 어플리케이션으로 참조될 수 있다. 예를 들어, 전자 장치(101), 및/또는 프로세서(120)는, 운영 체제, 펌 웨어, 드라이버, 및/또는 어플리케이션 형태로 배포된 복수의 인스트럭션들의 집합(set of a plurality of instructions)이 실행될 시에, 도 9 내지 도 11b의 동작들 중 적어도 하나를 수행할 수 있다.
일 실시 예에 따른, 전자 장치(101)의 디스플레이(140)는 사용자에게 시각화된 정보를 출력할 수 있다. 일 실시 예에 따른, 디스플레이(140)는, 디스플레이(140)에 적용되는 외력에 의하여 변형 가능한 플렉서블 디스플레이일 수 있다. 디스플레이(140)는, LCD(liquid crystal display), PDP(plasma display panel), 하나 이상의 LED들(light emitting diode), 및/또는 하나 이상의 OLED들(organic light emitting diode)을 포함할 수 있다. 디스플레이(140)의 형태를 변형하기 위해 전자 장치(101)의 예시적인 구조가, 도 12a 내지 도 14b를 참조하여 후술된다.
일 실시 예에 따른, 디스플레이(140)는, 디스플레이(140) 상의 외부 객체(예, 사용자의 손가락)을 탐지하기 위한 센서(예, TSP(touch sensor panel))를 포함할 수 있다. 예를 들어, TSP에 기반하여, 전자 장치(101)는, 디스플레이(140) 상에 접촉되거나, 또는 디스플레이(140) 상을 부유하는(floating) 외부 객체를 탐지할 수 있다. 상기 외부 객체를 탐지하는 것에 응답하여, 전자 장치(101)는 디스플레이(140) 내에 표시되고 있는 시각적 객체들 중에서, 상기 외부 객체가 접촉된 디스플레이(140) 내 일부분에 대응하는 특정 시각적 객체와 관련된 기능을 실행할 수 있다.
일 실시 예에 따른, 전자 장치(101)의 액추에이터(150)는, 디스플레이(140), 및/또는 전자 장치(101)의 형태를 변경할 수 있다. 액추에이터(150)는, 구동 부로 참조될 수 있다. 액추에이터(150)는, 전기 에너지로부터 운동 에너지를 출력하기 위한 하드웨어(예, 모터)를 포함할 수 있다. 액추에이터(150)가 모터를 포함하는 일 실시 예에서, 액추에이터(150)는, 상기 모터의 회전 움직임(rotational motion)을, 디스플레이(140)에 가해지는 직선 움직임(linear motion)(또는 병진 움직임(translation motion))으로 변경하기 위한 기어(예, 랙 기어)를 포함할 수 있다. 일 실시 예에 따른, 액추에이터(150)는, 상기 모터의 회전 력(예, 토크)을 조절하기 위하여 상호 연결된(engaged to each other) 복수의 기어들을 포함할 수 있다. 상기 복수의 기어들은, 액추에이터(150)의 기어 조립체, 또는 트랜스미션 부로 참조될 수 있다.
일 실시 예에 따른, 프로세서(120)는, 액추에이터(150)의 모터로 인가되는 전력 신호의 주파수, 전압, 및/또는 전류를 변경하여, 디스플레이(140), 및/또는 전자 장치(101)가 변형되는 속도, 및/또는 방향을 조절할 수 있다. 일 실시 예에 따른, 전자 장치(101)가 액추에이터(150)를 제어하여 디스플레이(140)의 형태를 조절하는 예시적인 동작들이 도 2a 내지 도 2b를 참조하여 후술된다.
일 실시 예에 따른, 전자 장치(101)는, 디스플레이(140) 상에 형성된 표시 영역 내에, 화면을 표시할 수 있다. 상기 전자 장치(101)는, 상기 화면 내에, 사진과 같은 이미지, 락 스크린(lock screen), 홈 스크린(home screen), 월 페이퍼(wall paper), 또는 시각적 객체 중 적어도 하나를 표시할 수 있다. 예를 들어, 상기 이미지는, JEPG(joint photographic experts group), 및/또는 MPEG(moving picture experts group)에 기반하는 포맷을 가질 수 있다. 상기 락 스크린, 홈 스크린, 및/또는 월 페이퍼는, 어플리케이션의 실행에 기반하여 표시될 수 있다. 일 실시 예에 따른, 전자 장치(101)는, 액추에이터(150)에 의해 조절되는, 디스플레이(140)의 형태와 관련된 표시 영역의 너비, 높이, 크기, 및/또는 면적에 기반하여, 상기 이미지, 락 스크린, 홈 스크린, 월 페이퍼, 및/또는 시각적 객체 중 일부분을 선택적으로 표시할 수 있다. 일 실시 예에 따른, 전자 장치(101)가 상기 이미지, 락 스크린, 홈 스크린, 월 페이퍼, 및/또는 시각적 객체 중 일부분을 선택적으로 표시하는 동작이 도 3, 도 4, 도 5, 도 6, 도 7, 및/또는 도 8a 내지 도 8b를 참조하여 후술된다.
일 실시 예에 따른, 전자 장치(101)는, 디스플레이(140)의 변형에 기반하는 표시 영역의 확대, 또는 축소에 기반하여, 이미지, 락 스크린, 홈 스크린 및/또는 월 페이퍼를 이동할 수 있다. 예를 들어, 상기 디스플레이(140)가 상기 전자 장치(101)의 하우징의 안으로 적어도 부분적으로 인입되는 동안, 상기 표시 영역의 크기가, 상기 디스플레이(140)의 상기 인입에 기반하여 축소될 수 있다.
일 실시 예에 따른, 전자 장치(101)는, 제1 하우징 밖으로 노출된, 표시 영역이 제1 사이즈를 가지는 동안 이미지를 표시할 수 있다. 예를 들어, 제1 사이즈는, 상기 표시 영역이 최대로 확장된 사이즈를 포함할 수 있다. 전자 장치(101)는, 상기 이미지가 상기 제1 사이즈를 가지는 상기 표시 영역 내에서 표시되는 동안, 상기 표시 영역의 사이즈를 제1 사이즈로부터 제2 사이즈보다 작은 제2 사이즈로 변경함을 나타내는 입력을 수신할 수 있다. 상기 입력은, 전자 장치(101)의 외부로 노출된 버튼에 대한 입력을 포함할 수 있다. 전자 장치(101)는, 상기 입력에 응답하여, 상기 표시 영역의 사이즈가 제1 방향으로의 상기 제2 하우징의 이동에 따라 상기 제1 사이즈로부터 상기 제2 사이즈로 변경할 수 있다. 예를 들어, 제1 방향은 상기 제2 하우징이 상기 제1 하우징으로 인입되는 방향일 수 있다. 예를 들어, 상기 제2 사이즈는, 상기 표시 영역이 최소로 축소된 사이즈를 포함할 수 있다. 일 실시 예에 따른, 전자 장치(101)는, 상기 표시 영역이 상기 제1 사이즈로부터 상기 제2 사이즈로 변경되는 동안, 상기 이미지로부터 식별된 상기 이미지의 일부를 상기 제1 방향에 반대인 제2 방향으로 이동할 수 있다. 예를 들어, 상기 이미지의 일부는, 피사체가 포함된 일부분일 수 있다. 예를 들어, 상기 제2 방향은, 제2 하우징이 제1 하우징으로부터 인출되는 방향일 수 있다. 일 실시 예에 따른, 전자 장치(101)는, 상기 이미지의 상기 일부를 상기 제2 방향으로 이동함으로써, 상기 이미지의 상기 일부의 표시를 유지할 수 있다. 예를 들어, 전자 장치(101)는, 상기 이미지의 상기 일부를 상기 제2 방향으로 이동하여, 상기 이미지의 상기 일부를 상기 화면 내에 표시할 수 있다. 예를 들어, 피사체가 포함된 상기 이미지의 상기 일부가, 상기 화면 내에 유지되기 때문에, 전자 장치(101)는, 표시 영역의 확대, 또는 축소와 독립적으로, 피사체의 표시를 유지할 수 있다.
상술한 바와 같이, 일 실시 예에 따른, 전자 장치(101)는, 상기 이미지로부터 식별된 상기 이미지의 상기 일부를 이동하여 화면 내에 표시함으로써, 전자 장치(101)의 사용자의 사용자 경험을 강화할 수 있다.
일 실시 예에 따른, 전자 장치(101)는, 디스플레이(140)를 변형함을 나타내는 입력을 수신할 때, 디스플레이(140)의 UI(user interface)에 기반하여 상이한 동작을 수행할 수 있다. 디스플레이(140)를 변형함을 나타내는 입력은, 표시 영역의 사이즈를 변경함을 나타내는 입력을 포함할 수 있다.
일 실시 예에 따른, 전자 장치(101)는, 디스플레이(140) 내에 표시되는 화면의 레이아웃에 기반하여, 상이한 동작을 수행할 수 있다. 예를 들어, 전자 장치(101)는, 락 스크린, 및/또는 홈 스크린과 같이 디스플레이(140)의 표시 영역 전체를 점유하는(occupying) 단일(single) 이미지를 식별하는 것에 기반하여, 상기 단일 이미지 내 피사체에 기반하여, 디스플레이(140)의 변형에 의해 조절되는 표시 영역 내에서 상기 단일 이미지를 이동할 수 있다. 예를 들어, 전자 장치(101)는, 디스플레이(140)의 표시 영역 내에서, 스크롤 뷰와 같이 사용자의 제스쳐에 의해 스크롤 가능한 영역 내에 표시된, 복수의 시각적 객체들을 식별한 것에 기반하여, 상기 복수의 시각적 객체들 중 적어도 하나를 식별할 수 있다. 전자 장치(101)는, 상기 복수의 시각적 객체들 중 적어도 하나를 식별한 것에 기반하여, 표시 영역이 축소되는 동안, 상기 복수의 시각적 객체들 중 적어도 하나의 표시를 유지할 수 있다. 일 실시 예에 따른, 전자 장치(101)는, 디스플레이(140) 내에 표시되는 화면의 레이아웃 내에 스크롤 뷰 영역을 포함하는 것에 기반하여, 상기 스크롤 뷰 영역 내에 포함된 시각적 객체를 식별할 수 있다. 전자 장치(101)는, 상기 시각적 객체를 식별한 것에 기반하여, 상기 시각적 객체의 화면 내에 표시를 유지할 수 있다.
일 실시 예에 따른, 전자 장치(101)는, 이미지 내에 포함된 피사체를 식별할 수 있다. 일 실시 예에 따른, 전자 장치(101)는, 이미지 내에 포함된 적어도 하나의 특징점(feature point)에 기반하여, 상기 이미지 내 적어도 하나의 피사체를 식별할 수 있다. 이하에서, 상기 피사체는, 사진과 같은 이미지 내 사물들 사이의 배치에 구분되는, 배경 객체(background object), 또는 전격 객체(foreground object) 중 상기 전경 객체를 포함할 수 있다. 전자 장치(101)는, 사람, 동물, 및/또는 인형과 같이, 상기 전경 객체를 구분하기 위해 미리 결정된 카테고리들에 기반하여, 이미지 내 피사체를 인식할 수 있다. 전자 장치(101)가 피사체를 인식하는 것은, 상기 미리 결정된 카테고리들 중에서, 이미지 내 전경 객체에 매칭되는 일 카테고리를 선택하는 동작을 포함할 수 있다. 하지만, 이에 제한되지 않는다. 일 실시 예에 따른, 전자 장치(101)는, 상기 피사체에 포함된 눈, 코, 입, 및/또는 귀를 식별하는 것에 기반하여, 상기 피사체가 얼굴에 대응하는 특정 카테고리에 포함된 것으로 결정할 수 있다. 예를 들어, 전자 장치(101)는, 인공 지능과 관련된 연산을 수행하기 위한 하드웨어(예, NPU(neural processing unit), 및/또는 GPU(graphic processing unit)), 상기 인공 지능과 관련된 기능을 제공하기 위한 소프트웨어, 및/또는 외부 전자 장치(예, 상기 인공 지능과 관련된 기능을 제공하는 서버)에 기반하여 획득된 정보들에 기반하여 피사체를 식별할 수 있다. 예를 들어, 상기 정보들은, 지정된 카테고리(예, 동물, 식물, 자연물, 및/또는 사물)에, 이미지 내 피사체가 매칭될 확률을 포함할 수 있다. 예를 들어, 상기 정보들은, 상기 카테고리를 세분화한 하위 카테고리를 포함할 수 있다. 예를 들어, 하위 카테고리는, '사람', '강아지', 및/또는 '고양이'와 같은 정보를 포함할 수 있다. 예를 들어, 전자 장치(101)는, 이미지에 대응하는 메타 데이터 내에, 피사체가 상기 이미지에 포함되었는지 여부, 또는 상기 이미지 내에 포함된 피사체를 인식한 결과를, 저장할 수 있다. 전자 장치(101)는, 상기 메타 데이터로부터 이미지 내 피사체를 식별한 정보를 획득할 수 있다. 전자 장치(101)는, 상기 정보에 기반하여, 이미지 내 피사체가 캡쳐된 영역을 식별할 수 있다.
일 실시 예에 따른, 전자 장치(101)는, 제1 하우징 밖으로 노출된, 표시 영역이 제1 사이즈를 가지는 동안, 상기 표시 영역의 상기 제1 사이즈와 상이한 제2 사이즈로 변경함을 나타내는 입력을 수신할 수 있다. 상기 입력은, 전자 장치(101)의 하우징의 외부로 노출된 버튼을 누르는 제스쳐를 포함할 수 있다. 상기 사이즈의 변경에 대한 설명은 도 2a 내지 도 2b에서 후술된다. 전자 장치(101)는, 상기 수신된 입력에 기반하여 상기 액추에이터(150)를 이용하여 상기 표시 영역의 사이즈를 변경할 수 있다. 예를 들어, 전자 장치(101)는, 상기 액추에이터(150)를 이용하여 상기 제2 하우징을 이동할 수 있다. 전자 장치(101)는, 상기 제2 하우징의 이동에 기반하여 상기 제1 하우징 밖으로 노출되는 디스플레이(140)의 표시 영역을 조절할 수 있다.
일 실시 예에 따른, 전자 장치(101)는, 상기 디스플레이(140)의 표시 영역 내에 적어도 하나의 이미지를 포함하는 제1 화면을 표시할 수 있다. 예를 들어, 상기 제1 화면은, 단일(single)의 이미지를 포함하는 화면일 수 있다. 예를 들어, 상기 제1 화면은, 어플리케이션(예, 갤러리 어플리케이션)을 통해 제공되는, 적어도 하나의 이미지를 포함하는 화면일 수 있다. 예를 들어, 제1 화면은, SNS(social network service)와 관련된 어플리케이션을 통해 제공되는, 적어도 하나의 이미지를 포함하는 화면일 수 있다. 예를 들어, SNS와 관련된 어플리케이션을 통해 제공되는 제1 화면은, 스크롤 뷰 영역을 포함할 수 있다. 전자 장치(101)는, 상기 적어도 하나의 이미지를 포함하는 제1 화면을 표시하는 동안, 상기 입력을 수신할 수 있다. 전자 장치(101)는, 상기 적어도 하나의 이미지를 포함하는 제1 화면을 통하여 상기 입력을 수신하는 것에 기반하여, 상기 적어도 하나의 이미지를 이동할 수 있다. 예를 들어, 전자 장치(101)는, 상기 표시 영역의 사이즈가 상기 액추에이터(150)에 의하여 변경되는 동안, 상기 적어도 하나의 이미지의 상기 표시 영역 내 위치에 기반하여, 상기 적어도 하나의 이미지를 이동할 수 있다. 예를 들어, 전자 장치(101)는, 상기 적어도 하나의 이미지를 이동함으로써, 상기 적어도 하나의 이미지의 화면 내 표시를 유지할 수 있다.
일 실시 예에 따른, 전자 장치(101)는 상기 제1 화면과 상이한 제2 화면을 표시할 수 있다. 상기 제2 화면은, 상기 적어도 하나의 이미지를 화면 내에 포함하지 않을 수 있다. 전자 장치(101)는, 상기 제2 화면을 표시하는 동안, 표시 영역의 변경함을 나타내는 입력을 수신할 수 있다. 전자 장치(101)는 상기 입력을 수신한 것에 기반하여, 상기 표시 영역의 사이즈를 상기 액추에이터(150)에 의해 변경할 수 있다. 전자 장치(101)는, 상기 액추에이터(150)에 의해 상기 표시 영역의 사이즈를 변경하는 동안, 상기 제1 사이즈에 기반하는 제2 화면 상에 중첩으로, 제3 화면을 표시할 수 있다. 상기 제3 화면은, 상기 제2 화면에 대응하는 어플리케이션으로부터 획득될 수 있다. 상기 제3 화면은, 상기 제1 사이즈와 상이한 사이즈를 가지는 제2 사이즈에 대응할 수 있다.
일 실시 예에 따른, 전자 장치(101)는, 표시 영역 내에 콘텐트를 표시할 수 있다. 예를 들어, 상기 콘텐트는, 문서와 같이 텍스트만으로 구성된 콘텐트, 텍스트와 이미지가 함께 포함되는 콘텐트, 이미지만으로 구성된 콘텐트, 단일의(single) 이미지, 및/또는 비디오를 포함하는 콘텐트, 및/또는 적어도 하나의 컨테이너를 포함하는 웹 페이지를 포함할 수 있다. 예를 들어, 전자 장치(101)는, 상기 콘텐트의 구성에 기반하여, 상기 콘텐트의 속성을 식별할 수 있다. 하지만, 이에 제한되지 않는다.
일 실시 예에 따른, 전자 장치(101)는, 표시 영역 내에 콘텐트의 제1 부분을 표시할 수 있다. 예를 들어, 상기 제1 부분은, 상기 콘텐트의 적어도 일부분일 수 있다. 예를 들어, 전자 장치(101)는, 상기 제1 부분을 표시하는 동안, 제1 하우징 밖으로 노출된 상기 표시 영역의 사이즈가 연장됨을 식별할 수 있다. 전자 장치(101)는, 상기 표시 영역의 사이즈가 연장됨을 식별한 것에 기반하여, 상기 표시 영역을 통하여 표시되는 콘텐트의 속성(attribute)을 식별할 수 있다. 상기 콘텐트의 속성은, 표시 영역 내에 표시되는 콘텐트의 적어도 일부에 기반하여, 전자 장치(101)에 의해 분류될 수 있다.
예를 들어, 상기 콘텐트의 속성은, 상기 콘텐트가 하나의(single) 이미지, 또는 비디오를 포함하는 경우, 전자 장치(101)에 의해 제1 속성으로 분류될 수 있다. 예를 들어, 상기 콘텐트의 속성은, 상기 콘텐트가 이미지, 비디오, 또는 텍스트 중에서 텍스트를 포함하는 경우(예, 텍스트 파일과 같은 문서), 전자 장치(101)에 의해 제2 속성으로 분류될 수 있다. 예를 들어, 상기 콘텐트의 속성은, 상기 콘텐트가 웹페이지, 및/또는 멀티 미디어와 관련된 어플리케이션에 의해 제공되는 스크롤 뷰를 포함하는 경우, 전자 장치(101)에 의해 제3 속성으로 분류될 수 있다. 예를 들어, 상기 콘텐트의 속성은, 표시 영역의 사이즈 별로 상이한 레이아웃을 가지는 유저 인터페이스(user interface, UI)를 포함하는 경우, 전자 장치(101)에 의해 제4 속성으로 분류될 수 있다. 상기 콘텐트의 속성에 관한 설명은, 도 3a 내지 도 3d에서 후술된다.
일 실시 예에 따른, 전자 장치(101)는, 상기 콘텐트의 속성에 기반하여, 상기 연장된 사이즈를 가지는 상기 표시 영역 내에, 상기 콘텐트의 상기 제1 부분과 함께, 상기 콘텐트 내에서 상기 제1 부분에 연결된 제2 부분을 표시할 수 있다. 예를 들어, 전자 장치(101)는, 상기 제1 부분을 표시하는 콘텐트의 속성을 식별한 것에 기반하여, 상기 제1 부분의 위치를 조절하여 상기 제2 부분을 표시할 수 있다. 예를 들어, 전자 장치(101)는, 상기 제1 부분을 표시하는 콘텐트의 속성을 식별한 것에 기반하여, 상기 제1 부분의 위치를 고정하여 상기 제2 부분을 표시할 수 있다. 상기 제1 부분, 및 상기 제2 부분을 표시하는 동작에 관한 설명은, 도 3a 내지 도 3d에서 후술된다.
이하에서는, 도 2a 내지 도 2b를 참고하여, 일 실시 예에 따른, 전자 장치(101)가 상기 표시 영역의 너비, 높이, 크기, 및/또는 면적을 조절하는 동작이 설명된다.
도 2a 내지 도 2b는, 일 실시 예에 따른, 전자 장치가 상이한 형태들 내에 있는 상태들 사이에서 변형되는 동작의 일 예를 도시한다. 도 2a 내지 도 2b의 전자 장치(101)는, 도 1의 전자 장치(101)의 일 예일 수 있다. 예를 들어, 도 1의 전자 장치(101), 및 디스플레이(140)는, 도 2a 내지 도 2b의 전자 장치(101), 및 디스플레이(140)를 포함할 수 있다.
도 2a 내지 도 2b를 참고하면, 전자 장치(101)는, 사용자에 의해 소유되는(be owned by) 단말일 수 있다. 예를 들어, 단말은, 랩톱 및 데스크톱과 같은 개인용 컴퓨터(personal computer, PC), 스마트폰(smartphone), 스마트패드(smartpad), 태블릿 PC(tablet personal computer), 스마트워치(smartwatch), 및 HMD(head-mounted device)와 같은 스마트 악세서리를 포함할 수 있다. 일 실시 예에 따른, 전자 장치(101)의 하우징(210)은, 전자 장치(101)에 포함된 하나 이상의 하드웨어 컴포넌트들(예, 도 1을 참고하여 상술된 하나 이상의 하드웨어들)이 배치되는 내부 공간을 포함할 수 있다. 상기 하우징(210)은, 전자 장치(101)의 외형을 형성할 수 있다.
일 실시 예에 따른, 전자 장치(101)는, 변형 가능한(deformable) 폼 팩터(form factor)를 가질 수 있다. 전자 장치(101)가 변형되는 것은, 전자 장치(101)의 너비, 높이, 및/또는 두께와 같은 크기들(dimensions) 중 적어도 하나가 변경되는 것을 의미할 수 있다. 상기 크기들 중 적어도 하나는, 전자 장치(101)에 적용되는(applied) 외력(external force)에 의해 수동적으로 변경되거나, 및/또는 전자 장치(101)에 포함된 하나 이상의 액추에이터들(예, 도 1의 액추에이터(150))에 의해 능동적으로 변경될 수 있다.
전자 장치(101)의 변형 가능성(deformability)을 지원하기 위하여, 하우징(210)은, 상호 연결된(interconnected) 제1 하우징(211), 및 제2 하우징(212)으로 구분될 수 있다. 일 실시 예에 따른, 전자 장치(101)는, 액추에이터(예, 도 1의 액추에이터(150))를 이용하여 제1 하우징(211), 및 제2 하우징(212)의 위치 관계를 조절하여, 디스플레이(140), 및/또는 전자 장치(101)의 형태를 변경할 수 있다. 도 2a 내지 도 2b를 참고하면, 전자 장치(101)의 디스플레이(140)는, 제1 하우징(211)의 일 면, 및 제2 하우징(212)의 일 면을 가로질러 배치될 수 있다. 디스플레이(140)가 배치되고, 제1 하우징(211), 및 제2 하우징(212)에 의해 형성된 일 면이, 전 면(front surface)으로 참조될 수 있다. 일 실시 예에 따른, 전자 장치(101)가 디스플레이(140)의 형태를 변경하는 것은, 디스플레이(140) 내에서 외부로 노출되는 적어도 일부분의 폭, 너비, 및/또는 면적(extent) 중 적어도 하나를 변경하는 동작을 포함할 수 있다.
도 2a 내지 도 2b를 참고하면, 제1 하우징(211)이 제2 하우징(212)에 대해 슬라이딩 가능(slidable)하게 결합되는 일 실시 예가 도시된다. 그러나, 실시 예가 이에 제한되는 것은 아니다. 디스플레이(140)는, 전자 장치(101)의 변형에 기반하여, 제1 하우징(211) 안으로 인입 가능하거나(insertable), 제1 하우징(211)으로부터 인출 가능(extractable)할 수 있다. 디스플레이(140)가 제1 하우징(211) 안으로 인입되는 경우, 디스플레이(140)가 외부로 노출되는 영역의 크기가 줄어들 수 있다. 디스플레이(140)가 제1 하우징(211)로부터 인출되는 경우, 디스플레이(140)가 외부로 노출되는 영역의 크기가 증가될 수 있다. 이하에서, 디스플레이(140)의 표시 영역은, 디스플레이(140)에 포함된 픽셀들 중에서, 디스플레이(140)가 외부로 노출된 영역 상에 배치된 픽셀들에 의해 형성된 영역을 의미할 수 있다. 예를 들어, 상기 표시 영역은 디스플레이(140)의 활성 영역(an active area)으로 참조될 수 있다. 일 실시 예에 따른, 전자 장치(101)는, 액추에이터를 이용하여 디스플레이(140)를 하우징(210) 안으로 인입하거나, 또는 상기 하우징(210)으로부터 인출하여, 상기 표시 영역을 조절할 수 있다.
도 2a 내지 도 2b를 참고하면, 전자 장치(101), 및/또는 디스플레이(140)의 상이한 상태들(200, 205)이 도시된다. 일 실시 예에 따른, 전자 장치(101)는, 액추에이터를 이용하여 상태들(200, 205) 사이를 스위칭할 수 있다. 일 실시 예에 따른, 전자 장치(101)의 상태들(200, 205)은, 전자 장치(101), 및/또는 디스플레이(140)의 크기들(예, 너비, 높이, 두께, 및/또는 종횡 비(an aspect ratio))에 따라 구분될 수 있다(may distinguished). 상태들(200, 205)은, 전자 장치(101)의 제1 하우징(211), 및 제2 하우징(212) 사이의 거리에 따라 구분될 수 있다. 예를 들어, 제1 하우징(211), 및 제2 하우징(212) 사이의 거리는 제1 하우징(211)의 일 면(예, 제1 하우징(211)의 하 면), 및 상기 제1 하우징(211)의 일 면과 평행하고, 상기 제1 하우징(211)의 상기 일 면으로부터 이격된 제2 하우징(212)의 타 면(예, 제2 하우징(212)의 상 면) 사이의 거리일 수 있다.
도 2a 내지 도 2b의 상태들(200, 205) 각각은, 전자 장치(101)가 변형됨에 따라, 전자 장치(101)의 표면적, 및/또는 디스플레이(140)의 표시 영역의 면적이 최소, 또는 최대가 되는 상태일 수 있다. 이하에서, 상태(200)와 같이, 전자 장치(101)의 표면적, 및/또는 상기 표시 영역의 면적이 최소가 되는 상태가, 슬라이드-인 상태(slide-in state), 감김 상태(rolled state), 닫힌 상태(closed state), 롤-인 상태(roll-in state), 및/또는 수축 상태로 참조될 수 있다. 이하에서, 상태(205)와 같이, 전자 장치(101)의 표면적, 및/또는 상기 표시 영역의 면적이 최대가 되는 상태가, 슬라이드-아웃 상태(slide-out state), 펼침 상태(unrolled state), 개방 상태(opened state), 롤-아웃 상태(roll-out state), 및/또는 확장 상태로 참조될 수 있다. 일 실시 예에 따른, 전자 장치(101)의 상태는, 표시 영역의 면적이 최소인 상태(200), 및 표시 영역의 면적이 최대인 상태(205) 사이의 다른 상태를 더 포함할 수 있다. 상기 다른 상태는, 중간 상태(intermediate state), 서브 감김 상태(sub-rolled state), 및/또는 서브 개방 상태(sub-opened state)로 참조될 수 있다.
도 2a 내지 도 2b를 참고하면, 일 실시 예에 따른, 전자 장치(101)에 포함된 디스플레이(140)는 직사각형의 형태를 가질 수 있다. 일 실시 예에 따른, 디스플레이(140)의 모서리들(corners)은, 곡선 모서리(rounded corner)의 형태를 가질 수 있다. 이하에서는, 직사각형인 디스플레이(140)의 경계인 변들 중에서, 상대적으로 긴 변과 평행한 높이 방향(height direction)으로, 상기 상대적으로 긴 변이 높이(height)로 참조될 수 있다. 이하에서는, 직사각형인 디스플레이(140)의 경계인 변들 중에서, 상대적으로 짧은 변과 평행한 너비 방향(width direction)으로, 상기 상대적으로 짧은 변이 너비(width)로 참조될 수 있다.
도 2a를 참고하면, 전자 장치(101)가 디스플레이(140)의 너비 방향, 또는 높이 방향 중에서, 높이 방향을 따라 전자 장치(101)의 형태를 변형하는 일 실시 예가 도시된다. 도 2a의 상태(200)에서의 높이(h1)는, 외부로 노출된 디스플레이(140)의 일부분의 면적이 최소화된 시점(예, 슬라이드-인 상태)에서의 표시 영역의 높이의 최소 값일 수 있다. 예를 들어, 상기 표시 영역의 너비에 대하여, 상태(200) 내에서, 높이, 및 너비의 비율은 4.5 : 3일 수 있다. 도 2a의 상태(205) 내 디스플레이(140)의 높이(h2)는, 외부로 노출된 디스플레이(140)의 일부분의 면적이 최대화된 시점(예, 슬라이드-아웃 상태) 내 표시 영역의 높이의 최대 값일 수 있다. 예를 들어, 상기 표시 영역의 너비에 대하여, 상태(205)에서 높이, 및 너비의 비율은 21 : 9일 수 있다. 높이(h2)는, 변형 가능한 디스플레이(140)의 높이의 최대 값일 수 있다. 비록 도시되지 않았지만, 전자 장치(101)의 상태는 상태들(200, 205) 뿐만 아니라, 높이, 및 너비의 비율이 16 : 9인 중간 상태를 포함할 수 있다.
도 2b를 참고하면, 전자 장치(101)가 상기 너비 방향, 또는 상기 높이 방향 중에서, 상기 너비 방향을 따라 전자 장치(101)의 형태를 변형하는 일 실시 예가 도시된다. 도 2b의 상태(200) 내 너비(w1), 및 상태(205) 내 너비(w2) 각각은 변형 가능한 디스플레이(140)의 너비의 최소 값, 및 최대 값일 수 있다. 디스플레이(140)의 높이, 및/또는 너비가 조절됨에 따라, 전자 장치(101)는 디스플레이(140)의 종횡 비를, 전자 장치(101)로부터 출력되는 콘텐트에 적합한 종횡 비로 변경할 수 있다. 예를 들어, 상기 종횡 비는, 4.5 : 3, 16 : 9, 21 : 9 중에서 선택될 수 있다.
일 실시 예에 따른, 전자 장치(101)는, 하나 이상의 센서들(예, 홀 센서)을 이용하여, 상태들(200, 205), 및 상태들(200, 205) 사이의 중각 상태 중에서, 전자 장치(101)의 현재 형태에 대응하는 상태를 식별할 수 있다. 전자 장치(101)가 홀 센서를 포함하는 일 실시 예에서, 상기 홀 센서에 포함된 자석이 제2 하우징(212) 내에, 상기 홀 센서에 포함된 하나 이상의 자기 센서들이 제1 하우징(211) 내에 배치될 수 있다. 상기 일 실시 예에서, 상기 하나 이상의 자기 센서들 각각에 의하여 식별되고, 상기 자석에 의하여 발생된, 자계의 크기가, 제1 하우징(211), 및 제2 하우징(212) 사이의 위치 관계에 따라 변경될 수 있다. 상기 일 실시 예에서, 전자 장치(101)는, 상기 하나 이상의 자기 센서들에 의하여 식별되는 상기 자계의 크기에 기반하여, 전자 장치(101)의 형태를 식별할 수 있다. 전자 장치(101)가 상기 형태를 식별하는 것은, 전자 장치(101)의 프로세서(예, 도 1의 프로세서(120))에서 실행되고 있는 운영 체제, 및/또는 펌 웨어에 기반하여 수행될 수 있다.
일 실시 예에 따른, 전자 장치(101)는 액추에이터(예, 도 1의 액추에이터(150))를 활성화하여, 디스플레이(140), 및/또는 전자 장치(101)의 형태를, 상태들(200, 205) 사이에서 변경할 수 있다. 일 실시 예에 따른, 전자 장치(101)는, 지정된 이벤트는, 전자 장치(101)에서 실행 중인 운영 체제, 펌 웨어, 및/또는 어플리케이션으로부터 발생된 소프트웨어 인터럽트(software interrupt, SWI)를 포함할 수 있다. 상기 소프트웨어 인터럽트는, 특정 종횡 비를 가지는 멀티미디어 콘텐트(예, 비디오)를 재생하기 위한 어플리케이션에 의해 발생될 수 있다. 상기 소프트웨어 인터럽트는, 하나 이상의 센서들에 의해 식별되는 전자 장치(101)의 위치에 기반하여 발생될 수 있다. 상기 소프트웨어 인터럽트는, 전자 장치(101), 및/또는 사용자에 의해 입력되었던 조건(예, 시간, 장소, 상황(occasion) 또는 이들의 조합으로 나타나는 조건)에 기반하여 발생될 수 있다.
일 실시 예에 따른, 디스플레이(140), 및/또는 전자 장치(101)의 형태를 변경하기 위한 지정된 이벤트는, 사용자의 제스쳐에 기반하여 발생될 수 있다. 예를 들어, 상기 지정된 이벤트는, 디스플레이(140) 상에서 수행되는 제스쳐에 의해 발생될 수 있다. 상기 제스쳐는, 핀치-투-줌 제스쳐, 스와이프 제스쳐, 드래그 제스쳐, 또는 디스플레이(140) 상에 표시된 지정된 시각적 객체(예, 종횡 비가 표시된 아이콘)를 탭하는 제스쳐 중 적어도 하나를 포함할 수 있다. 예를 들어, 상기 제스쳐는, 전자 장치(101)의 하우징(210)의 일부분에서 외부로 노출된 버튼(220)을 누르는 제스쳐에 의해 발생될 수 있다.
일 실시 예에 따른, 전자 장치(101)는, 디스플레이(140), 및/또는 전자 장치(101)의 형태를 변경하기 위한 입력을 수신하기 위한 버튼(220)을 포함할 수 있다. 도 2a 내지 도 2b를 참고하면, 전자 장치(101)의 하우징(210)의 적어도 일부분에서 외부로 노출된 버튼(220)이 도시된다. 상기 버튼(220)을 누르는 제스쳐를 식별하는 것에 응답하여, 전자 장치(101)는 사용자에 의한 상기 입력을 식별할 수 있다. 버튼(220)이 복수의 기능들(예, 전원 관리 기능, 및/또는 지문 인식 기능)에 매핑되는 일 실시 예에서, 전자 장치(101)는 버튼(220)을 누르는 압력, 외부 객체(예, 사용자의 손 끝)가 버튼(220)에 접촉되는 기간(duration), 및/또는 버튼(220)이 눌리는 기간(duration)에 기반하여, 상기 입력을 식별할 수 있다. 예를 들어, 버튼(220)을 지정된 기간(예, 5초)을 초과하여 누르는 제1 제스쳐가, 전자 장치(101)를 켜거나, 또는 끄는 입력에 매칭될 수 있다. 상기 예시에서, 상기 버튼(220)을 상기 지정된 기간 보다 짧게 누르는 제2 제스쳐가, 상기 형태를 변경하기 위한 입력에 매칭될 수 있다.
도 2a의 일 실시 예를 참고하면, 버튼(220)은 제2 하우징(212)의 상 면을 통해 외부로 노출될 수 있다. 도 2b를 참고하면, 버튼(220)은, 제2 하우징(212)의 측 면을 통해 외부로 노출될 수 있다. 버튼(220)의 위치가 도 2a, 및/또는 도 2b의 예시들에 제한되는 것은 아니다.
일 실시 예에 따른, 디스플레이(140), 및/또는 전자 장치(101)의 형태를 변경하기 위한 지정된 이벤트는, 전자 장치(101)가 지정된 단어, 및/또는 문장을 포함하는 음성 신호를 수신하는 것에 기반하여 발생될 수 있다. 비록 도시되지 않았지만, 전자 장치(101)는 하나 이상의 마이크들을 이용하여, 상기 음성 신호를 획득할 수 있다. 상기 지정된 이벤트는, 전자 장치(101)가 외부 전자 장치(예, 전자 장치(101)와 무선으로 연결된, 리모컨, 및/또는 디지타이저와 같은 포인팅 장치)로부터 무선 신호를 수신하는 것에 응답하여 발생될 수 있다. 상기 무선 신호는, 상기 외부 전자 장치를 통해 식별된 사용자의 제스쳐에 기반하여, 상기 외부 전자 장치로부터 전자 장치(101)로 송신될 수 있다. 상기 외부 전자 장치에 의하여 식별되는 상기 제스쳐는, 예를 들어, 상기 외부 전자 장치의 지정된 궤적(trajectory)을 따르는 움직임, 및/또는 상기 외부 전자 장치의 버튼을 누르는 제스쳐 중 적어도 하나를 포함할 수 있다. 상기 궤적은, 경로(path)로 참조될 수 있다.
일 실시 예에 따른, 전자 장치(101)는, 디스플레이(140), 및/또는 전자 장치(101)의 형태를 변경하기 위한 지정된 이벤트에 응답하여, 상태들(200, 205), 및 상태들(200, 205) 사이의 중간 상태 중에서 식별되는 전자 장치(101)의 현재 형태에 기반하여, 액추에이터를 제어할 수 있다. 상기 액추에이터의 제어에 기반하여, 표시 영역의 너비, 및/또는 높이와 같은 크기, 및/또는 면적이 조절될 수 있다. 도 2a 내지 도 2b를 참고하면, 상태(200)와 같은 롤-인 상태 내에서, 상기 표시 영역의 면적이 최소화되고, 상태(205)와 같은 롤-아웃 상태 내에서, 상기 표시 영역의 면적이 최대화될 수 있다. 일 실시 예에 따른, 전자 장치(101)는, 콘텐트(예, 이미지)를 디스플레이(140) 상에 형성된 상기 표시 영역 내에 표시하는 동안, 상기 표시 영역의 변경을 식별할 수 있다. 상기 표시 영역의 크기, 및/또는 면적이 변경됨에 따라, 전자 장치(101)는, 상기 콘텐트 내에서, 적어도 일부분을 식별하여 이동할 수 있다. 전자 장치(101)는 상기 콘텐트의 적어도 일부분을 이동하여 화면 내에 표시함으로써, 전자 장치(101)의 사용자 경험을 강화할 수 있다.
상술한 바와 같이, 일 실시 예에 따른, 전자 장치(101)는, 상태들(200, 205) 내에서 상기 전자 장치(101), 및/또는 디스플레이(140)의 변형에 의한 표시 영역의 확대, 또는 축소를 식별할 수 있다. 상기 표시 영역의 축소를 식별하는 것에 응답하여, 전자 장치(101)는, 상기 콘텐트의 적어도 일부분의 표시를 유지할 수 있다. 전자 장치(101)는, 상기 콘텐트의 적어도 일부분의 표시를 유지함으로써, 전자 장치(101)의 사용자 경험을 강화할 수 있다.
이하에서는, 도 4a를 참고하여, 일 실시 예에 따른, 전자 장치(101)의 표시 영역의 변화에 따라 표시되는 이미지를 이동하는 동작이 설명된다.
도 3a는, 일 실시 예에 따른, 전자 장치의 표시 영역의 변화에 따른 화면의 일 예를 도시한다. 도 3b는, 일 실시 예에 따른, 전자 장치의 표시 영역의 변화에 따른 화면의 일 예를 도시한다. 도 3c는, 일 실시 예에 따른, 전자 장치의 표시 영역의 변화에 따른 화면의 일 예를 도시한다. 도 3d는, 일 실시 예에 따른, 전자 장치의 표시 영역의 변화에 따른 화면의 일 예를 도시한다. 도 3a, 도 3b, 도 3c, 및/또는 도 3d의 전자 장치(101)는, 도 1, 도 2a, 및/또는 도 2b의 전자 장치(101)의 일 예일 수 있다. 도 3a, 도 3b, 도 3c, 및/또는 도 3d의 디스플레이(140)는, 도 1, 도 2a, 및/또는 도 2b의 디스플레이(140)의 일 예일 수 있다. 도 3a, 도 3b, 도 3c, 및/또는 도 3d의 동작들은, 도 1의 프로세서(120)에 의해 실행될 수 있다.
도 3a 내지 도 3d를 참조하면, 일 실시 예에 따른, 전자 장치(101)는, 제1 하우징(211), 및 상기 제1 하우징(211)에 대하여 이동가능한 제2 하우징(212)을 포함할 수 있다. 전자 장치(101)는, 제1 하우징(211) 밖으로 노출된 디스플레이(140)를 통해 화면을 표시할 수 있다. 전자 장치(101)는, 상기 제2 하우징(212)의 이동에 따라, 연장되거나 감소되는 표시 영역을 포함하는 디스플레이(140)를 포함할 수 있다. 전자 장치(101)는, 제2 하우징(212)의 이동에 기반하여, 상기 디스플레이(140)를 통해 표시되는 표시 영역의 사이즈를 조절할 수 있다.
일 실시 예에 따른, 전자 장치(101)는, 디스플레이(140)의 표시 영역 내에 화면(310)을 표시할 수 있다. 전자 장치(101)는, 상기 표시 영역 내에 콘텐트를 표시할 수 있다. 전자 장치(101)는, 상기 콘텐트를 표시하는 동안, 상기 콘텐트의 속성(attribute)을 식별할 수 있다. 예를 들어, 전자 장치(101)는, 상기 콘텐트의 속성을, 상기 콘텐트의 적어도 일부에 기반하여 식별할 수 있다. 예를 들어, 전자 장치(101)는, 화면(310) 내에 표시된 상기 콘텐트의 적어도 일부에 기반하여, 상기 콘텐트의 속성을 식별할 수 있다.
예를 들어, 상기 콘텐트의 속성은, 상기 콘텐트가 하나의(single) 이미지, 또는 비디오를 포함하는 경우, 전자 장치(101)에 의해 제1 속성으로 분류될 수 있다. 예를 들어, 상기 콘텐트의 속성은, 상기 콘텐트가 이미지, 비디오, 또는 텍스트 중에서 텍스트를 포함하는 경우(예, 텍스트 파일과 같은 문서), 전자 장치(101)에 의해 제2 속성으로 분류될 수 있다. 예를 들어, 상기 콘텐트의 속성은, 웹 페이지, 및/또는 멀티 미디어와 관련된 어플리케이션과 같은 스크롤 뷰를 포함하는 경우, 전자 장치(101)에 의해 제3 속성으로 분류될 수 있다. 예를 들어, 제3 속성으로 분류된 콘텐트는, 적어도 하나의 컨테이너를 포함할 수 있다. 예를 들어, 상기 적어도 하나의 컨테이너는, 상기 스크롤 뷰 내에서 반복적으로 표시되는 이미지, 및/또는 텍스트의 그룹일 수 있다. 예를 들어, 상기 콘텐트의 속성은, 표시 영역의 사이즈 별로 상이한 레이아웃을 가지는 유저 인터페이스(user interface, UI)를 포함하는 경우, 전자 장치(101)에 의해 제4 속성으로 분류될 수 있다. 콘텐트의 속성은, 상술한 바에 의해 제한되지 않는다.
도 3a를 참조하면, 일 실시 예에 따른, 전자 장치(101)는, 상기 예시된 제1 속성의 콘텐트에 기반하여, 표시 영역 내에 하나의 이미지, 또는 비디오를 표시할 수 있다. 예를 들어, 전자 장치(101)는, 상태(300)와 같이 제2 하우징(212)이 제1 하우징(211) 내에 인입된 슬라이드-인 상태(300) 내에서, 콘텐트의 속성을 식별할 수 있다. 예를 들어, 전자 장치(101)는, 상기 상태(300) 내에서, 화면(310) 내에 표시된 콘텐트가 제1 속성에 대응함을 식별할 수 있다. 예를 들어, 전자 장치(101)는, 상기 상태(300) 내에서, 상기 이미지, 및/또는 비디오의 중심 점을 표시 영역의 중심 점에 매칭하여 표시할 수 있다. 예를 들어, 전자 장치(101)는, 상기 표시 영역 내에 상기 이미지, 및/또는 비디오의 제1 부분(320)을 표시할 수 있다. 전자 장치(101)는, 상기 제1 부분(320)을 표시하는 동안, 표시 영역의 사이즈가 연장되는 것을 식별할 수 있다.
일 실시 예에 따른, 전자 장치(101)는, 상태(300) 내에서, 이미지, 및/또는 비디오의 중심 점을 표시 영역의 중심 점에 매칭하여 표시하는 동안, 상기 상태(305)로 변경되는 것을 식별할 수 있다. 예를 들어, 상기 상태(305)는, 제2 하우징(212)이 제1 하우징(211)으로부터 인출된 슬라이드-아웃 상태를 포함할 수 있다. 예를 들어, 전자 장치(101)는, 상태(300) 내에서 상태(305)로 변경되는 동안, 상기 콘텐트의 중심 점을, 상기 표시 영역의 중심 점에 매칭하여 표시할 수 있다. 예를 들어, 전자 장치(101)는, 상기 상태(305)로 변경된 것에 기반하여, 상기 콘텐트의 제1 부분(320)과 함께, 상기 제1 부분(320)에 연결된 제2 부분(330)을 표시할 수 있다. 예를 들어, 상기 제2 부분(330)은, 제1 서브-영역(330-1)(sub-area)과 같이 상기 제1 부분(320)의 제1 가장자리에 연결된 서브-영역, 및 제2 서브-영역(330-2)과 같이 상기 제1 부분(320)의 제2 가장자리에 연결된 서브-영역을 포함할 수 있다.
일 실시 예에 따른, 전자 장치(101)는, 제1 속성의 콘텐트 내에서 적어도 하나의 시각적 객체(예, 사람)를 식별할 수 있다. 전자 장치(101)는, 상기 적어도 하나의 시각적 객체를 식별한 것에 기반하여, 상기 적어도 하나의 시각적 객체의 중심 점을 표시 영역의 중심 점에 매칭하여 표시할 수 있다.
일 실시 예에 따른, 전자 장치(101)는, 콘텐트를 표시 영역 내에 표시하는 동안 적어도 하나의 이미지를 식별한 상태와 상이한 상태를 식별할 수 있다. 예를 들어, 적어도 하나의 이미지를 식별한 상태와 상이한 상태는, 표시 영역 내에 텍스트만 표시된 상태를 포함할 수 있다. 예를 들어, 표시 영역 내에 텍스트만은 표시하는 콘텐트는, 전자 장치(101)에 의해 제2 속성의 콘텐트로 분류될 수 있다. 전자 장치(101)는, 상기 제2 속성의 콘텐트에 기반하여, 상기 표시 영역의 사이즈가 연장되는 것을 식별할 수 있다. 전자 장치(101)는, 상기 표시 영역의 사이즈가 연장되는 동안, 상기 콘텐트를 이동하여 표시하거나, 또는 상기 표시 영역 내에 표시되지 않은 콘텐트의 부분을 표시할 수 있다. 예를 들어, 전자 장치(101)는, 상기 콘텐트의 일 가장자리(예, 콘텐트의 시작 점, 또는 콘텐트의 종료 점)와 상기 표시 영역이 매칭되는 때에, 상기 표시 영역 내에 표시되지 않은 콘텐트의 부분을 표시할 수 있다. 상기 제2 속성의 콘텐트에 기반하여 화면(310)을 표시하는 것은, 후술되는 도 3b, 및/또는 도 3c의 동작과 실질적으로 동일할 수 있다.
도 3b, 및 도 3c를 참조하면, 일 실시 예에 따른, 전자 장치(101)는, 상기 제3 속성의 콘텐트에 기반하여, 표시 영역 내에, 스크롤 뷰를 포함하는 화면(310)을 표시할 수 있다. 예를 들어, 상기 제3 속성의 콘텐트는, 상기 콘텐트 내에 포함된 웹 페이지, 및/또는 멀티 미디어와 관련된 어플리케이션에 의해 제공되는 스크롤 뷰를 포함하는 콘텐트를 포함할 수 있다. 전자 장치(101)는, 상기 제3 속성의 콘텐트에 기반하여, 상기 콘텐트 내에 포함된 적어도 하나의 컨테이너를 화면(310) 내에 표시할 수 있다. 예를 들어, 전자 장치(101)는, 상태(300) 내에서, 화면(310) 내에 표시된 콘텐트가 제3 속성에 대응함을 식별할 수 있다. 전자 장치(101)는, 상기 제3 속성에 대응하는 콘텐트를 식별한 상태 내에서, 상기 콘텐트를 표시 영역 내에서 이동할 수 있다. 전자 장치(101)는, 상기 제3 속성에 대응하는 콘텐트를 식별한 상태 내에서, 상기 콘텐트를 표시 영역 내에서 고정하여 제1 부분(340, 360), 및 제2 부분(350, 370)을 표시할 수 있다.
예를 들어, 상기 스크롤 뷰는, 적어도 하나의 컨테이너를 포함할 수 있다. 예를 들어, 상기 적어도 하나의 컨테이너는, 상기 스크롤 뷰 내에 포함된 컨텐츠의 적어도 일부일 수 있다. 예를 들어, 상기 적어도 하나의 컨테이너는, 상기 스크롤 뷰 내에 포함된 시각적 객체들을 구분하기 위한 영역으로 참조될 수 있다. 예를 들어, 전자 장치(101)는, 상기 적어도 하나의 컨테이너 중 적어도 일부에 대한 입력을 수신할 수 있다. 전자 장치(101)는, 상기 적어도 하나의 컨테이너 중 적어도 일부에 대한 입력을 수신한 것에 기반하여, 상기 입력에 매칭되는 동작을 수행할 수 있다.
도 3b를 참조하면, 일 실시 예에 따른, 전자 장치(101)는, 제3 속성의 콘텐트에 기반하여, 표시 영역 내에 콘텐트의 적어도 일부인 제3 부분(340)을 표시할 수 있다. 예를 들어, 전자 장치(101)는 상기 제3 부분(340)을 표시하는 동안, 표시 영역의 사이즈가 연장되는 것을 식별할 수 있다. 전자 장치(101)는, 상기 표시 영역의 사이즈의 연장에 기반하여, 상기 콘텐트의 제3 부분(340)에 연결된 제4 부분(350)을 표시할 수 있다. 예를 들어, 전자 장치(101)는, 상기 콘텐트 내에 포함된 컨테이너를 포함하는 제3 부분(340)의 표시 영역 내에서의 위치를 유지할 수 있다. 예를 들어, 전자 장치(101)는, 상기 제3 부분(340)의 일 가장자리가 제1 하우징(211)의 일 가장자리에 위치한 상태 내에서, 상기 제3 부분(340)에 연결된 제4 부분(350)을, 상기 제3 부분(340)과 함께 표시할 수 있다.
예를 들어, 전자 장치(101)는, 제2 하우징(212)이 이동하는 것에 기반하여, 표시 영역의 사이즈가 연장되는 것을 식별할 수 있다. 전자 장치(101)는, 상기 제2 하우징(212)이 이동하는 동안, 상기 콘텐트를 상기 제2 하우징(212)이 이동하는 방향에 매칭되는 방향으로 이동할 수 있다. 전자 장치(101)는, 상기 제2 하우징(212)이 이동하는 방향에 매칭되는 방향으로 이동하여, 상기 콘텐트의 제4 부분(350)을 제3 부분(340)과 함께 표시할 수 있다.
도 3c를 참조하면, 일 실시 예에 따른, 전자 장치(101)는, 제3 속성의 콘텐트의 적어도 일부인 제5 부분(360)을 화면(310) 내에 표시할 수 있다. 전자 장치(101)는, 상기 제5 부분(360)을 표시하는 동안, 표시 영역의 사이즈가 연장되는 것을 식별할 수 있다. 전자 장치(101)는, 상기 표시 영역의 사이즈의 연장에 기반하여, 상기 콘텐트의 제5 부분(360)에 연결된 제6 부분(370)을 표시할 수 있다. 예를 들어, 전자 장치(101)는, 상기 제5 부분(360)의 표시 영역 내에서의 위치를 고정한 상태 내에서, 상기 제5 부분(360)과 상이한 제6 부분(370)을 표시할 수 있다.
도 3d를 참조하면, 일 실시 예에 따른, 전자 장치(101)는, 표시 영역의 사이즈가 최소 사이즈를 가지는 상태(301)(예, 슬라이드-인 상태)를 식별할 수 있다. 전자 장치(101)는, 상태(301) 내에서, 화면(310) 내에 표시된 콘텐트의 속성 식별할 수 있다. 전자 장치(101)는, 상기 콘텐트에 기반하여 표시되는 화면(310)을 식별할 수 있다. 예를 들어, 전자 장치(101)는, 상태(301) 내에서, 제4 속성의 콘텐트를 화면(310) 내에 표시할 수 있다. 상기 제4 속성의 콘텐트는, 표시 영역의 사이즈 별로 상이한 레이아웃을 가지는 유저 인터페이스를 포함할 수 있다.
예를 들어, 전자 장치(101)는, 제1 유저 인터페이스인 상기 유저 인터페이스 내에서 화면(310)을 표시하는 상태(301) 내에서, 표시 영역의 사이즈가 연장되는 것을 식별할 수 있다. 전자 장치(101)는, 상기 표시 영역의 사이즈의 연장이 완료된 상태(306)(예, 슬라이드-아웃 상태)를 식별할 수 있다. 전자 장치(101)는, 상기 표시 영역이 연장이 완료된 것에 기반하여, 상기 제1 유저 인터페이스와 상이한 제2 유저 인터페이스에 기반하여, 화면(310)을 표시할 수 있다. 상기 제2 유저 인터페이스는, 상기 제1 유저 인터페이스와 상이한 정보를 포함할 수 있다.
일 실시 예에 따른, 전자 장치(101)는, 제1 유저 인터페이스를 표시한 화면을, 제2 유저 인터페이스를 표시하는 화면으로 변경할 수 있다. 전자 장치(101)는, 상기 제1 유저 인터페이스를 표시한 화면을, 상기 제2 유저 인터페이스를 표시한 화면으로 변경하는 동안, 화면(310)의 알파 값(alpha value)를 조절하여, 화면(310)을 변경할 수 있다. 상기 알파 값은, 화면(310)의 투명도를 의미할 수 있다. 예를 들어, 상기 알파 값이 높을수록, 화면(310)이 선명하게 표시될 수 있다. 예를 들어, 전자 장치(101)는, 상기 알파 값을 조절하여 유저 인터페이스를 변경할 때에, 페이드-인, 및/또는 페이드-아웃과 같은 동작을 수행할 수 있다.
상술한 바와 같이, 일 실시 예에 따른, 전자 장치(101)는, 콘텐트의 속성을 식별할 수 있다. 전자 장치(101)는, 표시 영역이 연장될 때에, 상기 콘텐트의 속성에 기반하여, 표시 영역 내에 표시된 콘텐트를 이동하거나, 상기 콘텐트의 표시를 유지할 수 있다. 전자 장치(101)는, 상기 콘텐트의 속성에 따라, 상기 표시 영역이 변경될 때에, 상기 콘텐트를 상이한 방법으로 표시할 수 있다. 예를 들어, 상기 상이한 방법으로 표시되는 콘텐트는, 복수의 유저 인터페이스들을 제공하는 콘텐트를 포함할 수 있다. 전자 장치(101)는, 콘텐트의 속성에 따라 표시 방법을 상이하게 선택함으로써, 전자 장치(101)의 사용자 경험을 강화할 수 있다.
도 4a는, 일 실시 예에 따른, 전자 장치의 표시 영역의 변화에 따른 화면의 일 예를 도시한다. 도 4a의 전자 장치(101)는, 도 1, 도 2a,도 2b, 도 3a, 도 3b, 도 3c, 및/또는 도 3d의 전자 장치(101)의 일 예일 수 있다. 도 4a의 디스플레이(140)는, 도 1, 도 2a, 도 2b, 도 3a, 도 3b, 도 3c, 및/또는 도 3d의 디스플레이(140)의 일 예일 수 있다.
도 4a를 참고하면, 일 실시 예에 따른, 전자 장치(101)는, 제1 하우징(211), 및 제2 하우징(212)을 포함할 수 있다. 제2 하우징(212)은, 제1 하우징(211)에 대하여 이동가능할 수 있다. 전자 장치(101)는, 제1 하우징(211) 밖으로 노출된, 표시 영역을 포함할 수 있다. 전자 장치(101)는, 제2 하우징(212)이 인출된 슬라이드-아웃 상태 내에서, 제1 사이즈를 가지는 표시 영역을 포함할 수 있다. 예를 들어, 제1 사이즈는, 상기 표시 영역의 최대 사이즈일 수 있다. 전자 장치(101)는, 상기 표시 영역이 제1 사이즈를 가지는 동안 이미지를 표시할 수 있다. 전자 장치(101)는, 상기 이미지가 제1 사이즈를 가지는 표시 영역 내에서 표시되는 동안, 상기 표시 영역의 사이즈를 상기 제1 사이즈로부터 제2 사이즈로 변경함을 나타내는 입력을 수신할 수 있다. 상기 제2 사이즈는, 슬라이드-인 상태의 표시 영역의 사이즈를 포함할 수 있다. 상기 제2 사이즈는, 상기 표시 영역의 최소 사이즈일 수 있다. 상기 입력은, 핀치-투-줌 제스쳐, 스와이프 제스쳐, 드래그 제스쳐, 또는 디스플레이(140) 상에 표시된 지정된 시각적 객체(예, 종횡 비가 표시된 아이콘)를 탭하는 제스쳐 중 적어도 하나는 포함할 수 있다. 예를 들어, 상기 입력은, 전자 장치(101)의 하우징(210)의 일부분에서 외부로 노출된 버튼(예, 도 2의 버튼(220))을 누르는 제스쳐를 포함할 수 있다.
일 실시 예에 따른, 전자 장치(101)는, 제1 속성의 콘텐트를 식별한 것에 기반하여, 상기 제1 속성의 콘텐트 내에 포함된 객체를 식별할 수 있다. 예를 들어, 전자 장치(101)는, 표시 영역 내에 하나의 이미지, 또는 비디오를 포함한 제1 속성의 콘텐트를 식별할 수 있다. 전자 장치(101)는, 이미지를 표시하는 동안, 객체(420)를 식별할 수 있다. 상기 객체(420)는, 피사체로 참조될 수 있다. 일 실시 예에 따른, 전자 장치(101)는, 메타 데이터로부터 이미지 내 피사체를 식별한 정보를 획득할 수 있다. 전자 장치(101)는, 상기 정보에 기반하여, 이미지 내 피사체가 캡쳐된 영역을 식별할 수 있다. 일 실시 예에 따른, 전자 장치(101)는, 상기 객체(420)를 식별한 상태 내에서, 상기 입력을 수신할 수 있다. 일 실시 예에 따른, 전자 장치(101)는, 상기 입력에 응답하여, 제2 하우징(212)을 이동할 수 있다. 예를 들어, 전자 장치(101)는, 상기 입력에 응답하여 제2 하우징(212)을 제1 방향(a)으로 이동할 수 있다. 상기 제2 하우징(212)이 제1 방향(a)으로 이동하는 동안, 전자 장치(101)는, 상기 이미지를 이동할 수 있다. 예를 들어, 전자 장치(101)는, 상기 이미지를 제2 방향(b)으로 이동할 수 있다. 예를 들어, 제2 방향(b)은, 제1 방향(a)에 반대일 수 있다. 전자 장치(101)는, 상기 이미지를 제2 방향(b)으로 이동함으로써, 상기 이미지 내에 포함된 객체(420)를 화면(310) 내에 표시할 수 있다. 예를 들어, 전자 장치(101)는, 상기 객체(420)를 포함하는 상기 이미지의 일부(430)를 식별할 수 있다. 전자 장치(101)는, 상기 이미지를 제2 방향(b)으로 이동함으로써, 객체(420)를 포함하는, 상기 이미지의 일부(430)의 표시를 유지할 수 있다.
일 실시 예에 따른, 전자 장치(101)는, 상기 사이즈가 제1 사이즈로부터 제2 사이즈로의 변경이 완료된 것을 식별할 수 있다. 예를 들어, 전자 장치(101)는, 상기 사이즈의 상기 변경의 완료에 응답하여, 제2 방향(b)으로의 상기 이동이 중단된 이미지의 일부(430)를 표시할 수 있다. 전자 장치(101)는, 제2 사이즈를 가지는 표시 영역 내에 미리 결정된 부분 영역 내에서, 상기 이미지의 일부(430)를 표시할 수 있다. 예를 들어, 제2 사이즈를 가지는 표시 영역 내에 미리 결정된 부분 영역은, 상기 표시 영역의 제1 가장자리(440), 및 상기 제1 가장자리(440) 보다 짧은 제2 가장자리(450) 중 상기 제1 가장자리(440)의 중점을 포함할 수 있다. 예를 들어, 제1 가장자리(440)는, 디스플레이(140)의 경계인 변들 중에서, 상대적으로 긴 변에 매칭될 수 있다. 예를 들어, 제2 가장자리(450)는, 디스플레이(140)의 경계인 변들 중에서 상대적으로 짧은 변에 매칭될 수 있다.
상술한 바와 같이, 일 실시 예에 따른, 전자 장치(101)는, 전자 장치(101)의 상태가 슬라이드-아웃 상태로부터 슬라이드-인 상태로 변경되는 동안, 디스플레이(140)의 화면(310) 내에 표시된 이미지를 이동할 수 있다. 전자 장치(101)는, 상기 이미지 내에 포함된 객체(420)를 탐지한 상태 내에서, 상기 이미지를 이동할 수 있다. 전자 장치(101)는, 상기 이미지를 이동하여, 상기 객체(420)를 화면(310) 내에 표시하는 것을 유지함으로써, 전자 장치(101)의 사용자 경험을 강화할 수 있다.
도 4b는, 일 실시 예에 따른, 전자 장치의 표시 영역의 변화에 따른 화면의 일 예를 도시한다. 도 4b의 전자 장치(101)는, 도 1, 도 2a, 도 2b, 도 3a, 도 3b, 도 3c, 도 3d, 및/또는 도 4a의 전자 장치(101)의 일 예일 수 있다. 도 4b의 디스플레이(140)는, 도 1, 도 2a, 도 2b, 도 3a, 도 3b, 도 3c, 도 3d, 및/또는 도 4a의 디스플레이(140)의 일 예일 수 있다.
도 4b를 참고하면, 일 실시 예에 따른, 전자 장치(101)는, 표시 영역 내에 하나의 이미지, 및/또는 비디오를 포함하는, 제1 속성의 콘텐트를 식별할 수 있다. 전자 장치(101)는, 디스플레이(140)의 화면(310) 내에 표시된 이미지(460)를 식별할 수 있다. 전자 장치(101)는, 상기 화면(310) 내에 표시된 이미지(460) 내에 객체(예, 도 4a의 객체(420))를 식별한 상이한 상태(예, 객체를 식별하지 못한 상태)를 식별할 수 있다. 일 실시 예에 따른, 전자 장치(101)는, 피사체가 캡쳐된 이미지의 일부를 식별한 상태와 상이한 상태(예, 피사체를 식별하지 못한 상태) 내에서, 표시 영역의 사이즈를 변경하기 위한 입력을 수신할 수 있다. 일 실시 예에 따른, 전자 장치(101)는, 상기 입력에 응답하여, 표시 영역을 제1 사이즈(예, 표시 영역의 최대 사이즈)로부터 제2 사이즈(예, 표시 영역의 최소 사이즈)로 변경할 수 있다. 상기 표시 영역은, 상기 제1 사이즈로부터 상기 제2 사이즈로 제2 하우징(212)의 이동에 기반하여 변경될 수 있다. 예를 들어, 전자 장치(101)는, 상기 입력에 기반하여, 제2 하우징(212)을 이동하여 표시 영역을 축소할 수 있다. 예를 들어, 제1 방향(a)으로의 제2 하우징(212)의 이동에 기반하여, 상기 표시 영역이 축소될 수 있다.
일 실시 예에 따른, 전자 장치(101)는, 제2 하우징(212)의 이동에 따라 제1 사이즈로부터 제2 사이즈로 상기 표시 영역의 사이즈가 변경되는 동안, 이미지를 이동할 수 있다. 예를 들어, 전자 장치(101)는, 상기 이미지의 제1 가장자리, 및 상기 제1 가장자리 보다 짧은 제2 가장자리 중 상기 제1 가장자리의 중점을 상기 표시 영역의 미리 결정된 부분 영역으로 이동할 수 있다. 상기 미리 결정된 부분 영역은, 상기 디스플레이(140)에 표시된 화면(310)의 상대적으로 긴 변의 중점을 포함하는 영역일 수 있다.
상술한 바와 같이, 일 실시 예에 따른, 전자 장치(101)는, 식별된 이미지에 피사체가 캡쳐 되지 않은 상태 내에서, 상기 이미지를 이동할 수 있다. 전자 장치(101)는, 상기 이미지를 이동하여, 디스플레이(140)의 화면(310) 내에 표시할 수 있다. 예를 들어, 전자 장치(101)는, 제2 하우징(212)이 제1 방향(a)으로 이동하여 표시 영역이 축소되는 동안, 상기 이미지를 제2 방향(b)으로 이동하여 화면(310) 내에 표시할 수 있다. 전자 장치(101)는, 제2 방향(b)으로 상기 이미지를 이동함으로써, 상기 이미지의 중심을 표시 영역의 미리 결정된 부분 영역에 위치시킬 수 있다. 상기 이미지의 중심은, 상기 이미지의 제1 가장자리의 중심에서 수직인 직선, 및 상기 이미지의 제2 가장자리의 중심에서 수직인 직선 사이의 교점을 포함할 수 있다. 전자 장치(101)는, 상기 이미지를 표시 영역의 미리 결정된 부분 영역 내에 표시함으로써, 전자 장치(101)의 사용자 경험을 강화할 수 있다.
도 5는, 일 실시 예에 따른, 전자 장치의 표시 영역의 변화에 따른 화면의 일 예를 도시한다. 도 5의 전자 장치(101)는, 도 1, 도 2a, 도 2b, 도 3a, 도 3b, 도 3c, 도 3d, 도 4a, 및/또는 도 4b의 전자 장치(101)의 일 예일 수 있다. 도 5의 디스플레이(140)는, 도 1, 도 2a, 도 2b, 도 3a, 도 3b, 도 3c, 도 3d, 도 4a, 및/또는 도 4b의 디스플레이(140)의 일 예일 수 있다.
도 5를 참고하면, 일 실시 예에 따른, 전자 장치(101)는, 디스플레이(140)의 화면(310) 내에 이미지를 표시할 수 있다. 전자 장치(101)는, 화면(310) 내에 표시된 콘텐트의 속성을 식별할 수 있다. 전자 장치(101)는, 상기 콘텐트의 속성이 제1 속성(예, 하나의 이미지, 및/또는 비디오를 표시 영역 내에 표시한 콘텐트의 속성)인 것을 식별할 수 있다. 전자 장치(101)는, 상기 제1 속성의 콘텐트를 식별한 것에 기반하여, 상기 콘텐트 내에서 복수의 객체들(510, 520)을 식별할 수 있다. 전자 장치(101)는, 상기 이미지 내에서, 복수의 객체들(510, 520)을 식별할 수 있다. 상기 복수의 객체들(510, 520)은, 피사체들로 참조될 수 있다. 전자 장치(101)는, 상기 복수의 객체들(510, 520)을 식별한 상태 내에서, 상기 복수의 객체들(510, 520)을 포함하는 복수의 영역들(515, 525)을 식별할 수 있다. 상기 복수의 객체들(510, 520)은, 제1 객체(510), 및 제2 객체(520)를 포함할 수 있다. 상기 제1 객체(510)는, 제2 객체(520)와 상이할 수 있다. 제1 객체(510)를 포함하는 제1 영역(515)은, 제2 객체(520)를 포함하는 제2 영역(525)과 상이할 수 있다. 예를 들어, 제1 영역(515)은, 제1 객체(510)를 포함할 수 있다. 예를 들어, 제2 영역(525)은, 제2 객체(520)를 포함할 수 있다. 일 실시 예에 따른, 전자 장치(101)는, 상기 복수의 영역들(515, 525)을 포함하는, 영역(530)을 지정할 수 있다(may designate). 도면에 도시되지 않았지만, 복수의 객체들의 개수는 제한되지 않는다. 일 실시 예에 따른, 전자 장치(101)는, 메타 데이터로부터 이미지 내 피사체를 식별한 정보를 획득할 수 있다. 전자 장치(101)는, 상기 정보에 기반하여, 이미지 내 피사체가 캡쳐된 영역을 식별할 수 있다.
일 실시 예에 따른, 전자 장치(101)는, 영역(530)을 나타내는 정보를 획득할 수 있다. 상기 정보는, 영역(530)의 일 모서리의 좌표(예, x 좌표, 및 y 좌표), 영역(530)의 너비, 또는 높이 중 적어도 하나를 나타내는 파라미터들을 포함할 수 있다. 예를 들어, 영역(530)을 나타내는 정보를 획득하기 위해, 전자 장치(101)는, 제1 영역(515)의 일 모서리의 좌표, 제1 영역(515)의 너비 또는 높이 중 적어도 하나를 포함하는 파라미터들, 및 제2 영역(525)의 일 모서리의 좌표, 제2 영역(525)의 너비 또는 높이 중 적어도 하나를 포함하는 파라미터들을 획득할 수 있다. 예를 들어, 전자 장치(101)는, 제1 영역(515)의 좌측 하단 모서리의 좌표, 제1 영역(515)의 너비, 및 높이를 포함하는 제1 파라미터를 획득할 수 있다. 전자 장치(101)는, 제2 영역(525)의 좌측 하단 모서리의 좌표, 제2 영역(525)의 너비, 및 높이를 포함하는 제2 파라미터를 획득할 수 있다. 전자 장치(101)는, 상기 제1 파라미터 및 상기 제2 파라미터에 기반하여, 영역(530)을 지정하기 위한 제3 파라미터를 획득할 수 있다. 전자 장치(101)는, 제3 파라미터에 기반하여 영역(530)을 식별할 수 있다.
일 실시 예에 따른, 전자 장치(101)는, 상기 이미지 내에 포함된 복수의 객체들(510, 520)을 표시하는 동안, 표시 영역의 사이즈를 변경하기 위한 입력을 수신할 수 있다. 예를 들어, 전자 장치(101)는, 상기 표시 영역의 상기 사이즈를 변경하기 위한 상기 입력을 수신한 것에 응답하여, 제2 하우징(212)을 이동할 수 있다. 예를 들어, 전자 장치(101)는, 표시 영역이 제1 사이즈(예, 표시 영역의 최대 사이즈)를 가지는 동안, 상기 입력에 응답하여, 상기 표시 영역을 제2 사이즈(예, 표시 영역의 최소 사이즈)로 변경할 수 있다. 전자 장치(101)는, 상기 표시 영역의 상기 사이즈가 변경되는 동안, 영역(530)을 화면(310) 내에 표시할 수 있다. 예를 들어, 전자 장치(101)는, 상기 제2 하우징(212)의 이동에 기반하여 상기 표시 영역의 상기 사이즈가 변경되는 동안, 상기 이미지를 제2 방향(b)으로 이동하여, 상기 영역(530)의 표시를 유지할 수 있다.
일 실시 예에 따른, 전자 장치(101)는, 상기 사이즈의 상기 변경의 완료에 응답하여, 상기 영역(530)의 상기 제2 방향(b)으로의 이동을 중단할 수 있다. 예를 들어, 전자 장치(101)는, 제2 하우징(212)이 제1 방향(a)으로 이동하는 동안, 상기 이미지를 제2 방향(b)으로 이동하여 상기 표시 영역 내의 미리 결정된 부분 영역 내에서 표시할 수 있다. 예를 들어, 상기 표시 영역 내의 상기 미리 결정된 부분 영역은, 표시 영역의 제1 가장자리, 및 상기 제1 가장자리보다 짧은 제2 가장자리 중 제1 가장자리의 중점을 포함할 수 있다. 상기 제1 가장자리는, 상기 표시 영역의 상대적으로 긴 변에 대응할 수 있다. 예를 들어, 상기 미리 결정된 부분 영역은, 표시 영역의 중심을 포함하는 부분 영역을 포함할 수 있다. 예를 들어, 전자 장치(101)는, 상기 이미지 내에서 식별된 시각적 객체(510)의 중심 점을, 화면(310)의 적어도 일부 영역 내에서 표시할 수 있다.
상술한 바와 같이, 일 실시 예에 따른, 전자 장치(101)는, 복수의 객체들(510, 520)을 식별한 상태 내에서, 상기 복수의 객체들(510, 520)을 포함하는 영역(530)을 지정할 수 있다. 전자 장치(101)는, 제2 하우징(212)의 이동에 기반하여 표시 영역이 축소되는 동안, 상기 복수의 객체들(510, 520)을 포함하는 영역(530)을 화면(310) 내에 표시할 수 있다. 전자 장치(101)는, 상기 복수의 객체들(510, 520)을 포함하는 영역(530)을 화면 내에 표시함으로써, 전자 장치(101)의 사용자 경험을 강화할 수 있다.
도 6은, 일 실시 예에 따른, 전자 장치의 표시 영역의 변화에 따른 화면의 일 예를 도시한다. 도 6의 전자 장치(101)는, 도 1, 도 2a, 도 2b, 도 3a, 도 3b, 도 3c, 도 3d, 도 4a, 도 4b, 및/또는 도 5의 전자 장치(101)의 일 예일 수 있다. 도 6의 디스플레이(140)는, 도 1, 도 2a, 도 2b, 도 3a, 도 3b, 도 3c, 도 3d, 도 4a, 도 4b, 및/또는 도 5의 디스플레이(140)의 일 예일 수 있다.
도 6을 참고하면, 일 실시 예에 따른, 전자 장치(101)는, 제1 속성의 콘텐트를 식별한 것에 기반하여, 상기 콘텐트 내에 포함된 복수의 객체들(610, 620)를 식별할 수 있다. 전자 장치(101)는, 제1 사이즈를 가지는 표시 영역 내에 이미지를 표시할 수 있다. 전자 장치(101)는, 이미지를 표시한 상태 내에서, 상기 이미지 내에 포함된 복수의 객체들(610, 620)을 식별할 수 있다. 전자 장치(101)는, 상기 복수의 객체들(610, 620) 각각을 포함하는, 복수의 영역들(615, 625)을 식별할 수 있다. 전자 장치(101)는, 복수의 객체들(610, 620) 각각에 대응하는, 복수의 영역들(615, 625) 각각을 식별할 수 있다. 예를 들어, 제1 영역(615)은, 제1 객체(610)에 대응할 수 있다. 예를 들어, 제2 영역(625)은, 제2 객체(620)에 대응할 수 있다. 전자 장치(101)는, 복수의 영역들(615, 625) 중 더 넓은 영역을 식별할 수 있다. 예를 들어, 전자 장치(101)는, 제2 영역(625)보다 넓은 제1 영역(615)을 식별할 수 있다. 복수의 객체들, 및/또는 복수의 영역들의 수는 제한되지 않는다. 예를 들어, 전자 장치(101)는, 상기 이미지 내에 3 개 이상의 복수의 객체들을 식별하는 경우, 상기 복수의 객체들 각각에 대응하는 영역들을 식별할 수 있다. 전자 장치(101)는, 상기 복수의 객체들 각각에 대응하는 영역들 중 가장 사이즈가 큰 영역을 식별할 수 있다. 전자 장치(101)는, 제2 하우징(212)이 제1 방향(a)으로 이동하는 동안, 상기 이미지를 제2 방향(b)으로 이동하여, 상기 가장 사이즈가 큰 영역의 표시를 유지할 수 있다.
일 실시 예에 따른, 전자 장치(101)는, 표시 영역이 제1 사이즈(예, 표시 영역의 최대 사이즈)를 가지는 동안, 상기 표시 영역의 사이즈를 변경하기 위한 입력을 수신할 수 있다. 상기 입력은, 제2 하우징(212)의 일 면에 배치된 버튼(220)을 누르는 제스쳐를 포함할 수 있다. 전자 장치(101)는, 상기 입력에 응답하여, 제2 하우징(212)을 이동하여, 표시 영역을 축소할 수 있다. 예를 들어, 제2 하우징(212)은, 상기 입력에 응답하여 제1 방향(a)으로 이동할 수 있다. 전자 장치(101)는, 상기 표시 영역이 축소되는 동안, 상기 식별된 제1 영역(615)을 화면 내에 표시할 수 있다. 전자 장치(101)는, 제2 하우징(212)이 제1 방향(a)으로 이동하는 동안, 상기 제1 방향(a)에 반대인 제2 방향(b)으로 상기 이미지를 이동할 수 있다. 전자 장치(101)는, 상기 이미지를 제2 방향(b)으로 이동함으로써, 상기 이미지 내의 제1 객체(610)를 포함하는 제1 영역(615)의 표시를 유지할 수 있다.
상술한 바와 같이, 일 실시 예에 따른, 전자 장치(101)는, 복수의 객체들(610, 620)을 식별하여, 상기 복수의 객체들(610, 620) 각각에 대응하는 영역들(615, 625)을 식별할 수 있다. 전자 장치(101)는 상기 영역들(615, 625) 중 상대적으로 넓은 영역(예, 도 6의 제1 영역(615))을 식별할 수 있다. 전자 장치(101)는, 제2 하우징(212)이 제1 방향(a)으로 이동하여, 디스플레이(140)의 표시 영역을 축소할 수 있다. 전자 장치(101)는, 상기 표시 영역이 축소되는 동안, 이미지를 제2 방향(b)으로 이동함으로써, 상기 상대적으로 넓은 영역으로 식별된 영역(예, 도 6의 제1 영역(615))의 표시를 유지할 수 있다. 예를 들어, 전자 장치는, 제2 영역(625)에 비해 넓게 식별된 제1 영역(615)의 표시를 유지할 수 있다. 예를 들어, 전자 장치(101)는, 제2 하우징(212)이 이동하는 방향과 반대인(opposite to) 방향으로 상기 표시 영역 내에 표시된 이미지를 이동함으로써, 상기 표시 영역 내에서 식별된 복수의 시각적 객체들의 표시를 유지할 수 있다. 전자 장치(101)는, 상기 상대적으로 넓은 영역으로 식별된 영역의 표시를 유지함으로써, 전자 장치(101)의 사용자 경험을 강화할 수 있다.
도 7은, 일 실시 예에 따른, 전자 장치의 표시 영역의 변화에 따른 화면의 일 예를 도시한다. 도 7의 전자 장치(101)는, 도 1, 도 2a, 도 2b, 도 3a, 도 3b, 도 3c, 도 3d, 도 4a, 도 4b, 도 5, 및/또는 도 6의 전자 장치(101)의 일 예일 수 있다. 도 7의 디스플레이(140)는, 도 1, 도 2a, 도 2b, 도 3a, 도 3b, 도 3c, 도 3d, 도 4a, 도 4b, 도 5, 및/또는 도 6의 디스플레이(140)의 일 예일 수 있다.
도 7을 참고하면, 일 실시 예에 따른, 전자 장치(101)는, 표시 영역 내에 표시된 콘텐트의 속성을 식별할 수 있다. 예를 들어, 전자 장치(101)는, 웹 페이지, 및/또는 멀티 미디어와 관련된 어플리케이션과 같은 스크롤 뷰를 포함하는 콘텐트를 제3 속성으로 분류할 수 있다. 전자 장치(101)는, 상기 제3 속성의 콘텐트를 식별한 것에 기반하여, 표시 영역의 사이즈가 조절되는 것을 식별할 수 있다. 전자 장치(101)는, 제1 사이즈(예, 표시 영역의 최대 사이즈)를 가지는 표시 영역 내에, 제1 방향(a) 또는 제2 방향(b)을 따라 스크롤가능한(scrollable) 영역을 포함할 수 있다. 예를 들어, 상기 스크롤가능한 영역은, 스크롤 뷰(scroll view) 영역으로 참조될 수 있다. 스크롤 뷰 영역 내에서, 전자 장치(101)는, 반복되는 시각적 객체들(예, 컨테이너들) 중 적어도 하나를 표시할 수 있다. 상기 스크롤 뷰 영역을 이용하여 전자 장치(101)는 스크롤에 기반하여, 상기 시각적 객체들을 열람하기 위한 기능을 실행할 수 있다. 예를 들어, 스크롤 뷰 영역은, 텍스트 뷰(text view) 영역, 및/또는 이미지 뷰(image view) 영역을 포함할 수 있다. 예를 들어, 상기 스크롤 뷰 영역은, 복수의 시각적 객체들(710)을 포함할 수 있다. 예를 들어, 상기 복수의 시각적 객체들(710)은, 텍스트를 나타내는 시각적 객체(714), 이미지를 나타내는 시각적 객체(712), 및/또는 입력을 수신하기 위한 시각적 객체(713)를 포함할 수 있다. 시각적 객체는, 상기 예시들(예, 텍스트를 나타내는 시각적 객체, 이미지를 나타내는 시각적 객체, 및/또는 입력을 수신하기 위한 시각적 객체)들의 조합을 포함할 수 있다. 상기 예시들이 조합된 시각적 객체는, 시각적 객체(711)로 참조될 수 있다. 하지만, 이에 제한되지 않는다.
도 7을 참고하면, 일 실시 예에 따른, 전자 장치(101)는, 상태(700) 내에서, 스크롤가능한 영역 내에, 이미지, 및 복수의 시각적 객체들(710) 중 적어도 하나의 시각적 객체를 제1 방향(a)을 따라 연속으로(in series) 표시할 수 있다. 예를 들어, 전자 장치(101)는, 상기 복수의 시각적 객체들(710) 중에서 사이즈가 가장 큰 시각적 객체를 식별할 수 있다. 예를 들어, 도 7 내에서, 사이즈가 가장 큰 시각적 객체는 시각적 객체(711)로 참조될 수 있다.
전자 장치(101)는, 상기 이미지, 및 상기 적어도 하나의 시각적 객체를 연속으로 표시한 상태 내에서, 표시 영역의 사이즈를 변경하기 위한 입력을 수신할 수 있다. 예를 들어, 상기 입력은, 제2 하우징(212)의 외부에 배치된 버튼(220)을 누르는 제스쳐를 포함할 수 있다. 전자 장치(101)는, 상기 입력을 수신한 것에 응답하여, 디스플레이(140)의 표시 영역을 변경할 수 있다. 예를 들어, 전자 장치(101)는, 상기 입력을 수신한 것에 응답하여, 제2 하우징(212)을 제1 방향(a)으로 이동하여, 상기 표시 영역을 축소할 수 있다.
일 실시 예에 따른, 전자 장치(101)는, 상기 표시 영역이 축소되는 동안, 이미지, 및 상기 복수의 시각적 객체들(710) 중 적어도 하나의 시각적 객체(711)를 식별할 수 있다. 전자 장치(101)는, 상기 표시 영역이 축소되는 동안, 식별된 적어도 하나의 시각적 객체(711)를, 제2 방향(b)으로 이동할 수 있다. 전자 장치(101)는, 상기 제2 방향(b)으로 상기 적어도 하나의 시각적 객체(711)를 이동함으로써, 상기 적어도 하나의 시각적 객체(711)의 표시를 유지할 수 있다.
일 실시 예에 따른, 전자 장치(101)는, 상기 적어도 하나의 시각적 객체(711)의 사이즈가 상기 표시 영역 보다 큰 때에, 상기 적어도 하나의 시각적 객체(711)의 중심을, 상기 표시 영역 내의 미리 결정된 영역 내에 표시할 수 있다. 예를 들어, 상기 시각적 객체(711)의 중심은, 시각적 객체(711)의 상대적으로 긴 변들의 중점을 연결한 직선, 및 상기 시각적 객체(711)의 상대적으로 짧은 변들의 중점을 연결한 직선 사이의 교점일 수 있다. 예를 들어, 상기 표시 영역 내의 미리 결정된 영역은, 상기 표시 영역의 상대적으로 긴 제1 가장자리의 중심으로부터 수직인 직선을 포함하는 영역일 수 있다.
상술한 바와 같이, 일 실시 예에 따른, 전자 장치(101)는, 복수의 시각적 객체들 중 사이즈가 가장 큰 시각적 객체(예, 도 7의 시각적 객체(711))를 표시할 수 있다. 전자 장치(101)는, 제2 하우징(212)의 이동에 의해 표시 영역이 축소되는 동안, 사이즈가 가장 큰 시각적 객체의 표시를 유지할 수 있다. 전자 장치(101)는, 상기 표시를 유지함으로써, 전자 장치(101)의 사용자 경험을 강화할 수 있다.
도 8a 내지 도 8b는, 일 실시 예에 따른, 전자 장치의 표시 영역의 변화에 따른 화면의 일 예를 도시한다. 도 8a 내지 도 8b의 전자 장치(101)는, 도 1, 도 2a, 도 2b, 도 3a, 도 3b, 도 3c, 도 3d, 도 4a, 도 4b, 도 5, 도 6, 및/또는 도 7의 전자 장치(101)의 일 예일 수 있다.
도 8a를 참조하면, 일 실시 예에 따른, 전자 장치(101)는, 표시 영역의 사이즈 별로 상이한 레이아웃을 가지는 유저 인터페이스를 포함하는 콘텐트를 식별할 수 있다. 예를 들어, 표시 영역의 사이즈 별로 상이한 레이아웃을 가지는 유저 인터페이스를 포함하는 콘텐트는, 전자 장치(101)에 의해 제4 속성의 콘텐트로 분류될 수 있다. 전자 장치(101)는, 상기 제4 속성의 콘텐트를 식별한 것에 기반하여, 표시 영역의 사이즈가 조절되는 것을 식별할 수 있다. 전자 장치(101)는, 슬라이드-인 상태 내에서, 슬라이드-아웃 상태로 변경될 수 있다. 전자 장치(101)는, 슬라이드-인 상태 내에서, 제1 하우징(211) 밖으로 노출된, 표시 영역이 제1 사이즈를 가지는 동안, 어플리케이션으로부터 제공된 제1 화면(810)을 표시할 수 있다. 상기 제1 사이즈는, 상기 제2 하우징(212)이 인출된 상태 내에서, 상기 표시 영역이 최대 사이즈를 갖는 사이즈일 수 있다.
일 실시 예에 따른, 전자 장치(101)는, 상기 제1 화면(810)이 상기 제1 사이즈를 가지는 상기 표시 영역 내에서 표시되는 동안, 상기 표시 영역의 사이즈를 변경함을 나타내는 입력을 수신할 수 있다. 예를 들어, 상기 표시 영역의 사이즈를 변경함을 나타내는 입력은, 핀치-투-줌 제스쳐, 스와이프 제스쳐, 드래그 제스쳐, 또는 디스플레이(140) 상에 표시된 지정된 시각적 객체(예, 종횡 비가 표시된 아이콘)을 탭하는 제스쳐 중 적어도 하나를 포함할 수 있다. 예를 들어, 상기 제스쳐는, 전자 장치(101)의 하우징(210)의 일부분에서 외부로 노출된 버튼(220)을 누르는 제스쳐를 포함할 수 있다. 예를 들어, 상기 표시 영역의 사이즈를 변경함을 나타내는 상기 입력은, 상기 표시 영역의 사이즈를 상기 제1 사이즈로부터 상기 제1 사이즈와 상이한 제2 사이즈로 변경함을 나타내는 입력을 포함할 수 있다. 도 8a를 참조하면, 상기 표시 영역의 사이즈를 변경함을 나타내는 상기 입력은, 슬라이드-인 상태 내에서, 슬라이드 아웃 상태로 변경하는 입력을 포함할 수 있다. 예를 들어, 상기 표시 영역의 사이즈는, 상기 입력에 기반하여, 제1 방향(a)으로의 제2 하우징(212)의 이동에 따라 상기 제1 사이즈로부터 상기 제2 사이즈로 변경될 수 있다. 상기 제1 사이즈로부터 상기 제2 사이즈로 상기 표시 영역이 변경됨에 따라, 상기 표시 영역 내에 표시되는 UI(user interface)가 변경될 수 있다. 전자 장치(101)는, 표시 영역 내에 표시되는 변경된 UI와 관련된 이미지를 획득할 수 있다. 상기 변경된 UI와 관련된 이미지는 후술되는 제2 화면(830)을 표현하는(representing) 이미지(820)에 대응할 수 있다.
일 실시 예에 따른, 전자 장치(101)는, 상기 입력에 응답하여, 상기 어플리케이션에 기반하여 상기 제2 사이즈에 기반하는 제2 화면(830)을 표현하는 이미지(820)를 획득할 수 있다. 상기 제2 사이즈는, 표시 영역의 최대 사이즈를 포함할 수 있다. 상기 제2 사이즈는, 전자 장치(101)의 슬라이드-아웃 상태 내에서의 표시 영역의 사이즈일 수 있다. 상기 제2 화면(830)은, 전자 장치(101)가 슬라이드-아웃 상태 내에서 표시하는 화면을 포함할 수 있다.
일 실시 예에 따른, 전자 장치(101)는, 상기 표시 영역의 사이즈가 상기 입력에 기반하여 제1 방향(a)으로의 제2 하우징(212)의 이동에 따라 제1 사이즈로부터 제2 사이즈로 변경되는 동안, 상기 제1 화면(810) 상에 중첩으로, 상기 이미지(820)의 적어도 일부분을 표시할 수 있다. 전자 장치(101)는, 상기 표시 영역의 사이즈가 상기 제2 사이즈로 변경된 이후, 상기 제2 사이즈의 상기 표시 영역 내에 상기 제2 화면(830)을 표시할 수 있따. 전자 장치(101)는, 상기 표시 영역의 사이즈가 제2 사이즈로 변경된 것에 기반하여, 상기 이미지(820)를 페이드-아웃(fade-out)하여 상기 제2 화면(830)을 표시할 수 있다. 예를 들어, 상기 페이드-아웃하는 동작은, 상기 이미지(820)의 알파 값(alpha value)을 조절하여 수행할 수 있다. 예를 들어, 상기 알파 값은, 상기 이미지(820)의 투명도를 의미할 수 있다. 예를 들어, 상기 알파 값이 클수록, 상기 이미지(820)는, 보다 선명하게 표시될 수 있다. 예를 들어, 상기 알파 값이 작을수록, 상기 이미지(820)는, 화면 내에서 보다 투명하게 표시될 수 있다. 일 실시 예에 따른, 전자 장치(101)는, 상기 이미지(820)를 알파 값에 기반하여 결합하여 표시할 수 있다. 예를 들어, 전자 장치(101)는, 상기 이미지(820)를 표시하는 동안, 상기 이미지(820)에 결합된 알파 값을 조절하여 상기 이미지(820)의 투명도를 조절할 수 있다.
상술한 바와 같이, 일 실시 예에 따른, 전자 장치(101)는, 제2 하우징(212)의 이동에 따라 표시 영역의 사이즈가 변경되는 동안, 제2 화면(830)으로부터 획득된 이미지(820)를 표시할 수 있다. 전자 장치(101)는, 상기 표시 영역의 사이즈의 변경이 완료된 것에 기반하여, 상기 이미지(820)를 페이드-아웃(또는 알파 값을 조절)하여 상기 제2 화면(830)으로 전환할 수 있다. 전자 장치(101)는, 상기 이미지(820)를 상기 제2 화면(830)으로 페이드-아웃하며 전환함으로써, 부드러운 화면 전환을 제공할 수 있다. 전자 장치(101)는, 상기 이미지(820)를 상기 제2 화면(830)으로 부드럽게 전환함으로써, 전자 장치(101)의 사용자 경험을 강화할 수 있다.
후술되는 도 8b의 제1 사이즈는, 도 8a의 제1 사이즈와 상이한 사이즈일 수 있다. 후술되는 도 8b의 제2 사이즈는, 도 8a의 제2 사이즈와 상이한 사이즈일 수 있다. 후술되는 도 8b의 제1 화면은, 도 8a의 제1 화면과 상이한 화면일 수 있다. 후술되는 도 8b의 제2 화면은, 도 8a의 제1 화면과 상이한 화면일 수 있다. 후술되는 도 8b의 이미지는, 도 8a의 이미지와 상이한 이미지일 수 있다.
도 8b를 참조하면, 일 실시 예에 따른, 전자 장치(101)는, 표시 영역이 제1 사이즈를 가지는 동안, 어플리케이션으로부터 제공된 제1 화면(860)을 표시할 수 있다. 예를 들어, 제1 사이즈는, 전자 장치(101)의 제2 하우징(212)이 인출된 슬라이드-아웃 상태 내에서, 표시 영역이 가지는 최대 사이즈일 수 있다. 전자 장치(101)는, 상기 제1 화면(860)을 표시하는 동안, 제1 사이즈와 상이한 제2 사이즈로 변경함을 나타내는 입력을 수신할 수 있다. 예를 들어, 상기 제2 사이즈는, 전자 장치(101)의 제2 하우징(212)이 제1 방향(a)으로 이동함에 따라 표시 영역이 가지는 최소 사이즈일 수 있다.
일 실시 예에 따른, 전자 장치(101)는, 상기 제1 화면(860)이 상기 제1 사이즈를 가지는 상기 표시 영역 내에서 표시되는 동안, 상기 표시 영역의 사이즈를 변경함을 나타내는 입력을 수신할 수 있다. 예를 들어, 전자 장치(101)는, 상기 표시 영역의 사이즈를 제1 사이즈로부터 제2 사이즈로 변경함을 나타내는 입력을 수신할 수 있다. 상기 입력은, 전자 장치(101)의 외부로 노출된 버튼(220)을 누르는 제스쳐를 포함할 수 있다.
일 실시 예에 따른, 전자 장치(101)는, 상기 입력을 수신한 것에 응답하여, 상기 제2 사이즈의 제2 화면(880)을 표현하는 이미지(870)를 획득할 수 있다. 전자 장치(101)는, 표시 영역의 사이즈가 상기 입력에 기반하여 제1 방향(a)으로의 제2 하우징(212)을 이동할 수 있다. 전자 장치(101)는, 상기 제2 하우징(212)의 이동에 따라 상기 표시 영역의 사이즈가 제1 사이즈로부터 제2 사이즈로 변경되는 동안, 상기 제1 화면(860) 상에 중첩으로 상기 이미지(870)의 적어도 일부분을 표시할 수 있다.
일 실시 예에 따른, 전자 장치(101)는, 표시 영역의 사이즈가 제1 방향(a)으로의 제2 하우징(212)의 이동에 따라 제2 사이즈로 변경되는 동안, 상기 제1 화면(860)의 적어도 일부, 및 상기 제2 화면(880)의 적어도 일부를, 상기 제1 방향(a)과 반대인 제2 방향(b)으로 이동할 수 있다. 전자 장치(101)는, 상기 제1 화면(860)의 적어도 일부, 및/또는 상기 제2 화면(880)의 적어도 일부를 제2 방향(b)으로 이동함으로써, 상기 제1 화면(860)의 적어도 일부, 및/또는 상기 제2 화면(880)의 적어도 일부의 표시를 유지할 수 있다.
일 실시 예에 따른, 전자 장치(101)는, 상기 표시 영역의 사이즈가 상기 제2 사이즈로 변경된 것을 식별할 수 있다. 전자 장치(101)는, 상기 표시 영역의 사이즈가 제2 사이즈로 변경된 것에 기반하여, 상기 제2 사이즈의 표시 영역 내에서 상기 제2 화면(880)을 표시할 수 있다.
일 실시 예에 따른, 전자 장치(101)는, 상기 이미지(870)의 적어도 일부분으로부터 상기 제2 화면(880)으로 변경하는 동안, 상기 이미지(870)의 적어도 일부분을 페이드-아웃 할 수 있다. 전자 장치(101)는 상기 이미지(870)의 적어도 일부분을 페이드-아웃함으로써, 상기 표시 영역 내에 상기 제2 화면(880)을 표시할 수 있다.
상술한 바와 같이, 일 실시 예에 따른, 전자 장치(101)는, 제1 사이즈로부터 제2 사이즈로 변경함을 나타내는 입력을 수신할 수 있다. 전자 장치(101)는, 상기 입력을 수신한 것에 응답하여 상기 제2 사이즈를 나타내는 제2 화면(880)의 이미지(870)를 획득할 수 있다. 전자 장치(101)는 상기 제1 사이즈로부터 상기 제2 사이즈로 변경되는 동안 제1 화면(860) 상에 중첩으로 상기 이미지(870)를 표시할 수 있다. 전자 장치(101)는, 표시 영역의 사이즈가 제2 사이즈로 변경된 것에 기반하여, 화면 내에 표시된 상기 이미지(870)를 상기 제2 화면(880)으로 변경할 수 있다. 전자 장치(101)는, 상기 이미지(870)를 상기 제2 화면(880)으로 변경할 때에, 상기 이미지(870)를 페이드-아웃하여, 상기 제2 화면(880)으로 부드럽게 변경할 수 있다. 전자 장치(101)는, 상기 제1 화면(860)으로부터, 상기 제2 화면(880)으로 변경하는 동안, 상기 이미지(870)를 상기 제1 화면(860) 상에 중첩으로 표시함으로써, 전자 장치(101)의 사용자 경험을 강화할 수 있다. 전자 장치(101)는, 상기 이미지(870)를 페이드-아웃하여, 상기 제2 화면(880)으로 부드럽게 변경함으로써, 전자 장치(101)의 사용자 경험을 강화할 수 있다.
도 9는, 일 실시 예에 따른, 전자 장치의 동작에 관한 흐름도의 일 예를 도시한다. 도 9의 전자 장치는, 도 1, 도 2a, 도 2b, 도 3a, 도 3b, 도 3c, 도 3d, 도 4a, 도 4b, 도 5, 도 6, 도 7, 도 8a 및/또는 도 8b의 전자 장치(101)의 일 예일 수 있다. 예를 들어, 도 9의 동작들 중 적어도 하나는, 도 1의 전자 장치(101), 및/또는 도 1의 프로세서(120)에 의해 수행될 수 있다.
도 9를 참고하면, 동작 901에서, 일 실시 예에 따른, 전자 장치는, 제1 하우징(예, 도 2a 내지 도 2b의 제1 하우징(211)) 밖으로 노출된, 표시 영역이 제1 사이즈를 가지는 동안 이미지를 표시할 수 있다. 예를 들어, 상기 표시 영역은, 상기 제1 하우징에 대하여 이동가능한 제2 하우징(예, 도 2a 내지 도 2b의 제2 하우징(212))의 이동에 따라 변경될 수 있다. 예를 들어, 상기 제1 사이즈는, 상기 제2 하우징이 인출된 상태(예, 슬라이드-아웃 상태) 내에서, 상기 표시 영역이 가지는 상기 표시 영역의 최대 사이즈일 수 있다.
일 실시 예에 따른, 전자 장치는, 상기 이미지 내에 포함된 객체를 식별할 수 있다. 예를 들어, 상기 객체는, 피사체로 참조될 수 있다. 예를 들어, 상기 객체는, 사람, 동물, 인형을 포함할 수 있다.
동작 903에서, 일 실시 예에 따른, 전자 장치는, 상기 이미지가 제1 사이즈를 가지는 표시 영역 내에서 표시되는 동안, 상기 표시 영역의 사이즈를 상기 제1 사이즈로부터 상기 제1 사이즈보다 작은 제2 사이즈로 변경함을 나타내는 입력을 수신할 수 있다. 예를 들어, 상기 제1 사이즈보다 작은 상기 제2 사이즈는, 상기 제2 하우징이 인입된 상태(예, 슬라이드-인 상태) 내에서, 상기 표시 영역이 가지는 상기 표시 영역의 최소 사이즈일 수 있다. 예를 들어, 상기 표시 영역이 상기 제1 사이즈로부터 상기 제2 사이즈로 변경되는 것은, 제1 방향(예, 도 3의 제1 방향(a))으로의 제2 하우징의 이동에 따라 변경되는 것일 수 있다. 예를 들어, 상기 입력은, 상기 표시 영역의 사이즈를 변경함을 나타내는 입력을 포함할 수 있다. 예를 들어, 상기 표시 영역의 상기 사이즈를 변경함을 나타내는 상기 입력은, 전자 장치의 하우징(예, 도 2a 내지 도 2b의 하우징(210))의 일부분에서 외부로 노출된 버튼(예, 도 2a 내지 도 2b의 버튼(220))을 누르는 제스쳐를 포함할 수 있다.
동작 905에서, 일 실시 예에 따른, 전자 장치는, 상기 입력에 응답하여 상기 표시 영역의 사이즈를 제1 사이즈로부터 제2 사이즈로 변경할 수 있다. 전자 장치는, 상기 입력에 응답하여, 제2 하우징을 제1 방향으로 이동하여 제1 사이즈로부터 제2 사이즈로 변경할 수 있다. 전자 장치는, 상기 제2 사이즈로 상기 표시 영역을 변경하는 동안, 상기 이미지로부터 식별된 상기 이미지의 일부를 제1 방향과 반대인 제2 방향(예, 도 3의 제2 방향(b))으로 이동할 수 있다. 상기 이미지의 일부는, 이미지 내에 포함된 객체, 및/또는 피사체를 포함할 수 있다. 예를 들어, 전자 장치는, 상기 이미지를 제2 방향으로 이동함으로써, 상기 표시 영역 내에 상기 이미지의 일부의 표시를 유지할 수 있다.
상술한 바와 같이, 일 실시 예에 따른, 전자 장치는, 상기 표시 영역이 상기 제1 사이즈로부터 상기 제2 사이즈로 변경되는 동안, 상기 이미지의 상기 일부를 표시 영역 내에 표시할 수 있다. 전자 장치는, 상기 표시 영역 내에, 상기 이미지의 상기 일부의 표시를 유지함으로써, 전자 장치의 사용자 경험을 강화할 수 있다.
도 10은, 일 실시 예에 따른, 전자 장치의 동작에 관한 흐름도의 일 예를 도시한다. 도 10의 전자 장치는, 도 1 내지 도 8b의 전자 장치(101), 및/또는, 도 9의 전자 장치의 일 예일 수 있다. 도 10의 동작들 중 적어도 하나는 도 1의 전자 장치(101), 및/또는 도 1의 프로세서(120)에 의해 수행될 수 있다.
일 실시 예에 따른, 전자 장치는, 제1 하우징(예, 도 2a 내지 도 2b의 제1 하우징(211))을 포함할 수 있다. 예를 들어, 전자 장치는, 상기 제1 하우징에 대하여 이동가능한 제2 하우징(예, 도 2a 내지 도 2b의 제2 하우징(212))에 기반하여 상기 표시 영역의 사이즈를 변경할 수 있다. 예를 들어, 전자 장치는, 상기 제2 하우징의 이동에 따라, 연장되거나 감소되는 표시 영역을 포함하는 디스플레이를 포함할 수 있다. 예를 들어, 전자 장치는, 상기 제2 하우징의 이동을 위한 액추에이터를 포함할 수 있다.
도 10을 참고하면, 동작 1001에서, 일 실시 예에 따른, 전자 장치는, 제1 하우징 밖으로 노출된, 표시 영역이 제1 사이즈를 가지는 동안, 어플리케이션으로부터 제공된 제1 화면을 표시할 수 있다. 상기 제1 화면은, 도 8a의 제1 화면(810), 및/또는 도 8b의 제1 화면(860)으로 참조될 수 있다. 상기 제1 사이즈는, 상기 제2 하우징의 이동에 따라 표시 영역이 가지는 최대 사이즈, 및/또는 최소 사이즈를 포함할 수 있다.
동작 1003에서, 일 실시 예에 따른, 전자 장치는, 상기 제1 화면이 제1 사이즈를 가지는 표시 영역 내에서 표시되는 동안, 상기 표시 영역의 사이즈를 변경함을 나타내는 입력을 수신할 수 있다. 전자 장치는 상기 표시 영역의 상기 사이즈를 변경함을 나타내는 상기 입력을 수신한 것에 응답하여, 상기 제1 하우징에 대하여 상기 제2 하우징을 이동하여, 상기 표시 영역의 사이즈를 변경할 수 있다. 예를 들어, 전자 장치는, 상기 입력을 수신한 것에 응답하여, 상기 표시 영역의 상기 사이즈를 제1 사이즈로부터 상기 제1 사이즈와 상이한 제2 사이즈로 변경할 수 있다. 상기 제2 사이즈는, 상기 제2 하우징의 이동에 따라 상기 표시 영역이 가지는 최소 사이즈, 및/또는 최대 사이즈를 포함할 수 있다. 상기 입력은, 전자 장치의 하우징(예, 도 2a 내지 도 2b의 하우징(210))의 외부로 노출된 버튼(예, 도 2a 내지 도 2b의 버튼(220))을 누르는 제스쳐를 포함할 수 있다.
동작 1005에서, 일 실시 예에 따른, 전자 장치는, 상기 입력에 응답하여 상기 어플리케이션에 기반하여 제2 사이즈에 기반하는 제2 화면(도 8a의 제2 화면(830), 및/또는 도 8b의 제2 화면(880))을 표현하는(representing) 이미지(예, 도 8a의 이미지(820), 및/또는 도 8b의 이미지(870))를 획득할 수 있다. 상기 이미지는, 상기 제1 화면과 상이한 제2 화면을 표현하는 이미지를 포함할 수 있다. 상기 이미지는, 제1 사이즈와 상이한 제2 사이즈를 가지는 화면을 표현하는 이미지를 포함할 수 있다.
동작 1007에서, 일 실시 예에 따른, 전자 장치는, 상기 표시 영역의 사이즈가 변경되는 동안, 상기 획득된 이미지의 적어도 일부분을 표시할 수 있다. 예를 들어, 전자 장치는, 상기 입력에 기반하여 제1 방향(예, 도 3의 제1 방향(a))으로의 제2 하우징의 이동에 따라 제1 사이즈로부터 제2 사이즈로 변경되는 동안, 상기 제1 화면 상에 중첩으로, 상기 이미지의 적어도 일부분을 표시할 수 있다. 일 실시 예에 따른, 전자 장치는, 상기 제1 방향으로 제2 하우징이 이동하는 동안, 상기 이미지를 제1 방향과 반대인 제2 방향(예, 도 3의 제2 방향(b))으로 이동하여, 상기 이미지의 적어도 일부분을 표시 영역 내에 표시할 수 있다.
동작 1009에서, 일 실시 예에 따른, 전자 장치는, 상기 표시 영역의 사이즈가 제2 사이즈로 변경된 이후, 제2 사이즈의 표시 영역 내에 제2 화면을 표시할 수 있다. 예를 들어, 전자 장치는, 상기 표시 영역의 사이즈가 제1 사이즈로부터 제2 사이즈로의 변경의 완료를 식별할 수 있다. 예를 들어, 전자 장치는, 상기 표시 영역의 사이즈가 제2 사이즈로의 변경이 완료된 것에 기반하여, 상기 이미지의 적어도 일부분을 페이드-아웃하여, 제2 화면으로 변경할 수 있다.
상술한 바와 같이, 일 실시 예에 따른, 전자 장치는, 표시 영역의 사이즈를 변경함을 나타내는 입력을 수신한 것에 응답하여, 제2 사이즈의 제2 화면을 표현하는 이미지를 획득할 수 있다. 전자 장치는, 상기 이미지를 상기 표시 영역의 상기 사이즈를 변경하는 동안, 제2 화면과 상이한 제1 화면과 중첩으로, 화면 내에 표시할 수 있다. 전자 장치는, 상기 표시 영역의 상기 사이즈의 변경의 완료에 기반하여, 상기 이미지의 표시를 중단하고 상기 제2 화면을 표시할 수 있다. 전자 장치는, 상기 이미지의 표시를 중단할 때에, 상기 이미지를 페이드-아웃하고, 제2 화면을 표시할 수 있다. 전자 장치는, 상기 이미지를 페이드-아웃함으로써, 제2 화면으로의 전환을 부드럽게 할 수 있다. 전자 장치는, 상기 제1 사이즈로부터 상기 제2 사이즈로 변경되는 동안, 상기 이미지를 제1 화면에 중첩으로 표시하고, 상기 제2 화면으로 전환함으로써, 전자 장치의 사용자 경험을 강화할 수 있다.
도 11a 내지 도 11b는, 일 실시 예에 따른, 전자 장치의 동작에 관한 흐름도의 일 예를 도시한다. 도 11a 내지 도 11b의 전자 장치는, 도 1 내지 도 8의 전자 장치(101), 및/또는 도 9 내지 도 10의 전자 장치의 일 예일 수 있다. 도 11a 내지 도 11b의 동작들 중 적어도 하나는 도 1의 전자 장치(101), 및/또는 도 1의 프로세서(120)에 의해 수행될 수 있다.
도 11a를 참고하면, 동작 1101에서, 일 실시 예에 따른, 전자 장치는, 표시 영역 내에 화면을 표시할 수 있다. 전자 장치는, 상기 표시 영역 내에 화면을 표시하는 동안, 상기 표시 영역의 사이즈를 변경함을 나타내는 입력을 수신할 수 있다. 상기 표시 영역의 사이즈를 변경함을 나타내는 입력은, 상기 전자 장치에 포함된 하우징(예, 도 2a 내지 도 2b의 하우징(210))의 외부로 노출된 버튼(예, 도 2a 내지 도 2b의 버튼(220))을 누르는 제스쳐를 포함할 수 있다.
동작 1103에서, 일 실시 예에 따른, 전자 장치는 상기 화면 내에 표시된 이미지를 식별할 수 있다. 예를 들어, 전자 장치는, 디스플레이(예, 도 1의 디스플레이(140))를 통해 화면을 표시하는 동안, 상기 화면 내에 이미지를 표시하고 있는지 여부를 식별할 수 있다.
화면 내에 표시된 이미지가 식별된 경우(1103-예), 동작 1105에서, 일 실시 예에 따른, 전자 장치는, 상기 이미지를 식별한 것에 기반하여, 상기 이미지 내에 포함된 시각적 객체를 식별할 수 있다. 예를 들어, 상기 시각적 객체는, 피사체로 참조될 수 있다. 예를 들어, 상기 시각적 객체는, 사람, 동물, 및/또는 인형으로 참조될 수 있다. 예를 들어, 상기 시각적 객체는, 전자 장치의 화면 내에 표시되는 텍스트를 나타내는 시각적 객체, 이미지를 나타내는 시각적 객체, 및/또는 입력을 수신하기 위한 시각적 객체를 포함할 수 있다.
일 실시 예에 따른, 전자 장치는, 상기 시각적 객체를 식별한 것에 기반하여, 상기 시각적 객체를 포함하는 영역을 식별할 수 있다. 예를 들어, 상기 영역은, 상기 시각적 객체를 포함할 수 있다. 예를 들어, 상기 영역은, 사각형과 같은 도형으로 참조될 수 있다. 예를 들어, 상기 영역은, 상기 도형과 같은 폐곡선으로 구성될 수 있다.
이미지 내에 포함된 시각적 객체를 식별하지 못한 경우(1105-아니오), 동작 1113에서, 일 실시 예에 따른, 전자 장치는, 상기 이미지의 제1 가장자리, 및 제1 가장자리 보다 짧은 제2 가장자리 중 제1 가장자리의 중점을 상기 표시 영역의 미리 결정된 영역으로 이동할 수 있다. 예를 들어, 전자 장치는, 상기 이미지를 이동하여, 상기 이미지의 중심을 표시 영역의 중심으로 이동할 수 있다. 전자 장치는, 이미지 내에 시각적 객체를 식별한 상태와 상이한 상태 내에서, 상기 이미지의 상기 중점을, 상기 표시 영역의 미리 결정된 영역으로 이동할 수 있다. 상기 표시 영역의 상기 미리 결정된 영역은, 상기 표시 영역의 상대적으로 긴 변의 중심으로부터 수직인 직선, 및 상기 표시 영역의 상대적으로 짧은 변의 중심으로부터 수직인 직선 사이의 교점을 포함할 수 있다. 상술한 바와 같이, 일 실시 예에 따른, 전자 장치는, 상기 미리 결정된 영역으로 상기 이미지를 이동하여 표시를 유지할 수 있다. 전자 장치는, 상기 미리 결정된 영역으로 상기 이미지를 이동하여 표시를 유지함으로써, 전자 장치의 사용자 경험을 강화할 수 있다.
이미지 내에 포함된 시각적 객체를 식별한 경우(1105-예), 동작 1107에서, 일 실시 예에 따른, 전자 장치는, 식별된 시각적 객체가 복수인지 여부를 식별할 수 있다. 예를 들어, 전자 장치는, 상기 시각적 객체를 포함하는 영역이 복수인지 여부를 식별할 수 있다.
이미지 내에 포함된 시각적 객체가 복수인 경우(1107-예), 동작 1109에서, 일 실시 예에 따른, 전자 장치는, 복수의 시각적 객체들을 식별한 것에 기반하여, 상기 복수의 시각적 객체들을 포함하는 영역을, 미리 결정된 부분 영역 내에서 표시할 수 있다. 일 실시 예에 따른, 전자 장치는, 상기 복수의 시각적 객체들을 포함하는 영역을 지정할 수 있다. 전자 장치는, 제2 하우징의 제1 방향으로의 이동에 따라 표시 영역이 축소되는 동안, 상기 복수의 시각적 객체들을 포함하는 영역을 상기 제1 방향에 반대인 제2 방향으로 이동할 수 있다. 예를 들어, 전자 장치는, 상기 제2 방향으로 상기 복수의 시각적 객체들을 포함하는 상기 영역을 이동하는 것에 기반하여, 상기 복수의 시각적 객체들을 포함하는 상기 영역의 표시를 유지할 수 있다.
이미지 내에 포함된 시각적 객체가 복수가 아닌 경우(1107-아니오), 동작 1111에서, 일 실시 예에 따른, 전자 장치는, 이미지 내에 포함된 시각적 객체를 화면 내에 표시할 수 있다. 예를 들어, 전자 장치는, 제2 하우징의 제1 방향으로의 이동에 따라 표시 영역이 축소되는 동안, 상기 시각적 객체를 제2 방향으로 이동할 수 있다. 전자 장치는, 상기 시각적 객체를 제2 방향으로 이동하여, 상기 시각적 객체의 표시를 유지할 수 있다.
일 실시 예에 따른, 전자 장치는, 상기 시각적 객체를 포함하는 영역을 이동할 수 있다. 예를 들어, 전자 장치는, 제2 하우징의 제1 방향으로의 이동에 따라 표시 영역이 축소되는 동안, 상기 시각적 객체를 포함하는 영역을 이동할 수 있다. 예를 들어, 전자 장치는 상기 시각적 객체를 포함하는 영역을 미리 결정된 영역으로 이동할 수 있다. 전자 장치는, 상기 시각적 객체를 미리 결정된 영역으로 이동하여, 상기 시각적 객체의 표시 영역 내에서의 표시를 유지할 수 있다.
도 11b를 참고하면, 화면 내에 이미지를 식별하지 못한 경우(1103-아니오), 동작 1116에서, 일 실시 예에 따른, 전자 장치는, 제1 하우징에 대하여 이동가능한 제2 하우징이 제1 방향으로 이동하는지 여부를 식별할 수 있다. 예를 들어, 제1 방향은, 상기 제2 하우징으로부터 상기 제1 하우징을 향하는 방향일 수 있다.
상기 제2 하우징이 제1 방향으로 이동하는 경우(1115-예), 동작 1117에서, 일 실시 예에 따른, 전자 장치는, 제1 화면을 표현하는 이미지를 획득할 수 있다. 예를 들어, 전자 장치의 제1 화면은, 제1 사이즈를 가지는 상태 내에서 표시되는 화면일 수 있다. 상기 제1 사이즈는, 상기 제2 하우징의 이동에 따라 형성될 수 있는 표시 영역의 최대 사이즈를 포함할 수 있다.
동작 1119에서, 일 실시 예에 따른, 전자 장치는, 상기 획득된 제1 화면을 표현하는 이미지를 화면 내에 표시할 수 있다. 예를 들어, 전자 장치는, 표시 영역의 사이즈를 변경함을 나타내는 입력을 수신한 것에 응답하여, 제2 하우징을 제1 방향으로 이동하는 동안, 상기 이미지를 표시 영역 내에 표시할 수 있다. 예를 들어, 전자 장치는, 상기 표시 영역의 사이즈를 축소하는 동안, 상기 제1 화면을 표현하는 이미지를 표시 영역 내에 표시할 수 있다.
동작 1121에서, 일 실시 예에 따른, 전자 장치는, 상기 표시 영역의 사이즈의 변경을 완료한 것에 기반하여, 제2 화면을 표시할 수 있다. 예를 들어, 전자 장치는, 상기 제1 화면을 표현하는 이미지를 표시하는 동안, 상기 표시 영역의 사이즈의 변경이 완료된 후에, 상기 제2 화면을 표시 영역 내에 표시할 수 있다. 상기 제2 화면은, 제1 사이즈와 상이한 제2 사이즈를 가지는 표시 영역에 대응하는 화면일 수 있다. 상기 제2 사이즈는, 상기 표시 영역이 가지는 최소 사이즈일 수 있다. 일 실시 예에 따른, 전자 장치는, 상기 이미지를 페이드-아웃하여, 상기 제2 화면으로 전환할 수 있다.
제2 하우징이 제1 방향으로 이동하지 않는 경우(1115-아니오), 동작 1123에서, 일 실시 예에 따른, 전자 장치는, 제3 화면, 및 제4 화면을 표현하는 이미지를 획득할 수 있다. 예를 들어, 전자 장치는, 상기 제2 하우징이 제1 방향과 상이한 제2 방향(예, 도 3의 제2 방향(b))으로 이동하는 동안, 상기 제3 화면을 표현하는 이미지, 및 상기 제4 화면을 표현하는 이미지 각각을 획득할 수 있다. 예를 들어, 상기 제3 화면은, 상기 하우징이 인입된 상태(예, 슬라이드-인 상태) 내에서, 표시 영역 내에 표시되는 화면일 수 있다. 예를 들어, 상기 제4 화면은, 상기 하우징이 인출된 상태(예, 슬라이드-아웃 상태) 내에서, 표시 영역 내에 표시되는 화면일 수 있다.
동작 1125에서, 일 실시 예에 따른, 전자 장치는, 상기 제4 화면을 표현하는 이미지를 화면 내에 표시할 수 있다. 예를 들어, 전자 장치는, 상기 제2 하우징이 제2 방향으로 이동하여 표시 영역이 확장되는 동안, 상기 제4 화면을 표현하는 이미지를 상기 제3 화면 상에 중첩으로 표시할 수 있다.
동작 1127에서, 일 실시 예에 따른, 전자 장치는, 상기 표시 영역의 사이즈의 변경이 완료된 것에 기반하여, 제4 화면을 표시할 수 있다. 예를 들어, 전자 장치는, 상기 표시 영역의 확장이 완료된 것에 기반하여, 제4 화면을 표시할 수 있다. 예를 들어, 전자 장치는, 상기 제3 화면을 표현하는 이미지를 화면에 표시하는 동안, 상기 표시 영역의 변경이 완료된 후에, 상기 제4 화면을 표시할 수 있다. 일 실시 예에 따른, 전자 장치는, 상기 제3 화면을 표현하는 이미지를 상기 제4 화면으로 전환할 수 있다. 예를 들어, 전자 장치는, 상기 제3 화면을 표현하는 이미지를 상기 제4 화면으로 전환할 때에, 상기 제3 화면을 표현하는 이미지를 페이드-아웃하여 제4 화면으로 전환할 수 있다. 상술한 바와 같이, 일 실시 예에 따른, 전자 장치는, 상기 제3 화면을 표현하는 이미지를 페이드-아웃함으로써, 제4 화면으로의 전환을 부드럽게 할 수 있다. 전자 장치는, 상기 제4 화면으로의 전환을 부드럽게 함으로써, 전자 장치의 사용자 경험을 강화할 수 있다.
이하에서는, 도 12a 내지 도 12d, 및/또는 도 13a 내지 도 13b를 참고하여, 일 실시 예에 따른, 전자 장치가 디스플레이를 변형하기 위하여 가지는 예시적인 구조가 설명된다.
도 12a는, 일 실시 예에 따른, 제1 상태 내의 전자 장치의 평면도(top plan view)의 일 예를 도시한다.
도 12a를 참조하면, 전자 장치(101)는, 제1 하우징(1210), y축에 평행한 제1 방향(1261) 또는 y축에 평행하고 제1 방향(1261)에 반대인 제2 방향(1262)으로 제1 하우징(1210)에 대하여 이동가능한 제2 하우징(1220), 및 디스플레이(1230)(예: 상기 디스플레이)를 포함할 수 있다.
예를 들면, 전자 장치(101)는, 상기 제1 상태 내에서 있을 수 있다. 예를 들면, 상기 제1 상태 내에서, 제2 하우징(1220)은 제1 방향(1261) 및 제2 방향(1262) 중 제1 방향(1261)으로 제1 하우징(1210)에 대하여 이동가능할 수 있다. 예를 들면, 상기 제1 상태 내에서, 제2 하우징(1220)은, 제1 하우징(1210)에 대하여 제2 방향(1262)으로 이동가능하지 않을 수 있다.
예를 들면, 상기 제1 상태 내에서, 디스플레이(1230)는, 가장 작은 사이즈를 가지는 상기 표시 영역을 제공할 수 있다. 예를 들면, 상기 제1 상태 내에서, 상기 표시 영역은, 영역(1230a)에 대응할 수 있다. 예를 들면, 도 12a 내에서 도시되지 않았으나, 상기 제1 상태 내에서, 상기 표시 영역인 영역(1230a)과 다른 디스플레이(1230)의 영역(예: 도 12c의 영역(1230b))은 제1 하우징(1210) 내에 포함될 수 있다. 예를 들면, 상기 제1 상태 내에서, 상기 영역은, 제1 하우징(1210)에 의해 가려질 수 있다. 예를 들면, 상기 제1 상태 내에서, 상기 영역은, 제1 하우징(1210) 안으로 말릴 수 있다. 예를 들면, 상기 제1 상태 내에서, 영역(1230a)은, 곡면 부분(curved portion)을 포함하는 상기 영역과 달리, 평면 부분(planar portion)을 포함할 수 있다. 하지만, 이에 제한되지 않는다. 예를 들면, 영역(1230a)은, 상기 제1 상태 내에서, 상기 평면 부분으로부터 연장되고, 엣지(edge) 부분 내에서 위치되는, 곡면 부분을 포함할 수도 있다.
예를 들면, 상기 제1 상태는, 제2 하우징(1220)의 적어도 일부가 제1 하우징(1210) 내에 위치된다는 측면에서 슬라이드-인 상태 또는 닫힌 상태로 참조될 수 있다. 예를 들면, 상기 제1 상태는, 가장 작은 사이즈를 가지는 상기 표시 영역을 제공한다는 측면에서, 축소 상태로 참조될 수 있다. 하지만, 이에 제한되지 않는다.
예를 들면, 제1 하우징(1210)은, 영역(1230a)의 일부를 통해 노출되고, z축에 평행한 제3 방향(1263)을 향하는, 카메라 모듈(180) 내의 제1 이미지 센서(1250-1)를 포함할 수 있다. 예를 들면, 도 12a 내에서 도시되지 않았으나, 제2 하우징(1220)은, 제2 하우징(1220)의 일부를 통해 노출되고, z축에 평행하고 제3 방향(1263)에 반대인 제4 방향(1264)을 향하는, 카메라 모듈(180) 내의 하나 이상의 제2 이미지 센서들을 포함할 수 있다. 예를 들면, 상기 하나 이상의 제2 이미지 센서들은, 도 12b의 설명을 통해 예시될 수 있다.
도 12b는, 일 실시 예에 따른, 제1 상태 내의 전자 장치의 저면도(bottom view)의 일 예를 도시한다.
도 12b를 참조하면, 상기 제1 상태 내에서, 제2 하우징(1220) 내에 배치된 하나 이상의 제2 이미지 센서들(1250-2)은, 하나 이상의 제2 이미지 센서들(1250-2)을 위해 제1 하우징(1210) 내에 배치된 구조 안에(within) 위치될 수 있다. 예를 들면, 전자 장치(101)의 외부로부터의 광은, 상기 제1 상태 내에서, 상기 구조를 통해 하나 이상의 제2 이미지 센서들(1250-2)에 수신될 수 있다. 예를 들면, 하나 이상의 제2 이미지 센서들(1250-2)은, 상기 제1 상태 내에서 상기 구조 안에 위치되기 때문에, 하나 이상의 제2 이미지 센서들(1250-2)은, 상기 제1 상태 내에서 상기 구조를 통해 노출될 수 있다. 예를 들면, 상기 구조는, 다양하게 구현될 수 있다. 예를 들면, 상기 구조는, 개구 또는 노치일 수 있다. 예를 들면, 상기 구조는, 제2 하우징(1220)의 적어도 일부를 감싸는 제1 하우징(1210)의 플레이트(1212) 내의 개구(1212a)일 수 있다. 하지만, 이에 제한되지 않는다. 예를 들면, 상기 제1 상태 내에서, 제2 하우징(1220) 내에 포함된 하나 이상의 제2 이미지 센서들(1250-2)은, 제1 하우징(1210)의 플레이트(1212)에 의해 가려질 수 있다.
상기 제1 상태는, 상기 제2 상태로 변경될 수 있다. 예를 들면, 상기 제1 상태(또는 상기 제2 상태)는, 상기 제1 상태와 상기 제2 상태 사이의 하나 이상의 중간 상태들을 통해, 상기 제2 상태(또는 상기 제1 상태)로 변경될 수 있다.
예를 들면, 상기 제1 상태(또는 상기 제2 상태)는, 미리 정의된 사용자 입력에 기반하여, 상기 제2 상태(또는 상기 제1 상태)로 변경될 수 있다. 예를 들면, 상기 제1 상태(또는 상기 제2 상태)는, 제1 하우징(1210)의 일부 또는 제2 하우징(1220)의 일부를 통해 노출된 물리적 버튼에 대한 사용자 입력에 응답하여, 상기 제2 상태(또는 상기 제1 상태)로 변경될 수 있다. 예를 들면, 상기 제1 상태(또는 상기 제2 상태)는, 상기 표시 영역 내에서 표시된, 실행가능한 객체에 대한 터치 입력에 응답하여, 상기 제2 상태(또는 상기 제1 상태)로 변경될 수 있다. 예를 들면, 상기 제1 상태(또는 상기 제2 상태)는, 상기 표시 영역 상에서 접촉점을 가지고 기준 강도 이상의 누름 강도를 가지는 터치 입력에 응답하여, 상기 제2 상태(또는 상기 제1 상태)로 변경될 수 있다. 예를 들면, 상기 제1 상태(또는 상기 제2 상태)는, 전자 장치(101)의 마이크로폰을 통해 수신된 음성 입력에 응답하여, 상기 제2 상태(또는 상기 제1 상태)로 변경될 수 있다. 예를 들면, 상기 제1 상태(또는 상기 제2 상태)는, 제1 하우징(1210)에 대하여 제2 하우징(1220)을 이동하기 위해 제1 하우징(1210) 및/또는 제2 하우징(1220)에 적용된 외력(force)에 응답하여, 상기 제2 상태(또는 상기 제1 상태)로 변경될 수 있다. 예를 들면, 상기 제1 상태(또는 상기 제2 상태)는, 전자 장치(101)와 연결된 외부 전자 장치(예: 이어버드(earbuds) 또는 스마트 워치(smart watch))에서 식별된 사용자 입력에 응답하여, 상기 제2 상태(또는 상기 제1 상태)로 변경될 수 있다. 하지만, 이에 제한되지 않는다.
상기 제2 상태는, 도 12c 및 도 12d의 설명을 통해 예시될 수 있다.
도 12c는, 일 실시 예에 따른, 제2 상태 내의 전자 장치의 평면도의 일 예를 도시한다.
도 12c를 참조하면, 전자 장치(101)는, 상기 제2 상태 내에서 있을 수 있다. 예를 들면, 상기 제2 상태 내에서, 제2 하우징(1220)은 제1 방향(1261) 및 제2 방향(1262) 중 제2 방향(1262)으로 제1 하우징(1210)에 대하여 이동가능할 수 있다. 예를 들면, 상기 제2 상태 내에서, 제2 하우징(1220)은, 제1 하우징(1210)에 대하여 제1 방향(1261)으로 이동가능하지 않을 수 있다.
예를 들면, 상기 제2 상태 내에서, 디스플레이(1230)는, 가장 큰 사이즈를 가지는 상기 표시 영역을 제공할 수 있다. 예를 들면, 상기 제2 상태 내에서, 상기 표시 영역은, 영역(1230a) 및 영역(1230b)을 포함하는 영역(330c)에 대응할 수 있다. 예를 들면, 상기 제1 상태 내에서 제1 하우징(1210) 내에 포함되었던 영역(1230b)은, 상기 제2 상태 내에서 노출될 수 있다. 예를 들면, 상기 제2 상태 내에서, 영역(1230a)은, 평면 부분을 포함할 수 있다. 하지만, 이에 제한되지 않는다. 예를 들면, 영역(1230a)은, 상기 평면 부분으로부터 연장되고, 엣지 부분 내에서 위치되는 곡면 부분을 포함할 수도 있다. 예를 들면, 상기 제2 상태 내에서, 영역(1230b)은, 상기 제1 상태 내에서의 영역(1230a)과 달리, 평면 부분 및 곡면 부분 중 평면 부분을 포함할 수 있다. 하지만, 이에 제한되지 않는다. 예를 들면, 영역(1230b)은, 영역(1230b)의 상기 평면 부분으로부터 연장되고, 엣지 부분 내에서 위치되는 곡면 부분을 포함할 수도 있다.
예를 들면, 상기 제2 상태는, 제2 하우징(1220)의 적어도 일부가 제1 하우징(1210)의 외부에 위치된다는 측면에서 슬라이드-아웃 상태 또는 열린 상태로 참조될 수 있다. 예를 들면, 상기 제2 상태는, 가장 큰 사이즈를 가지는 상기 표시 영역을 제공한다는 측면에서, 확장 상태로 참조될 수 있다. 하지만, 이에 제한되지 않는다.
예를 들면, 제3 방향(1263)을 향하는 제1 이미지 센서(1250-1)는, 전자 장치(101)의 상태가 상기 제1 상태로부터 상기 제2 상태로 변경될 시, 제1 방향(1261)로의 제2 하우징(1220)의 이동에 따라, 영역(1230a)과 함께 이동될 수 있다. 예를 들면, 도 512c 내에서 도시되지 않았으나, 제4 방향(1264)을 향하는 하나 이상의 제2 이미지 센서들(1250-2)은, 전자 장치(101)의 상태가 상기 제1 상태로부터 상기 제2 상태로 변경될 시, 제1 방향(1261)로의 제2 하우징(1220)의 이동에 따라, 이동될 수 있다. 예를 들면, 하나 이상의 제2 이미지 센서들(1250-2)과 도 5b의 설명을 통해 예시된 상기 구조 사이의 상대적 위치 관계는, 하나 이상의 제2 이미지 센서들(1250-2)의 상기 이동에 따라, 변경될 수 있다. 예를 들면, 상기 상대적 위치 관계의 상기 변경은, 도 12d를 통해 예시될 수 있다.
도 12d는, 일 실시 예에 따른, 제2 상태 내의 전자 장치의 저면도의 일 예를 도시한다.
도 12d를 참조하면, 상기 제2 상태 내에서, 하나 이상의 제2 이미지 센서들(1250-2)은, 상기 구조 밖에 위치될 수 있다. 예를 들면, 상기 제2 상태 내에서, 하나 이상의 제2 이미지 센서들(1250-2)은, 플레이트(1212) 내의 개구(1212a) 밖에 위치될 수 있다. 예를 들면, 하나 이상의 제2 이미지 센서들(1250-2)은 상기 제2 상태 내에서 개구(1212a) 밖에 위치되기 때문에, 하나 이상의 제2 이미지 센서들(1250-2)은 상기 제2 상태 내에서 노출될 수 있다. 예를 들면, 하나 이상의 제2 이미지 센서들(1250-2)은, 상기 제2 상태 내에서 상기 구조 밖에 위치되기 때문에, 상기 제2 상태 내에서의 상기 상대적 위치 관계는, 상기 제1 상태 내에서의 상기 상대적 위치 관계와 다를 수 있다.
예를 들어, 전자 장치(101)가 개구(1212a)와 같은 상기 구조를 포함하지 않는 경우, 상기 제2 상태 내에서의 하나 이상의 제2 이미지 센서들(1250-2)은, 상기 제1 상태 내에서의 하나 이상의 제2 이미지 센서들(1250-2)과 달리, 노출될 수 있다.
도 12a, 도 12b, 도 12c, 및 도 12d 내에서 도시되지 않았으나, 전자 장치(101)는, 상기 제1 상태 및 상기 제2 상태 사이의 중간 상태 내에서 있을 수 있다. 예를 들면, 상기 중간 상태 내에서의 상기 표시 영역의 사이즈는, 상기 제1 상태 내에서의 상기 표시 영역의 사이즈보다 크고, 상기 제2 상태 내에서의 상기 표시 영역의 사이즈보다 작을 수 있다. 예를 들면, 상기 중간 상태 내에서의 상기 표시 영역은, 영역(1230a) 및 영역(1230b)의 일부를 포함하는 영역에 대응할 수 있다. 예를 들면, 상기 중간 상태 내에서, 영역(1230b)의 일부는 노출되고, 영역(1230b)의 다른 일부(또는 남은 일부)는, 제1 하우징(1210)에 의해 가려지거나 제1 하우징(1210) 안으로 말릴 수 있다. 하지만, 이에 제한되지 않는다.
전자 장치(101)는, 전자 장치(101)의 제1 하우징(예: 도 12의 제1 하우징(1210))에 대하여 전자 장치(101)의 제2 하우징(예: 도 12의 제2 하우징(1220))을 이동하기 위한 구조들을 포함할 수 있다. 예를 들면, 상기 구조들은, 도 13a 및 13b의 설명을 통해 예시될 수 있다.
도 13a 및 도 13b는, 일 실시 예에 따른, 전자 장치의 분해 사시도(exploded perspective view)의 일 예를 도시한다.
도 13a 및 13b를 참조하면, 전자 장치(101)는, 제1 하우징(1210), 제2 하우징(1220), 디스플레이(1230), 및 구동부(1360)를 포함할 수 있다.
예를 들면, 제1 하우징(1210)은, 북 커버(1311), 플레이트(1212), 및 프레임 커버(1313)를 포함할 수 있다.
예를 들면, 북 커버(1311)는, 전자 장치(101)의 외면의 측면 부분을 적어도 부분적으로(at least partially) 형성할 수 있다. 예를 들면, 북 커버(1311)는, 상기 외면의 후면 부분을 적어도 부분적으로 형성할 수 있다. 예를 들면, 북 커버(1311)는, 하나 이상의 제2 이미지 센서들(1250-2)을 위한 개구(1311a)를 포함할 수 있다. 예를 들면, 북 커버(1311)는, 플레이트(1212)를 지지하는 면을 포함할 수 있다. 예를 들면, 북 커버(1311)는, 플레이트(1212)와 결합될 수 있다. 예를 들면, 북 커버(1311)는, 프레임 커버(1313)를 포함할 수 있다. 예를 들면, 북 커버(1311)는, 프레임 커버(1313)와 결합될 수 있다.
예를 들면, 플레이트(1212)는, 상기 외면의 후면 부분을 적어도 부분적으로 형성할 수 있다. 예를 들면, 플레이트(1212)는, 하나 이상의 제2 이미지 센서들(1250-2)을 위한 개구(1212a)를 포함할 수 있다. 예를 들면, 플레이트(1212)는, 북 커버(1311)의 상기 면 상에 배치될 수 있다. 예를 들면, 개구(1212a)는, 개구(1311a)와 정렬될 수 있다.
예를 들면, 프레임 커버(1313)는, 북 커버(1311)에 의해 적어도 부분적으로 감싸질(surrounded) 수 있다.
예를 들면, 프레임 커버(1313)는, 디스플레이(1230)에 의해 적어도 부분적으로 감싸질 수 있다. 예를 들면, 프레임 커버(1313)는, 디스플레이(1230)에 의해 적어도 부분적으로 감싸지지만, 프레임 커버(1313)의 위치는, 디스플레이(1230)의 이동과 독립적으로, 유지될 수 있다. 예를 들면, 프레임 커버(1313)는, 디스플레이(1230)의 구성요소들 중 적어도 일부와 관련하여, 배열될(arranged) 수 있다. 예를 들면, 프레임 커버(1313)는, 디스플레이(1230)의 적어도 하나의 구성요소의 이동의 경로를 제공하는(또는 가이드하는) 레일들(1313a)을 포함할 수 있다.
예를 들면, 프레임 커버(1313)는, 전자 장치(101)의 적어도 하나의 구성요소와 결합될 수 있다. 예를 들면, 프레임 커버(1313)는, 재충전가능한(rechargeable) 배터리(189)를 지지할 수 있다. 예를 들면, 배터리(189)는, 프레임 커버(1313)의 면(1313b) 내의 리세스(recess) 또는 홀(hole)을 통해 지지될 수 있다. 예를 들면, 프레임 커버(1313)는, 프레임 커버(1313) 상의 면 상에서, FPCB(flexible printed circuit board)(1325)의 일 단과 결합될 수 있다. 예를 들면, 도 13a 및 도 13b 내에서 명시적으로 도시되지 않았으나, FPCB(1325)의 다른 단은, 적어도 하나의 커넥터를 통해 PCB(1324)와 연결될 수 있다. 예를 들면, PCB(1324)는, FPCB(1325)를 통해서, 모터(1361)로 전력을 공급하는 다른 PCB(도 13a 및 도 13b 내에서 미도시)와 전기적으로 연결될 수 있다.
예를 들면, 프레임 커버(1313)는, 상기 제1 상태 및 상기 제2 상태를 포함하는 복수의 상태들을 위한 전자 장치(101)의 적어도 하나의 구조와 결합될 수 있다. 예를 들면, 프레임 커버(1313)는, 구동부(1360)의 모터(1361)를 고정시킬(fasten) 수 있다.
예를 들면, 제2 하우징(1220)은, 프런트 커버(1321) 및 슬라이드 커버(1322)를 포함할 수 있다.
예를 들면, 프런트 커버(1321)는, 디스플레이(1230)에 의해 적어도 부분적으로 감싸질 수 있다. 예를 들면, 프런트 커버(1321)는, 디스플레이(1230)가 제1 하우징(1210)에 대하여 이동되는 제2 하우징(1220)에 따라 이동되도록, 프레임 커버(1313)와 달리, 프런트 커버(1321)를 감싸는 디스플레이(1230)의 영역(1230a)의 적어도 일부와 결합될 수 있다.
예를 들면, 프런트 커버(1321)는, 전자 장치(101)의 적어도 하나의 구성요소와 결합될 수 있다. 예를 들면, 프런트 커버(1321)는, 전자 장치(101)의 구성요소들을 포함하는 PCB(printed circuit board)(1324)와 결합될 수 있다. 예를 들면, PCB(1324)는, 프로세서(120)(도 13a 및 도 13b 내에서 미도시)를 포함할 수 있다. 예를 들면, 프런트 커버(1321)는, 하나 이상의 제2 이미지 센서들(1250-2)을 포함할 수 있다.
예를 들면, 프런트 커버(1321)는, 상기 제1 상태 및 상기 제2 상태를 포함하는 복수의 상태들을 위한 전자 장치(101)의 적어도 하나의 구조와 결합될 수 있다. 예를 들면, 프런트 커버(1321)는, 구동부(1360)의 랙 기어(1363)를 고정시킬 수 있다.
예를 들면, 프런트 커버(1321)는, 슬라이드 커버(1322)와 결합될 수 있다.
예를 들면, 슬라이드 커버(1322)는, 프런트 커버(1321) 내에 결합된 전자 장치(101)의 적어도 하나의 구성요소 및/또는 프런트 커버(1321) 내에 결합된 전자 장치(101)의 적어도 하나의 구조를 보호하기 위해, 프런트 커버(1321)와 결합될 수 있다. 예를 들면, 슬라이드 커버(1322)는, 상기 적어도 하나의 구성요소를 위한 구조를 포함할 수 있다. 예를 들면, 슬라이드 커버(1322)는, 하나 이상의 제2 이미지 센서들(1250-2)을 위한 하나 이상의 개구들(1326)을 포함할 수 있다. 예를 들면, 하나 이상의 개구들(1326)은, 프런트 커버(1321) 상에 배치된 하나 이상의 제2 이미지 센서들(1250-2)과 정렬될 수 있다. 예를 들면, 하나 이상의 개구들(1326) 각각의 사이즈는, 하나 이상의 제2 이미지 센서들(1250-2) 각각의 사이즈에 대응할 수 있다.
예를 들면, 디스플레이(1230)는, 지지 부재(1331)를 포함할 수 있다. 예를 들면, 지지 부재(1331)는, 복수의 바들을 포함할 수 있다. 예를 들면, 상기 복수의 바들은, 서로 결합될 수 있다.
예를 들면, 구동부(1360)는, 모터(1361), 피니언 기어(1362), 및 랙 기어(1363)를 포함할 수 있다.
예를 들면, 모터(1361)는, 배터리(189)로부터의 전력에 기반하여, 동작할 수 있다. 예를 들면, 상기 전력은, 상기 미리 정의된 사용자 입력에 응답하여, 모터(1361)에게 제공될 수 있다.
예를 들면, 피니언 기어(1362)는, 모터(1361)와 샤프트를 통해 결합될 수 있다. 예를 들면, 피니언 기어(1362)는, 상기 샤프트를 통해 전달되는 모터(1361)의 상기 동작에 기반하여, 회전될 수 있다.
예를 들면, 랙 기어(1363)는, 피니언 기어(1362)와 관련하여 배열될 수 있다. 예를 들면, 랙 기어(1363)의 이들(teeth)은 피니언 기어(1362)의 이들과 맞물릴 수 있다. 예를 들면, 랙 기어(1363)는, 피니언 기어(1362)의 회전에 따라, 제1 방향(1261) 또는 제2 방향(1262)으로 이동될 수 있다. 예를 들면, 제2 하우징(1220)은, 모터(1361)의 상기 동작으로 인한 피니언 기어(1362)의 상기 회전에 따라 이동되는 랙 기어(1363)에 의해, 제1 방향(1261) 및 제2 방향(1262)으로 이동될 수 있다. 예를 들면, 전자 장치(101)의 상기 제1 상태는, 제1 방향(1261)으로의 제2 하우징(1220)의 상기 이동을 통해, 상기 제1 상태와 다른 상태(예: 상기 하나 이상의 중간 상태들 또는 상기 제2 상태)로 변경될 수 있다. 예를 들면, 전자 장치(101)의 상기 제2 상태는, 제2 방향(1262)으로의 제2 하우징(1220)의 상기 이동을 통해, 상기 제2 상태와 다른 상태(예: 상기 하나 이상의 중간 상태들 또는 상기 제1 상태)로 변경될 수 있다. 예를 들면, 상기 제1 상태가 구동부(1360)에 의해 상기 제2 상태로 변경되는 것 및 상기 제2 상태가 구동부(1360)에 의해 상기 제1 상태로 변경되는 것은, 도 14a 및 도14b를 통해 예시될 수 있다.
도 14a는, 일 실시 예에 따른, 제1 상태 내의 전자 장치의 단면도(cross-sectional view)의 일 예를 도시한다. 도 14b는, 일 실시 예에 따른, 제2 상태 내의 전자 장치의 단면도의 일 예를 도시한다.
도 14a 및 도 14b를 참조하면, 모터(1361)는, 상기 제1 상태인 상태(1490) 내에서 수신되는 상기 미리 정의된 사용자 입력에 적어도 일부 기반하여, 동작될 수 있다. 예를 들면, 피니언 기어(1362)는, 모터(1361)의 상기 동작에 적어도 일부 기반하여, 제1 회전 방향(1411)으로 회전될 수 있다. 예를 들면, 랙 기어(1363)는, 제1 회전 방향(1411)으로의 피니언 기어(1362)의 상기 회전에 적어도 일부 기반하여, 제1 방향(1361)으로 이동될 수 있다. 예를 들면, 제2 하우징(1320) 내의 프런트 커버(1321)는 랙 기어(1363)를 고정시키기 때문에, 제2 하우징(1320)은, 제1 방향(1361)으로의 랙 기어(1363)의 상기 이동에 적어도 일부 기반하여, 제1 방향(1261)으로 이동될 수 있다. 예를 들면, 제2 하우징(1320) 내의 프런트 커버(1321)는, 디스플레이(1230)의 영역(1230a)의 적어도 일부와 결합되고, 랙 기어(1363)를 고정시키기 때문에, 디스플레이(1230)는, 제1 방향(1361)으로의 랙 기어(1363)의 상기 이동에 적어도 일부 기반하여, 이동될 수 있다. 예를 들면, 디스플레이(1230)는, 레일들(1313a)을 따라(along) 이동될 수 있다. 예를 들면, 디스플레이(1230)의 지지 부재(1331)의 상기 복수의 바들의 적어도 일부의 형상은, 상태(1490)가 상기 제2 상태인 상태(1495)로 변경될 시, 변경될 수 있다.
예를 들면, 디스플레이(1230)의 영역(1230b)은, 디스플레이(1230)의 상기 이동에 따라, 이동될 수 있다. 예를 들면, 영역(1230b)은, 상태(1490)가 상기 미리 정의된 사용자 입력에 따라 상태(1495)로 변경될 시, 북 커버(1311)와 프레임 커버(1313) 사이의 공간을 통해 이동될 수 있다. 예를 들면, 상태(1495) 내에서의 영역(1230b)은, 상태(1490) 내에서 상기 공간 안으로 말려진(rolled into) 영역(1230b)과 달리, 노출될 수 있다.
예를 들면, 제2 하우징(1320) 내의 프런트 커버(1321)는, FPCB(1325)의 상기 다른 단과 연결된 PCB(1324)와 결합되고, 랙 기어(1363)를 고정시키기 때문에, FPCB(1325)의 형상은, 상태(1490)가 상태(1495)로 변경될 시, 변경될 수 있다.
모터(1361)는, 상태(1495) 내에서 수신되는 상기 미리 정의된 사용자 입력에 적어도 일부 기반하여, 동작될 수 있다. 예를 들면, 피니언 기어(1362)는, 모터(1361)의 상기 동작에 적어도 일부 기반하여, 제2 회전 방향(1412)으로 회전될 수 있다. 예를 들면, 랙 기어(1363)는, 제2 회전 방향(1412)으로의 피니언 기어(1362)의 상기 회전에 적어도 일부 기반하여, 제2 방향(1362)으로 이동될 수 있다. 예를 들면, 제2 하우징(1320) 내의 프런트 커버(1321)는 랙 기어(1363)를 고정시키기 때문에, 제2 하우징(1320)은, 제2 방향(1362)으로의 랙 기어(1363)의 상기 이동에 적어도 일부 기반하여, 제2 방향(1262)으로 이동될 수 있다. 예를 들면, 제2 하우징(1320) 내의 프런트 커버(1321)는, 디스플레이(1230)의 영역(1230a)의 적어도 일부와 결합되고, 랙 기어(1363)를 고정시키기 때문에, 디스플레이(1230)는, 제2 방향(1362)으로의 랙 기어(1363)의 상기 이동에 적어도 일부 기반하여, 이동될 수 있다. 예를 들면, 디스플레이(1230)는, 레일들(1313a)을 따라(along) 이동될 수 있다. 예를 들면, 디스플레이(1230)의 지지 부재(1331)의 상기 복수의 바들의 적어도 일부의 형상은, 상태(1495)가 상태(1490)로 변경될 시, 변경될 수 있다.
예를 들면, 디스플레이(1230)의 영역(1230b)은, 디스플레이(1230)의 상기 이동에 따라, 이동될 수 있다. 예를 들면, 영역(1230b)은, 상태(1495)가 상기 미리 정의된 사용자 입력에 따라 상태(1490)로 변경될 시, 북 커버(1311)와 프레임 커버(1313) 사이의 공간을 통해 이동될 수 있다. 예를 들면, 상태(1490) 내에서의 영역(1230b)은, 상태(1495) 내에서 노출되는 영역(1230b)과 달리, 상기 공간 안으로 말려질(rolled into) 수 있다.
예를 들면, 제2 하우징(1320) 내의 프런트 커버(1321)는, FPCB(1325)의 상기 다른 단과 연결된 PCB(1324)와 결합되고, 랙 기어(1363)를 고정시키기 때문에, FPCB(1325)의 형상은, 상태(1495)가 상태(1490)로 변경될 시, 변경될 수 있다.
도 12a 내지 도 14b는, 포트레이트 모드(portrait mode) 내에서 상기 제1 상태(또는 상기 제2상태)가 상기 제2 상태(또는 상기 제1 상태)로 변경될 시 상기 표시 영역의 높이(height)가 변경되고 상기 표시 영역의 폭(width)이 유지되는 전자 장치(101)를 도시하고 있으나, 이는 설명의 편의를 위한 것이다. 예를 들면, 전자 장치(101)는, 상기 포트레이트 모드 내에서 상기 제1 상태(또는 상기 제2상태)가 상기 제2 상태(또는 상기 제1 상태)로 변경될 시, 상기 표시 영역의 높이가 유지되고 상기 표시 영역의 폭이 변경되는 것으로, 구현될 수 있다.
상술한 바와 같이, 전자 장치(electronic device)(101)는, 제1 하우징(housing)(211), 상기 1 하우징(211)에 대하여 이동가능한 제2 하우징(212), 상기 제2 하우징(212)의 상기 이동에 따라, 연장되거나 감소되는 표시 영역을 포함하는 디스플레이(140), 및 프로세서(120)를 포함할 수 있다. 상기 프로세서(120)는, 상기 표시 영역 내에 콘텐트의 제1 부분을 표시하는 동안, 상기 제1 하우징(211) 밖으로 노출된 상기 표시 영역의 사이즈가 연장됨을 식별할 수 있다. 상기 프로세서는, 상기 표시 영역이 연장됨을 식별하는 것에 기반하여, 상기 표시 영역을 통하여 표시된 콘텐트의 속성(attribute)을 식별할 수 있다. 상기 프로세서는, 상기 속성에 기반하여, 상기 연장된 사이즈를 가지는 상기 표시 영역 내에, 상기 콘텐트의 상기 제1 부분과 함께, 상기 콘텐트 내에서 상기 제1 부분에 연결된 제2 부분을 표시 할 수 있다.
일 실시 예에 따른, 상기 프로세서는, 상기 콘텐트 내에 포함된 이미지, 상기 콘텐트 내에 포함된 텍스트, 상기 콘텐트 내에 포함된 비디오, 또는 상기 콘텐트 내에 포함된 컨테이너 중 적어도 하나에 기반하여, 상기 속성을 식별할 수 있다.
일 실시 예에 따른, 상기 프로세서는, 상기 속성에 기반하여 상기 콘텐트 내에 포함된 일(an) 이미지의 상기 제1 부분이 상기 표시 영역을 통해 표시됨을 식별하는 것에 기반하여, 상기 연장된 사이즈를 가지는 상기 표시 영역의 중심 점에 배치된 상기 제1 부분과 함께, 상기 이미지의 상기 제2 부분을 표시할 수 있다.
일 실시 예에 따른, 상기 프로세서는, 상기 속성에 기반하여 상기 콘텐트 내에 포함된 상기 이미지 내에서 시각적 객체를 식별할 수 있다. 상기 프로세서는, 상기 시각적 객체를 식별한 것에 기반하여, 상기 표시 영역 내에 상기 시각적 객체의 표시를 유지할 수 있다.
일 실시 예에 따른, 상기 프로세서는, 상기 속성에 기반하여 상기 콘텐트 내에 포함된 적어도 하나의 컨테이너에 기반하여, 상기 컨테이너를 포함하는 상기 제1 부분을 표시할 수 있다. 상기 프로세서는, 상기 제1 부분의 표시 영역 내에서의 위치를 고정한 상태 내에서, 상기 제1 부분과 상이하고, 상기 제1 부분에 연결된 제2 부분을 표시할 수 있다.
일 실시 예에 따른, 상기 프로세서는, 상기 속성에 기반하여 식별된 일(an) 이미지를 식별한 것에 기반하여, 상기 이미지 내에 포함된 복수의 시각적 객체들을 식별할 수 있다. 상기 프로세서는, 상기 복수의 시각적 객체들을 포함하는 영역의 중심 점을, 상기 표시 영역의 중심 점에 대응하여 표시할 수 있다.
일 실시 예에 따른, 상기 프로세서는, 상기 표시 영역이 연장된 것에 기반하여, 상기 표시 영역 내에 표시되는 상기 콘텐트의 제1 유저 인터페이스(user interface)를 제2 유저 인터페이스로 변경하여 표시할 수 있다.
일 실시 예에 따른, 상기 프로세서는, 상기 콘텐트의 상기 제1 유저 인터페이스를 변경할 때에, 상기 표시 영역의 알파 값(alpha value)을 조절한 것에 기반하여, 상기 제1 유저 인터페이스를 상기 제2 유저 인터페이스로 변경할 수 있다.
일 실시 예에 따른, 상기 프로세서는, 상기 제1 유저 인터페이스 내에서 표시하는 정보와 상이한 정보를, 상기 제2 유저 인터페이스 내에서 표시할 수 있다.
일 실시 예에 따른, 상기 프로세서는, 상기 제2 하우징의 상기 이동에 기반하여, 상기 제2 하우징이 이동하는 방향에 대응하여, 상기 콘텐트를 이동하여 표시할 수 있다.
상술한 바와 같이, 일 실시 예에 따른, 전자 장치(electronic device)의 방법은, 표시 영역 내에 콘텐트의 제1 부분을 표시하는 동안, 제1 하우징 밖으로 노출된 상기 표시 영역의 사이즈가 연장됨을 식별하는 동작을 포함할 수 있다. 상기 전자 장치의 상기 방법은, 상기 표시 영역이 연장됨을 식별하는 것에 기반하여, 상기 표시 영역을 통하여 표시된 콘텐트의 속성(attribute)을 식별하는 동작을 포함할 수 있다. 상기 전자 장치의 상기 방법은, 상기 속성에 기반하여, 상기 연장된 사이즈를 가지는 상기 표시 영역 내에, 상기 콘텐트의 상기 제1 부분과 함께, 상기 콘텐트 내에서 상기 제1 부분과 연결된 제2 부분을 표시하는 동작을 포함할 수 있다.
일 실시 예에 따른, 상기 전자 장치의 상기 방법은, 상기 콘텐트 내에 포함된 이미지, 상기 콘텐트 내에 포함된 텍스트, 상기 콘텐트 내에 포함된 비디오, 또는 상기 콘텐트 내에 포함된 컨테이너, 중 적어도 하나에 기반하여, 상기 속성을 식별하는 동작을 포함할 수 있다.
일 실시 예에 따른, 상기 전자 장치의 상기 방법은, 상기 속성에 기반하여 상기 콘텐트 내에 포함된 일(an) 이미지의 상기 제1 부분이 상기 표시 영역을 통해 표시됨을 식별하는 것에 기반하여, 상기 연장된 사이즈를 가지는 상기 표시 영역의 중심 점에 배치된 상기 제1 부분과 함께, 상기 이미지의 상기 제2 부분을 표시하는 동작을 포함할 수 있다.
일 실시 예에 따른, 상기 전자 장치의 상기 방법은, 상기 속성에 기반하여 상기 콘텐트 내에 포함된 상기 이미지 내에서 시각적 객체를 식별하는 동작을 포함할 수 있다. 상기 전자 장치의 상기 방법은, 상기 시각적 객체를 식별한 것에 기반하여, 상기 표시 영역 내에 상기 시각적 객체의 표시를 유지하는 동작을 포함할 수 있다.
일 실시 예에 따른, 상기 전자 장치의 상기 방법은, 상기 속성에 기반하여 상기 콘텐트 내에 포함된 적어도 하나의 컨테이너에 기반하여, 상기 컨테이너를 포함하는 상기 제1 부분을 표시하는 동작을 포함할 수 있다. 상기 전자 장치의 상기 방법은, 상기 제1 부분의 상기 표시 영역 내에서의 위치를 고정한 상태 내에서, 상기 제1 부분과 상이하고, 상기 제1 부분에 연결된 제2 부분을 표시하는 동작을 포함할 수 있다.
일 실시 예에 따른, 상기 전자 장치의 상기 방법은, 상기 속성에 기반하여 식별된 일(an) 이미지를 식별한 것에 기반하여, 상기 이미지 내에 포함된 복수의 시각적 객체들을 식별하는 동작을 포함할 수 있다. 상기 전자 장치의 상기 방법은, 상기 복수의 시각적 객체들을 포함하는 영역의 중심 점을, 상기 표시 영역의 중심 점에 대응하여 표시하는 동작을 포함할 수 있다.
일 실시 예에 따른, 상기 전자 장치의 상기 방법은, 상기 표시 영역이 연장된 것에 기반하여, 상기 표시 영역 내에 표시되는 상기 콘텐트의 제1 유저 인터페이스를 제2 유저 인터페이스로 변경하여 표시할 수 있다.
일 실시 예에 따른, 상기 전자 장치의 상기 방법은, 상기 콘텐트의 상기 제1 유저 인터페이스를 변경할 때에, 상기 표시 영역의 알파 값을 조절한 것에 기반하여, 상기 제1 유저 인터페이스를, 상기 제2 유저 인터페이스로 변경하는 동작을 포함할 수 있다.
일 실시 예에 따른, 상기 전자 장치의 상기 방법은, 상기 제1 유저 인터페이스 내에서 표시하는 정보와 상이한 정보를 상기 제2 유저 인터페이스 내에서 표시하는 동작을 포함할 수 있다.
일 실시 예에 따른, 상기 전자 장치의 상기 방법은, 상기 제1 하우징에 대하여 이동가능한 제2 하우징의 상기 이동에 기반하여, 상기 제2 하우징이 이동하는 방향에 대응하여, 상기 콘텐트를 이동하여 표시하는 동작을 포함할 수 있다.
상술한 바와 같이, 일 실시 예에 따른, 전자 장치(electronic device)(예, 도 1의 전자 장치(101))는, 제1 하우징(housing)(예, 도 2a 내지 도 2b의 제1 하우징(211)), 상기 제1 하우징에 대하여 이동가능한 제2 하우징(예, 도 2a 내지 도 2b의 제2 하우징(212)), 상기 제2 하우징의 상기 이동에 따라, 연장되거나 감소되는 표시 영역을 포함하는 디스플레이(예, 도 1의 디스플레이(140), 및 프로세서(예, 도 1의 프로세서(120))를 포함할 수 있다. 상기 프로세서(120)는, 상기 표시 영역 내에 콘텐트를 표시하는 동안, 상기 제1 하우징(211) 밖으로 노출된 상기 표시 영역의 사이즈의 변경을 식별할 수 있다. 상기 프로세서는, 상기 표시 영역의 사이즈의 변경을 식별하는 것에 기반하여, 적어도 하나의 이미지가 상기 콘텐트에 기반하여 상기 표시 영역 내에 표시되는지 여부를 식별할 수 있다. 상기 프로세서는, 상기 적어도 하나의 이미지가 상기 콘텐트에 기반하여 표시됨을 식별한 제1 상태 내에서, 상기 표시 영역의 사이즈가 변경되는 동안, 상기 적어도 하나의 이미지가 상기 표시 영영 내에 포함되는지 여부에 적어도 기반하여 상기 표시 영역 내에서 상기 적어도 하나의 이미지를 이동할 수 있다. 상기 프로세서는, 상기 제1 상태와 상이한 제2 상태 내에서, 상기 표시 영역의 사이즈가 변경되는 동안, 상기 표시 영역 내에서 표시되는 상기 콘텐트의 일부분의 가장자리(edge)를 기준으로 상기 표시 영역 내에서 상기 콘텐트를 이동할 수 있다.
상술한 바와 같이, 일 실시 예에 따른, 전자 장치(electronic device)(예, 도 1의 전자 장치(101))는, 제1 하우징(housing)(예, 도 2a 내지 도 2b의 제1 하우징(211)), 상기 제1 하우징에 대하여 이동가능한 제2 하우징(예, 도 2a 내지 도 2b의 제2 하우징(212)), 상기 제2 하우징의 상기 이동에 따라, 연장되거나 감소되는 표시 영역을 포함하는 디스플레이(예, 도 1의 디스플레이(140)), 상기 제2 하우징의 상기 이동을 위한 액추에이터(예, 도 1의 액추에이터(150)), 및 프로세서(예, 도 1의 프로세서(120))를 포함할 수 있다. 상기 프로세서는, 상기 제1 하우징 밖으로 노출된, 표시 영역이 제1 사이즈를 가지는 동안, 상기 표시 영역의 상기 제1 사이즈와 상이한 제2 사이즈로 변경함을 나타내는 입력을 수신할 수 있다. 상기 프로세서는, 상기 수신된 입력에 기반하여 상기 액추에이터를 이용하여 상기 표시 영역의 사이즈를 변경할 수 있다. 상기 프로세서는, 적어도 하나의 이미지를 포함하는 제1 화면에 기반하여 상기 입력을 수신하는 것에 기반하여, 상기 표시 영역의 상기 사이즈가 상기 액추에이터에 의하여 변경되는 동안, 상기 적어도 하나의 이미지의 상기 표시 영역 내 위치에 기반하여, 상기 적어도 하나의 이미지를 이동할 수 있다. 상기 프로세서는, 상기 제1 화면과 상이한 제2 화면에 기반하여 상기 입력을 수신하는 것에 기반하여, 상기 표시 영역의 상기 사이즈가 상기 액추에이터에 의하여 변경되는 동안, 상기 제1 사이즈에 기반하는 상기 제2 화면 상에 중첩으로, 상기 제2 화면에 대응하는 어플리케이션으로부터 획득되고, 상기 제2 사이즈를 가지는 제3 화면을 표시할 수 있다.
일 실시 예에 따른, 상기 프로세서는, 상기 표시 영역의 상기 사이즈가 상기 제2 사이즈 보다 큰 상기 제1 사이즈를 가지는 동안, 상기 적어도 하나의 이미지를 식별한 상태 내에서 상기 입력을 수신하는 것에 기반하여, 상기 표시 영역의 사이즈가 변경되는 동안, 상기 이미지 내에서 식별된 시각적 객체에 기반하여 상기 이미지를 이동할 수 있다.
일 실시 예에 따른, 상기 프로세서는, 상기 적어도 하나의 이미지를 포함하는 복수의 이미지들을 스크롤하기 위한 영역을 포함하는 상태 내에서 상기 입력을 수신하는 것에 기반하여, 상기 표시 영역의 사이즈가 변경되는 동안, 상기 영역의 스크롤에 기반하여 상기 복수의 이미지들 중 어느 하나의 표시를 유지할 수 있다.
일 실시 예에 따른, 상기 프로세서는, 상기 표시 영역의 사이즈를 변경하는 동안, 상기 제3 화면, 및 상기 제1 사이즈에 기반하여 표시되는 제4 화면을 알파 값에 기반하여 결합하여 표시할 수 있다.
일 실시 예에 따른, 상기 프로세서는, 상기 적어도 하나의 이미지 내에서 식별된 복수의 시각적 객체들을 식별한 것에 기반하여, 상기 복수의 시각적 객체들의 상기 표시 영역 내의 표시를 유지할 수 있다.
상술한 바와 같이, 일 실시 예에 따른, 전자 장치(electronic device)(예, 도 1의 전자 장치(101))는, 제1 하우징(housing)(예, 도 2a 내지 도 2b의 제1 하우징(211)), 상기 제1 하우징에 대하여 이동가능한 제2 하우징(예, 도 2a 내지 도 2b의 제2 하우징(212)), 상기 제2 하우징의 상기 이동에 따라, 연장되거나 감소되는 표시 영역을 포함하는 디스플레이(예, 도 1의 디스플레이(140)), 상기 제2 하우징의 상기 이동을 위한 액추에이터(예, 도 1의 액추에이터(150)), 및 프로세서(예, 도 1의 프로세서(120))를 포함할 수 있다. 상기 프로세서는, 상기 제1 하우징 밖으로 노출된, 표시 영역이 제1 사이즈를 가지는 동안, 이미지를 표시할 수 있다. 상기 프로세서는, 상기 이미지가 상기 제1 사이즈를 가지는 상기 표시 영역 내에서 표시되는 동안, 상기 표시 영역의 사이즈를 상기 제1 사이즈로부터 상기 제1 사이즈보다 작은 제2 사이즈로 변경함을 나타내는 입력을 수신할 수 있다. 상기 프로세서는, 상기 입력에 응답하여 상기 표시 영역의 사이즈가 제1 방향(예, 도 3의 제1 방향(a))으로의 상기 제2 하우징의 이동에 따라 상기 제1 사이즈로부터 상기 제2 사이즈로 변경되는 동안, 상기 이미지로부터 식별된 상기 이미지의 일부를 상기 제1 방향에 반대인 제2 방향(예, 도 3의 제2 방향(b))으로 이동함으로써, 상기 이미지의 상기 일부의 표시를 유지할 수 있다.
일 실시 예에 따른, 상기 프로세서는, 상기 사이즈의 상기 변경의 완료에 응답하여 상기 제2 방향으로의 상기 이동이 중단된 상기 이미지의 상기 일부를, 상기 제2 사이즈를 가지는 상기 표시 영역 내의 미리 결정된 부분 영역 내에서 표시할 수 있다.
일 실시 예에 따른, 상기 표시 영역 내의 상기 미리 결정된 부분은, 상기 표시 영역의 제1 가장자리, 및 상기 제1 가장자리 보다 짧은 제2 가장자리 중 상기 제1 가장자리의 중점을 포함할 수 있다.
일 실시 예에 따른, 상기 프로세서는, 상기 입력에 응답하여 상기 사이즈가 제1 방향으로의 상기 제2 하우징의 이동에 따라 상기 제1 사이즈로부터 상기 제2 사이즈로 변경되는 동안, 제1 영역(예, 도 5의 영역(515))인 상기 이미지로부터 식별된 상기 이미지의 일부, 및 상기 제1 영역과 상이한, 상기 이미지로부터 식별된 제2 영역(예, 도 5의 영역(525))을 포함하는 제3 영역(예, 도 5의 영역(530))을 상기 제1 방향에 반대인 제2 방향으로 이동함으로써, 상기 제3 영역의 표시를 유지할 수 있다.
일 실시 예에 따른, 상기 프로세서는, 상기 사이즈의 상기 변경의 완료에 응답하여 상기 제2 방향으로의 상기 이동이 중단된 상기 제3 영역을, 상기 제2 사이즈를 가지는 상기 표시 영역 내의 미리 결정된 부분 영역 내에서 표시할 수 있다.
일 실시 예에 따른, 상기 프로세서는, 상기 입력에 응답하여 상기 사이즈가 제1 방향으로의 상기 제2 하우징의 이동에 따라 상기 제1 사이즈로부터 상기 제2 사이즈로 변경되는 동안, 제1 영역인 상기 이미지의 상기 일부, 및 상기 제1 영역과 상이한, 상기 이미지로부터 식별된 제2 부분 영역 중 상기 제2 영역 보다 큰 상기 제1 영역을 식별한 것에 기반하여, 상기 제1 영역을 상기 제1 방향에 반대인 제2 방향으로 이동함으로써, 상기 제1 영역, 및 상기 제2 영역 중에서 상기 제1 영역의 표시를 유지할 수 있다.
일 실시 예에 따른, 상기 프로세서는, 피사체가 캡쳐된 상기 이미지의 일부를 식별한 상태와 상이한 상태 내에서, 상기 입력에 응답하여 상기 사이즈가 제1 방향으로의 상기 제2 하우징의 이동에 따라 상기 제1 사이즈로부터 상기 제2 사이즈로 변경되는 동안, 상기 이미지의 제1 가장자리, 및 상기 제1 가장자리 보다 짧은 제2 가장자리 중 상기 제1 가장자리의 중점을 상기 표시 영역의 미리 결정된 영역으로 이동할 수 있다.
일 실시 예에 따른, 상기 프로세서는, 상기 제1 사이즈를 가지는 상기 표시 영역 내에서, 상기 제1 방향, 또는 상기 제2 방향을 따라 스크롤가능한(scrollable) 영역 내에, 상기 이미지, 및 적어도 하나의 시각적 객체를 상기 제1 방향을 따라 연속으로(in series) 표시할 수 있다. 상기 프로세서는, 상기 입력에 응답하여 상기 영역 내에서 연속으로 표시되는 상기 이미지, 및 상기 적어도 하나의 시각적 객체를, 상기 제2 방향으로 이동할 수 있다.
일 실시 예에 따른, 상기 프로세서는, 상기 표시 영역의 상기 영역 내에서, 복수의 시각적 객체들을 식별한 것에 기반하여, 상기 복수의 시각적 객체들 중 상기 적어도 하나의 시각적 객체, 및 상기 이미지를 상기 제2 방향으로 이동할 수 있다.
일 실시 예에 따른, 상기 프로세서는, 상기 사이즈의 상기 변경의 완료에 응답하여 상기 제2 방향으로의 상기 이동이 중단된 상기 이미지, 및 적어도 하나의 시각적 객체를 상기 제2 사이즈를 가지는 상기 표시 영역 내의 미리 결정된 부분 영역 내에서 표시할 수 있다.
상술한 바와 같이, 일 실시 예에 따른, 전자 장치(electronic device)는, 제1 하우징(housing)(예, 도 2a 내지 도 2b의 제1 하우징(211)), 상기 제1 하우징에 대하여 이동가능한 제2 하우징(예, 도 2a 내지 도 2b의 제2 하우징(212)), 상기 제2 하우징의 상기 이동에 따라, 연장되거나 감소되는 표시 영역을 포함하는 디스플레이(예, 도 1의 디스플레이(140)), 상기 제2 하우징의 상기 이동을 위한 액추에이터(예, 도 1의 액추에이터(150)), 및 프로세서(예, 도 1의 프로세서(120))를 포함할 수 있다. 상기 프로세서는, 상기 제1 하우징 밖으로 노출된, 표시 영역이 제1 사이즈를 가지는 동안, 어플리케이션으로부터 제공된 제1 화면을 표시할 수 있다. 상기 프로세서는, 상기 제1 화면이 상기 제1 사이즈를 가지는 상기 표시 영역 내에서 표시되는 동안, 상기 표시 영역의 사이즈를 상기 제1 사이즈로부터 상기 제1 사이즈와 상이한 제2 사이즈로 변경함을 나타내는 입력을 수신할 수 있다. 상기 프로세서는, 상기 입력에 응답하여 상기 어플리케이션에 기반하여 상기 제2 사이즈에 기반하는 제2 화면을 표현하는(representing) 이미지를 획득할 수 있다. 상기 프로세서는, 상기 표시 영역의 사이즈가 상기 입력에 기반하여 제1 방향으로의 상기 제2 하우징의 이동에 따라 상기 제1 사이즈로부터 상기 제2 사이즈로 변경되는 동안, 상기 제1 화면 상에 중첩으로, 상기 이미지의 적어도 일부분을 표시할 수 있다. 상기 프로세서는, 상기 표시 영역의 사이즈가 상기 제2 사이즈로 변경된 이후, 상기 제2 사이즈의 상기 표시 영역 내에 상기 제2 화면을 표시할 수 있다.
일 실시 예에 따른, 상기 프로세서는, 상기 입력에 응답하여 상기 사이즈가 제1 방향으로의 상기 제2 하우징의 이동에 따라 상기 제1 사이즈로부터 상기 제2 사이즈로 변경되는 동안, 상기 제1 화면의 일부, 및 상기 제2 화면의 일부를 상기 제1 방향에 반대인 제2 방향으로 이동함으로써, 상기 일부의 표시를 유지할 수 있다.
일 실시 예에 따른, 상기 프로세서는, 상기 이미지의 적어도 일부분으로부터 상기 제2 화면으로 전환되는 동안, 상기 이미지의 적어도 일부를 페이드-아웃(fade-out)함으로써, 상기 표시 영역 내에 상기 제2 화면을 표시할 수 있다.
상술한 바와 같이, 일 실시 예에 따른, 전자 장치(electronic device)(예, 도 1의 전자 장치(101))의 방법은, 제1 하우징(예, 도 2a 내지 도 2b의 제1 하우징(211)) 밖으로 노출된, 표시 영역이 제1 사이즈를 가지는 동안, 이미지를 표시하는 동작을 포함할 수 있다. 상기 전자 장치의 상기 방법은, 상기 이미지가 상기 제1 사이즈를 가지는 상기 표시 영역 내에서 표시되는 동안, 상기 표시 영역의 사이즈를 상기 제1 사이즈로부터 상기 제1 사이즈보다 작은 제2 사이즈로 변경함을 나타내는 입력을 수신하는 동작을 포함할 수 있다. 상기 전자 장치의 상기 방법은, 상기 입력에 응답하여 상기 표시 영역의 사이즈가 제1 방향(예, 도 3의 제1 방향(a))으로의 제2 하우징(예, 도 2a 내지 도 2b의 제2 하우징(212))의 이동에 따라 상기 제1 사이즈로부터 상기 제2 사이즈로 변경되는 동안, 상기 이미지로부터 식별된 상기 이미지의 일부를 상기 제1 방향에 반대인 제2 방향(예, 도 3의 제2 방향(b))으로 이동함으로써, 상기 이미지의 상기 일부의 표시를 유지하는 동작을 포함할 수 있다.
일 실시 예에 따른, 상기 전자 장치의 상기 방법은, 상기 사이즈의 상기 변경의 완료에 응답하여 상기 제2 방향으로의 상기 이동이 중단된 상기 이미지의 상기 일부를, 상기 제2 사이즈를 가지는 상기 표시 영역 내의 미리 결정된 부분 영역 내에서 표시하는 동작을 포함할 수 있다.
일 실시 예에 따른, 상기 표시 영역 내의 상기 미리 결정된 부분은, 상기 표시 영역의 제1 가장자리, 및 상기 제1 가장자리 보다 짧은 제2 가장자리 중 상기 제1 가장자리의 중점을 포함할 수 있다.
일 실시 예에 따른, 상기 전자 장치의 상기 방법은, 상기 입력에 응답하여 상기 사이즈가 제1 방향으로의 상기 제2 하우징의 이동에 따라 상기 제1 사이즈로부터 상기 제2 사이즈로 변경되는 동안, 제1 영역인 상기 이미지로부터 식별된 상기 이미지의 일부, 및 상기 제1 영역과 상이한, 상기 이미지로부터 식별된 제2 영역을 포함하는 제3 영역을 상기 제1 방향에 반대인 제2 방향으로 이동함으로써, 상기 제3 영역의 표시를 유지하는 동작을 포함할 수 있다.
일 실시 예에 따른, 상기 전자 장치의 상기 방법은, 상기 사이즈의 상기 변경의 완료에 응답하여 상기 제2 방향으로의 상기 이동이 중단된 상기 제3 영역을, 상기 제2 사이즈를 가지는 상기 표시 영역 내의 미리 결정된 부분 영역 내에서 표시하는 동작을 포함할 수 있다.
일 실시 예에 따른, 상기 전자 장치의 상기 방법은, 상기 입력에 응답하여 상기 사이즈가 제1 방향으로의 상기 제2 하우징의 이동에 따라 상기 제1 사이즈로부터 상기 제2 사이즈로 변경되는 동안, 제1 영역인 상기 이미지의 상기 일부, 및 상기 제1 영역과 상이한, 상기 이미지로부터 식별된 제2 부분 영역 중 상기 제2 영역 보다 큰 상기 제1 영역을 식별한 것에 기반하여, 상기 제1 영역을 상기 제1 방향에 반대인 제2 방향으로 이동함으로써, 상기 제1 영역, 및 상기 제2 영역 중에서 상기 제1 영역의 표시를 유지하는 동작을 포함할 수 있다.
일 실시 예에 따른, 상기 전자 장치의 상기 방법은, 피사체가 캡쳐된 상기 이미지의 일부를 식별한 상태와 상이한 상태 내에서, 상기 입력에 응답하여 상기 사이즈가 제1 방향으로의 상기 제2 하우징의 이동에 따라 상기 제1 사이즈로부터 상기 제2 사이즈로 변경되는 동안, 상기 이미지의 제1 가장자리, 및 상기 제1 가장자리 보다 짧은 제2 가장자리 중 상기 제1 가장자리의 중점을 상기 표시 영역의 미리 결정된 영역으로 이동하는 동작을 포함할 수 있다.
일 실시 예에 따른, 상기 전자 장치의 상기 방법은, 상기 제1 사이즈를 가지는 상기 표시 영역 내에서, 상기 제1 방향, 또는 상기 제2 방향을 따라 스크롤가능한(scrollable) 영역 내에, 상기 이미지, 및 적어도 하나의 시각적 객체를 상기 제1 방향을 따라 연속으로(in series) 표시하는 동작을 포함할 수 있다. 상기 전자 장치의 상기 방법은, 상기 입력에 응답하여 상기 영역 내에서 연속으로 표시되는 상기 이미지, 및 상기 적어도 하나의 시각적 객체를, 상기 제2 방향으로 이동하는 동작을 포함할 수 있다.
일 실시 예에 따른, 상기 전자 장치의 상기 방법은, 상기 표시 영역의 상기 영역 내에서, 복수의 시각적 객체들을 식별한 것에 기반하여, 상기 복수의 시각적 객체들 중 상기 적어도 하나의 시각적 객체, 및 상기 이미지를 상기 제2 방향으로 이동하는 동작을 포함할 수 있다.
일 실시 예에 따른, 상기 전자 장치의 상기 방법은, 상기 사이즈의 상기 변경의 완료에 응답하여 상기 제2 방향으로의 상기 이동이 중단된 상기 이미지, 및 적어도 하나의 시각적 객체를 상기 제2 사이즈를 가지는 상기 표시 영역 내의 미리 결정된 부분 영역 내에서 표시하는 동작을 포함할 수 있다.
상술한 바와 같이, 일 실시 예에 따른, 전자 장치(electronic device)(예, 도 1의 전자 장치(101))의 방법은, 제1 하우징(예, 도 2a 내지 도 2b의 제1 하우징(211)) 밖으로 노출된, 표시 영역이 제1 사이즈를 가지는 동안, 어플리케이션으로부터 제공된 제1 화면을 표시하는 동작을 포함할 수 있다. 상기 전자 장치의 상기 방법은, 상기 제1 화면이 상기 제1 사이즈를 가지는 상기 표시 영역 내에서 표시되는 동안, 상기 표시 영역의 사이즈를 상기 제1 사이즈로부터 상기 제1 사이즈와 상이한 제2 사이즈로 변경함을 나타내는 입력을 수신하는 동작을 포함할 수 있다. 상기 전자 장치의 상기 방법은, 상기 입력에 응답하여 상기 어플리케이션에 기반하여 상기 제2 사이즈에 기반하는 제2 화면을 표현하는(representing) 이미지를 획득하는 동작을 포함할 수 있다. 상기 전자 장치의 상기 방법은, 상기 표시 영역의 사이즈가 상기 입력에 기반하여 제1 방향(예, 도 3의 제1 방향(a))으로의 제2 하우징(예, 도 2a 내지 도 2b의 제2 하우징(212))의 이동에 따라 상기 제1 사이즈로부터 상기 제2 사이즈로 변경되는 동안, 상기 제1 화면 상에 중첩으로, 상기 이미지의 적어도 일부분을 표시하는 동작을 포함할 수 있다. 상기 전자 장치의 상기 방법은, 상기 표시 영역의 사이즈가 상기 제2 사이즈로 변경된 이후, 상기 제2 사이즈의 상기 표시 영역 내에 상기 제2 화면을 표시하는 동작을 포함할 수 있다.
일 실시 예에 따른, 상기 전자 장치의 상기 방법은, 상기 입력에 응답하여 상기 사이즈가 제1 방향으로의 상기 제2 하우징의 이동에 따라 상기 제1 사이즈로부터 상기 제2 사이즈로 변경되는 동안, 상기 제1 화면의 일부, 및 상기 제2 화면의 일부를 상기 제1 방향에 반대인 제2 방향으로 이동함으로써, 상기 일부의 표시를 유지하는 동작을 포함할 수 있다.
일 실시 예에 따른, 상기 전자 장치의 상기 방법은, 상기 이미지의 적어도 일부분으로부터 상기 제2 화면으로 전환되는 동안, 상기 이미지의 적어도 일부를 페이드-아웃(fade-out)함으로써, 상기 표시 영역 내에 상기 제2 화면을 표시하는 동작을 포함할 수 있다.
본 문서에 개시된 다양한 실시예들에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치(예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 전자 장치, 또는 가전 장치를 포함할 수 있다. 본 문서의 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.
본 문서의 다양한 실시예들 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시예들로 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나", "A 또는 B 중 적어도 하나", "A, B 또는 C", "A, B 및 C 중 적어도 하나", 및 "A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에, "기능적으로" 또는 "통신적으로"라는 용어와 함께 또는 이런 용어 없이, "커플드" 또는 "커넥티드"라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 제 3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.
본 문서의 다양한 실시예들에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로와 같은 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일실시예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다.
본 문서의 다양한 실시예들은 기기(machine)(예: 전자 장치(101)) 의해 읽을 수 있는 저장 매체(storage medium)(예: 내장 메모리 또는 외장 메모리)에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예: 프로그램)로서 구현될 수 있다. 예를 들면, 기기(예: 전자 장치(101))의 프로세서(예: 프로세서(120))는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장 매체는, 비일시적(non-transitory) 저장 매체의 형태로 제공될 수 있다. 여기서, ‘비일시적’은 저장 매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장 매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.
일 실시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory(CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어™)를 통해 또는 두 개의 사용자 장치들(예: 스마트 폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.
다양한 실시예들에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있으며, 복수의 개체 중 일부는 다른 구성요소에 분리 배치될 수도 있다. 다양한 실시예들에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시예들에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.

Claims (15)

  1. 전자 장치(electronic device)(101)에 있어서,
    제1 하우징(housing)(211);
    상기 제1 하우징(211)에 대하여 이동가능한 제2 하우징(212);
    상기 제2 하우징(212)의 상기 이동에 따라, 연장되거나 감소되는 표시 영역을 포함하는 디스플레이(140); 및
    프로세서(120)를 포함하고,
    상기 프로세서(120)는,
    상기 표시 영역 내에 콘텐트의 제1 부분(320; 340; 360)을 표시하는 동안, 상기 제1 하우징(211) 밖으로 노출된 상기 표시 영역의 사이즈가 연장됨을 식별하고;
    상기 표시 영역의 사이즈가 연장됨을 식별하는 것에 기반하여, 상기 표시 영역을 통하여 표시된 콘텐트의 속성(attribute)을 식별하고; 및
    상기 속성에 기반하여, 상기 연장된 사이즈를 가지는 상기 표시 영역 내에, 상기 콘텐트의 상기 제1 부분(320; 340; 360)과 함께, 상기 콘텐트 내에서 상기 제1 부분(320; 340; 360)에 연결된 제2 부분(330; 350; 370)을 표시하도록, 구성된,
    전자 장치(101).
  2. 제1 항에 있어서,
    상기 프로세서(120)는,
    상기 콘텐트 내에 포함된 이미지, 상기 콘텐트 내에 포함된 텍스트, 상기 콘텐트 내에 포함된 비디오, 또는 상기 콘텐트 내에 포함된 컨테이너 중 적어도 하나에 기반하여, 상기 속성을 식별하도록, 구성된,
    전자 장치(101).
  3. 제1 항 내지 제2 항 중 어느 한 항에 있어서,
    상기 프로세서(120)는,
    상기 속성에 기반하여 상기 콘텐트 내에 포함된 일(an) 이미지의 상기 제1 부분(320; 340; 360)이 상기 표시 영역을 통해 표시됨을 식별하는 것에 기반하여, 상기 연장된 사이즈를 가지는 상기 표시 영역의 중심 점에 배치된 상기 제1 부분(320; 340; 360)과 함께, 상기 이미지의 상기 제2 부분(330; 350; 370)을 표시하도록, 구성된,
    전자 장치(101).
  4. 제3 항에 있어서,
    상기 프로세서(120)는,
    상기 속성에 기반하여 상기 콘텐트 내에 포함된 상기 이미지 내에서 시각적 객체를 식별하고; 및
    상기 시각적 객체를 식별한 것에 기반하여, 상기 표시 영역 내에 상기 시각적 객체의 표시를 유지하도록, 구성된,
    전자 장치(101).
  5. 제1 항 내지 제4 항 중 어느 한 항 에 있어서,
    상기 프로세서(120)는,
    상기 속성에 기반하여 상기 콘텐트 내에 포함된 적어도 하나의 컨테이너에 기반하여, 상기 컨테이너를 포함하는 상기 제1 부분(320; 340; 360)을 표시하고; 및
    상기 제1 부분(320; 340; 360)의 표시 영역 내에서의 위치를 고정한 상태 내에서, 상기 제1 부분(320; 340; 360)과 상이하고, 상기 제1 부분(320; 340; 360)에 연결된 제2 부분(330; 350; 370)을 표시하도록, 구성된,
    전자 장치(101).
  6. 제1 항 내지 제5 항 중 어느 한 항 에 있어서,
    상기 프로세서(120)는,
    상기 속성에 기반하여 식별된 일(an) 이미지를 식별한 것에 기반하여, 상기 이미지 내에 포함된 복수의 시각적 객체들을 식별하고; 및
    상기 복수의 시각적 객체들을 포함하는 영역의 중심 점을, 상기 표시 영역의 중심 점에 대응하여 표시하도록, 구성된,
    전자 장치(101).
  7. 제1 항 내지 제6 항 중 어느 한 항 에 있어서,
    상기 프로세서(120)는,
    상기 표시 영역이 연장된 것에 기반하여, 상기 표시 영역 내에 표시되는 상기 콘텐트의 제1 유저 인터페이스(user interface)를 제2 유저 인터페이스로 변경하여 표시하도록, 구성된,
    전자 장치(101).
  8. 제7 항에 있어서,
    상기 프로세서(120)는,
    상기 콘텐트의 상기 제1 유저 인터페이스를 변경할 때에, 상기 표시 영역의 알파 값(alpha value)을 조절한 것에 기반하여, 상기 제1 유저 인터페이스를 상기 제2 유저 인터페이스로 변경하도록, 구성된,
    전자 장치(101).
  9. 제7 항에 있어서,
    상기 프로세서(120)는,
    상기 제1 유저 인터페이스 내에서 표시하는 정보와 상이한 정보를, 상기 제2 유저 인터페이스 내에서 표시하도록, 구성된,
    전자 장치(101).
  10. 제1 항 내지 제9 항 중 어느 한 항 에 있어서,
    상기 프로세서(120)는,
    상기 제2 하우징(212)의 상기 이동에 기반하여, 상기 제2 하우징(212)이 이동하는 방향에 대응하여, 상기 콘텐트를 이동하여 표시하도록, 구성된,
    전자 장치(101).
  11. 전자 장치(electronic device) (101)의 방법에 있어서,
    표시 영역 내에 콘텐트의 제1 부분(320; 340; 360)을 표시하는 동안, 제1 하우징(211) 밖으로 노출된 상기 표시 영역의 사이즈가 연장됨을 식별하는 동작;
    상기 표시 영역의 사이즈가 연장됨을 식별하는 것에 기반하여, 상기 표시 영역을 통하여 표시된 콘텐트의 속성(attribute)을 식별하는 동작; 및
    상기 속성에 기반하여, 상기 연장된 사이즈를 가지는 상기 표시 영역 내에, 상기 콘텐트의 상기 제1 부분(320; 340; 360)과 함께, 상기 콘텐트 내에서 상기 제1 부분(320; 340; 360)과 연결된 제2 부분(330; 350; 370)을 표시하는 동작을 포함하는,
    방법.
  12. 제11 항에 있어서,
    상기 전자 장치(101)의 상기 방법은,
    상기 콘텐트 내에 포함된 이미지, 상기 콘텐트 내에 포함된 텍스트, 상기 콘텐트 내에 포함된 비디오, 또는 상기 콘텐트 내에 포함된 컨테이너, 중 적어도 하나에 기반하여, 상기 속성을 식별하는 동작을 포함하는,
    방법.
  13. 제11 항 내지 제12 항 중 어느 한 항에 있어서,
    상기 전자 장치(101)의 상기 방법은,
    상기 속성에 기반하여 상기 콘텐트 내에 포함된 일(an) 이미지의 상기 제1 부분(320; 340; 360)이 상기 표시 영역을 통해 표시됨을 식별하는 것에 기반하여, 상기 연장된 사이즈를 가지는 상기 표시 영역의 중심 점에 배치된 상기 제1 부분(320; 340; 360)과 함께, 상기 이미지의 상기 제2 부분(330; 350; 370)을 표시하는 동작을 포함하는,
    방법.
  14. 제13 항에 있어서,
    상기 전자 장치(101)의 상기 방법은,
    상기 속성에 기반하여 상기 콘텐트 내에 포함된 상기 이미지 내에서 시각적 객체를 식별하는 동작; 및
    상기 시각적 객체를 식별한 것에 기반하여, 상기 표시 영역 내에 상기 시각적 객체의 표시를 유지하는 동작을 포함하는,
    방법.
  15. 제11 항 내지 제14 항 중 어느 한 항 에 있어서,
    상기 전자 장치(101)의 상기 방법은,
    상기 속성에 기반하여 상기 콘텐트 내에 포함된 적어도 하나의 컨테이너에 기반하여, 상기 컨테이너를 포함하는 상기 제1 부분을 표시하는 동작; 및
    상기 제1 부분(320; 340; 360)의 상기 표시 영역 내에서의 위치를 고정한 상태 내에서, 상기 제1 부분(320; 340; 360)과 상이하고, 상기 제1 부분(320; 340; 360)에 연결된 제2 부분(330; 350; 370)을 표시하는 동작을 포함하는,
    방법.
PCT/KR2023/008482 2022-08-08 2023-06-19 변형 가능한 디스플레이의 표시 영역 내에서 화면을 표시하기 위한 전자 장치 및 그 방법 WO2024034832A1 (ko)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR20220098880 2022-08-08
KR10-2022-0098880 2022-08-08
KR1020220113813A KR20240020621A (ko) 2022-08-08 2022-09-07 변형 가능한 디스플레이의 표시 영역 내에서 화면을 표시하기 위한 전자 장치 및 그 방법
KR10-2022-0113813 2022-09-07

Publications (1)

Publication Number Publication Date
WO2024034832A1 true WO2024034832A1 (ko) 2024-02-15

Family

ID=89851919

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2023/008482 WO2024034832A1 (ko) 2022-08-08 2023-06-19 변형 가능한 디스플레이의 표시 영역 내에서 화면을 표시하기 위한 전자 장치 및 그 방법

Country Status (1)

Country Link
WO (1) WO2024034832A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10416796B2 (en) * 2015-04-07 2019-09-17 Boe Technology Group Co., Ltd. Expandable display device
KR102255793B1 (ko) * 2018-06-14 2021-05-25 삼성전자주식회사 디스플레이 영역의 크기 변경이 가능한 플렉시블 디스플레이를 포함하는 전자 장치 및 그 제어 방법
KR102266152B1 (ko) * 2018-02-22 2021-06-17 삼성전자주식회사 디스플레이 영역의 크기 변경이 가능한 플렉시블 디스플레이를 포함하는 전자 장치 및 그 제어 방법
KR20220032044A (ko) * 2015-10-13 2022-03-15 엘지전자 주식회사 디스플레이 디바이스
KR102375469B1 (ko) * 2015-01-13 2022-03-18 삼성디스플레이 주식회사 플렉서블 디스플레이 장치

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102375469B1 (ko) * 2015-01-13 2022-03-18 삼성디스플레이 주식회사 플렉서블 디스플레이 장치
US10416796B2 (en) * 2015-04-07 2019-09-17 Boe Technology Group Co., Ltd. Expandable display device
KR20220032044A (ko) * 2015-10-13 2022-03-15 엘지전자 주식회사 디스플레이 디바이스
KR102266152B1 (ko) * 2018-02-22 2021-06-17 삼성전자주식회사 디스플레이 영역의 크기 변경이 가능한 플렉시블 디스플레이를 포함하는 전자 장치 및 그 제어 방법
KR102255793B1 (ko) * 2018-06-14 2021-05-25 삼성전자주식회사 디스플레이 영역의 크기 변경이 가능한 플렉시블 디스플레이를 포함하는 전자 장치 및 그 제어 방법

Similar Documents

Publication Publication Date Title
WO2020235885A1 (en) Electronic device controlling screen based on folding event and method for controlling the same
WO2021221180A1 (ko) 콘텐츠를 표시하는 이동 단말기 및 그 제어 방법
WO2020209549A1 (en) Electronic device and method for controlling and operating foldable display
WO2020230982A1 (ko) 전자 장치 및 그의 알림 제공 방법
WO2022080617A1 (en) Electronic device including flexible display and method for operating screen of electronic device
WO2021085658A1 (ko) 크기가 변경되는 디스플레이를 포함하는 전자 장치 및 그 제어 방법
WO2021107511A1 (ko) 전자 장치 및 폴더블 디스플레이를 제어 및 운영하는 방법
WO2022025450A1 (ko) 슬라이딩 가능한 전자 장치 및 이의 제어 방법
WO2021225194A1 (ko) 콘텐츠를 표시하는 이동 단말기 및 그 제어 방법
WO2022119143A1 (ko) 전자 장치 및 전자 장치의 디스플레이 확장 방법
WO2021025534A1 (ko) 카메라 프리뷰 이미지를 제공하기 위한 전자 장치 및 그의 동작 방법
WO2017159931A1 (en) Electronic device including touch panel and method of controlling the electronic device
WO2016190498A1 (ko) 이동 단말기
WO2021187850A1 (ko) 멀티 윈도우를 표시하기 위한 폴더블 전자 장치 및 그의 동작 방법
WO2024034832A1 (ko) 변형 가능한 디스플레이의 표시 영역 내에서 화면을 표시하기 위한 전자 장치 및 그 방법
WO2022108379A1 (ko) 확장 가능한 디스플레이를 포함하는 전자 장치 및 컨텐츠 제공 방법
WO2021256834A1 (ko) 플렉서블 디스플레이 모듈을 포함하는 전자 장치
WO2020246814A1 (ko) 전자 장치의 일부를 이동시키기 위한 방법 및 이를 지원하는 전자 장치
WO2023204388A1 (ko) 디스플레이의 변형에 기반하여 콘텐트를 표시하기 위한 전자 장치 및 그 방법
WO2024101789A1 (ko) 플렉서블 디스플레이를 포함하는 전자 장치 및 상기 전자 장치의 제어 방법
WO2024048961A1 (ko) 디스플레이의 변형에 기반하여 하나 이상의 카메라들을 제어하기 위한 전자 장치 및 그 방법
WO2023063558A1 (ko) 전자 장치 및 전자 장치의 동작 방법
WO2023017954A1 (ko) 플렉서블 디스플레이를 포함하는 전자 장치 및 이의 제어 방법
WO2022119260A1 (ko) 플렉서블 디스플레이를 포함하는 전자 장치 및 그 동작 방법
WO2023182654A1 (ko) 사용자 입력을 식별하기 위한 전자 장치 및 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23852719

Country of ref document: EP

Kind code of ref document: A1