WO2023204388A1 - 디스플레이의 변형에 기반하여 콘텐트를 표시하기 위한 전자 장치 및 그 방법 - Google Patents

디스플레이의 변형에 기반하여 콘텐트를 표시하기 위한 전자 장치 및 그 방법 Download PDF

Info

Publication number
WO2023204388A1
WO2023204388A1 PCT/KR2023/000747 KR2023000747W WO2023204388A1 WO 2023204388 A1 WO2023204388 A1 WO 2023204388A1 KR 2023000747 W KR2023000747 W KR 2023000747W WO 2023204388 A1 WO2023204388 A1 WO 2023204388A1
Authority
WO
WIPO (PCT)
Prior art keywords
electronic device
display
content
subjects
state
Prior art date
Application number
PCT/KR2023/000747
Other languages
English (en)
French (fr)
Inventor
최윤정
강지영
이채경
김예진
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020220082533A external-priority patent/KR20230149185A/ko
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Priority to EP23791972.5A priority Critical patent/EP4440089A1/en
Priority to US18/120,717 priority patent/US20230334739A1/en
Publication of WO2023204388A1 publication Critical patent/WO2023204388A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72448User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
    • H04M1/72454User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions according to context-related or environment-related conditions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72469User interfaces specially adapted for cordless or mobile telephones for operating the device by selecting functions from two or more displayed items, e.g. menus or icons

Definitions

  • This disclosure relates to an electronic device and method for displaying content based on modification of the display.
  • an electronic device including a plurality of foldable housings may provide a user experience based on the shape of the electronic device to the user using a flexible display disposed across the plurality of housings.
  • the electronic device can change the content displayed on the flexible display.
  • electronic devices that roll up or unfold flexible displays are being developed.
  • an electronic device includes a housing, a display, an actuator configured to adjust an active area of the display by controlling a position of the display relative to the housing, and instructions. It may include a memory for storing data, the display, the actuator, and at least one processor operably coupled to the memory.
  • the at least one processor may be configured to execute the instructions and receive a request to display content in the active area.
  • the at least one processor may be configured to execute the instructions and identify a plurality of subjects captured in the content based on the request.
  • the at least one processor may be configured to execute the instructions to obtain a sequence of the plurality of objects based on identifying the plurality of objects from the content.
  • the at least one processor may be configured to execute the instructions and display a plurality of visual objects corresponding to each of the plurality of subjects in the active area of the display based on the order.
  • the at least one processor executes the instructions to, based on the size of the active area controlled by the actuator, select at least one subject selected based on the order among the plurality of subjects to display the content of the captured content.
  • the first part may be configured to be displayed together with the plurality of visual objects within the active area.
  • an electronic device includes a housing, a display, an actuator configured to adjust an active area of the display by controlling a position of the display relative to the housing, and instructions. It may include a memory for storing data, the display, the actuator, and at least one processor operably coupled to the memory.
  • the at least one processor may be configured to execute the instructions and identify content stored in the memory.
  • the content may include at least one captured subject.
  • the at least one processor may be configured to execute the instructions to obtain a size of the active area that is adjusted based on at least one of retraction of the display into the housing or retraction of the display from the housing. You can.
  • the at least one processor executes the instructions to display the content based on a first magnification of the content based on the display in a first state in which the size of the active area exceeds a preset size. , can be configured.
  • the at least one processor executes the instructions, based on the display in a second state where the size of the active area is less than the specified size, based on a second magnification related to the location of the at least one captured subject. It may be configured to display at least a portion of content.
  • a method of an electronic device may include receiving a request to display content in an active area of a display of the electronic device.
  • the method may include identifying a plurality of subjects captured in the content based on the request.
  • the method may include obtaining an order of the plurality of subjects based on identifying the plurality of subjects from the content.
  • the method may include displaying a plurality of visual objects corresponding to each of the plurality of subjects within the active area of the display, based on the obtained order.
  • the method includes, based on the size of the active area controlled by an actuator of the electronic device for deforming the display, at least one subject selected based on the order among the plurality of subjects of the captured content.
  • the method may include displaying the first portion together with the plurality of visual objects within the active area.
  • an electronic device includes a housing, a display, and an actuator for adjusting a display area of the display by inserting the display into or withdrawing the display from the housing, It may include a memory for storing instructions, the display, the actuator, and at least one processor operably coupled to the memory.
  • the at least one processor may receive a request to display content in the display area.
  • the at least one processor may identify a plurality of subjects captured in the content in response to the request.
  • the at least one processor may obtain an order of the plurality of objects in response to identifying the plurality of objects from the content.
  • the at least one processor may display a plurality of visual objects corresponding to each of the plurality of subjects in the display area based on the obtained order.
  • the at least one processor is configured to, among the first portion of the content in which at least one object selected based on the order among the plurality of objects is captured, and a second portion of the content different from the first portion, Part 1 may be displayed together with the plurality of visual objects within the display area.
  • an electronic device includes a housing, a display, an actuator, and instructions for inserting the display into the housing or withdrawing the display from the housing to adjust the display area of the display. It may include a memory for storing data, the display, the actuator, and at least one processor operably coupled to the memory. When the instructions are executed, the at least one processor may identify content stored in the memory and in which one or more subjects are captured. The at least one processor may obtain the size of the display area, which is adjusted based on the insertion of the display or the extraction of the display.
  • the at least one processor displays the content based on a first magnification that makes the size of the content less than or equal to the size of the display area in a first state in which the size of the display area exceeds a preset size. can do.
  • the at least one processor is configured to, in a second state in which the size of the display area is less than the specified size, correspond to a portion of the content in which the one or more subjects are captured, at a second magnification that exceeds the first magnification. Based on this, at least part of the content may be displayed.
  • a method of an electronic device may include receiving a request to display content within a display area of a display of the electronic device.
  • the method of the electronic device may include an operation of identifying a plurality of subjects captured in the content in response to the request.
  • the method of the electronic device may include an operation of obtaining an order of the plurality of subjects in response to identifying the plurality of subjects from the content.
  • the method of the electronic device may include displaying a plurality of visual objects corresponding to each of the plurality of subjects in the display area based on the obtained order.
  • the method of the electronic device includes, among the first portion of the content in which at least one object selected based on the order among the plurality of objects is captured, and a second portion of the content different from the first portion, It may include an operation of displaying part 1 together with the plurality of visual objects within the display area.
  • a method of an electronic device may include an operation of identifying content in which one or more subjects are captured.
  • the method of the electronic device includes obtaining a size of a display area of the display that is adjusted based on retraction of the display of the electronic device into the housing of the electronic device or withdrawal of the display from the housing. can do.
  • the method of the electronic device displays the content based on a first magnification that makes the size of the content less than or equal to the size of the display area within a first state in which the size of the display area exceeds a preset size.
  • the method of the electronic device relates to a portion of the content in which the one or more subjects are captured, within a second state in which the size of the display area is less than the specified size, and at a second magnification that exceeds the first magnification. It may include an operation of displaying at least a portion of the content based on the content.
  • FIG. 1 is a block diagram of an electronic device, according to one embodiment.
  • 2A-2B are example diagrams for explaining an operation in which an electronic device transforms between states in different forms, according to one embodiment.
  • FIG. 3 is a diagram illustrating an operation in which an electronic device identifies one or more subjects captured in content, according to an embodiment.
  • FIGS. 4A to 4E are exemplary diagrams for explaining an operation of an electronic device displaying content based on one or more subjects captured in the content, according to an embodiment.
  • FIG. 5 is a diagram illustrating an operation in which an electronic device displays content based on a deformation of the display, according to an embodiment.
  • FIGS. 6A and 6B are diagrams for explaining an operation in which an electronic device displays content that does not include subjects of specified types, according to an embodiment.
  • FIGS. 7A and 7B are exemplary diagrams for explaining an operation of an electronic device displaying content including video based on one or more subjects captured in the content, according to an embodiment.
  • FIGS. 8A to 8D are diagrams for explaining an operation of an electronic device displaying content based on a change in the screen of an application for browsing content, according to an embodiment.
  • FIG. 9 is a flowchart illustrating an operation performed by an electronic device based on one or more subjects captured in content, according to an embodiment.
  • FIG. 10 is a flowchart illustrating an operation in which an electronic device adjusts the magnification for displaying content based on the size of a display area, according to an embodiment.
  • FIG. 11 is a flowchart for explaining an operation performed by an electronic device to display content, according to an embodiment.
  • FIG. 12A is a front view of a first state of an electronic device according to an embodiment.
  • FIG. 12B is a rear view of a first state of an electronic device according to an embodiment.
  • FIG. 12C is a front view of a second state of an electronic device according to an embodiment.
  • FIG. 12D is a rear view of a second state of an electronic device according to an embodiment.
  • FIG. 13A is an exploded perspective view of an electronic device according to an embodiment.
  • FIG. 13B is a cross-sectional view illustrating an example of an electronic device cut along line A-A' of FIG. 12A according to an embodiment.
  • module used in this disclosure includes a unit comprised of hardware, software, or firmware, and may be used interchangeably with terms such as logic, logic block, component, or circuit, for example.
  • a module may be an integrated part, a minimum unit that performs one or more functions, or a part thereof.
  • a module may be comprised of an application-specific integrated circuit (ASIC).
  • ASIC application-specific integrated circuit
  • Figure 1 is a block diagram of an electronic device 101, according to one embodiment.
  • the electronic device 101 may include at least one of a processor 120, a memory 130, a display 140, or an actuator 150.
  • the processor 120, memory 130, display 140, and actuator 150 are electrically and/or operationally connected to each other by an electronic component such as a communication bus 110. Can be connected (electronically and/or operably coupled with each other).
  • an electronic component such as a communication bus 110.
  • the embodiment is not limited thereto.
  • the type and/or number of hardware components included in the electronic device 101 are not limited to those shown in FIG. 1 .
  • electronic device 101 may include only some of the hardware components shown in FIG. 1 .
  • the electronic device 101 may further include a housing that forms the exterior of the electronic device 101. The appearance of the electronic device 101 formed by the housing will be described later with reference to FIGS. 2A and 2B.
  • the processor 120 of the electronic device 101 may include hardware components for processing data based on one or more instructions.
  • Hardware components for processing data include, for example, an Arithmetic and Logic Unit (ALU), a Floating Point Unit (FPU), a Field Programmable Gate Array (FPGA), an application processor (AP), and/or a Central Processing Unit (CPU).
  • ALU Arithmetic and Logic Unit
  • FPU Floating Point Unit
  • FPGA Field Programmable Gate Array
  • AP application processor
  • CPU Central Processing Unit
  • the number of processors 120 may be one or more.
  • the processor 120 may have the structure of a multi-core processor, such as a dual core, quad core, or hexa core.
  • the memory 130 of the electronic device 101 may include hardware components for storing data and/or instructions input and/or output to the processor 120.
  • the memory 130 may include, for example, volatile memory such as random-access memory (RAM) and/or non-volatile memory such as read-only memory (ROM).
  • Volatile memory may include, for example, at least one of Dynamic RAM (DRAM), Static RAM (SRAM), Cache RAM, and Pseudo SRAM (PSRAM).
  • Non-volatile memory may include, for example, at least one of PROM (Programmable ROM), EPROM (Erasable PROM), EEPROM (Electrically Erasable PROM), flash memory, hard disk, compact disk, and eMMC (Embedded Multi Media Card). You can.
  • one or more instructions indicating operations and/or operations to be performed by processor 120 on data may be stored.
  • a set of one or more instructions may be referred to as firmware, operating system, process, routine, sub-routine and/or application.
  • the electronic device 101 and/or the processor 120 executes a set of a plurality of instructions distributed in the form of an operating system, firmware, driver, and/or application. , at least one of the operations of FIGS. 9 to 11 may be performed.
  • the fact that an application is installed on the electronic device 101 means that one or more instructions provided in the form of an application are stored in the memory 130 of the electronic device 101, and the one or more applications are installed in the electronic device 101.
  • This may mean stored in a format executable by the processor 120 (eg, a file with an extension specified by the operating system of the electronic device 101).
  • the application may include an application for browsing content stored in the memory 130, such as a gallery application.
  • the display 140 of the electronic device 101 may output visualized information to the user.
  • the display 140 may be a flexible display that can be deformed by an external force applied to the display 140.
  • the display 140 may include a liquid crystal display (LCD), a plasma display panel (PDP), one or more light emitting diodes (LEDs), and/or one or more OLEDs.
  • LCD liquid crystal display
  • PDP plasma display panel
  • LEDs light emitting diodes
  • OLEDs light emitting diodes
  • the display 140 may include a sensor (eg, touch sensor panel (TSP)) for detecting an external object (eg, a user's finger) on the display 140.
  • a sensor eg, touch sensor panel (TSP)
  • the electronic device 101 may detect an external object touching the display 140 or floating on the display 140 .
  • the electronic device 101 performs a function associated with a specific visual object corresponding to a portion of the display 140 with which the external object is in contact, among the visual objects being displayed in the display 140. You can run .
  • the actuator 150 of the electronic device 101 may change the display 140 and/or the shape of the electronic device 101.
  • the actuator 150 may be referred to as a driving unit.
  • the actuator 150 may include hardware (eg, a motor) for outputting kinetic energy from electrical energy.
  • the actuator 150 converts the rotational motion of the motor into a linear motion (or translation motion) applied to the display 140. )) may include a gear (e.g., rack gear) for changing.
  • the actuator 150 may include a plurality of gears (engaged to each other) to control the rotational force (eg, torque) of the motor.
  • the plurality of gears may be referred to as a gear assembly of the actuator 150 or a transmission unit.
  • the processor 120 changes the frequency, voltage, and/or current of the power signal applied to the motor of the actuator 150, so that the display 140 and/or the electronic device 101 are deformed.
  • the speed and/or direction can be adjusted.
  • the processor 120 adjusts the positional relationship of a plurality of gears included in the gear assembly and/or the gear ratio between interconnected gears to display 140 and/or the electronic device ( 101) can control the speed and/or direction at which it is transformed. Exemplary operations in which the electronic device 101 controls the actuator 150 to adjust the shape of the display 140 according to an embodiment will be described later with reference to FIGS. 2A and 2B.
  • the electronic device 101 may control the actuator 150 to insert the display 140 into or withdraw the display 140 from the housing of the electronic device 101. Based on the retraction of the display 140 or the retraction of the display 140, the electronic device 101 may adjust a displaying area of the display 140. An operation in which the electronic device 101 controls the actuator 150 to adjust the display area, according to one embodiment, will be described later with reference to FIGS. 2A and 2B.
  • the electronic device 101 may display content within a display area formed on the display 140.
  • the content may include at least one of an image such as a photograph or a video including a sequence of a plurality of frames.
  • the content may have a format based on Joint Photographic Experts Group (JPEG) and/or Moving Picture Experts Group (MPEG).
  • JPEG Joint Photographic Experts Group
  • MPEG Moving Picture Experts Group
  • content may represent an image captured within at least one viewpoint based on pixels in a two-dimensional plane that are displayed substantially simultaneously.
  • the electronic device 101 controls a portion of the content based on the width, height, size, and/or area of the display area associated with the shape of the display 140, which is adjusted by the actuator 150. can be displayed selectively.
  • the electronic device 101 may selectively display one or more subjects captured within the content.
  • An operation of the electronic device 101 identifying the one or more subjects captured in the content is described with reference to FIG. 3 and/or FIGS. 7A and 7B.
  • the operation of the electronic device 101 to selectively display the one or more subjects is as shown in FIGS. 4A to 4E, 5, 6A to 6B, 7A to 7B, and/or 8A to 8A. This is explained with reference to Figure 8d.
  • the electronic device 101 may enlarge or reduce content based on enlarging or reducing the display area based on deformation of the display 140. For example, while the display 140 is at least partially retracted into the housing of the electronic device 101, the size of the display area may be reduced based on the retraction of the display 140.
  • the electronic device 101 corresponds to one or more subjects among the plurality of pixels, independently of displaying all of the plurality of pixels included in the content and captured substantially simultaneously. Part of it can be displayed. Since a portion corresponding to the one or more subjects among the plurality of pixels is displayed, the electronic device 101 can output the one or more subjects intensively to the user independently of adjustment of the display area. .
  • the electronic device 101 includes one device included in the content in order to improve the visibility and/or detectability of the content according to the reduction of the display area. You can zoom in on the above subjects. In order to enlarge the one or more subjects, the electronic device 101 may selectively display a portion of the content where the one or more subjects are captured. While the portion of the content is selectively displayed, the electronic device 101 may visually indicate the location of the displayed portion within the content.
  • FIGS. 2A and 2B are exemplary diagrams for explaining an operation in which the electronic device 101 is transformed between states in different forms, according to an embodiment.
  • the electronic device 101 of FIGS. 2A and 2B may be an example of the electronic device 101 of FIG. 1 .
  • the electronic device 101 and the display 140 of FIG. 1 may include the electronic device 101 and the display 140 of FIGS. 2A and 2B.
  • the electronic device 101 may be a terminal owned by a user.
  • Terminals include, for example, personal computers (PCs) such as laptops and desktops, smartphones, smartpads, tablet PCs (personal computers), smartwatches, and HMDs (head-mounted devices). It may include smart accessories such as mounted devices.
  • the housing 210 of the electronic device 101 is an interior where one or more hardware components (e.g., one or more hardware described above with reference to FIG. 1) included in the electronic device 101 are disposed. Can include space. The housing 210 may form the external shape of the electronic device 101.
  • the electronic device 101 may have a deformable form factor. Transforming the electronic device 101 may mean that at least one of dimensions such as width, height, and/or thickness of the electronic device 101 is changed. At least one of the sizes is changed passively by an external force applied to the electronic device 101, and/or by one or more actuators included in the electronic device 101 (e.g., FIG. It can be actively changed by the actuator 150 of 1).
  • the housing 210 may be divided into an interconnected first housing 211 and a second housing 212.
  • the electronic device 101 uses an actuator (e.g., the actuator 150 in FIG. 1) to adjust the positional relationship between the first housing 211 and the second housing 212 to display the display. (140), and/or the shape of the electronic device 101 may be changed.
  • the display 140 of the electronic device 101 may be disposed across one side of the first housing 211 and one side of the second housing 212 .
  • the display 140 is disposed, and one surface formed by the first housing 211 and the second housing 212 may be referred to as a front surface.
  • the electronic device 101 changes the shape of the display 140 by changing at least one of the width, height, and/or area of at least a portion of the display 140 exposed to the outside. It may include actions that change .
  • the display 140 may be insertable into the second housing 212 or extractable from the second housing 212, based on the deformation of the electronic device 101.
  • the size of the area where the display 140 is exposed to the outside may be reduced.
  • the display area of the display 140 may refer to an area formed by pixels disposed on an area where the display 140 is exposed to the outside, among pixels included in the display 140.
  • the display area may be referred to as an active area of the display 140.
  • the electronic device 101 uses an actuator (e.g., the actuator 150 in FIG. 1) to insert the display 140 into the housing 210 or to pull it out from the housing 210, The display area can be adjusted.
  • an actuator e.g., the actuator 150 in FIG. 1
  • the electronic device 101 may switch between states 200 and 205 using an actuator.
  • the states 200, 205 of the electronic device 101 may be related to the dimensions (e.g., width, height, thickness, and/or aspect ratio) of the electronic device 101, and/or the display 140. (an aspect ratio) may be distinguished.
  • States 200 and 205 may be distinguished depending on the distance between the first housing 211 and the second housing 212 of the electronic device 101 .
  • the distance between the first housing 211 and the second housing 212 is one side of the first housing 211 (e.g., the top surface of the first housing 211), and the first housing 211.
  • the distance between one side of (211) and the other side of the second housing 212 e.g., the lower side of the second housing 212 that is parallel to the side of the first housing 211 and is spaced apart from the one side of the first housing 211. You can.
  • Each of the states 200 and 205 of FIGS. 2A to 2B is such that, as the electronic device 101 is deformed, the surface area of the electronic device 101 and/or the area of the display area of the display 140 is reduced to a minimum, or It may be at its maximum.
  • a state in which the surface area of the electronic device 101 and/or the area of the display area is minimized, such as state 200 is referred to as a slide-in state or a rolled state.
  • a closed state a roll-in state, and/or a contracted state.
  • a state in which the surface area of the electronic device 101 and/or the area of the display area is maximized is referred to as a slide-out state or an unfolded state.
  • a state of the electronic device 101 may further include another state between a state 200 in which the area of the display area is minimum and a state 205 in which the area of the display area is maximum.
  • the other states may be referred to as intermediate states, sub-rolled states, and/or sub-opened states.
  • the display 140 included in the electronic device 101 may have a rectangular shape.
  • the corners of the display 140 may have the shape of a rounded corner.
  • the first direction parallel to the relatively long side may be referred to as the height direction, and the relatively long side may be referred to as the height.
  • the second direction parallel to the relatively short side may be referred to as the width direction, and the relatively short side may be referred to as the width.
  • the height h1 in the state 200 of FIG. 2A may be the minimum value of the height of the display area at the time when the area of the portion of the display 140 exposed to the outside is minimized (e.g., in the slide-in state). .
  • the ratio of height and width within state 200 may be 4.5:3.
  • the state of the electronic device 101 may include states 200 and 205 as well as an intermediate state where the height and width ratio is 16:9.
  • an embodiment of the electronic device 101 is shown in which the shape of the electronic device 101 is changed along the width direction, either the width direction or the height direction.
  • the width w1 in state 200 and the width w2 in state 205 of FIG. 2B may be the minimum and maximum values of the width of the deformable display 140, respectively.
  • the electronic device 101 may change the aspect ratio of the display 140 to an aspect ratio suitable for content output from the electronic device 101.
  • the aspect ratio may be selected from 4.5:3, 16:9, and 21:9.
  • the electronic device 101 uses one or more sensors (e.g., Hall sensors) to determine the electronic device 101 among the states 200 and 205 and intermediate states between the states 200 and 205.
  • the state corresponding to the current form of (101) can be identified.
  • the electronic device 101 includes a Hall sensor
  • a magnet included in the Hall sensor is located in the first housing 211
  • one or more magnetic sensors included in the Hall sensor are located in the second housing 212.
  • the magnitude of the magnetic field identified by each of the one or more magnetic sensors and generated by the magnet is determined according to the positional relationship between the first housing 211 and the second housing 212. can be changed.
  • the electronic device 101 may identify the shape of the electronic device 101 based on the magnitude of the magnetic field identified by the one or more magnetic sensors. Identification of the form by the electronic device 101 may be performed based on the operating system and/or firmware running on the processor (e.g., processor 120 of FIG. 1) of the electronic device 101. .
  • the electronic device 101 activates an actuator (e.g., actuator 150 in Figure 1) to change the display 140, and/or the shape of the electronic device 101 into states 200, 205) can be changed.
  • the electronic device 101 may change the form in response to identifying a designated event.
  • the designated event may include a software interrupt (SWI) generated from an operating system, firmware, and/or application running on the electronic device 101.
  • the software interrupt may be generated by an application to play multimedia content (eg, video) with a specific aspect ratio.
  • the software interrupt may be generated based on the location of the electronic device 101 identified by one or more sensors.
  • the software interrupt may be generated based on conditions input by the electronic device 101 and/or the user (eg, conditions indicated by time, place, situation, or a combination thereof).
  • a designated event for changing the shape of the display 140 and/or the electronic device 101 may be generated based on a user's gesture.
  • the designated event may be triggered by a gesture performed on the display 140.
  • the gesture may include at least one of a pinch-to-zoom gesture, a swipe gesture, a drag gesture, or a gesture for tapping a designated visual object displayed on the display 140 (e.g., an icon displaying an aspect ratio).
  • the gesture may be generated by pressing the button 220 exposed to the outside of a portion of the housing 210 of the electronic device 101.
  • the electronic device 101 may include a display 140 and/or a button 220 for receiving an input for changing the shape of the electronic device 101.
  • a button 220 is shown exposed to the outside of at least a portion of the housing 210 of the electronic device 101.
  • the electronic device 101 may identify the input by the user.
  • electronic device 101 may be configured to determine the pressure of pressing button 220, an external object (e.g., The input may be identified based on the duration during which the user's fingertip is in contact with the button 220 and/or the duration during which the button 220 is pressed. For example, the first gesture of pressing the button 220 for more than a designated period (eg, 5 seconds) may be matched to an input that turns on or turns off the electronic device 101. In the above example, a second gesture of pressing the button 220 shorter than the designated period may be matched to an input for changing the shape.
  • a designated period eg, 5 seconds
  • the button 220 may be exposed to the outside through the upper surface of the first housing 211.
  • the button 220 may be exposed to the outside through the side of the first housing 211.
  • the location of button 220 is not limited to the examples in FIGS. 2A and/or 2B.
  • a designated event for changing the shape of the display 140, and/or the electronic device 101 may occur when the electronic device 101 receives a speech signal containing a designated word, and/or sentence. It can occur based on According to one embodiment, the electronic device 101 may acquire the voice signal using one or more microphones.
  • the designated event may be generated in response to the electronic device 101 receiving a wireless signal from an external electronic device (e.g., a pointing device such as a remote control and/or a digitizer that is wirelessly connected to the electronic device 101). there is.
  • the wireless signal may be transmitted from the external electronic device to the electronic device 101 based on a user's gesture identified through the external electronic device.
  • the gesture identified by the external electronic device may include, for example, at least one of a movement following a designated trajectory of the external electronic device and/or a gesture of pressing a button of the external electronic device. .
  • the trajectory may be referred to as a path.
  • the electronic device 101 in response to a designated event to change the display 140 and/or the shape of the electronic device 101, displays states 200, 205, and states (
  • the actuator may be controlled based on the current form of the electronic device 101 identified among the intermediate states between 200 and 205). Based on control of the actuator, the size, such as width and/or height, and/or area of the display area may be adjusted. 2A to 2B, within a roll-in state such as state 200, the area of the display area is minimized, and within a roll-out state such as state 205, the area of the display area is minimized. can be maximized.
  • the electronic device 101 may identify a change in the display area while displaying content within the display area formed on the display 140.
  • the electronic device 101 enlarges a portion of the content in which one or more subjects are captured, so that the one or more subjects are captured. Visibility can be improved.
  • the electronic device 101 expands the display area by deforming the electronic device 101 and/or the display 140 within the states 200 and 205, or Collapse can be identified.
  • the electronic device 101 may enlarge a portion in which one or more subjects are captured within the content instead of reducing the content displayed within the display area. Since the portion of the content in which the one or more subjects are captured is enlarged based on the reduction of the display area, the electronic device 101 may preferentially display the one or more subjects.
  • FIG. 3 is a diagram illustrating an operation of an electronic device identifying one or more subjects captured within content 310, according to an embodiment.
  • the electronic device of FIG. 3 may be an example of the electronic device 101 of FIGS. 1 and 2A to 2B.
  • FIG. 3 an example of content 310 identified by an electronic device is shown, according to an embodiment. The operation of the electronic device is described based on the content 310, which is a photograph in which three subjects are captured, but the embodiment is not limited thereto.
  • the electronic device may identify content 310 stored in a memory (eg, memory 130 of FIG. 1).
  • the electronic device may identify one or more subjects captured within the content 310. Identifying the one or more subjects may be performed at the time the content 310 is captured and/or stored.
  • the subject may mean an electronic device and/or an object specified by the user among objects captured within the content 310.
  • the electronic device may identify the subject based on a neural network such as a convolutional neural network (CNN) and/or one or more feature points included in the content 310.
  • CNN convolutional neural network
  • the electronic device may identify one or more subjects captured within the content 310 based on an application such as a contents management hub (CMH).
  • CMS contents management hub
  • the electronic device may record the location at which the content 310 was captured (e.g., Global Positioning System (GPS) coordinates), the time at which the content 310 was captured (e.g., a timestamp), and/or the content 310 ), the one or more subjects can be identified based on one or more tags assigned to the subject.
  • the tag may be, for example, text input by a user.
  • the user may enter the name of one or more subjects captured within the content 310 (e.g., the name of the person, for content 310 in which a person was captured) within the metadata of the content 310. You can add
  • the electronic device may identify one or more subjects from the content 310 based on designated categories.
  • the designated categories include people classified based on faces, one or more tags assigned to content 310, shot type, document, object, scenery, place, action, color, and/ Or it may involve emotions.
  • the electronic device may identify the one or more subjects based on the relationship between each of the designated categories and the content 310.
  • the electronic device may obtain information representing one or more subjects from metadata embedded in the content 310.
  • the information may include at least one of a location and/or area within the content 310 in which one or more subjects are captured, a type of the one or more subjects, or a tag assigned to the one or more subjects.
  • areas 320, 330, and 340 in which one or more subjects are captured, which the electronic device identifies from the obtained information, are shown.
  • the electronic device may obtain the areas 320 and 330 where the person was captured based on face recognition and/or a tag assigned by the user.
  • the electronic device clusters one or more faces captured in a plurality of contents stored in a memory (e.g., face clustering) to identify the plurality of faces.
  • a person commonly captured in the contents can be identified.
  • the electronic device may recognize an image based on a neural network and/or acquire an area 340 where an object distinguishable from a person is captured based on a tag assigned by the user.
  • an animal e.g., a dog
  • the embodiment is not limited thereto, and the electronic device may identify other types of objects.
  • an electronic device identifies subjects based on rectangular areas 320, 330, and 340 such as bounding boxes.
  • the electronic device may identify the areas 320, 330, and 340 based on information including one corner, width, and height of the square.
  • the metadata of the content 310 is information representing the area 320, including one corner of the area 320 (e.g., coordinates of point X1 within the content 310), width (e.g. , and the difference between the x coordinates of X1), and height (e.g., the difference between the y coordinates of points X3 and X1).
  • the electronic device may identify the areas 320, 330, and 340 based on the coordinates of two corners that face each other among the corners of the square. For example, the electronic device may identify the area 330 by obtaining the coordinates of point Y1 and point Y4 within the content 310 from the metadata of the content 310.
  • the embodiment is not limited thereto, and one or more subjects may be identified based on other polygons different from squares, circles, and/or closed curves representing the subjects.
  • the electronic device may prioritize (prioritize) the plurality of subjects in response to identifying the plurality of subjects from the content 310, such as the areas 320, 330, and 340. ). For example, the electronic device may obtain an order for selectively displaying at least one of the plurality of subjects. The electronic device may obtain the order based on the types of each of the plurality of subjects. For example, within the order, the electronic device ranks subjects classified as people (e.g., subjects corresponding to the areas 320 and 330) among the plurality of subjects as distinct from the people. The ranking can be made higher than that of other subjects classified as objects (e.g., subjects corresponding to area 340). For example, the electronic device may obtain the order based on the focal length and/or zoom factor within the content.
  • the electronic device performs at least one of scene analysis captured within the content, emotional information included within the content, or movement captured within the content (e.g., movement of a subject, and/or hand gesture). Based on one, the plurality of subjects can be prioritized.
  • the scene analysis may include obtaining text (eg, birthday congratulation, and/or fireworks) representing a situation captured within the content.
  • the electronic device displays a plurality of subjects captured within the content 310 based on information stored in the electronic device independently of the content 310 or account information of a user of the electronic device. You can obtain their order. For example, the electronic device compares the tag assigned to the content 310 and contact information obtained from the user of the electronic device, and captures within the content 310 among the people included in the contact information. A person can be identified. The electronic device may rank the person higher than the ranks of other subjects within the order. The electronic device may obtain the order of the plurality of subjects based on one or more people to whom the content 310 was shared or transmitted. For example, if the person who received the content 310 corresponds to one subject among the plurality of subjects, the electronic device may rank the subject higher than the ranks of other subjects.
  • the electronic device may obtain the order of the plurality of subjects captured in the content 310 based on the positions and/or sizes of the plurality of subjects. For example, the electronic device, from the center point of the content 310 (e.g., the intersection of the first line segment connecting points A1 and A4 and the second line segment connecting points A2 and A3) The distances of multiple subjects can be identified. For example, the electronic device may identify the center point of the portion of content 310 where the first subject among the plurality of subjects is captured and the first distance between the center point of the content 310. In the above example, the electronic device may identify a second distance between the center point of another portion of the content 310 in which the second subject among the plurality of subjects is captured and the center point of the content 310.
  • the center point of the content 310 e.g., the intersection of the first line segment connecting points A1 and A4 and the second line segment connecting points A2 and A3
  • the distances of multiple subjects can be identified.
  • the electronic device may identify the center point of the portion of
  • the electronic device may set the rank of the first subject corresponding to the first distance to be higher than the rank of the second subject. That the first distance is less than the second distance may mean that the first subject is located closer to the center point of the content 310 within the content 310 than the second subject.
  • the electronic device may identify the sizes of portions in the content 310 where a plurality of subjects are captured.
  • the electronic device may determine the order of the objects based on the descending order of the identified sizes. For example, among the plurality of subjects captured in the content 310, when the size of the first part in which the first subject is captured is larger than the size of the second part in which the second subject different from the first subject is captured , the electronic device may adjust the ranking of the first subject to be higher than that of the second subject.
  • the embodiment is not limited to the above example based on descending order, and for example, the electronic device may select the plurality of subjects within the content 310 based on the ascending order of the sizes of the captured portions. You can decide the order.
  • the electronic device when the sizes of parts captured by at least two subjects within the content 310 match, the electronic device based on the positions of the parts, The ranking of at least two subjects can be adjusted. For example, the electronic device may assign a higher rank to a subject captured in a specific part located relatively close to the center point of the content 310 than to another subject captured in another part among the parts. In one embodiment in which a plurality of subjects are captured within the content 310, when the distances between the captured portions of at least two subjects within the content 310 and the center point match, the electronic device determines the sizes of the portions. Based on this, the ranking of the at least two subjects can be adjusted. For example, the electronic device may assign a higher rank to a subject captured in a specific part with a relatively large size than to another subject captured in another part among the parts.
  • the electronic device may obtain the order of the plurality of subjects based on the score assigned to each of the plurality of subjects from the content 310.
  • the score may be differentially assigned based on the category in which the subject is classified among the designated categories and/or the interaction between the subject and the user of the electronic device.
  • the interaction may relate, for example, to whether the subject is registered within the contact information.
  • the electronic device may obtain the order of the plurality of subjects based on the descending order of their scores.
  • the electronic device may selectively display the plurality of subjects in response to identifying the plurality of subjects within the content 310 based on the areas 320, 330, and 340. . For example, when the size and/or area of the display area where the content 310 is displayed is reduced, the electronic device selects an area where at least one subject selected based on the order among the plurality of subjects is captured. It can be enlarged. Based on the enlarged area, the electronic device may preferentially display the at least one subject within the reduced display area.
  • the electronic device may enlarge the content within the reduced display area based on at least one of a plurality of subjects included in the content.
  • the electronic device may determine at least one subject to be displayed preferentially in the reduced display area based on the order of the plurality of subjects.
  • FIGS. 4A to 4E are exemplary diagrams for explaining an operation of an electronic device displaying content based on one or more subjects captured in the content, according to an embodiment.
  • the electronic device of FIGS. 4A to 4E may be an example of the electronic device 101 of FIGS. 1, 2A to 2B, and/or the electronic device of FIG. 3.
  • the screens 410, 420, 430, 440, and 450 of FIGS. 4A to 4E may be screens that the electronic device 101 of FIG. 1 displays within the display area of the display 140.
  • the screen may refer to a User Interface (UI) displayed within at least a portion of the display.
  • the screen may include, for example, an activity of the Android operating system.
  • UI User Interface
  • FIGS. 4A to 4E while an application for viewing a plurality of contents is executed, different screens 410 are displayed by the electronic device within the display area of the display (e.g., the display 140 of FIG. 1 ). , 420, 430, 440, 450) are shown.
  • the screen 410 may be a screen for displaying a list of a plurality of contents stored in the memory of the electronic device (eg, the memory 130 of FIG. 1).
  • the electronic device may display a visual object corresponding to one of a plurality of contents, such as a thumbnail 412.
  • the electronic device may switch from the screen 410 to any one of the screens 420, 430, 440, and 450.
  • the content 310 of FIG. 3 corresponds to the thumbnail 412.
  • the electronic device may receive a request to display content (e.g., content 310 in FIG. 3) corresponding to the thumbnail 412.
  • the screens 420, 430, 440, and 450 of FIGS. 4B to 4E may be example screens displayed by the electronic device in response to the request.
  • an example screen 420 on which an electronic device displays content is shown, according to one embodiment.
  • the electronic device can display all pixels included in the content.
  • the electronic device may adjust the magnification of the content so that the width of the content corresponds to the width of the display area.
  • the width of the content may be a numerical value corresponding to the width of the display area within the screen 420, or may have a numerical value reduced by a specified offset (or margin) from the width of the display area. Because the electronic device displays all of the pixels, the corners A1, A2, A3, and A4 of the content 310 of FIG. 3 may be included in the screen 420.
  • the electronic device may enlarge or reduce content based on a gesture (eg, pinch-to-zoom gesture) performed within the screen 420.
  • a gesture eg, pinch-to-zoom gesture
  • the screens 430, 440, and 450 of FIGS. 4C to 4E may be examples of screens displayed while the content is enlarged based on the gesture.
  • the electronic device may display a visual object, such as a button 422 for switching from the screen 420 to the screen 410.
  • the electronic device may display a visual object such as a thumbnail list 423 for displaying a list of a plurality of contents. Based on the input in the thumbnail list 423, the electronic device can replace the content displayed in the screen 420.
  • the electronic device may display functions related to content displayed within screen 420 .
  • the functions include, for example, a function to embed a tag indicating an emotion such as “like” in the content, a function to apply a visual effect to the content, and a function to display the content in another application different from the application corresponding to the screen 420. It may include at least one of a sharing function or a function of removing the content.
  • the electronic device may enlarge and display content based on the deformation of the electronic device. Enlarging content may be performed based on the size of the display area being changed by the electronic device transforming the display (eg, display 140 of FIG. 1). For example, when the display is brought into the housing of the electronic device and the size of the display area is reduced, the electronic device may enlarge the content. For example, when the size of the portion where content is displayed within the display area is reduced, such as screen splitting and/or multi-window based on multitasking, the electronic device displays the content within the portion having the reduced size. can be displayed enlarged. An operation in which an electronic device enlarges content based on multi-window, according to one embodiment, will be described later with reference to FIGS. 8A to 8D.
  • an electronic device may include a foldable first display and a second display having a smaller size than the first display.
  • the first display may be disposed across a first housing connected to a folding housing including a folding axis of the electronic device, and a second housing.
  • the second display may be disposed on one side of the first housing on which the first display is disposed and on the other side of the first housing facing away. Based on occlusion of the display area of the first display due to the folding of the first display, the electronic device can display content displayed in the first display in the second display.
  • the electronic device may enlarge the content within the second display while displaying the content within the second display having a smaller size than the first display.
  • the first display may be referred to as a flexible display
  • the second display may be referred to as a cover display.
  • the electronic device may enlarge the content based on one or more subjects captured within the content.
  • the electronic device may obtain the order of the plurality of subjects in response to identifying the plurality of subjects from content.
  • the electronic device may selectively display a portion in which at least one of a plurality of subjects is captured within the display area based on the obtained order.
  • an example screen 430 is shown in which the electronic device selectively displays one of a plurality of subjects captured in content, according to one embodiment.
  • the electronic device may display the screen 430 in response to reduction of the display area due to deformation of the display and/or reduction of the area where content is displayed within the display area.
  • Modification of the display may include insertion of the display into the housing of the electronic device, as described above with reference to FIGS. 2A-2B. Reduction of the area where the content is displayed may occur based on multi-window and/or screen division. Selecting one of the plurality of subjects by the electronic device may be performed based on the priorities among the plurality of subjects. For example, the electronic device may obtain the priority based on the operation described above with reference to FIG. 3 .
  • the electronic device may enlarge the content so that the content area 320 is included in the display area.
  • the width of the area 320 may correspond to the width of the display area within the screen 430.
  • the width of the area 320 may be the width of the display area, or may be a numerical value subtracted from the width of the display area by a specified offset.
  • the height of the area 320 may be the height of the display area, or may be a numerical value subtracted from the height of the display area by a specified offset. Referring to FIG. 4C, by enlarging the content, the corners (A1, A2, A3, A4) of the content 310 of FIG.
  • the electronic device determines the area 320 within the display area based on margins, padding, and/or offsets adjacent to the edges (X1, X2, X3, and X4) of the area 320.
  • the corresponding subject can be displayed.
  • the electronic device By enlarging the content, while selectively displaying a portion of the content (e.g., a portion of the content including the area 320), the electronic device displays a thumbnail 431 of the content within a designated portion of the screen 430.
  • Visual objects such as can be displayed.
  • the electronic device can indicate the location of a portion of content displayed within the display area.
  • visual object 432 may be referred to as a frame.
  • the thumbnail 431 and the visual object 432 overlapping the thumbnail 431 may be referred to as a map view.
  • the corners of the visual object 432 may match each of the corners of a portion of content displayed within the display area.
  • the electronic device may change a portion of content displayed within the display area based on an input that shifts the visual object 432 within the thumbnail 431.
  • the electronic device can switch to a state that displays the entire content within the display area (e.g., a state corresponding to the screen 420) based on identifying a tap-gesture for the thumbnail 431. there is.
  • the electronic device may stop displaying the thumbnail 431 and the visual object 432.
  • the electronic device may display a plurality of visual objects 434, 435, and 436 corresponding to each of a plurality of subjects captured in content.
  • each of the visual objects 434 , 435 , and 436 may include thumbnails based on each of the regions 320 , 330 , and 340 of FIG. 3 .
  • the order in which the electronic device displays the visual objects 434, 435, and 436 within the screen 430 may be related to the order of subjects captured within the content. Referring to FIG.
  • the electronic device in a state where the electronic device enlarges the first subject corresponding to the area 320, the electronic device selects a visual object corresponding to the first subject among the visual objects 434, 435, and 436. Display (434) with priority over other visual objects (435, 436), and display visual objects (435, 436) sequentially based on the priorities assigned to other subjects except the first subject. You can. For example, among the subjects captured in the content 310 of FIG. 3, when a tag such as a name is assigned to the first subject corresponding to the area 320, the electronic device displays the visual objects 434 and 434 of FIG. 4C.
  • the visual object 434 corresponding to the first subject may be displayed with priority over the other visual objects 435 and 436.
  • the electronic device may place the visual object 434 to the left of the other visual objects 435 and 436.
  • the electronic device may display the tag assigned to the first subject adjacent to the visual object 434, such as the visual object 433.
  • the electronic device may display, along with the visual objects 434, 435, and 436, a visual object 437 corresponding to a portion of the content including all subjects included in the content. .
  • the electronic device displays a visual object 434 corresponding to the first subject among the visual objects 434, 435, 436, and 437. can be emphasized more than other visual objects 435, 436, and 437.
  • the electronic device may display the borderline of the visual object 434 as a solid line and the borderlines of the visual objects 435, 436, and 437 as broken lines.
  • the electronic device may display the first color of the border of the visual object 434 as a color different from the second color of the border of the visual objects 435, 436, and 437.
  • the second color may be white and the first color may be yellow.
  • the electronic device may display the visual object 434 corresponding to the first subject enlarged by the screen 430 among the visual objects 434, 435, 436, and 437.
  • the display may be suspended at least temporarily.
  • the electronic device receives an input that selects one of the visual objects 435, 436, 437, and/or displays the content within the screen 430. In response to an input that adjusts magnification, display of the visual object 434 may resume.
  • the electronic device may receive an input for selecting a visual object from among the visual objects 433, 434, 435, 436, and 437.
  • the electronic device may enlarge the content based on the subject of the content corresponding to the selected visual object. For example, in response to receiving an input selecting visual object 435 among visual objects 433, 434, 435, 436, and 437, the electronic device moves from screen 430 of FIG. 4C to screen of FIG. 4D. It can be converted to (440). For example, in response to receiving an input selecting visual object 437 among visual objects 433, 434, 435, 436, and 437, the electronic device moves from screen 430 of FIG. 4C to screen of FIG. 4E. It can be converted to (450).
  • the screen 440 of FIG. 4D may be displayed by an electronic device that receives an input for selecting a visual object 435, according to one embodiment.
  • the electronic device changes the visual object 435 based on the input to display visual objects 434, 435, 436, and 437.
  • the visual object 435 can be emphasized more than the other visual objects 434, 436, and 437.
  • the electronic device may change the boundary line of the visual object 435 from a broken line to a straight line.
  • the electronic device may stop emphasizing the visual object 434 by replacing the boundary line of the visual object 434 from a straight line to a broken line.
  • the electronic device may display a portion of the content including an area 330 of the content corresponding to the visual object 435.
  • corners Y1, Y2, Y3, and Y4 of area 330 may be included in screen 440.
  • To display a portion of the content including area 330 at least one of the edges of the content (e.g., edges A1, A2, A3, and A4 in FIGS. 3 and/or 4B) is displayed on the screen. It can be excluded from (440).
  • the electronic device may display a portion of content centered on the area 330 corresponding to the visual object 435 on the screen 440 .
  • the electronic device adjusts the position and/or size of the visual object 442 displayed on the thumbnail 431 to display a portion of the content displayed within the screen 440 and the other portion. can indicate.
  • the electronic device may change a portion of the content displayed on the screen 440 based on the movement of the visual object 442.
  • the electronic device may change a portion of content displayed on the screen 440 based on a gesture (eg, pinch-to-zoom gesture) performed within the screen 440.
  • the electronic device may display a portion of the content including the areas 320, 330, and 340 within the content where subjects were captured.
  • the electronic device may identify a minimum portion that includes all of the regions 320, 330, and 340 based on the locations within the content of the regions 320, 330, and 340.
  • the electronic device may enlarge the content so that the minimum portion is included within the display area.
  • the electronic device may use the visual object 452 overlaid on the thumbnail 431 to indicate the location and size of the minimum portion displayed within the content within the screen 450.
  • the electronic device displays screens 430, from the screen 420, including all of the edges A1, A2, A3, and A4 of the content, for displaying all of the pixels of the content.
  • Switching to one of the screens 440 and 450 can be performed based on the size of the display area. For example, when the size of the display area is reduced based on a deformation of a display (e.g., display 140 of FIG. 1) based on an actuator (e.g., actuator 150 of FIG. 1), the electronic device may You can switch to any one of the screens 430, 440, and 450. According to one embodiment, the electronic device may switch to one of the screens 430, 440, and 450 based on the order of a plurality of subjects included in the content.
  • the electronic device may obtain the order of a plurality of subjects based on the operation described above with reference to FIG. 3.
  • the electronic device can selectively switch to any one of the screens 430, 440, and 450 so that at least one subject selected in the above order is enlarged within the display area.
  • the electronic device may switch from the screen 420 to the screen 430 based on the reduction of the display area so that the first subject to which a tag such as the visual object 433 is assigned is enlarged.
  • the electronic device is configured to display all of the subjects from the screen 420 based on reduction of the display area. You can switch to screen 450.
  • the electronic device may display at least one of the subjects disposed at the center point of the content based on the reduction of the display area. A portion of a captured subject, or a subject closest to the center point, may be enlarged.
  • the electronic device includes not only a screen 420 for displaying the entire content, but also screens suitable for displaying at least one of one or more subjects captured in the content ( Conversion between 430, 440, and 450) can be supported.
  • the electronic device may switch between screens 420, 430, 440, and 450 based on a change in the display area due to modification of the electronic device and/or display. For example, when the display area is reduced, the electronic device may switch from the screen 420 to one of the screens 430, 440, and 450 suitable for displaying at least one of the subjects. In the above example, when the display area is enlarged, the electronic device can switch to the screen 420 for displaying the entire content.
  • FIG. 5 is a diagram illustrating an operation of the electronic device 101 to display content based on a deformation of the display 140, according to an embodiment.
  • the electronic device of FIG. 5 may be an example of the electronic device 101 of FIGS. 1 and 2A to 2B and/or the electronic device of FIGS. 3 and 4A to 4E.
  • the electronic device 101 and the display 140 of FIG. 1 may include the electronic device 101 and the display 140 of FIG. 5 .
  • operations based on the electronic device 101 are described, including the connection of the first housing 211 and the second housing 212 in FIG. 2A, the first housing 211 and the second housing 212 in FIG. 2B
  • Electronic device 101 including the connection of housing 212 may operate similarly.
  • states 510 and 520 included in each of the roll-in state and roll-out state of the electronic device 101 are shown.
  • the electronic device 101 in response to receiving an input of touching and/or clicking the thumbnail 412 of FIG. 4A while displaying the screen 410 of FIG. 4A, displays FIG. It can be converted to any one of five states (510, 520).
  • the states 510 and 520 of FIG. 5 may be states in a portrait mode in which the electronic device 101 arranges one or more visual objects on the screen along the height direction of the display 140.
  • state 520 of FIG. 5 in the roll-out state, the electronic device 101 responds to receiving a request to display content like the input, displaying the content as shown in screen 420 of FIG.
  • the electronic device 101 responds to receiving a request to display content as the input, as shown in screen 430 of FIG. 4C. A portion of at least one subject captured within the content may be enlarged.
  • the electronic device 101 may receive an input for modifying the display 140 while displaying all pixels in content as in state 520.
  • electronic device 101 may retract display 140 into second housing 212, thereby reducing the display area. .
  • the electronic device 101 may transition from state 520 to state 510. While transitioning from state 520 to state 510, the electronic device 101 may selectively display, within the reduced display area, a portion in which at least one subject is captured among a plurality of subjects captured within the content. You can. Based on the selective display of the portion, other portions within the content that are different from the portion may be excluded from the display area.
  • the electronic device 101 may receive an input for modifying the display 140 while enlarging a portion of the content as in state 510.
  • electronic device 101 may retract display 140 from second housing 212 to enlarge the display area. .
  • the electronic device 101 may switch from state 510 to state 520. While transitioning from state 510 to state 520, the electronic device 101 may display all pixels in the content within the enlarged display area.
  • the electronic device 101 may adjust the magnification of content based on the deformation of the display 140.
  • the electronic device 101 may enlarge a portion of the content in which one or more subjects are captured within the reduced display area. Because the portion is enlarged, other portions in which the one or more subjects were not captured may be excluded within the reduced display area. Because the other portion is excluded from the reduced display area, the electronic device 101 can improve visibility of the one or more subjects despite the reduction of the display area.
  • FIGS. 6A and 6B are diagrams for explaining an operation of the electronic device 101 to display content that does not include subjects of specified types, according to an embodiment.
  • the electronic device 101 of FIGS. 6A to 6B may be an example of the electronic device 101 of FIGS. 1 to 5 .
  • the electronic device 101 and the display 140 of FIG. 1 may include the electronic device 101 and the display 140 of FIG. 5 .
  • the states 610 and 620 of FIGS. 6A and 6B may be states in a landscape mode in which the electronic device 101 arranges one or more visual objects within the screen along the width direction of the display 140.
  • the electronic device 101 may be in a roll-out state.
  • the electronic device 101 may display the entire content within a portion 614 of the display area.
  • the electronic device 101 may operate similarly to state 520 of FIG.
  • the electronic device 101 displays a thumbnail for exploring a plurality of contents stored in the electronic device 101, similar to the thumbnail list 423 of FIG. 4B.
  • a list 612 can be displayed.
  • the electronic device 101 may change the magnification of the content based on the aspect ratio of the display area and the aspect ratio of the content. For example, the electronic device may display content based on a magnification that makes the width of the content less than or equal to the width of the display area and the height of the content less than or equal to the height of the display area. Within state 610, the electronic device 101 may adjust the magnification of content displayed within portion 614 based on a gesture performed on display 140.
  • the electronic device 101 transitions from state 610 in FIG. 6A to state 620 in FIG. 6B based on a deformation of the electronic device 101 and/or the display 140. can do.
  • the electronic device 101 may switch to the state 620 in response to an input of pressing the button 220 within the state 610.
  • the electronic device 101 may enlarge the content based on the transformation from the roll-out state to the roll-in state. Based on the enlargement of the content, the electronic device 101 can maintain visibility of the content independent of the reduction of the display area due to the transformation.
  • the electronic device 101 may enlarge the content based on a result of identifying a subject from the content.
  • the electronic device 101 may enlarge a portion of the content in which the one or more subjects are captured. If one or more subjects cannot be identified from the content, the electronic device 101 may enlarge the content based on the composition of the content. Failure to identify one or more subjects from content may mean, for example, that the content fails to include subjects corresponding to designated categories or that the user has not assigned any tags to the content.
  • the electronic device 101 may enlarge content within a portion 622 of the display area within the state 620.
  • the electronic device 101 may display a portion of the content displayed within the display area in a portion 622, a thumbnail 624 representing the entire content within the display area, and a thumbnail 624 overlapping on the thumbnail 624.
  • a square visual object 626 may be displayed.
  • the electronic device 101 changes the portion of content displayed within portion 622 to another portion of the content that matches the input. You can.
  • the electronic device 101 may display the entire content, such as screen 420 in FIG. 4B and/or state 610 in FIG. 6A. You can switch to the display state.
  • the electronic device 101 may enlarge the content within state 620 based on the composition of the content.
  • Electronic device 101 may enlarge the content within portion 622 based on a specified ratio, such as 1:1.618. Referring to FIG. 6B, the electronic device 101 may enlarge the content within the portion 622 so that a horizontal line included in the content is placed at the specified ratio.
  • the electronic device 101 displays content by modifying the electronic device 101 and/or the display 140 in a state of displaying content that does not include a subject. Based on the enlargement or reduction of the area, the content can be enlarged or reduced. In this state, the electronic device 101 may enlarge a portion of the content based on the composition of the content.
  • FIGS. 7A and 7B are exemplary diagrams for explaining an operation of the electronic device 101 to display content including video based on one or more subjects captured in the content, according to an embodiment.
  • the electronic device 101 of FIGS. 7A to 7B may be an example of the electronic device 101 of FIGS. 1 to 5 and/or 6A to 6B.
  • the electronic device 101 and the display 140 of FIG. 1 may include the electronic device 101 and the display 140 of FIGS. 7A and 7B.
  • the electronic device 101 can play a video included in content.
  • Content including video may be selected from a list of a plurality of contents stored in the electronic device 101, as shown in screen 410 of FIG. 4A.
  • the electronic device 101 may play the video included in the selected content, as shown in states 710 and 720 of FIGS. 7A and 7B.
  • the electronic device 101 sequentially displays a plurality of frames included in the video within the display area of the display 140 and simultaneously displays frames included in the content and synchronized with the video in the time domain. (synchronized in a time domain), audio can be output.
  • the electronic device 101 may transmit the audio using one or more speakers included within the electronic device 101 and/or one or more speakers included in an external electronic device different from the electronic device 101. Can be printed.
  • the electronic device 101 plays a video included in content based on the landscape mode, but the embodiment is not limited thereto.
  • the electronic device 101 may display all pixels included in one frame of video in content within a portion 712 of the display area within the roll-out state. .
  • the corners of portion 712 may match the corners of the frame.
  • the electronic device 101 may display a button 714 for controlling playback of the video and/or the content along with the portion 712. Based on a tap-gesture on the button 714, the electronic device 101 can play the video or at least temporarily stop playing the video.
  • the electronic device 101 includes a timeline 716 that visually indicates at which point in the entire time section of the video a frame played within the display area corresponds, along with the portion 712. Visual objects such as can be displayed.
  • the electronic device 101 may display a button 718 for enlarging content within the state 710. In response to an input for selecting the button 718, the electronic device 101 may enlarge the content. Meanwhile, in response to an input for deformation of the electronic device 101 and/or the display 140, the electronic device 101 may transform from a roll-out state to a shape in the roll-in state. Referring to FIG. 7B, state 720 may be a state of the electronic device 101 after being converted to the roll-in state in response to an input for deforming the display 140.
  • the electronic device 101 may enlarge a portion in which at least one of the plurality of subjects captured in the video content is captured.
  • an example state 720 is shown captured within one frame of the video, with a subject corresponding to a person enlarged.
  • the electronic device 101 may identify one or more subjects from the one frame based on the operation described above with reference to FIG. 3 .
  • the electronic device 101 enlarges the portion in which the subject is captured within the portion 722 of the display area, overlapping a thumbnail 724 corresponding to the entire frame, and the thumbnail 724, and the enlarged image.
  • a visual object 726 may be displayed to indicate the location of a portion.
  • a subject may be captured at different positions within the frames. While sequentially displaying the frames, the electronic device 101 may enlarge each of the frames within the portion 722 based on a different position of the subject in each of the frames.
  • the electronic device 101 may display, within the state 720, along with the portion 722, visual objects 728 and 729 corresponding to each of the subjects captured within the frame. .
  • the electronic device 101 may display thumbnails of the subjects on the visual objects 728 and 729.
  • the electronic device 101 may enlarge a portion of the content corresponding to the selected visual object.
  • the electronic device 101 enlarges a portion in which at least one of a plurality of subjects included in the content is captured within a state in which the display area is reduced, and displays the plurality of subjects. can be displayed preferentially. Because the electronic device 101 preferentially displays the plurality of subjects, visibility of the plurality of subjects may be improved despite the display area being reduced.
  • FIGS. 8A to 8D are diagrams for explaining an operation of the electronic device 101 to display content based on a change in the screen of an application for browsing content, according to an embodiment.
  • the electronic device 101 of FIGS. 8A to 8D may be an example of the electronic device 101 of FIGS. 1 to 5, 6A to 6B, and/or 7A to 7B.
  • the electronic device 101 and the display 140 of FIG. 1 may include the electronic device 101 and the display 140 of FIGS. 8A to 8D.
  • the electronic device 101 may display a screen on the display 140 based on the execution of an application for viewing content.
  • the electronic device 101 may display a screen based on execution of the application on the entire display area of the display 140.
  • the screen displayed within state 810 may include screen 420 of FIG. 4B.
  • the electronic device 101 can display all pixels included in the content. Referring to FIG. 8A, corners A1, A2, A3, and A4 of the content may be included in the display 140.
  • the electronic device 101 may display a visual object 812 on the display 140 for switching applications running by the electronic device 101.
  • a visual object 812 displayed on the display 140 for switching applications running by the electronic device 101.
  • electronic device 101 moves from state 810 of FIG. 8A to state 820 of FIG. 8B. You can switch.
  • the electronic device 101 is executing in state 810 before entering state 820.
  • the application screen 822 can be displayed on the display 140.
  • the electronic device 101 may display a screen 822 within a portion of the display area of the display 140. In a portion other than the portion of the display 140 where the screen 822 is displayed, the electronic device 101 displays a screen 824 based on another application (e.g., a launcher application such as a home application) that is different from the application. It can be displayed.
  • the electronic device 101 may display a visual object 826 for controlling execution of the application corresponding to the screen 822 within the state 820. In the embodiment of FIG. 8B , the electronic device 101 may display a visual object 826 including the icon of the application by overlapping it on the screen 826 .
  • the electronic device 101 moves from state 820 of FIG. 8B to an application (e.g., screen 822) corresponding to the visual object 826.
  • the state 830 of FIG. 8C can be switched to receive input for controlling the execution of the corresponding application.
  • the electronic device 101 may display a menu 832 on the display 140 for controlling the execution of the application corresponding to the screen 822.
  • the menu 832 may be displayed overlapping the visual object 826 of FIG. 8B.
  • the electronic device 101 displays, within the menu 832, selectable options related to the screen 822 and/or the application corresponding to the menu 832, different texts, and /Or it can be displayed based on icons.
  • a designated text e.g., “App info”
  • Specified text e.g., “Open in split screen window”
  • Designated text indicating a third option for displaying (e.g., “Open in pop-up view”), or designated text indicating a fourth option for maintaining display of the screen 832 (e.g., “Keep open”) At least one of them can be displayed.
  • the electronic device 101 may receive an input of touching and/or clicking a portion 834 of the menu 832 within the state 830.
  • the portion 834 may include designated text (e.g., “Open in pop-up view”) indicating a third option for displaying the screen 822 based on a pop-up window shape on the display area.
  • the electronic device 101 may transition from state 830 in FIG. 8C to state 840 in FIG. 8D.
  • the electronic device 101 displays the screen 822 of the application running in state 810 of FIG. 8A in the display 140. It can be displayed in reduced size. While displaying screen 822 within a portion of display 140, electronic device 101 may display a visual object 842, such as a handle for adjusting the position of screen 822 within display 140. . Based on the input of dragging the visual object 842, the electronic device 101 may move the screen 822 within the display 140 in parallel. According to one embodiment, the electronic device 101 may adjust the size of the screen 822 based on an input of dragging the border line of the screen 822. Referring to FIG. 8D, while receiving the input for dragging the boundary line, the electronic device 101 displays a screen 822 to be adjusted by the input based on a visual object 844 based on a square shape. size can be reported.
  • a visual object 842 such as a handle for adjusting the position of screen 822 within display 140.
  • the electronic device 101 may move the screen 822 within the display 140 in parallel.
  • the electronic device 101
  • the electronic device 101 Based on the size of the screen 822 being reduced to less than the display area of the display 140, the electronic device 101 displays all of the pixels included in the content within the screen 822 and, independently, displays the content. Part of it can be displayed. Referring to FIG. 8D, in state 840, the electronic device 101 may enlarge and display the content on screen 822, such as screen 430 in FIG. 4C. Because the content is enlarged within screen 822, the display of edges A1, A2, A3, and A4 of the content may be interrupted within state 840. According to one embodiment, the electronic device 101 may enlarge the content within the screen 822 to selectively display at least one of a plurality of subjects captured within the content. Referring to FIG.
  • the electronic device 101 displays the corners (A1, A2, A3, A4) or the corners (X1, , X4), the corners (X1, X2, X3, X4) can be displayed on the screen 822.
  • an operation of the electronic device 101 identifying the plurality of subjects within content may be performed based on the operation described above with reference to FIG. 3 .
  • the electronic device 101 While displaying content based on the screen 822 occupying a portion of the display area of the display 140, such as state 840 of FIG. 8D, the electronic device 101 displays the screens of FIGS. 4C to 4E ( As shown in 430, 440, and 450), at least one of a plurality of subjects in the content may be selectively displayed. In order to selectively display at least one of a plurality of subjects, the electronic device 101 may display a list of the plurality of subjects on the screen 822. Based on an input based on the list, the electronic device 101 may selectively display at least one subject selected by the input. Because the at least one subject is selectively displayed in the display 140, display of another subject among the plurality of subjects may be at least temporarily stopped.
  • the electronic device 101 may determine the size of content displayed within the display area of the display 140 and/or the display area occupied by an application for displaying the content. Based on the size of at least a portion of the content, the content may be enlarged. When the size of at least a portion of the display area where the content is displayed is reduced, the electronic device 101 may stop displaying the entire content and enlarge the content. The electronic device 101 may selectively display a plurality of subjects captured in the content and maintain display of at least one of the plurality of subjects, despite the size of at least a portion of the content being reduced. Since the display of at least one of the plurality of subjects is maintained, the electronic device 101 can improve the visibility of the plurality of subjects despite the size of a portion of the display area for displaying the content being reduced. .
  • FIG. 9 is a flowchart illustrating an operation performed by an electronic device based on one or more subjects captured in content, according to an embodiment.
  • the electronic device of FIG. 9 may be an example of the electronic device 101 of FIGS. 1 to 8 .
  • at least one of the operations of FIG. 9 may be performed by the electronic device 101 of FIG. 1 and/or the processor 120 of FIG. 1 .
  • the electronic device may receive a request to display content in the display area.
  • the electronic device may display a list of a plurality of contents stored in the memory of the electronic device (eg, the memory 130 of FIG. 1), as shown on the screen 410 of FIG. 4A. Within the list, the electronic device can receive an input for selecting one content.
  • the content such as the content 310 of FIG. 3, may include a photo and/or video to be visually displayed within the display area of the display (eg, display 140 of FIG. 1) of the electronic device.
  • the electronic device may identify a plurality of subjects captured within content.
  • the electronic device may perform operation 920 in response to the request for operation 910.
  • the electronic device may obtain information indicating one or more subjects captured in the photo.
  • the electronic device can obtain the location where one or more subjects are captured within each frame included in the video. Identification of the subjects captured within content by an electronic device may be performed based on metadata corresponding to the content and/or image analysis applied to the content.
  • the electronic device may obtain the order of a plurality of subjects.
  • the order may indicate at least one subject to be preferentially displayed and/or enlarged among a plurality of subjects.
  • the order may be an order for displaying visual objects (eg, visual objects 434, 435, and 436 of FIGS. 4A to 4E) corresponding to a plurality of subjects.
  • the electronic device may obtain the order based on at least one of one or more tags included in the content or a plurality of types of subjects.
  • the electronic device obtains the order based on history information indicating a call connection and/or exchange of text messages between a user of the electronic device and at least one subject among the plurality of subjects. You can.
  • the history information may include, for example, at least one of the number of times a call connection was established and/or the number of times a text message was exchanged between the user and the at least one subject.
  • the electronic device may display a plurality of visual objects corresponding to each of a plurality of subjects based on the obtained order. For example, the electronic device may align a plurality of visual objects within the display area based on the order of the operations 930 . According to one embodiment, the electronic device may display at least one of a thumbnail or text within at least one of the plurality of visual objects based on information related to each of the plurality of subjects.
  • the thumbnail may include portions of the content where the plurality of subjects are captured.
  • the text may include text assigned to at least one of the plurality of subjects.
  • the electronic device displays a first portion of content in which at least one of the plurality of subjects is captured based on the obtained order, and the first portion Among the different second parts, the first part can be displayed in the display area.
  • the electronic device may enlarge the first portion within the display area.
  • the electronic device may perform operation 950 in response to an input to the visual object 718 of FIG. 7A. While enlarging the first portion, the electronic device selects at least one visual object corresponding to at least one subject captured within the first portion, among the plurality of visual objects in operation 940, more than other visual objects. It can be emphasized.
  • the electronic device may perform operation 950 based on the width, height, size, and/or area of the display area. For example, in a first state in which the size of the display area is less than the size specified by the drawing of the display, the electronic device displays the first portion of the first portion and the second portion as the visual objects. It can be displayed with . Within the above example, in a second state in which the size of the display area exceeds the specified size by the drawing of the display, the electronic device may display the first portion and all of the second portion. . Within the above example, in the first state, in response to initiation of the fetch of the display, the electronic device may display both the first portion and the second portion.
  • the electronic device may sequentially display frames included in the video within a display area. While sequentially displaying the frames based on playback of the video within the display area, the electronic device displays content displayed within the display area based on at least one of the positions of subjects within the frames, and/ Alternatively, at least one of the position or size of the first portion within the frame may be adjusted.
  • FIG. 10 is a flowchart illustrating an operation in which an electronic device adjusts the magnification for displaying content based on the size of a display area, according to an embodiment.
  • the electronic device of FIG. 10 may be an example of the electronic device 101 of FIGS. 1 to 8 and/or the electronic device of FIG. 9 .
  • at least one of the operations of FIG. 10 may be performed by the electronic device 101 of FIG. 1 and/or the processor 120 of FIG. 1 .
  • At least one of the operations in FIG. 10 may be related to operation 950 in FIG. 9 .
  • the electronic device may acquire content.
  • the electronic device may identify content stored in a memory (eg, memory 130 of FIG. 1) and in which one or more subjects are captured.
  • the electronic device may identify one or more subjects within the content based on the operations of FIG. 9 .
  • the electronic device may compare the size of the display area with a specified size.
  • the size of the display area may be adjusted based on the type of electronic device and/or display. For example, as in states 200 and 205 of FIGS. 2A and 2B, the electronic device uses an actuator (e.g., actuator 150 of FIG. 1) to move the display into the housing of the electronic device. , or can be drawn out from the housing.
  • the size of the display area corresponding to the externally exposed portion of the display may be adjusted based on the incoming or outgoing display.
  • the electronic device may identify the size of the display area based on a sensor, such as a hall sensor, for identifying the shape of the electronic device and/or the display.
  • the specified size may exceed the size of the display area of the electronic device in the roll-in state and may be less than or equal to the size of the display area of the electronic device in the roll-out state.
  • the electronic device displays content within the display area based on the first magnification. can do. Based on the first magnification, the electronic device can make the size of the content smaller than or equal to the size of the display area. Since the size of the content is adjusted to be less than the size of the display area, the electronic device can display all pixels included in the content within the display area.
  • the state in which the electronic device displays content based on the operation 1030 includes the state of displaying the screen 420 of FIG. 4B, the state 520 of FIG. 5, the state 610 of FIG. 6A, and/or FIG. It may include state 710 of 7a.
  • each of the corners of the content may be displayed at the corners of a designated area for viewing the content within the display area.
  • the electronic device may display a display area that exceeds the first magnification factor of operation 1030. 2 Based on the magnification, at least a portion of the content can be displayed within the display area. Because the second magnification of operation 1040 exceeds the first magnification of operation 1030, the electronic device may display content enlarged than the content of operation 1030 based on operation 1040. According to one embodiment, the electronic device may display at least a portion of the content based on a second magnification that is related to a portion of the content in which one or more subjects are captured and exceeds the first magnification.
  • the second magnification may be adjusted so that at least a portion of the content occupies an area and/or size within the display area that exceeds a specified ratio.
  • each of the edges of the portion of the content is displayed at the corners of a designated area for viewing the content within the display area. It can be.
  • the electronic device within the state, displays one or more visual objects (e.g., visual objects 433, 434, 435 in FIGS. 4C to 4E) corresponding to one or more subjects identified from the content. , 436, 437), and/or visual objects 728, 729) of FIG. 7B.
  • FIG. 11 is a flowchart for explaining operations performed by an electronic device to display content, according to an embodiment.
  • the electronic device of FIG. 11 may be an example of the electronic device of FIGS. 1 to 10 .
  • the operation of FIG. 11 may be performed by the electronic device 101 of FIG. 1 and/or the processor 120 of FIG. 1 .
  • At least one of the operations of FIG. 11 may change the width, height, size, and/or size of the display area, such as operation 1040 of FIG. 10 and/or state 200 of FIGS. 2A-2B. It may be performed while the area is below the corresponding threshold.
  • the electronic device may identify content. For example, the electronic device may perform operation 1110 based on a request received based on operation 910 of FIG. 9 .
  • the electronic device may identify whether one or more subjects have been captured in the content. For example, the electronic device may identify one or more subjects captured in the content based on one or more tags assigned to the content and/or information extracted from the content based on image recognition. For example, the electronic device may identify one or more subjects captured within content based on designated categories indicating the type of subject.
  • the electronic device displays at least a portion of the content within the display area based on the composition of the content. You can. For example, the electronic device may enlarge the content so that at least a portion of the content within the display area is displayed based on a specified ratio, as shown in state 620 of FIG. 6B.
  • the electronic device may identify whether a plurality of subjects have been captured. If a single subject is identified from the content (1140-No), within operation 1150, according to one embodiment, the electronic device displays the enlarged content within the display area based on the portion of the content for which the subject was captured. It can be displayed. Within operation 1150, the electronic device may enlarge the portion in which the subject is captured within the display area. For example, within operation 1150, the width of the portion matches the width of the display area, or is less than or equal to the width of the display area, and the height of the portion matches the height of the display area, or It may be less than or equal to the height of the display area. According to one embodiment, because the electronic device enlarges the portion where the subject is captured based on the operation 1150, the electronic device maintains the visibility of the subject despite the reduction of the display area due to the introduction of the display. It can be maintained.
  • the electronic device may identify the order of the plurality of subjects.
  • the electronic device may identify the order of a plurality of subjects based on the operations 920 and 930 of FIG. 3 and/or FIG. 9 . If the order of the plurality of subjects is not identified (1160-No), in operation 1170, according to one embodiment, the electronic device displays the enlarged content based on the portion of the content in which the plurality of subjects were captured, It can be displayed within the display area. For example, the electronic device may enlarge a portion of content in which all of a plurality of subjects are captured within the display area. The electronic device may display a portion including all of the plurality of subjects and having a minimized area within the display area, as shown on the screen 450 of FIG. 4E.
  • the electronic device captures the first subject selected by the identified order among the plurality of subjects. Enlarged content can be displayed within the display area based on the portion of the content.
  • the electronic device may display a plurality of visual objects corresponding to a plurality of subjects along with the enlarged content. Among the plurality of visual objects, the electronic device may emphasize a specific visual object corresponding to the first subject more than other visual objects.
  • the state in which the electronic device enlarges content based on the operation 1180 may include the screens 430 and 440 of FIGS. 4C to 4D, and/or the state 720 of FIG. 7B. You can.
  • the electronic device may highlight one or more subjects captured within content. Highlighting the one or more subjects by the electronic device may include enlarging a portion of the content where the one or more subjects are captured. The electronic device may emphasize the one or more subjects based on reduction of the display area due to deformation of the electronic device and/or display.
  • FIGS. 12A to 12D and/or FIGS. 13A to 13B an exemplary structure that an electronic device has for modifying a display, according to an embodiment, is described.
  • FIG. 12A is a front view of a first state of an electronic device according to an embodiment
  • FIG. 12B is a rear view of a first state of an electronic device according to an embodiment
  • FIG. 12C is a front view of the second state of the electronic device according to an embodiment
  • FIG. 12D is a rear view of the second state of the electronic device according to an embodiment.
  • the electronic device 1200 (e.g., the electronic device 111 of FIG. 1) according to an embodiment includes a first housing 1210 and a second housing. It may include 1220, a display 1230 (eg, display 140 of FIG. 1), and a camera 1240.
  • the second housing 1220 may be slidable relative to the first housing 1210.
  • the second housing 1220 may move within a specified distance along the first direction (eg, +y direction) with respect to the first housing 1210.
  • the distance between the side 1220a of the second housing 1220 facing the first direction and the first housing 1210 may increase.
  • the second housing 1220 may move within a specified distance along a second direction (eg, -y direction) opposite to the first direction with respect to the first housing 1210.
  • a second direction eg, -y direction
  • the distance between the side 1220a of the second housing 1220 facing the first direction and the first housing 1210 may decrease.
  • the second housing 1220 may linearly reciprocate with respect to the first housing 1210 by sliding relative to the first housing 1210 .
  • at least a portion of the second housing 1220 may be retractable into the first housing 1210 or may be withdrawn from the first housing 1210 .
  • the electronic device 1200 may be called a “slidable electronic device” since the second housing 1220 is designed to be able to slide with respect to the first housing 1210. According to one embodiment, the electronic device 1200 moves at least a portion of the display 1230 into the inside of the second housing 1220 (or the first housing 1210) based on the slide movement of the second housing 1220. As it is designed to be rolled up, it can be named a “rollable electronic device”.
  • the first state of the electronic device 1200 is defined as a state in which the second housing 1220 moves in the second direction (e.g., a contracted state or a slide-in state). It can be.
  • the electronic device 1200 may not be able to substantially move in the second direction.
  • the distance between the side surface 1220a of the second housing 1220 and the first housing 1210 may not be reduced.
  • a portion of the second housing 1220 may not be retractable.
  • the first state of the electronic device 1200 may be a state in which the second area 1230b of the display 1230 is not visually exposed from the outside of the electronic device 1200.
  • the second area 1230b of the display 1230 is formed by the first housing 1210 and/or the second housing 1220. ) and may not be visible from the outside of the electronic device 1200.
  • the second state of the electronic device 1200 is defined as a state in which the second housing 1220 moves in the first direction (e.g., a pull-out state or a slide-out state). It can be.
  • the second housing 1220 may not be substantially movable in the first direction.
  • the distance between the side surface 1220a of the second housing 1220 and the first housing 1210 may not increase.
  • a portion of the second housing 1220 may not be retractable from the first housing 1210.
  • the second state of the electronic device 1200 may be a state in which the second area 1230b of the display 1230 is visually exposed from the outside of the electronic device 1200.
  • the second area 1230b of the display 1230 is drawn out from the internal space of the electronic device 1200 and is visible from the outside of the electronic device 1200. (visible) can.
  • the second housing 1220 when the second housing 1220 moves from the first housing 1210 in the first direction, at least a portion of the second housing 1220 and/or the second area 1230b of the display 1230 may be drawn out from the first housing 1210 by a draw-out length d1 corresponding to the moving distance of the second housing 1220.
  • the second housing 1220 may reciprocate within a specified distance d2.
  • the draw length d1 may have a size ranging from approximately 0 to a specified distance d2.
  • the state of the electronic device 1200 can be changed by manual operation by a user or by a driving module (not shown) disposed inside the first housing 1210 or the second housing 1220. ), it may be convertible between the second state and/or the first state.
  • the driving module may trigger an operation based on a user input.
  • user input for triggering the operation of the driving module may include touch input, force touch input, and/or gesture input through the display 1230.
  • the user input for triggering the operation of the driving module includes voice input (voice input) or input of a physical button exposed to the outside of the first housing 1210 or the second housing 1220. can do.
  • the driving module may be driven in a semi-automatic manner in which an operation is triggered when a manual operation by an external force of the user is detected.
  • the first state of the electronic device 1200 may be referred to as a first shape, and the second state of the electronic device 1200 may be referred to as a second shape.
  • the first shape may include a normal state, a collapsed state, or a closed state, and the second shape may include an open state.
  • the electronic device 1200 may form a third state (eg, an intermediate state) that is a state between the first state and the second state.
  • the third state may be referred to as a third shape, and the third shape may include a free stop state.
  • the display 1230 may be visible or viewable from the outside through the front direction (e.g., -z direction) of the electronic device 1200 so as to display visual information to the user.
  • the display 1230 may include a flexible display.
  • at least a portion of the display 1230 is disposed in the second housing 1220 and is pulled out from the internal space (not shown) of the electronic device 1200 as the second housing 1220 moves. , may be introduced into the internal space of the electronic device 1200.
  • the internal space of the electronic device 1200 may refer to the space within the first housing 1210 and the second housing 1220 formed by combining the first housing 1210 and the second housing 1220. .
  • At least a portion of the display 1230 may be drawn into the internal space of the electronic device 1200.
  • the second housing 1220 moves in the first direction
  • at least a portion of the display 1230 moves into the internal space of the electronic device 1200. It can be withdrawn from the internal space of .
  • at least a portion of the display 1230 is rolled into the interior of the electronic device 1200, thereby entering the internal space of the electronic device 1200. It can be.
  • the area of the display 1230 visible from the outside of the electronic device 1200 may be expanded or reduced.
  • the display 1230 may include a first area 1230a and/or a second area 1230b.
  • the first area 1230a of the display 1230 is permanently visible from outside the electronic device 1200, regardless of whether the electronic device 1200 is in the second state or the first state. This may refer to a possible area of the display 1230.
  • the first area 1230a may refer to a partial area of the display 1230 that is not incorporated into the internal space of the electronic device 1200.
  • the first area 1230a may move together with the second housing 1220 when the second housing 1220 moves.
  • the first area 1230a is located on the front of the electronic device 1200 together with the second housing 1220. It may move along one direction or a second direction.
  • the second area 1230b of the display 1230 is introduced into the internal space of the electronic device 1200 or the interior of the electronic device 1200 as the second housing 1220 moves. It can be withdrawn from space to the outside.
  • at least a portion of the second area 1230b of the display 1230 may be rolled up and inserted into the internal space of the electronic device 1200 in the first state of the electronic device 1200.
  • the second area 1230b of the display 1230 may be drawn into the internal space of the electronic device 1200 in the first state of the electronic device 1200 and may not be visible from the outside.
  • the second area 1230b of the display 1230 may be pulled out from the internal space of the electronic device 1200 in the second state.
  • the second area 1230b of the display 1230 may be visible from outside the electronic device 1200 in the second state.
  • the area of the display 1230 visible from the outside of the electronic device 1200 may include only the first area 1230a of the display 1230. there is.
  • the area of the display 1230 visible from the outside of the electronic device 1200 is at least a portion of the first area 1230a and the second area 1230b of the display 1230. It can be included.
  • the first housing 1210 of the electronic device 1200 includes a first support member 1211 surrounding the internal space of the first housing 1210, and a rear surface of the first support member 1211. It may include a rear plate 1212 that surrounds the back plate, and a first side member 1214 that surrounds at least a portion of an edge of the first support member 1211. According to one embodiment, the first support member 1211 may be formed integrally with the first side member 1214. The first support member 1211 may extend into the interior of the electronic device 1200 from at least a portion of one side of the first side member 1214 facing the interior of the electronic device 1200. According to one embodiment, the first support member 1211 and the first side member 1214 may be integrally formed or may be formed of the same material.
  • the second housing 1220 of the electronic device 1200 may include a second support member 1221 and a second side member 1229 surrounding the internal space of the electronic device 1200. .
  • the second side member 1229 may form at least a portion of the side surface of the second housing 1220.
  • the second support member 1221 may support an electronic device (eg, camera 1240 and/or printed circuit board 1224) disposed in the second housing 1220.
  • the second side member 1229 may surround at least a portion of the second support member 1221.
  • the second support member 1221 may be formed integrally with the second side member 1229.
  • the second support member 1221 may extend into the inside of the second housing 1220 from at least a portion of one surface of the second side member 1224 facing the inside of the second housing 1220.
  • the second support member 1221 and the second side member 1229 may be integrally formed or may be formed of the same material.
  • the second support member 1221 includes the first cover area 1221a of the second support member 1221 that is not inserted into the first housing 1210, and the first housing 1210. It may include a second cover area 1221b that is inserted or extracted into the interior.
  • the first cover area 1221a of the second support member 1221 may always be visible regardless of whether the electronic device 1200 is in the second state or the first state.
  • at least a portion of the first cover area 1221a of the second support member 1221 may form the side surface 1220a of the second housing 1220.
  • the second cover area 1221b of the second housing 1220 may not be visible in the first state and may be visible in the second state.
  • the camera 1240 may acquire an image of a subject based on receiving light from the outside of the electronic device 1200.
  • the camera 1240 may include one or more lenses, an image sensor, and/or an image signal processor.
  • the camera 1240 is installed in the second housing so that it faces the rear of the electronic device 1200, which is opposite to the front of the electronic device 1200 where the first area 1230a of the display 1230 is disposed. It can be placed at (1220).
  • the camera 1240 is disposed on the second support member 1221 of the second housing 1220, and when the electronic device 1200 is in the first state, an opening formed in the first support member 1211 Through 1211a, it may be visible from outside the electronic device 1200.
  • the camera 1240 is disposed on the second support member 1221 of the second housing 1220, and when the electronic device 1200 is in the first state, the first support member 1211 and/ Alternatively, it may be obscured by the rear plate 1212 and may not be visible from the outside of the electronic device 1200.
  • the camera 1240 may include a plurality of cameras.
  • the camera 1240 may include a wide-angle camera, an ultra-wide-angle camera, a telephoto camera, a proximity camera, and/or a depth camera.
  • the camera 1240 is not necessarily limited to including a plurality of cameras and may include one camera.
  • the camera 1240 may further include a camera (not shown) aimed at the front of the electronic device 1200 where the first area 1230a of the display 1230 is located.
  • the camera 1240 is an under-display camera (UDC) disposed below the display 1230 (e.g., in the +z direction from the display 1230). may be under display camera), but is not limited thereto.
  • UDC under-display camera
  • the electronic device 1200 may include a sensor module (not shown) and/or a camera module (not shown) disposed below the display 1230.
  • the sensor module may detect the external environment based on information (e.g., light) received through the display 1230.
  • the sensor module includes a receiver, proximity sensor, ultrasonic sensor, gesture sensor, gyro sensor, barometric pressure sensor, magnetic sensor, acceleration sensor, grip sensor, color sensor, IR (infrared) sensor, biometric sensor, and temperature sensor. It may include at least one of a sensor, a humidity sensor, a motor encoder, or an indicator.
  • the electronic device 1200 may be visually exposed to the outside through a partial area of the display 1230.
  • the electronic device 1200 may detect the draw length (eg, length d1) using a sensor module.
  • the electronic device 1200 may generate fetch information about the degree of fetch detected by a sensor.
  • the electronic device 1200 may detect and/or confirm the extent to which the second housing 1220 has been withdrawn using the withdrawal information.
  • the pull-out information may include information about the pull-out length of the second housing 1220.
  • the combined form of the first housing 1210 and the second housing 1220 is not limited to the form and combination shown in FIGS. 12A, 12B, 12C, and 12D, and other shapes or parts may be used. It may also be implemented by combination and/or combination of.
  • FIG. 13A is an exploded perspective view of an electronic device according to an embodiment
  • FIG. 13B is a cross-sectional view showing an example of an electronic device cut along line A-A' of FIG. 12A ( cross-sectional view).
  • the electronic device 1200 includes a first housing 1210, a second housing 1220, a display 1230, a camera 1240, and a battery 1250. (For example, the battery 189 in FIG. 1) and/or a driver 1260.
  • the first housing 1210 and the second housing 1220 may be combined with each other to form the internal space 1201 of the electronic device 1200.
  • the second area 1230b of the display 1230 may be accommodated in the internal space 1201.
  • the first housing 1210 may include a first support member 1211, a rear plate 1212, and/or a third support member 1213.
  • the first support member 1211, the rear plate 1212, and the third support member 1213 included in the first housing 1210 are coupled to each other to form the second housing 1220. When moving relative to the first housing 1210, it may not move.
  • the first support member 1211 may form at least a portion of the outer surface of the electronic device 1200.
  • the first support member 1211 may form at least a portion of the side of the electronic device 1200 and at least a portion of the rear of the electronic device 1200.
  • the first support member 1211 may provide a surface on which the rear plate 1212 is seated.
  • the rear plate 1212 may be seated on one side of the first support member 1211.
  • the third support member 1213 may support internal components of the electronic device 1200.
  • the third support member 1213 can accommodate the battery 1250 and the motor 1261 of the driving unit 1260.
  • the battery 1250 and the motor 1261 may be accommodated in at least one of a recess or a hole included in the third support member 1213.
  • the third support member 1213 may be surrounded by the first support member 1211.
  • one surface 1213a of the third support member 1213 on which the battery 1250 is disposed is the first support member 1211 and/or the display 1230. ) can face the second area 1230b.
  • one side 1213a of the third support member 1213 and the other side 1213b of the third support member 1213 facing in the opposite direction are displayed. It may face the first area 1230a of 1230 or the second support member 1221.
  • the third support member 1213 may include aluminum as a material, but is not limited thereto.
  • the second housing 1220 may include a second support member 1221, a rear cover 1222, and/or a slide cover 1223.
  • the second support member 1221, the rear cover 1222, and the slide cover 1223 are coupled to each other so that the second housing 1220 moves relative to the first housing 1210. If so, it can move together with the second housing 1220.
  • the second support member 1221 may support internal components of the electronic device 1200.
  • the printed circuit board 1224 and/or the camera 1240 on which the electronic components (e.g., the processor 120 of FIG. 1) of the electronic device 1200 are disposed may be directed toward the internal space 1201. 2 It may be placed on one side 1221c of the support member 1221.
  • the other surface 1221d of the second support member 1221 facing in the opposite direction from the one surface 1221c of the second support member 1221 is used to display the display 1230 when the electronic device 1200 is in the first state. It may face the first area 1230a.
  • the rear cover 1222 may be coupled to the second support member 1221 to protect components of the electronic device 1200 disposed on the second support member 1221.
  • the rear cover 1222 may cover a portion of one surface 1221c of the second support member 1221.
  • the slide cover 1223 may be disposed on the rear cover 1222 and form the outer surface of the electronic device 1200 together with the rear plate 1212 and the first support member 1211. there is.
  • the slide cover 1223 may be coupled to one side of the rear cover 1222 or the second support member 1221 to protect the rear cover 1222 and/or the second support member 1221.
  • the display 1230 when the electronic device 1200 is in the first state, the display 1230 may be bent by at least a portion of the display 1230 being rolled into the internal space 1201. According to one embodiment, the display 1230 may cover at least a portion of the third support member 1213 and at least a portion of the second support member 1221. For example, when the electronic device 1200 is in the first state, the display 1230 covers the other surface 1221d of the second support member 1221 and is connected to the second support member 1221 and the first support member. It may pass between 1211 and extend toward the internal space 1201. At least a portion of the display 1230 may pass between the second support member 1221 and the first support member 1211 and then surround at least a portion of the third support member 1213.
  • the display 1230 may cover one surface 1213a of the third support member 1213 within the internal space 1201. According to one embodiment, when the second housing 1220 moves in the first direction, the second area 1230b of the display 1230 may be drawn out from the internal space 1201. For example, as the second housing 1220 moves in the second direction, the display 1230 passes between the second support member 1221 and the first support member 1211 and exits the internal space 1201. can be withdrawn
  • the electronic device 1200 may include a support bar 1231 and a guide rail 1232 that support the display 1230.
  • the support bar 1231 includes a plurality of bars coupled to each other, and may be manufactured in a shape corresponding to the shape of the second area 1230b of the display 1230.
  • the support bar 1231 may move together with the display 1230 as the display 1230 moves.
  • the support bar 1231 in a first state in which the second area 1230b of the display 1230 is wound within the internal space 1201, the support bar 1231 is connected to the second area 1230b of the display 1230. ) may be wound within the internal space 1201.
  • the support bar 1231 may move together with the second area 1230b of the display 1230 as the second housing 1220 moves in the first direction.
  • the guide rail 1232 may guide the movement of the support bar 1231.
  • the support bar 1231 may move along the guide rail 1232 coupled to the third support member 1213.
  • the guide rail 1232 may be coupled to the third support member 1213 or the first support member 1211.
  • the guide rail 1232 is arranged to be spaced apart from each other at both edges of the third support member 1213 spaced apart from each other along a third direction (e.g., +x direction) perpendicular to the first direction. It may include a plurality of guide rails 1232.
  • the driving unit 1260 may provide a driving force to the second housing 1220 so that the second housing 1220 can move relative to the first housing 1210.
  • the driving unit 1260 may include a motor 1261, a pinion gear 1262, and/or a rack gear 1263.
  • the motor 1261 may receive power from the battery 1250 and provide driving force to the second housing 1220.
  • the motor 1261 may be disposed in the first housing 1210 and not move when the second housing 1220 moves with respect to the first housing 1210.
  • the motor 1261 may be placed in a recess formed in the third support member 1213.
  • the pinion gear 1262 is coupled to the motor 1261 and may rotate by driving force provided from the motor 1261.
  • the rack gear 1263 is engaged with the pinion gear 1262 and can move according to the rotation of the pinion gear 1262.
  • the rack gear 1263 may linearly reciprocate in the first or second direction according to the rotation of the pinion gear 1262.
  • the rack gear 1263 may be disposed in the second housing 1220.
  • the rack gear 1263 may be coupled to the second support member 1221 included in the second housing 1220.
  • the rack gear 1263 may be movable inside the operating space 1213p formed in the third support member 1213.
  • the rack gear 1263 when the pinion gear 1262 rotates along a first rotation direction (e.g., clockwise in FIG. 13B), the rack gear 1263 may move in the first direction (e.g., +y direction). there is.
  • the rack gear 1263 moves along the first direction
  • the second housing 1220 coupled to the rack gear 1263 may move along the first direction.
  • the area of the display 1230 visible from the outside of the electronic device 1200 may be expanded.
  • the rack gear 1263 When the pinion gear 1262 rotates along the second rotation direction (eg, counterclockwise in FIG. 13B), the rack gear 1263 may move in the second direction (eg, -y direction).
  • the second housing 1220 coupled to the rack gear 1263 may move along the second direction. As the second housing 1220 moves in the second direction, the area of the display 1230 visible from the outside of the electronic device 1200 may be reduced.
  • the motor 1261 and the pinion gear 1262 are disposed in the first housing 1210, and the rack gear 1263 is disposed in the second housing 1220.
  • the embodiments are limited to this. It may not work.
  • the motor 1261 and the pinion gear 1262 may be disposed in the second housing 1220, and the rack gear 1263 may be disposed in the first housing 1210.
  • an electronic device in an electronic device that includes an actuator that deforms a flexible display, a method may be required for the electronic device to display content based on the width and/or height of the display area adjusted by the flexible display.
  • an electronic device includes a housing, a display, and a display area for adjusting a display area of the display by inserting the display into the housing or withdrawing the display from the housing. It may include an actuator, a memory for storing instructions, and at least one processor operably coupled to the display, the actuator, and the memory. When the instructions are executed, the at least one processor may receive a request to display content in the display area. The at least one processor may identify a plurality of subjects captured in the content in response to the request.
  • the at least one processor may obtain a sequence of the plurality of subjects in response to identifying the plurality of subjects from the content.
  • the at least one processor may display a plurality of visual objects corresponding to each of the plurality of subjects in the display area based on the obtained order.
  • the at least one processor may, based on the size of the display area controlled by the actuator, capture a first portion in which at least one subject selected based on the order among the plurality of subjects is captured, and the first portion Among the second parts of the content that are different from each other, the first part may be displayed together with the plurality of visual objects within the display area.
  • the electronic device may enlarge and/or reduce the content displayed within the display area based on the size of the display area adjusted by the actuator.
  • the electronic device may enlarge the content to include one or more subjects captured in the content.
  • the at least one processor when executing the instructions, in a first state in which the size of the display area is less than the size specified by the input of the display, in response to the request, to display the first portion , and the first part of the second part may be displayed together with the visual objects.
  • the at least one processor may, in response to the request, within a second state in which the size of the display area exceeds the size specified by the fetch of the display, display, within the display area, the first 1 part, and the second part can be displayed.
  • the at least one processor when executing the instructions, within the first state, in response to the initiation of the fetching of the display, within the display area, the first portion, and The entire second part can be displayed.
  • the at least one processor selects, from among the plurality of visual objects, a second visual object that is different from the first visual object corresponding to the first subject captured in the first portion. It can receive input of your choice.
  • the at least one processor may, in response to receiving the input, capture a second subject corresponding to the second visual object and display a third portion, different from the first portion, within the display area. there is.
  • the at least one processor may obtain the order based on at least one of one or more tags included in the content or types of the plurality of subjects.
  • the at least one processor when the instructions are executed, performs the order based on a call connection or exchange of text messages between a user of the electronic device and at least one of the plurality of subjects. can be obtained.
  • the at least one processor when the instructions are executed, in response to the request to display the content corresponding to a video, within each of the frames included in the video, the plurality of subjects
  • the positions of the first subject can be obtained.
  • the at least one processor while sequentially displaying the frames based on playback of the video within the display area, determines, based on at least one of the obtained positions, a position of the first portion within the content; Alternatively, you can adjust at least one of the sizes.
  • the at least one processor may display at least one of a thumbnail or text within at least one of the plurality of visual objects based on information related to each of the identified plurality of objects. One can be displayed.
  • an electronic device includes a housing, a display, and inserting the display into the housing or pulling it out from the housing to adjust a display area of the display. It may include an actuator, a memory for storing instructions, and at least one processor operably coupled to the display, the actuator, and the memory. When the instructions are executed, the at least one processor may identify content stored in the memory and in which one or more subjects are captured. The at least one processor may obtain the size of the display area, which is adjusted based on the insertion of the display or the extraction of the display.
  • the at least one processor displays the content based on a first magnification that makes the size of the content less than or equal to the size of the display area in a first state in which the size of the display area exceeds a preset size. can do.
  • the at least one processor is configured to, in a second state in which the size of the display area is less than the specified size, correspond to a portion of the content in which the one or more subjects are captured, at a second magnification that exceeds the first magnification. Based on this, at least part of the content may be displayed.
  • the at least one processor when executing the instructions, configures, within the first state, the content that matches corners of a designated area for viewing the content within the display area. edges can be displayed.
  • the at least one processor may display edges of a portion of the content that match edges of the designated area within the second state.
  • the at least one processor when executing the instructions, in response to identifying a plurality of objects from the content within the second state, configures the content to be displayed based on the second magnification. Together with the portion, a plurality of visual objects corresponding to each of the plurality of subjects may be displayed.
  • the at least one processor may obtain an order of the plurality of objects in response to identifying the plurality of objects when the instructions are executed.
  • the at least one processor may display the plurality of visual objects based on the obtained order.
  • the at least one processor when the instructions are executed, the at least one processor, in the second state, selects a first object of the content in which a first subject corresponding to a first visual object among the plurality of visual objects is captured. While displaying the portion, input may be received for selecting a second visual object that is different from the first visual object. The at least one processor may, in response to receiving the input, display a second portion in the display area where a second subject corresponding to the second visual object within the content is captured.
  • the at least one processor displays, within the second state, one or more visual objects including thumbnails or text corresponding to the one or more subjects, at least a portion of the content. It can be displayed with .
  • the at least one processor when executing the instructions, receives an input that, within the first state, reduces the size of the display area below the specified size based on the pull of the display. In response, the at least a portion of the content may be displayed based on the second magnification.
  • a method of an electronic device may include receiving a request to display content in a display area of a display of the electronic device.
  • the method of the electronic device may include an operation of identifying a plurality of subjects captured in the content in response to the request.
  • the method of the electronic device may include an operation of obtaining an order of the plurality of subjects in response to identifying the plurality of subjects from the content.
  • the method of the electronic device may include displaying a plurality of visual objects corresponding to each of the plurality of subjects in the display area based on the obtained order.
  • the method of the electronic device includes, based on the size of the display area controlled by the actuator, a first portion of the content in which at least one subject selected based on the order among the plurality of subjects is captured, and the Among the second parts of the content that are different from the first part, the display may include displaying the first part together with the plurality of visual objects within the display area.
  • the operation of displaying the first portion may be performed in a first state in which the size of the display area is less than a size specified by retraction of the display into the housing of the electronic device.
  • the method of the electronic device in response to the request, within a second state in which the size of the display area exceeds the specified size by drawing of the display, within the display area, the first portion, and the An operation of displaying the second portion may be further included.
  • the method of the electronic device may include receiving an input for selecting a second visual object that is different from a first visual object corresponding to a first subject captured in the first portion from among the plurality of visual objects. It may further include.
  • the method of the electronic device includes, in response to receiving the input, capturing a second subject corresponding to the second visual object and displaying a third portion, different from the first portion, within the display area. It may further include.
  • the operation of obtaining the order may include the operation of obtaining the order based on at least one of one or more tags included in the content or types of the plurality of subjects.
  • the method of the electronic device may include an operation of obtaining the order based on a call connection or exchange of text messages between a user of the electronic device and at least one subject among the plurality of subjects.
  • the operation of displaying the first portion may include, in response to the request to display the content corresponding to a video, within each of the frames included in the video, a first subject among the plurality of subjects. It may include an operation of acquiring the locations of .
  • the operation of displaying the first portion may include displaying the first portion within the content based on at least one of the obtained positions while sequentially displaying the frames based on playback of the video within the display area. It may include an operation of adjusting at least one of the position or size.
  • the operation of displaying the plurality of visual objects may include displaying at least one of a thumbnail or text within at least one of the plurality of visual objects based on information related to each of the identified plurality of subjects. It may include actions such as:
  • a method of an electronic device may include an operation of identifying content in which one or more subjects are captured.
  • the method of the electronic device includes obtaining a size of a display area of the display that is adjusted based on retraction of the display of the electronic device into the housing of the electronic device or withdrawal of the display from the housing. can do.
  • the method of the electronic device displays the content based on a first magnification that makes the size of the content less than or equal to the size of the display area within a first state in which the size of the display area exceeds a preset size.
  • the method of the electronic device relates to a portion of the content in which the one or more subjects are captured, within a second state in which the size of the display area is less than the specified size, and at a second magnification that exceeds the first magnification. It may include an operation of displaying at least a portion of the content based on the content.
  • the operation of displaying the content in the first state involves using corners of the content that match corners of a designated area for browsing the content within the display area. It may include a display action.
  • the operation of displaying the content in the second state may include the operation of displaying edges of a portion of the content that match the edges of the designated area.
  • displaying the content within the second state may include, in response to identifying a plurality of subjects from the content, with a portion of the content displayed based on the second magnification: It may include an operation of displaying a plurality of visual objects corresponding to each of the subjects.
  • displaying the content within the second state may include obtaining an order of the plurality of objects in response to identifying the plurality of objects.
  • displaying the content in the second state may include displaying the plurality of visual objects based on the obtained order.
  • the operation of displaying the content in the second state may include displaying a first portion of the content in which a first subject corresponding to a first visual object among the plurality of visual objects is captured.
  • the method may include receiving an input for selecting a second visual object that is different from the first visual object.
  • displaying the content within the second state may include, in response to receiving the input, a second portion of the content in which a second subject corresponding to the second visual object is captured, It may include an operation of displaying within the display area.
  • an electronic device includes a housing, a display, an actuator configured to control the position of the display relative to the housing to adjust an active area of the display, and instructions. It may include a memory for storing data, the display, the actuator, and at least one processor operably coupled to the memory.
  • the at least one processor may be configured to execute the instructions and receive a request to display content in the active area.
  • the at least one processor may be configured to execute the instructions and identify a plurality of subjects captured in the content based on the request.
  • the at least one processor may be configured to execute the instructions to obtain a sequence of the plurality of subjects based on identifying the plurality of subjects from the content.
  • the at least one processor may be configured to execute the instructions and display a plurality of visual objects corresponding to each of the plurality of subjects in the active area of the display based on the order.
  • the at least one processor executes the instructions to select, based on the size of the active area controlled by the actuator, at least one subject selected based on the order among the plurality of subjects of the captured content.
  • the first portion may be configured to be displayed together with the plurality of visual objects within the active area.
  • the at least one processor may execute the instructions to display the content with the plurality of visual objects based on the display in the first state where the size of the active area is smaller than a specified size. It may be configured to display a first portion.
  • the at least one processor executes the instructions to display, based on the display in a second state where the size of the active area is larger than the specified size, the second portion of the content that is different from the first portion and the and may be configured to display the first portion of content.
  • the at least one processor executes the instructions to display, within the first state, the first portion and the second portion within the active area based on the fetch of the display. It can be configured to do so.
  • the at least one processor may execute the instructions and receive an input for selecting a second visual object that is different from the first visual object among the plurality of visual objects.
  • the first visual object may correspond to a first subject captured within the first portion.
  • the at least one processor may be configured to execute the instructions to display, based on the input, a third portion of the content corresponding to the second visual object within the active area.
  • the second visual object may correspond to a second subject captured within the third portion.
  • the at least one processor may execute the instructions to obtain the order based on at least one of a tag included in the content or a type of the plurality of subjects.
  • the at least one processor executes the instructions to determine the order based on a call connection or exchange of text messages between the user of the electronic device and at least one of the plurality of subjects. It can be obtained.
  • the at least one processor executes the instructions to create, within each of the frames included in the video, a first image of the plurality of subjects, based on the content corresponding to the video including the frames. It may be configured to obtain positions of a subject. The at least one processor executes the instructions to determine the position of the first portion while sequentially displaying the frames in the video within the active area based on at least one of the positions of the first subject. , or at least one of the sizes can be adjusted.
  • the at least one processor may execute the instructions to create at least one of a thumbnail or text within at least one of the plurality of visual objects based on information associated with each of the identified plurality of objects. can be displayed.
  • an electronic device includes a housing, a display, an actuator configured to control the position of the display relative to the housing to adjust an active area of the display, and instructions. It may include a memory for storing data, the display, the actuator, and at least one processor operably coupled to the memory.
  • the at least one processor may be configured to execute the instructions and identify content stored in the memory.
  • the content may include at least one captured subject.
  • the at least one processor is configured to execute the instructions to obtain a size of the active area that is adjusted based on at least one of retraction of the display into the housing or withdrawal of the display from the housing. It can be.
  • the at least one processor executes the instructions to display the content based on a first magnification of the content based on the display in a first state in which the size of the active area exceeds a preset size. It can be configured to do so.
  • the at least one processor executes the instructions, based on the display in a second state where the size of the active area is less than the specified size, and based on a second magnification related to the location of the at least one captured subject. At least a portion of the content may be displayed.
  • the at least one processor executes the instructions to display at least one piece of the content at a vertex of a designated area for viewing the content within the active area, based on the display in the first state. It may be configured to display the content in the active area by matching vertices.
  • the at least one processor executes the instructions to store the portion of the content in the active area by matching at least one vertex of the portion to a vertex of the designated region, based on the display in the second state. It can be displayed.
  • the at least one processor executes the instructions to, within the second state, display a plurality of objects in the active area based on the second magnification based on identifying a plurality of objects from the content. Along with the portion of the content, a plurality of visual objects corresponding to each of the plurality of subjects may be displayed.
  • the at least one processor may be configured to execute the instructions to obtain an order of the plurality of objects based on identifying the plurality of objects.
  • the at least one processor may execute the instructions and display the plurality of visual objects based on the obtained order.
  • the at least one processor may execute the instructions to display a first object of the content that includes a first subject corresponding to the display in the second state and a first visual object of the plurality of visual objects.
  • the method may be configured to receive input for selecting a second visual object that is different from the first visual object based on the display portion.
  • the at least one processor may execute the instructions to display, based on the received input, a second portion of the motor including a second subject corresponding to the second visual object within the active area. there is.
  • the at least one processor may execute the instructions to display at least one visual object with the portion of the content based on the second magnification based on the display in the second state and , the at least one visual object may include at least one of a thumbnail or text corresponding to the at least one captured subject.
  • the at least one processor executes the instructions to set the second magnification ratio based on receiving input to reduce the size of the display and the active area in the first state to less than the specified size. Based on this, at least part of the content may be displayed.
  • a method of an electronic device may include receiving a request to display content in an active area of a display of the electronic device.
  • the method may include identifying a plurality of subjects captured in the content based on the request.
  • the method may include obtaining an order of the plurality of subjects based on identifying the plurality of subjects from the content.
  • the method may include displaying a plurality of visual objects corresponding to each of the plurality of subjects within the active area of the display, based on the obtained order.
  • the method includes, based on the size of the active area controlled by an actuator of the electronic device for deforming the display, at least one subject selected based on the order among the plurality of subjects of the captured content.
  • the method may include displaying the first portion together with the plurality of visual objects within the active area.
  • displaying the first portion may include displaying the first portion based on the display in a first state in which the size of the active area is less than a specified size.
  • the method may include displaying the first portion and the second portion of the content based on the display in a second state in which the size of the active area exceeds the specified size.
  • the method may include receiving an input for selecting a second visual object that is different from the first visual object from among the plurality of visual objects.
  • the first visual object may correspond to the first subject captured in the first portion.
  • the method may include displaying a third portion of the content corresponding to the second visual object based on the input.
  • the second visual object may correspond to the second visual object captured in the third portion.
  • the operation of obtaining the order may include the operation of obtaining the order based on at least one of a tag included in the content or a type of the plurality of subjects.
  • the method may include an operation of obtaining the order based on at least one of a call connection or an exchange of a text message between the user of the electronic device and at least one subject among the plurality of subjects.
  • the operation of displaying the first portion of the content may include, based on the content corresponding to a video including frames, within each of the frames included in the video, a first object of the plurality of objects. It may include an operation of acquiring the locations of .
  • the method may, while sequentially displaying the frames based on playback of the video within the active area, determine the position or size of the first portion within the content based on at least one of the obtained positions: It may include an operation to adjust at least one.
  • the operation of displaying the first portion based on the size of the active area may include displaying the plurality of visual objects and the display in the first state in which the size of the active area is smaller than a specified size. together with displaying the first portion of the content.
  • the method may include, based on the display in a second state where the size of the active area is greater than the specified size, the second portion of the content that is different from the first portion and the first portion of the content It can include actions that display parts.
  • the device described above may be implemented with hardware components, software components, and/or a combination of hardware components and software components.
  • the devices and components described in the embodiments include a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate array (FPGA), and a programmable logic unit (PLU).
  • ALU arithmetic logic unit
  • FPGA field programmable gate array
  • PLU programmable logic unit
  • It may be implemented using one or more general-purpose or special-purpose computers, such as a logic unit, microprocessor, or any other device capable of executing and responding to instructions.
  • the processing device may execute an operating system (OS) and one or more software applications running on the operating system. Additionally, a processing device may access, store, manipulate, process, and generate data in response to the execution of software.
  • OS operating system
  • a processing device may access, store, manipulate, process, and generate data in response to the execution of software.
  • a single processing device may be described as being used; however, those skilled in the art will understand that a processing device includes multiple processing elements and/or multiple types of processing elements. It can be seen that it may include.
  • a processing device may include a plurality of processors or one processor and one controller. Additionally, other processing configurations, such as parallel processors, are possible.
  • Software may include a computer program, code, instructions, or a combination of one or more of these, which may configure a processing unit to operate as desired, or may be processed independently or collectively. You can command the device.
  • the software and/or data may be embodied in any type of machine, component, physical device, computer storage medium or device for the purpose of being interpreted by or providing instructions or data to the processing device. there is.
  • Software may be distributed over networked computer systems and stored or executed in a distributed manner.
  • Software and data may be stored on one or more computer-readable recording media.
  • the method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer-readable medium.
  • the medium may continuously store a computer-executable program, or temporarily store it for execution or download.
  • the medium may be a variety of recording or storage means in the form of a single or several pieces of hardware combined. It is not limited to a medium directly connected to a computer system and may be distributed over a network. Examples of media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical recording media such as CD-ROMs and DVDs, magneto-optical media such as floptical disks, And there may be something configured to store program instructions, including ROM, RAM, flash memory, etc. Additionally, examples of other media include recording or storage media managed by app stores that distribute applications, sites or servers that supply or distribute various other software, etc.

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Environmental & Geological Engineering (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

일 실시예에 따른, 전자 장치(electronic device)의 프로세서는, 디스플레이의 표시 영역 내에 콘텐트를 표시하기 위한 요청에 응답하여, 상기 콘텐트 내에 캡쳐된 복수의 피사체들을 식별할 수 있다. 상기 프로세서는, 상기 콘텐트로부터 상기 복수의 피사체들을 식별하는 것에 응답하여, 상기 복수의 피사체들의 순서를 획득할 수 있다. 상기 프로세서는, 상기 획득된 순서에 기반하여, 상기 표시 영역 내에, 상기 복수의 피사체들 각각에 대응하는 복수의 시각적 객체들을 표시할 수 있다. 상기 프로세서는, 상기 디스플레이의 변형에 의해 조절된 표시 영역의 크기에 기반하여, 상기 복수의 피사체들 중 상기 순서에 기반하여 선택된 적어도 하나의 피사체가 캡쳐된 상기 콘텐트의 제1 부분, 및 제2 부분 중에서, 상기 제1 부분을, 상기 표시 영역 내에서 상기 복수의 시각적 객체들과 함께 표시할 수 있다.

Description

디스플레이의 변형에 기반하여 콘텐트를 표시하기 위한 전자 장치 및 그 방법
본 개시(present disclosure)는 디스플레이의 변형에 기반하여 콘텐트를 표시하기 위한 전자 장치 및 그 방법에 관한 것이다.
플렉서블 디스플레이를 이용하여, 변형 가능한(deformable) 폼 팩터를 가지는 전자 장치가 개발되고 있다. 예를 들어, 접힘 가능한(foldable) 복수의 하우징들을 포함하는 전자 장치는, 상기 복수의 하우징들을 가로질러 배치된 플렉서블 디스플레이를 이용하여, 사용자에게 전자 장치의 형태에 기반하는 사용자 경험을 제공할 수 있다. 예를 들어, 사용자의 외력에 의해 접혀지거나, 또는 펼쳐지는 플렉서블 디스플레이의 형태에 기반하여, 전자 장치는 플렉서블 디스플레이 상에 표시되는 콘텐트를 변경할 수 있다. 다른 예를 들어, 플렉서블 디스플레이를 감거나, 또는 펼치는 전자 장치가 개발되고 있다.
일 실시예(an embodiment)에 따른, 전자 장치(an electronic device)는, 하우징, 디스플레이, 상기 하우징에 대한 상기 디스플레이의 위치를 제어하여 상기 디스플레이의 활성 영역(active area)을 조절하도록 구성된 액추에이터, 인스트럭션들을 저장하기 위한 메모리, 상기 디스플레이, 상기 액추에이터, 및 상기 메모리와 작동적으로 결합된(operably coupled to) 적어도 하나의 프로세서를 포함할 수 있다. 상기 적어도 하나의 프로세서는 상기 인스트럭션들을 실행하여, 상기 활성 영역에 콘텐트를 표시하기 위한 요청을 수신하도록, 구성될 수 있다. 상기 적어도 하나의 프로세서는 상기 인스트럭션들을 실행하여, 상기 요청에 기반하여, 상기 콘텐트 내에 캡쳐된 복수의 피사체들을 식별하도록, 구성될 수 있다. 상기 적어도 하나의 프로세서는 상기 인스트럭션들을 실행하여, 상기 콘텐트로부터 상기 복수의 피사체들을 식별하는 것에 기반하여, 상기 복수의 피사체들의 순서(sequence)를 획득하도록, 구성될 수 있다. 상기 적어도 하나의 프로세서는 상기 인스트럭션들을 실행하여, 상기 순서에 기반하여, 상기 디스플레이의 상기 활성 영역에, 상기 복수의 피사체들 각각에 대응하는 복수의 시각적 객체들을 표시하도록, 구성될 수 있다. 상기 적어도 하나의 프로세서는 상기 인스트럭션들을 실행하여, 상기 액추에이터에 의해 제어되는 상기 활성 영역의 크기에 기반하여, 상기 복수의 피사체들 중 상기 순서에 기반하여 선택된 적어도 하나의 피사체가 캡쳐된 상기 콘텐트의 제1 부분, 및 상기 제1 부분과 상이한 상기 콘텐트의 제2 부분 중에서, 상기 제1 부분을, 상기 활성 영역 내에서 상기 복수의 시각적 객체들과 함께 표시하도록, 구성될 수 있다.
일 실시예(an embodiment)에 따른, 전자 장치(an electronic device)는, 하우징, 디스플레이, 상기 하우징에 대한 상기 디스플레이의 위치를 제어하여 상기 디스플레이의 활성 영역(active area)을 조절하도록 구성된 액추에이터, 인스트럭션들을 저장하기 위한 메모리, 상기 디스플레이, 상기 액추에이터, 및 상기 메모리와 작동적으로 결합된(operably coupled to) 적어도 하나의 프로세서를 포함할 수 있다. 상기 적어도 하나의 프로세서는 상기 인스트럭션들을 실행하여, 상기 메모리 내에 저장된 콘텐트를 식별하도록, 구성될 수 있다. 상기 콘텐트는 적어도 하나의 캡쳐된 피사체를 포함할 수 있다. 상기 적어도 하나의 프로세서는 상기 인스트럭션들을 실행하여, 상기 디스플레이의 상기 하우징 안으로의 인입, 또는 상기 디스플레이의 상기 하우징으로부터의 인출 중 적어도 하나에 기반하여 조절되는, 상기 활성 영역의 크기를 획득하도록, 구성될 수 있다. 상기 적어도 하나의 프로세서는 상기 인스트럭션들을 실행하여, 상기 활성 영역의 크기가 지정된(preset) 크기를 초과하는 제1 상태의 상기 디스플레이에 기반하여, 상기 콘텐트의 제1 배율에 기반하여 상기 콘텐트를 표시하도록, 구성될 수 있다. 상기 적어도 하나의 프로세서는 상기 인스트럭션들을 실행하여, 상기 활성 영역의 크기가 상기 지정된 크기 미만인 제2 상태의 상기 디스플레이에 기반하여, 상기 적어도 하나의 캡쳐된 피사체의 위치와 관련된 제2 배율에 기반하여 상기 콘텐트의 적어도 일부분을 표시하도록, 구성될 수 있다.
일 실시예에 따른, 전자 장치의 방법은, 상기 전자 장치의 디스플레이의 활성 영역 내에 콘텐트를 표시하기 위한 요청을 수신하는 동작을 포함할 수 있다. 상기 방법은, 상기 요청에 기반하여, 상기 콘텐트 내에 캡쳐된 복수의 피사체들을 식별하는 동작을 포함할 수 있다. 상기 방법은, 상기 콘텐트로부터 상기 복수의 피사체들을 식별하는 것에 기반하여, 상기 복수의 피사체들의 순서를 획득하는 동작을 포함할 수 있다. 상기 방법은, 상기 획득된 순서에 기반하여, 상기 디스플레이의 상기 활성 영역 내에, 상기 복수의 피사체들 각각에 대응하는 복수의 시각적 객체들을 표시하는 동작을 포함할 수 있다. 상기 방법은, 상기 디스플레이를 변형하기 위한 상기 전자 장치의 액추에이터에 의해 제어되는 상기 활성 영역의 크기에 기반하여, 상기 복수의 피사체들 중 상기 순서에 기반하여 선택된 적어도 하나의 피사체가 캡쳐된 상기 콘텐트의 제1 부분, 및 상기 제1 부분과 상이한 상기 콘텐트의 제2 부분 중에서, 상기 제1 부분을, 상기 활성 영역 내에서 상기 복수의 시각적 객체들과 함께 표시하는 동작을 포함할 수 있다.
일 실시예(an embodiment)에 따른, 전자 장치(an electronic device)는, 하우징, 디스플레이, 상기 디스플레이를 상기 하우징 안으로 인입하거나, 또는 상기 하우징으로부터 인출하여, 상기 디스플레이의 표시 영역을 조절하기 위한 액추에이터, 인스트럭션들을 저장하기 위한 메모리, 상기 디스플레이, 상기 액추에이터, 및 상기 메모리와 작동적으로 결합된(operably coupled to) 적어도 하나의 프로세서를 포함할 수 있다. 상기 적어도 하나의 프로세서는, 상기 인스트럭션들이 실행될 시에, 상기 표시 영역 내에 콘텐트를 표시하기 위한 요청을 수신할 수 있다. 상기 적어도 하나의 프로세서는, 상기 요청에 응답하여, 상기 콘텐트 내에 캡쳐된 복수의 피사체들을 식별할 수 있다. 상기 적어도 하나의 프로세서는, 상기 콘텐트로부터 상기 복수의 피사체들을 식별하는 것에 응답하여, 상기 복수의 피사체들의 순서를 획득할 수 있다. 상기 적어도 하나의 프로세서는, 상기 획득된 순서에 기반하여, 상기 표시 영역 내에, 상기 복수의 피사체들 각각에 대응하는 복수의 시각적 객체들을 표시할 수 있다. 상기 적어도 하나의 프로세서는, 상기 복수의 피사체들 중 상기 순서에 기반하여 선택된 적어도 하나의 피사체가 캡쳐된 상기 콘텐트의 제1 부분, 및 상기 제1 부분과 상이한 상기 콘텐트의 제2 부분 중에서, 상기 제1 부분을 상기 표시 영역 내에서 상기 복수의 시각적 객체들과 함께 표시할 수 있다.
일 실시예에 따른, 전자 장치(electronic device)는, 하우징, 디스플레이, 상기 디스플레이를 상기 하우징 안으로 인입하거나(insert), 또는 상기 하우징으로부터 인출하여, 상기 디스플레이의 표시 영역을 조절하기 위한, 액추에이터, 인스트럭션들을 저장하기 위한 메모리, 상기 디스플레이, 상기 액추에이터, 및 상기 메모리와 작동적으로 결합된(operably coupled to) 적어도 하나의 프로세서를 포함할 수 있다. 상기 적어도 하나의 프로세서는, 상기 인스트럭션들이 실행될 시에, 상기 메모리 내에 저장되고, 하나 이상의 피사체들이 캡쳐된 콘텐트를 식별할 수 있다. 상기 적어도 하나의 프로세서는, 상기 디스플레이의 상기 인입, 또는 상기 디스플레이의 상기 인출에 기반하여 조절되는, 상기 표시 영역의 크기를 획득할 수 있다. 상기 적어도 하나의 프로세서는, 상기 표시 영역의 크기가 지정된(preset) 크기를 초과하는 제1 상태 내에서, 상기 콘텐트의 크기를 상기 표시 영역의 크기 이하로 만드는 제1 배율에 기반하여 상기 콘텐트를 표시할 수 있다. 상기 적어도 하나의 프로세서는, 상기 표시 영역의 크기가 상기 지정된 크기 미만인 제2 상태 내에서, 상기 하나 이상의 피사체들이 캡쳐된 상기 콘텐트의 일부분과 관련되고, 상기 제1 배율을 초과하는, 제2 배율에 기반하여 상기 콘텐트의 적어도 일부분을 표시할 수 있다.
일 실시예에 따른, 전자 장치의 방법은, 상기 전자 장치의 디스플레이의 표시 영역 내에 콘텐트를 표시하기 위한 요청을 수신하는 동작을 포함할 수 있다. 상기 전자 장치의 방법은, 상기 요청에 응답하여, 상기 콘텐트 내에 캡쳐된 복수의 피사체들을 식별하는 동작을 포함할 수 있다. 상기 전자 장치의 방법은, 상기 콘텐트로부터 상기 복수의 피사체들을 식별하는 것에 응답하여, 상기 복수의 피사체들의 순서를 획득하는 동작을 포함할 수 있다. 상기 전자 장치의 방법은, 상기 획득된 순서에 기반하여, 상기 표시 영역 내에, 상기 복수의 피사체들 각각에 대응하는 복수의 시각적 객체들을 표시하는 동작을 포함할 수 있다. 상기 전자 장치의 방법은, 상기 복수의 피사체들 중 상기 순서에 기반하여 선택된 적어도 하나의 피사체가 캡쳐된 상기 콘텐트의 제1 부분, 및 상기 제1 부분과 상이한 상기 콘텐트의 제2 부분 중에서, 상기 제1 부분을, 상기 표시 영역 내에서 상기 복수의 시각적 객체들과 함께 표시하는 동작을 포함할 수 있다.
일 실시예에 따른, 전자 장치의 방법은, 하나 이상의 피사체들이 캡쳐된 콘텐트를 식별하는 동작을 포함할 수 있다. 상기 전자 장치의 방법은, 상기 전자 장치의 디스플레이의 상기 전자 장치의 하우징 안으로의 인입, 또는 상기 디스플레이의 상기 하우징으로부터의 인출에 기반하여 조절되는, 상기 디스플레이의 표시 영역의 크기를 획득하는 동작을 포함할 수 있다. 상기 전자 장치의 방법은, 상기 표시 영역의 크기가 지정된(preset) 크기를 초과하는 제1 상태 내에서, 상기 콘텐트의 크기를 상기 표시 영역의 크기 이하로 만드는 제1 배율에 기반하여 상기 콘텐트를 표시하는 동작을 포함할 수 있다. 상기 전자 장치의 방법은, 상기 표시 영역의 크기가 상기 지정된 크기 미만인 제2 상태 내에서, 상기 하나 이상의 피사체들이 캡쳐된 상기 콘텐트의 일부분과 관련되고, 상기 제1 배율을 초과하는, 제2 배율에 기반하여 상기 콘텐트의 적어도 일부분을 표시하는 동작을 포함할 수 있다.
도 1은, 일 실시예에 따른, 전자 장치의 블록도이다.
도 2a 내지 도 2b는, 일 실시예에 따른, 전자 장치가 상이한 형태들 내에 있는 상태들 사이에서 변형되는 동작을 설명하기 위한 예시적인 도면들이다.
도 3은, 일 실시예에 따른, 전자 장치가 콘텐트 내에 캡쳐된 하나 이상의 피사체들을 식별하는 동작을 설명하기 위한 도면이다.
도 4a 내지 도 4e는, 일 실시예에 따른, 전자 장치가 콘텐트 내에 캡쳐된 하나 이상의 피사체들에 기반하여 상기 콘텐트를 표시하는 동작을 설명하기 위한 예시적인 도면들이다.
도 5는, 일 실시예에 따른, 전자 장치가 디스플레이의 변형에 기반하여 콘텐트를 표시하는 동작을 설명하기 위한 도면이다.
도 6a 내지 도 6b는, 일 실시예에 따른, 전자 장치가 지정된 타입들의 피사체를 포함하지 않는 콘텐트를 표시하는 동작을 설명하기 위한 도면이다.
도 7a 내지 도 7b는, 일 실시예에 따른, 전자 장치가 비디오를 포함하는 콘텐트 내에 캡쳐된 하나 이상의 피사체들에 기반하여, 상기 콘텐트를 표시하는 동작을 설명하기 위한 예시적인 도면들이다.
도 8a 내지 도 8d는, 일 실시예에 따른, 전자 장치가 콘텐트를 열람하기 위한(for browsing) 어플리케이션의 화면의 변형에 기반하여, 콘텐트를 표시하는 동작을 설명하기 위한 도면이다.
도 9은, 일 실시예에 따른, 전자 장치가 콘텐트 내에 캡쳐된 하나 이상의 피사체들에 기반하여 수행하는 동작을 설명하기 위한 흐름도이다.
도 10는, 일 실시예에 따른, 전자 장치가 표시 영역의 크기에 기반하여 콘텐트를 표시하기 위한 배율을 조절하는 동작을 설명하기 위한 흐름도이다.
도 11은, 일 실시예에 따른, 전자 장치가 콘텐트를 표시하기 위하여 수행하는 동작을 설명하기 위한 흐름도이다.
도 12a는, 일 실시예에 따른 전자 장치의 제1 상태의 전면도(front view)이다.
도 12b는, 일 실시예에 따른 전자 장치의 제1 상태의 후면도(rear view)이다.
도 12c는, 일 실시예에 따른 전자 장치의 제2 상태의 전면도(front view)이다.
도 12d는, 일 실시예에 따른 전자 장치의 제2 상태의 후면도(rear view)이다.
도 13a는, 일 실시예에 따른 전자 장치의 분해 사시도(exploded perspective view)이다.
도 13b는, 일 실시예에 따른 전자 장치를 도 12a의 A-A'를 따라 절단한 예를 도시한 단면도(cross-sectional view)이다.
이하, 본 개시의 다양한 실시예들이 첨부된 도면을 참조하여 설명된다.
본 문서의 다양한 실시 예들 및 이에 사용된 용어들은 본 문서에 기재된 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 해당 실시 예의 다양한 변경, 균등물, 및/또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 본 개시에서, "A 또는 B", "A 및/또는 B 중 적어도 하나", "A, B 또는 C" 또는 "A, B 및/또는 C 중 적어도 하나"와 같은 표현은 오직 A, 오직 B, 오직 C, A 및 B, A 및 C, B 및 C, 또는 A, B, 및 C 전부를 포함하는 것으로 이해되어야 한다. "제 1", "제 2", "첫째" 또는 "둘째" 등의 표현들은 해당 구성요소들을, 순서 또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에 "(기능적으로 또는 통신적으로) 연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제 3 구성요소)를 통하여 연결될 수 있다.
본 개시에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구성된 유닛을 포함하며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로 등의 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 모듈은 ASIC(application-specific integrated circuit)으로 구성될 수 있다.
도 1은, 일 실시예에 따른, 전자 장치(101)의 블록도이다. 도 1을 참고하면, 전자 장치(101)는 프로세서(120), 메모리(130), 디스플레이(140), 또는 액추에이터(150) 중 적어도 하나를 포함할 수 있다. 프로세서(120), 메모리(130), 디스플레이(140), 및 액추에이터(150)는 통신 버스(a communication bus)(110)와 같은 전자 소자(electronical component)에 의해 서로 전기적으로 및/또는 작동적으로 연결될 수 있다(electronically and/or operably coupled with each other). 상이한 블록들에 기반하여 도시되었으나, 실시예가 이에 제한되는 것은 아니다. 전자 장치(101)에 포함된 하드웨어 컴포넌트의 타입 및/또는 개수는 도 1에 도시된 바에 제한되지 않는다. 예를 들어, 전자 장치(101)는 도 1에 도시된 하드웨어 컴포넌트 중 일부만 포함할 수 있다. 일 실시예에 따르면, 전자 장치(101)는, 상기 전자 장치(101)의 외관을 형성하는 하우징을 더 포함할 수 있다. 상기 하우징에 의해 형성되는 상기 전자 장치(101)의 외관은, 도 2a 내지 도 2b를 참고하여 후술된다.
일 실시예에 따른, 전자 장치(101)의 프로세서(120)는 하나 이상의 인스트럭션들에 기반하여 데이터를 처리하기 위한 하드웨어 컴포넌트를 포함할 수 있다. 데이터를 처리하기 위한 하드웨어 컴포넌트는, 예를 들어, ALU(Arithmetic and Logic Unit), FPU(Floating Point Unit), FPGA(Field Programmable Gate Array), AP(application processor), 및/또는 CPU(Central Processing Unit)를 포함할 수 있다. 프로세서(120)의 개수는 하나 이상일 수 있다. 예를 들어, 프로세서(120)는 듀얼 코어(dual core), 쿼드 코어(quad core) 또는 헥사 코어(hexa core)와 같은 멀티-코어 프로세서의 구조를 가질 수 있다.
일 실시예에 따른, 전자 장치(101)의 메모리(130)는 프로세서(120)에 입력 및/또는 출력되는 데이터 및/또는 인스트럭션을 저장하기 위한 하드웨어 컴포넌트를 포함할 수 있다. 메모리(130)는, 예를 들어, RAM(Random-Access Memory)와 같은 휘발성 메모리(Volatile Memory) 및/또는 ROM(Read-Only Memory)와 같은 비휘발성 메모리(Non-Volatile Memory)를 포함할 수 있다. 휘발성 메모리는, 예를 들어, DRAM(Dynamic RAM), SRAM(Static RAM), Cache RAM, PSRAM (Pseudo SRAM) 중 적어도 하나를 포함할 수 있다. 비휘발성 메모리는, 예를 들어, PROM(Programmable ROM), EPROM (Erasable PROM), EEPROM (Electrically Erasable PROM), 플래시 메모리, 하드디스크, 컴팩트 디스크, eMMC(Embedded Multi Media Card) 중 적어도 하나를 포함할 수 있다.
메모리(130) 내에서, 프로세서(120)가 데이터에 수행할 연산, 및/또는 동작을 나타내는 하나 이상의 인스트럭션들이 저장될 수 있다. 하나 이상의 인스트럭션들의 집합은, 펌 웨어, 운영 체제, 프로세스, 루틴, 서브-루틴 및/또는 어플리케이션으로 참조될 수 있다. 예를 들어, 전자 장치(101), 및/또는 프로세서(120)는, 운영체제, 펌웨어, 드라이버, 및/또는 어플리케이션 형태로 배포된 복수의 인스트럭션들의 집합(set of a plurality of instructions)이 실행될 시에, 도 9 내지 도 11의 동작들 중 적어도 하나를 수행할 수 있다. 이하에서, 어플리케이션이 전자 장치(101)에 설치되었다는 것은, 어플리케이션의 형태로 제공된 하나 이상의 인스트럭션들이 전자 장치(101)의 메모리(130) 내에 저장된 것으로써, 상기 하나 이상의 어플리케이션들이 전자 장치(101)의 프로세서(120)에 의해 실행 가능한(executable) 포맷(예, 전자 장치(101)의 운영 체제에 의해 지정된 확장자를 가지는 파일)으로 저장된 것을 의미할 수 있다. 예를 들어, 상기 어플리케이션은, 갤러리 어플리케이션과 같이, 메모리(130) 내에 저장된 콘텐트를 열람하기 위한(for browsing) 어플리케이션을 포함할 수 있다.
일 실시예에 따른, 전자 장치(101)의 디스플레이(140)는 사용자에게 시각화된 정보를 출력할 수 있다. 일 실시예에서, 디스플레이(140)는, 디스플레이(140)에 적용되는 외력에 의하여 변형 가능한 플렉서블 디스플레이일 수 있다. 디스플레이(140)는 LCD(Liquid Crystal Display), PDP(Plasma Display Panel), 하나 이상의 LED들(Light Emitting Diode), 및/또는 하나 이상의 OLED들을 포함할 수 있다. 디스플레이(140)의 형태를 변형하기 위해 전자 장치(101)의 예시적인 구조가, 도 12a 내지 도 12d, 및 도 13a 내지 도 13b를 참고하여 후술된다.
일 실시예에 따른, 디스플레이(140)는, 디스플레이(140) 상의 외부 객체(예, 사용자의 손가락)를 탐지하기 위한 센서(예, TSP(touch sensor panel))를 포함할 수 있다. 예를 들어, TSP에 기반하여, 전자 장치(101)는 디스플레이(140) 상에 접촉되거나, 또는 디스플레이(140) 상을 부유하는(floating) 외부 객체를 탐지할 수 있다. 상기 외부 객체를 탐지하는 것에 응답하여, 전자 장치(101)는 디스플레이(140) 내에 표시되고 있는 시각적 객체들 중에서, 상기 외부 객체가 접촉된 디스플레이(140) 내 일부분에 대응하는 특정 시각적 객체와 관련된 기능을 실행할 수 있다.
일 실시예에 따른, 전자 장치(101)의 액추에이터(150)는, 디스플레이(140), 및/또는 전자 장치(101)의 형태를 변경할 수 있다. 액추에이터(150)는, 구동 부로 참조될 수 있다. 액추에이터(150)는, 전기 에너지로부터 운동 에너지를 출력하기 위한 하드웨어(예, 모터)를 포함할 수 있다. 액추에이터(150)가 모터를 포함하는 일 실시예에서, 액추에이터(150)는 상기 모터의 회전 움직임(rotational motion)을, 디스플레이(140)에 가해지는 직선 움직임(linear motion)(또는 병진 움직임(translation motion))으로 변경하기 위한 기어(예, 랙 기어)를 포함할 수 있다. 일 실시예에서, 액추에이터(150)는 상기 모터의 회전 력(예, 토크)을 조절하기 위하여 상호 연결된(engaged to each other) 복수의 기어들을 포함할 수 있다. 상기 복수의 기어들은, 액추에이터(150)의 기어 조립체, 또는 트랜스미션 부로 참조될 수 있다.
일 실시예에서, 프로세서(120)는, 액추에이터(150)의 모터로 인가되는 전력 신호의 주파수, 전압, 및/또는 전류를 변경하여, 디스플레이(140), 및/또는 전자 장치(101)가 변형되는 속도, 및/또는 방향을 조절할 수 있다. 일 실시예에서, 프로세서(120)는, 상기 기어 조립체에 포함된 복수의 기어들의 위치 관계, 및/또는 상호 연결된 기어들 사이의 기어 비를 조절하여, 디스플레이(140), 및/또는 전자 장치(101)가 변형되는 속도, 및/또는 방향을 조절할 수 있다. 일 실시예에 따른, 전자 장치(101)가 액추에이터(150)를 제어하여 디스플레이(140)의 형태를 조절하는 예시적인 동작들이 도 2a 내지 도 2b를 참고하여 후술된다.
일 실시예에 따른, 전자 장치(101)는 액추에이터(150)를 제어하여, 디스플레이(140)를 전자 장치(101)의 하우징 안으로 인입하거나, 또는 상기 하우징으로부터 인출할 수 있다. 상기 디스플레이(140)의 상기 인입, 또는 상기 디스플레이(140)의 상기 인출에 기반하여, 전자 장치(101)는 상기 디스플레이(140)의 표시 영역(a displaying area)을 조절할 수 있다. 일 실시예에 따른, 전자 장치(101)가 액추에이터(150)를 제어하여 상기 표시 영역을 조절하는 동작이, 도 2a 내지 도 2b를 참고하여 후술된다.
일 실시예에 따른, 전자 장치(101)는 디스플레이(140) 상에 형성된 표시 영역 내에, 콘텐트를 표시할 수 있다. 상기 콘텐트는, 사진과 같은 이미지, 또는 복수의 프레임들의 시퀀스를 포함하는 비디오 중 적어도 하나를 포함할 수 있다. 예를 들어, 상기 콘텐트는, JPEG(Joint Photographic Experts Group), 및/또는 MPEG(Moving Picture Experts Group)에 기반하는 포맷을 가질 수 있다. 예를 들어, 콘텐트는, 실질적으로 동시에 표시되는 2차원 평면의 픽셀들에 기반하여, 적어도 하나의 시점 내에서 캡쳐된 이미지를 나타낼 수 있다. 일 실시예에 따른, 전자 장치(101)는 액추에이터(150)에 의해 조절되는, 디스플레이(140)의 형태와 관련된 표시 영역의 너비, 높이, 크기, 및/또는 면적에 기반하여, 상기 콘텐트 중 일부분을 선택적으로 표시할 수 있다. 예를 들어, 전자 장치(101)는 상기 콘텐트 내에 캡쳐된 하나 이상의 피사체들을, 선택적으로 표시할 수 있다. 일 실시예에 따른, 전자 장치(101)가 상기 콘텐트 내에 캡쳐된 상기 하나 이상의 피사체들을 식별하는 동작이, 도 3, 및/또는 도 7a 내지 도 7b를 참고하여 설명된다. 일 실시예에 따른, 전자 장치(101)가 상기 하나 이상의 피사체들을 선택적으로 표시하는 동작이 도 4a 내지 도 4e, 도 5, 도 6a 내지 도 6b, 도 7a 내지 도 7b, 및/또는 도 8a 내지 도 8d를 참고하여 설명된다.
일 실시예에 따른, 전자 장치(101)는 디스플레이(140)의 변형에 기반하는 표시 영역의 확대, 또는 축소에 기반하여, 콘텐트를 확대하거나, 또는 축소할 수 있다. 예를 들어, 상기 디스플레이(140)가 상기 전자 장치(101)의 하우징 안으로 적어도 부분적으로 인입된 동안, 상기 표시 영역의 크기가, 상기 디스플레이(140)의 상기 인입에 기반하여 축소될 수 있다. 상기 축소된 표시 영역 내에서, 전자 장치(101)는, 콘텐트에 포함되고, 실질적으로 동시에 캡쳐된, 복수의 픽셀들 전체를 표시하는 것과 독립적으로, 상기 복수의 픽셀들 중에서 하나 이상의 피사체들에 대응하는 일부분을 표시할 수 있다. 상기 복수의 픽셀들 중에서 상기 하나 이상의 피사체들에 대응하는 일부분이 표시되기 때문에, 상기 전자 장치(101)는, 상기 표시 영역의 조절과 독립적으로 사용자에게, 상기 하나 이상의 피사체들을 집중적으로 출력할 수 있다.
상술한 바와 같이, 일 실시예에 따른, 전자 장치(101)는 상기 표시 영역의 축소에 따른 콘텐트의 가시성(visibility), 및/또는 검출성(detectability)을 개선하기 위하여, 상기 콘텐트 내에 포함된 하나 이상의 피사체들을 확대할 수 있다. 상기 하나 이상의 피사체들을 확대하기 위하여, 전자 장치(101)는 상기 콘텐트 내에서, 상기 하나 이상의 피사체들이 캡쳐된 일부분을 선택적으로 표시할 수 있다. 상기 콘텐트의 상기 일부분이 선택적으로 표시되는 동안, 상기 전자 장치(101)는 상기 표시되는 일부분의 상기 콘텐트 내에서의 위치를 시각적으로 나타낼 수 있다.
이하에서는, 도 2a 내지 도 2b를 참고하여, 일 실시예에 따른, 전자 장치(101)가 상기 표시 영역의 너비, 높이, 크기 및/또는 면적을 조절하는 동작이 설명된다.
도 2a 내지 도 2b는, 일 실시예에 따른, 전자 장치(101)가 상이한 형태들 내에 있는 상태들 사이에서 변형되는 동작을 설명하기 위한 예시적인 도면들이다. 도 2a 내지 도 2b의 전자 장치(101)는 도 1의 전자 장치(101)의 일 예일 수 있다. 예를 들어, 도 1의 전자 장치(101), 및 디스플레이(140)는 도 2a 내지 도 2b의 전자 장치(101), 및 디스플레이(140)를 포함할 수 있다.
도 2a 내지 도 2b를 참고하면, 전자 장치(101)는 사용자에 의해 소유되는(be owned by) 단말일 수 있다. 단말은, 예를 들어, 랩톱 및 데스크톱과 같은 개인용 컴퓨터(Personal Computer, PC), 스마트폰(smartphone), 스마트패드(smartpad), 태블릿 PC(Personal Computer), 스마트워치(smartwatch) 및 HMD(Head-Mounted Device)와 같은 스마트액세서리를 포함할 수 있다. 일 실시예에 따른, 전자 장치(101)의 하우징(210)은, 전자 장치(101)에 포함된 하나 이상의 하드웨어 컴포넌트들(예, 도 1을 참고하여 상술된 하나 이상의 하드웨어들)이 배치되는 내부 공간을 포함할 수 있다. 상기 하우징(210)은, 전자 장치(101)의 외형을 형성할 수 있다.
일 실시예에 따른, 전자 장치(101)는 변형 가능한(deformable) 폼 팩터(form factor)를 가질 수 있다. 전자 장치(101)가 변형되는 것은, 전자 장치(101)의 너비, 높이, 및/또는 두께와 같은 크기들(dimensions) 중 적어도 하나가 변경되는 것을 의미할 수 있다. 상기 크기들 중 적어도 하나는, 전자 장치(101)에 적용되는(applied) 외력(external force)에 의해 수동적으로 변경되거나, 및/또는 전자 장치(101)에 포함된 하나 이상의 액추에이터들(예, 도 1의 액추에이터(150))에 의해 능동적으로 변경될 수 있다.
전자 장치(101)의 변형 가능성(deformability)을 지원하기 위하여, 하우징(210)은, 상호 연결된(interconnected) 제1 하우징(211), 및 제2 하우징(212)으로 구분될 수 있다. 일 실시예에 따른, 전자 장치(101)는, 액추에이터(예, 도 1의 액추에이터(150))를 이용하여 제1 하우징(211), 및 제2 하우징(212)의 위치 관계를 조절하여, 디스플레이(140), 및/또는 전자 장치(101)의 형태를 변경할 수 있다. 도 2a 내지 도 2b를 참고하면, 전자 장치(101)의 디스플레이(140)는, 제1 하우징(211)의 일 면, 및 제2 하우징(212)의 일 면을 가로질러 배치될 수 있다. 디스플레이(140)가 배치되고, 제1 하우징(211), 및 제2 하우징(212)에 의해 형성된 일 면이, 전 면(front surface)으로 참조될 수 있다. 일 실시예에 따른, 전자 장치(101)가 디스플레이(140)의 형태를 변경하는 것은, 디스플레이(140) 내에서 외부로 노출되는 적어도 일부분의 폭, 높이, 및/또는 면적(extent) 중 적어도 하나를 변경하는 동작을 포함할 수 있다.
도 2a 내지 도 2b를 참고하면, 제2 하우징(212)이 제1 하우징(211)에 대해 슬라이딩 가능(slidable)하게 결합되는 일 실시예가 도시된다. 그러나, 실시예가 이에 제한되는 것은 아니다. 디스플레이(140)는, 전자 장치(101)의 변형에 기반하여, 제2 하우징(212) 안으로 인입 가능하거나(insertable), 제2 하우징(212)으로부터 인출 가능(extractable)할 수 있다. 디스플레이(140)가 제2 하우징(212) 안으로 인입되는 경우, 디스플레이(140)가 외부로 노출되는 영역의 크기가 줄어들 수 있다. 디스플레이(140)가 제2 하우징(212)으로부터 인출되는 경우, 디스플레이(140)가 외부로 노출되는 영역의 크기가 증가될 수 있다. 이하에서, 디스플레이(140)의 표시 영역은, 디스플레이(140)에 포함된 픽셀들 중에서, 디스플레이(140)가 외부로 노출된 영역 상에 배치된 픽셀들에 의해 형성된 영역을 의미할 수 있다. 예를 들어, 상기 표시 영역은 디스플레이(140)의 활성 영역(an active area)으로 참조될 수 있다. 일 실시예에 따른, 전자 장치(101)는 액추에이터(예, 도 1의 액추에이터(150))를 이용하여 디스플레이(140)를 하우징(210) 안으로 인입하거나, 또는 상기 하우징(210)으로부터 인출하여, 상기 표시 영역을 조절할 수 있다.
도 2a 내지 도 2b를 참고하면, 전자 장치(101), 및/또는 디스플레이(140)의 상이한 상태들(200, 205)이 도시된다. 일 실시예에 따른, 전자 장치(101)는, 액추에이터를 이용하여 상태들(200, 205) 사이를 스위칭할 수 있다. 일 실시예에서, 전자 장치(101)의 상태들(200, 205)은, 전자 장치(101), 및/또는 디스플레이(140)의 크기들(예, 너비, 높이, 두께, 및/또는 종횡 비(an aspect ratio))에 따라 구분될 수 있다(may distinguished). 상태들(200, 205)은, 전자 장치(101)의 제1 하우징(211), 및 제2 하우징(212) 사이의 거리에 따라 구분될 수 있다. 예를 들어, 제1 하우징(211), 및 제2 하우징(212) 사이의 거리는, 제1 하우징(211)의 일 면(예, 제1 하우징(211)의 상 면), 및 상기 제1 하우징(211)의 일 면과 평행하고, 상기 제1 하우징(211)의 상기 일 면으로부터 이격된 제2 하우징(212)의 타 면(예, 제2 하우징(212)의 하 면) 사이의 거리일 수 있다.
도 2a 내지 도 2b의 상태들(200, 205) 각각은, 전자 장치(101)가 변형됨에 따라, 전자 장치(101)의 표면적, 및/또는 디스플레이(140)의 표시 영역의 면적이 최소, 또는 최대가 되는 상태일 수 있다. 이하에서, 상태(200)와 같이, 전자 장치(101)의 표면적, 및/또는 상기 표시 영역의 면적이 최소가 되는 상태가, 슬라이드-인 상태(slide-in state), 감김 상태(rolled state), 닫힌 상태(closed state), 롤-인 상태(roll-in state), 및/또는 수축 상태로 참조될 수 있다. 이하에서, 상태(205)와 같이, 전자 장치(101)의 표면적, 및/또는 상기 표시 영역의 면적이 최대가 되는 상태가, 슬라이드-아웃 상태(slide-out state), 펼침 상태(unrolled state), 개방 상태(opened state), 롤-아웃 상태(roll-out state), 및/또는 확장 상태로 참조될 수 있다. 일 실시예에서, 전자 장치(101)의 상태는, 표시 영역의 면적이 최소인 상태(200), 및 표시 영역의 면적이 최대인 상태(205) 사이의 다른 상태를 더 포함할 수 있다. 상기 다른 상태는, 중간 상태(intermediate state), 서브 감김 상태(sub-rolled state), 및/또는 서브 개방 상태(sub-opened state)로 참조될 수 있다.
도 2a 내지 도 2b를 참고하면, 일 실시예에 따른, 전자 장치(101)에 포함된 디스플레이(140)는 직사각형의 형태를 가질 수 있다. 일 실시예에서, 디스플레이(140)의 모서리들(corners)은, 곡선 모서리(rounded corner)의 형태를 가질 수 있다. 이하에서는, 직사각형인 디스플레이(140)의 경계인 변들 중에서, 상대적으로 긴 변과 평행한 제1 방향이 높이 방향(height direction)으로, 상기 상대적으로 긴 변이 높이(height)로 참조될 수 있다. 이하에서는, 직사각형인 디스플레이(140)의 경계인 변들 중에서, 상대적으로 짧은 변과 평행한 제2 방향이 너비 방향(width direction)으로, 상기 상대적으로 짧은 변이 너비(width)로 참조될 수 있다.
도 2a를 참고하면, 전자 장치(101)가 디스플레이(140)의 너비 방향, 또는 높이 방향 중에서, 높이 방향을 따라 전자 장치(101)의 형태를 변형하는 일 실시예가 도시된다. 도 2a의 상태(200)에서의 높이(h1)는, 외부로 노출된 디스플레이(140)의 일부분의 면적이 최소화된 시점(예, 슬라이드-인 상태)에서의 표시 영역의 높이의 최소 값일 수 있다. 예를 들어, 상기 표시 영역의 너비(w)에 대하여, 상태(200) 내에서, 높이, 및 너비의 비율은 4.5 : 3일 수 있다. 도 2a의 상태(205) 내 디스플레이(140)의 높이(h2)는, 외부로 노출된 디스플레이(140)의 일부분의 면적이 최대화된 시점(예, 슬라이드-아웃 상태) 내 표시 영역의 높이의 최대 값일 수 있다. 예를 들어, 상기 표시 영역의 너비(w)에 대하여, 상태(205)에서 높이, 및 너비의 비율은 21 : 9일 수 있다. 도 2a의 상태(205) 내 디스플레이(140)의 높이(h2)는, 변형 가능한 디스플레이(140)의 높이의 최대 값일 수 있다. 일 실시예에 따르면, 전자 장치(101)의 상태는 상태(200, 205) 뿐만 아니라, 높이, 및 너비의 비율이 16 : 9인 중간 상태를 포함할 수 있다.
도 2b를 참고하면, 전자 장치(101)가 상기 너비 방향, 또는 상기 높이 방향 중에서, 상기 너비 방향을 따라 전자 장치(101)의 형태를 변형하는 일 실시예가 도시된다. 도 2b의 상태(200) 내 너비(w1), 및 상태(205) 내 너비(w2) 각각은 변형 가능한 디스플레이(140)의 너비의 최소 값, 및 최대 값일 수 있다. 디스플레이(140)의 높이, 및/또는 너비가 조절됨에 따라, 전자 장치(101)는 디스플레이(140)의 종횡 비를, 전자 장치(101)로부터 출력되는 콘텐트에 적합한 종횡 비로 변경할 수 있다. 예를 들어, 상기 종횡 비는, 4.5:3, 16:9, 및 21:9 중에서 선택될 수 있다.
일 실시예에 따른, 전자 장치(101)는 하나 이상의 센서들(예, 홀 센서)을 이용하여, 상태들(200, 205), 및 상태들(200, 205) 사이의 중간 상태 중에서, 전자 장치(101)의 현재 형태에 대응하는 상태를 식별할 수 있다. 전자 장치(101)가 홀 센서를 포함하는 일 실시예에서, 상기 홀 센서에 포함된 자석이 제1 하우징(211) 내에, 상기 홀 센서에 포함된 하나 이상의 자기 센서들이 제2 하우징(212) 내에 배치될 수 있다. 상기 일 실시예에서, 상기 하나 이상의 자기 센서들 각각에 의하여 식별되고, 상기 자석에 의하여 발생된, 자계의 크기가, 제1 하우징(211), 및 제2 하우징(212) 사이의 위치 관계에 따라 변경될 수 있다. 상기 일 실시예에서, 전자 장치(101)는 상기 하나 이상의 자기 센서들에 의하여 식별되는 상기 자계의 크기에 기반하여, 전자 장치(101)의 형태를 식별할 수 있다. 전자 장치(101)가 상기 형태를 식별하는 것은, 전자 장치(101)의 프로세서(예, 도 1의 프로세서(120))에서 실행되고 있는 운영 체제, 및/또는 펌 웨어에 기반하여 수행될 수 있다.
일 실시예에 따른, 전자 장치(101)는 액추에이터(예, 도 1의 액추에이터(150))를 활성화하여, 디스플레이(140), 및/또는 전자 장치(101)의 형태를, 상태들(200, 205) 사이에서 변경할 수 있다. 일 실시예에 따른, 전자 장치(101)는 지정된 이벤트를 식별하는 것에 응답하여, 상기 형태를 변경할 수 있다. 예를 들어, 상기 지정된 이벤트는, 전자 장치(101)에서 실행 중인 운영 체제, 펌 웨어, 및/또는 어플리케이션으로부터 발생된 소프트웨어 인터럽트(software interrupt, SWI)를 포함할 수 있다. 상기 소프트웨어 인터럽트는, 특정 종횡 비를 가지는 멀티미디어 콘텐트(예, 비디오)를 재생하기 위한 어플리케이션에 의해 발생될 수 있다. 상기 소프트웨어 인터럽트는, 하나 이상의 센서들에 의하여 식별되는 전자 장치(101)의 위치에 기반하여 발생될 수 있다. 상기 소프트웨어 인터럽트는, 전자 장치(101), 및/또는 사용자에 의해 입력되었던 조건(예, 시간, 장소, 상황(occasion) 또는 이들의 조합으로 나타나는 조건)에 기반하여 발생될 수 있다.
일 실시예에서, 디스플레이(140), 및/또는 전자 장치(101)의 형태를 변경하기 위한 지정된 이벤트는, 사용자의 제스쳐에 기반하여 발생될 수 있다. 예를 들어, 상기 지정된 이벤트는, 디스플레이(140) 상에서 수행되는 제스쳐에 의해 발생될 수 있다. 상기 제스쳐는, 핀치-투-줌 제스쳐, 스와이프 제스쳐, 드래그 제스쳐, 또는 디스플레이(140) 상에 표시된 지정된 시각적 객체(예, 종횡 비가 표시된 아이콘)를 탭하는 제스쳐 중 적어도 하나를 포함할 수 있다. 예를 들어, 상기 제스쳐는, 전자 장치(101)의 하우징(210)의 일부분에서 외부로 노출된 버튼(220)을 누르는 제스쳐에 의해 발생될 수 있다.
일 실시예에 따른, 전자 장치(101)는, 디스플레이(140), 및/또는 전자 장치(101)의 형태를 변경하기 위한 입력을 수신하기 위한 버튼(220)을 포함할 수 있다. 도 2a 내지 도 2b를 참고하면, 전자 장치(101)의 하우징(210)의 적어도 일부분에서 외부로 노출된 버튼(220)이 도시된다. 상기 버튼(220)을 누르는 제스쳐를 식별하는 것에 응답하여, 전자 장치(101)는 사용자에 의한 상기 입력을 식별할 수 있다. 버튼(220)이 복수의 기능들(예, 전원 관리 기능, 및/또는 지문 인식 기능)에 매핑되는 일 실시예에서, 전자 장치(101)는 버튼(220)을 누르는 압력, 외부 객체(에, 사용자의 손 끝)가 버튼(220)에 접촉되는 기간(duration), 및/또는 버튼(220)이 눌리는 기간(duration)에 기반하여, 상기 입력을 식별할 수 있다. 예를 들어, 버튼(220)을 지정된 기간(예, 5초)을 초과하여 누르는 제1 제스쳐가, 전자 장치(101)를 켜거나, 또는 끄는 입력에 매칭될 수 있다. 상기 예시에서, 상기 버튼(220)을 상기 지정된 기간 보다 짧게 누르는 제2 제스쳐가, 상기 형태를 변경하기 위한 입력에 매칭될 수 있다.
도 2a의 일 실시예를 참고하면, 버튼(220)은 제1 하우징(211)의 상 면을 통해 외부로 노출될 수 있다. 도 2b를 참고하면, 버튼(220)은 제1 하우징(211)의 측 면을 통해 외부로 노출될 수 있다. 버튼(220)의 위치가 도 2a, 및/또는 도 2b의 예시들에 제한되는 것은 아니다.
일 실시예에서, 디스플레이(140), 및/또는 전자 장치(101)의 형태를 변경하기 위한 지정된 이벤트는, 전자 장치(101)가 지정된 단어, 및/또는 문장을 포함하는 음성 신호를 수신하는 것에 기반하여 발생될 수 있다. 일 실시예에 따르면, 전자 장치(101)는, 하나 이상의 마이크들을 이용하여, 상기 음성 신호를 획득할 수 있다. 상기 지정된 이벤트는, 전자 장치(101)가 외부 전자 장치(예, 전자 장치(101)와 무선으로 연결된, 리모컨, 및/또는 디지타이저와 같은 포인팅 장치)로부터 무선 신호를 수신하는 것에 응답하여 발생될 수 있다. 상기 무선 신호는, 상기 외부 전자 장치를 통해 식별된 사용자의 제스쳐에 기반하여, 상기 외부 전자 장치로부터 전자 장치(101)로 송신될 수 있다. 상기 외부 전자 장치에 의하여 식별되는 상기 제스쳐는, 예를 들어, 상기 외부 전자 장치의 지정된 궤적(trajectory)을 따르는 움직임, 및/또는 상기 외부 전자 장치의 버튼을 누르는 제스쳐 중 적어도 하나를 포함할 수 있다. 상기 궤적은, 경로(path)로 참조될 수 있다.
일 실시예에 따른, 전자 장치(101)는, 디스플레이(140), 및/또는 전자 장치(101)의 형태를 변경하기 위한 지정된 이벤트에 응답하여, 상태들(200, 205), 및 상태들(200, 205) 사이의 중간 상태 중에서 식별되는 전자 장치(101)의 현재 형태에 기반하여, 액추에이터를 제어할 수 있다. 상기 액추에이터의 제어에 기반하여, 표시 영역의 너비, 및/또는 높이와 같은 크기, 및/또는 면적이 조절될 수 있다. 도 2a 내지 도 2b를 참고하면, 상태(200)와 같은 롤-인 상태 내에서, 상기 표시 영역의 면적이 최소화되고, 상태(205)와 같은 롤-아웃 상태 내에서, 상기 표시 영역의 면적이 최대화될 수 있다. 일 실시예에 따른, 전자 장치(101)는 콘텐트를 디스플레이(140) 상에 형성된 상기 표시 영역 내에 표시하는 동안, 상기 표시 영역의 변경을 식별할 수 있다. 상기 표시 영역의 크기, 및/또는 면적에 비례하여 상기 콘텐트를 확대, 또는 축소하는 대신에, 전자 장치(101)는 상기 콘텐트 내에서 하나 이상의 피사체들이 캡쳐된 일부분을 확대하여, 상기 하나 이상의 피사체들의 가시성을 개선할 수 있다.
상술한 바와 같이, 일 실시예에 따른, 전자 장치(101)는 상태들(200, 205) 내에서 상기 전자 장치(101), 및/또는 디스플레이(140)의 변형에 의한 표시 영역의 확대, 또는 축소를 식별할 수 있다. 상기 표시 영역의 축소를 식별하는 것에 응답하여, 전자 장치(101)는 상기 표시 영역 내에 표시되는 콘텐트를 축소하는 대신에, 상기 콘텐트 내에서 하나 이상의 피사체들이 캡쳐된 일부분을 확대할 수 있다. 상기 표시 영역의 축소에 기반하여, 상기 하나 이상의 피사체들이 캡쳐된 상기 콘텐트의 일부분을 확대하기 때문에, 전자 장치(101)는 상기 하나 이상의 피사체들을 우선적으로 표시할 수 있다.
이하에서는, 도 3을 참고하여, 전자 장치(101)가 콘텐트로부터 하나 이상의 피사체들을 식별하는 동작이 설명된다.
도 3은, 일 실시예에 따른, 전자 장치가 콘텐트(310) 내에 캡쳐된 하나 이상의 피사체들을 식별하는 동작을 설명하기 위한 도면이다. 도 3의 전자 장치는 도 1, 도 2a 내지 도 2b의 전자 장치(101)의 일 예일 수 있다. 도 3을 참고하면, 일 실시예에 따른, 전자 장치가 식별하는 콘텐트(310)의 일 예가 도시된다. 3 개의 피사체들이 캡쳐된 사진인 콘텐트(310)에 기반하여, 상기 전자 장치의 동작이 설명되지만, 실시예가 이에 제한되는 것은 아니다.
일 실시예에 따른, 전자 장치는 메모리(예, 도 1의 메모리(130)) 내에 저장된 콘텐트(310)를 식별할 수 있다. 상기 전자 장치는, 상기 콘텐트(310) 내에 캡쳐된 하나 이상의 피사체들을 식별할 수 있다. 상기 하나 이상의 피사체들을 식별하는 것은, 상기 콘텐트(310)가 캡쳐되거나, 및/또는 저장된 시점에 수행될 수 있다. 이하에서, 피사체는, 콘텐트(310) 내에 캡쳐된 사물(object) 중에서, 전자 장치, 및/또는 사용자에 의해 특정된(specified) 사물을 의미할 수 있다. 예를 들어, 전자 장치는 CNN(convolutional neural network)과 같은 뉴럴 네트워크, 및/또는 콘텐트(310) 내에 포함된 하나 이상의 특징 점들(feature points)에 기반하여, 피사체를 식별할 수 있다.
일 실시예에 따른, 전자 장치는 CMH(contents management hub)와 같은 어플리케이션에 기반하여, 콘텐트(310) 내에 캡쳐된 하나 이상의 피사체들을 식별할 수 있다. 예를 들어, 전자 장치는 콘텐트(310)가 캡쳐된 위치(예, GPS(Global Positioning System) 좌표), 상기 콘텐트(310)가 캡쳐된 시간(예, 타임스탬프), 및/또는 상기 콘텐트(310)에 할당된(assigned) 하나 이상의 태그들에 기반하여, 상기 하나 이상의 피사체들을 식별할 수 있다. 상기 태그는, 예를 들어, 사용자로부터 입력된 텍스트일 수 있다. 예를 들어, 상기 사용자는 상기 콘텐트(310) 내에 캡쳐된 하나 이상의 피사체들의 이름(예, 사람이 캡쳐된 콘텐트(310)에 대하여, 상기 사람의 이름)을, 상기 콘텐트(310)의 메타 데이터 내에 추가할 수 있다.
일 실시예에 따른, 전자 장치는 지정된 카테고리들에 기반하여, 콘텐트(310)로부터 하나 이상의 피사체들을 식별할 수 있다. 예를 들어, 상기 지정된 카테고리들은, 얼굴에 기반하여 구분되는 사람, 콘텐트(310)로 할당된 하나 이상의 태그들, 사진 유형(shot type), 문서, 사물, 풍경, 장소, 액션, 색상, 및/또는 감정을 포함할 수 있다. 일 실시예에 따른, 전자 장치는, 상기 지정된 카테고리들 각각과 콘텐트(310) 사이의 관계에 기반하여, 상기 하나 이상의 피사체들을 식별할 수 있다.
일 실시예에 따른, 전자 장치는, 콘텐트(310)에 임베딩된 메타 데이터로부터, 하나 이상의 피사체들을 나타내는 정보를 획득할 수 있다. 상기 정보는, 하나 이상의 피사체들이 캡쳐된 상기 콘텐트(310) 내 위치, 및/또는 영역, 상기 하나 이상의 피사체들의 타입, 또는 상기 하나 이상의 피사체들에 할당된 태그 중 적어도 하나를 포함할 수 있다. 도 3을 참고하면, 전자 장치가 상기 획득된 정보로부터 식별하는, 하나 이상의 피사체들이 캡쳐된 영역들(320, 330, 340)이 도시된다. 예를 들어, 전자 장치는 얼굴 인식(face recognition), 및/또는 사용자에 의해 할당된 태그에 기반하여, 사람이 캡쳐된 영역들(320, 330)을 획득할 수 있다. 콘텐트(310) 내에 캡쳐된 사람의 얼굴을 인식하는 일 실시예에서, 전자 장치는 메모리 내에 저장된 복수의 콘텐트들에 캡쳐된 하나 이상의 얼굴들을 클러스터링하여(예, 얼굴 클러스터링(face clustering)), 상기 복수의 콘텐트들에 공통적으로 캡쳐된 사람을 식별할 수 있다.
예를 들어, 전자 장치는 뉴럴 네트워크에 기반하여 이미지 인식, 및/또는 사용자에 의해 할당된 태그에 기반하여, 사람과 구별되는 사물이 캡쳐된 영역(340)을 획득할 수 있다. 비록, 전자 장치가 동물(예, 개)이 캡쳐된 영역(340)을 획득하는 일 실시예가 도시되지만, 실시예가 이에 제한되는 것은 아니며, 전자 장치는 다른 타입의 사물을 식별할 수 있다.
도 3을 참고하면, 전자 장치가 바운딩 박스와 같은 사각형의 영역들(320, 330, 340)에 기반하여 피사체들을 식별하는 일 실시예가 도시된다. 예를 들어, 전자 장치는, 상기 사각형의 일 모서리, 너비, 및 높이를 포함하는 정보에 기반하여, 상기 영역들(320, 330, 340)을 식별할 수 있다. 상기 예시 내에서, 콘텐트(310)의 메타 데이터는, 영역(320)을 나타내는 정보로써, 상기 영역(320)의 일 모서리(예, 지점 X1의 콘텐트(310) 내 좌표), 너비(예, X2, 및 X1의 x 좌표 사이의 차이), 및 높이(예, 지점 X3, 및 X1의 y 좌표 사이의 차이)를 포함할 수 있다. 예를 들어, 전자 장치는, 상기 사각형의 모서리들 중에서, 마주하여 떨어진(faced away) 두 모서리들의 좌표들에 기반하여, 상기 영역들(320, 330, 340)을 식별할 수 있다. 예를 들어, 전자 장치는, 콘텐트(310)의 메타 데이터로부터, 지점 Y1, 및 지점 Y4의 콘텐트(310) 내 좌표를 획득하여, 상기 영역(330)을 식별할 수 있다. 실시예가 이에 제한되는 것은 아니며, 하나 이상의 피사체들이 사각형과 상이한 다른 다각형, 원, 및/또는 상기 피사체들을 나타내는 폐곡선에 기반하여 식별될 수 있다.
일 실시예에 따른, 전자 장치는, 영역들(320, 330, 340)과 같이, 콘텐트(310)로부터 복수의 피사체들을 식별하는 것에 응답하여, 상기 복수의 피사체들의 우선 순위를 매길 수 있다(prioritize). 예를 들어, 전자 장치는 상기 복수의 피사체들 중 적어도 하나를 선택적으로 표시하기 위한 순서를 획득할 수 있다. 전자 장치는 상기 복수의 피사체들 각각의 타입들에 기반하여, 상기 순서를 획득할 수 있다. 예를 들어, 전자 장치는 상기 순서 내에서, 상기 복수의 피사체들 중에서, 사람으로 분류된 피사체들(예, 영역들(320, 330)에 대응하는 피사체들)의 순위를, 상기 사람과 구분되는 사물로 분류된 다른 피사체(예, 영역(340)에 대응하는 피사체)의 순위 보다 높게 만들 수 있다. 예를 들어, 전자 장치는 콘텐트 내에서의 초점 거리, 및/또는 줌 배율에 기반하여, 상기 순서를 획득할 수 있다.
일 실시예에 따른, 전자 장치는 콘텐트 내에 캡쳐된 장면 분석(scene recognition), 상기 콘텐트 내에 포함된 감정 정보, 또는 상기 콘텐트 내에 캡쳐된 움직임(예, 피사체의 움직임, 및/또는 손 제스쳐) 중 적어도 하나에 기반하여, 상기 복수의 피사체들의 우선 순위를 매길 수 있다. 상기 장면 분석은, 상기 콘텐트 내에 캡쳐된 상황을 나타내는 텍스트(예, 생일 축하(birthday congratulation), 및/또는 불꽃 놀이(fireworks))를 획득하는 동작을 포함할 수 있다.
일 실시예에 따른, 전자 장치는, 콘텐트(310)와 독립적으로 전자 장치 내에 저장된 정보, 또는 상기 전자 장치의 사용자의 계정 정보(account information)에 기반하여, 콘텐트(310) 내에 캡쳐된 복수의 피사체들의 순서를 획득할 수 있다. 예를 들어, 전자 장치는 콘텐트(310)에 할당된 태그, 및 전자 장치의 사용자로부터 획득된 연락처 정보(contact information)를 비교하여, 상기 연락처 정보 내에 포함된 사람들 중에서, 상기 콘텐트(310) 내에 캡쳐된 사람을 식별할 수 있다. 전자 장치는 상기 순서 내에서, 상기 사람의 순위를, 다른 피사체의 순위 보다 높게 만들 수 있다. 전자 장치는 상기 콘텐트(310)가 공유되거나, 또는 송신된 하나 이상의 사람들에 기반하여, 상기 복수의 피사체들의 순서를 획득할 수 있다. 예를 들어, 상기 콘텐트(310)를 수신한 사람이 상기 복수의 피사체들 중 하나의 피사체에 대응하는 경우, 전자 장치는 상기 피사체의 순위를, 다른 피사체들의 순위보다 높게 만들 수 있다.
일 실시예에 따른, 전자 장치는, 콘텐트(310) 내에 캡쳐된 복수의 피사체들의 위치, 및/또는 크기에 기반하여, 상기 복수의 피사체들의 순서를 획득할 수 있다. 예를 들어, 전자 장치는, 콘텐트(310)의 중심 점(center point)(예, 지점들 A1, A4를 연결하는 제1 선분, 및 지점들 A2, A3를 연결하는 제2 선분의 교점)으로부터의 복수의 피사체들의 거리들을 식별할 수 있다. 예를 들어, 전자 장치는, 상기 복수의 피사체들 중 제1 피사체가 캡쳐된 콘텐트(310)의 일부분의 중심 점, 및 콘텐트(310)의 중심 점 사이의 제1 거리를 식별할 수 있다. 상기 예시 내에서, 전자 장치는, 상기 복수의 피사체들 중 제2 피사체가 캡쳐된 콘텐트(310)의 다른 일부분의 중심 점, 및 콘텐트(310)의 중심 점 사이의 제2 거리를 식별할 수 있다. 예를 들어, 상기 제1 거리가 상기 제2 거리 보다 적은 경우, 전자 장치는 상기 제1 거리에 대응하는 상기 제1 피사체의 순위를, 상기 제2 피사체의 순위 보다 높게 설정할 수 있다. 상기 제1 거리가 상기 제2 거리 보다 적다는 것은, 상기 제1 피사체가 상기 콘텐트(310) 내에서 상기 콘텐트(310)의 중심 점과, 상기 제2 피사체 보다 가까이 배치됨을 의미할 수 있다.
일 실시예에 따른, 전자 장치는, 콘텐트(310) 내에서 복수의 피사체들이 캡쳐된 부분들의 크기들을 식별할 수 있다. 전자 장치는 식별된 크기들의 내림차순(descending order)에 기반하여, 상기 피사체들의 순서를 결정할 수 있다. 예를 들어, 콘텐트(310) 내에 캡쳐된 복수의 피사체들 중에서, 제1 피사체가 캡쳐된 제1 부분의 크기가, 상기 제1 피사체와 상이한 제2 피사체가 캡쳐된 제2 부분의 크기 보다 큰 경우, 전자 장치는 상기 제1 피사체의 순위를, 상기 제2 피사체의 순위 보다 높게 조절할 수 있다. 실시예가 내림차순에 기반하는 상기 예시에 제한되는 것은 아니며, 예를 들어, 전자 장치는, 콘텐트(310) 내에서 복수의 피사체들이 캡쳐된 부분들의 크기들의 오름차순(ascending order)에 기반하여, 상기 피사체들의 순서를 결정할 수 있다.
복수의 피사체들이 콘텐트(310) 내에 캡쳐된 일 실시예에서, 콘텐트(310) 내에서 적어도 두 개의 피사체들이 캡쳐된 부분들의 크기들이 일치하는 경우, 전자 장치는 상기 부분들의 위치들에 기반하여, 상기 적어도 두 개의 피사체들의 순위를 조절할 수 있다. 예를 들어, 전자 장치는, 상기 부분들 중에서, 콘텐트(310)의 중심 점에 상대적으로 가깝게 배치된 특정 부분 내에 캡쳐된 피사체에게, 다른 부분 내에 캡쳐된 다른 피사체 보다 높은 순위를 할당할 수 있다. 복수의 피사체들이 콘텐트(310) 내에 캡쳐된 일 실시예에서, 콘텐트(310) 내에서 적어도 두 개의 피사체들이 캡쳐된 부분들 및 중심 점 사이의 거리들이 일치하는 경우, 전자 장치는 상기 부분들의 크기들에 기반하여, 상기 적어도 두 개의 피사체들의 순위를 조절할 수 있다. 예를 들어, 전자 장치는 상기 부분들 중에서, 상대적으로 큰 크기를 가지는 특정 부분 내에 캡쳐된 피사체에게, 다른 부분 내에 캡쳐된 다른 피사체 보다 높은 순위를 할당할 수 있다.
일 실시예에 따른, 전자 장치는, 콘텐트(310)로부터 복수의 피사체들 각각에 할당되는 스코어에 기반하여, 상기 복수의 피사체들의 순서를 획득할 수 있다. 상기 스코어는, 상기 지정된 카테고리들 중에서 상기 피사체가 분류된 카테고리, 및/또는 상기 피사체, 및 전자 장치의 사용자 사이의 상호 작용에 기반하여, 차별적으로 할당될 수 있다. 상기 상호 작용은, 예를 들어, 상기 피사체가 상기 연락처 정보 내에 등록되었는지 여부와 관련될 수 있다. 일 실시예에 따른, 전자 장치는 복수의 피사체들의 스코어들의 내림차순에 기반하여, 상기 복수의 피사체들의 순서를 획득할 수 있다.
일 실시예에 따른, 전자 장치는, 영역들(320, 330, 340)에 기반하여, 콘텐트(310) 내에서 복수의 피사체들을 식별하는 것에 응답하여, 상기 복수의 피사체들을 선택적으로 표시할 수 있다. 예를 들어, 콘텐트(310)가 표시되는 표시 영역의 크기, 및/또는 면적이 축소되는 경우, 전자 장치는 상기 복수의 피사체들 중에서, 상기 순서에 기반하여 선택된 적어도 하나의 피사체가 캡쳐된 영역을 확대할 수 있다. 상기 확대된 영역에 기반하여, 전자 장치는 상기 축소된 표시 영역 내에 상기 적어도 하나의 피사체를 우선적으로 표시할 수 있다.
상술한 바와 같이, 전자 장치의 변형에 의한 표시 영역의 축소는, 상기 표시 영역 내에서 표시되는 콘텐트의 가시성을 저해할 수 있다. 상기 콘텐트의 가시성의 저해를 보상하기 위하여, 상기 전자 장치는 상기 콘텐트 내에 포함된 복수의 피사체들 중 적어도 하나에 기반하여, 상기 축소된 표시 영역 내에서 상기 콘텐트를 확대할 수 있다. 전자 장치는 상기 복수의 피사체들의 순서에 기반하여, 상기 축소된 표시 영역 내에서 우선적으로 표시될 적어도 하나의 피사체를 결정할 수 있다. 이하에서는, 도 4a 내지 도 4e를 참고하여, 일 실시예에 따른, 전자 장치가 복수의 피사체들 중 적어도 하나에 기반하여, 상기 콘텐트를 확대하는 동작이 설명된다.
도 4a 내지 도 4e는, 일 실시예에 따른, 전자 장치가 콘텐트 내에 캡쳐된 하나 이상의 피사체들에 기반하여 상기 콘텐트를 표시하는 동작을 설명하기 위한 예시적인 도면들이다. 도 4a 내지 도 4e의 전자 장치는 도 1, 도 2a 내지 도 2b의 전자 장치(101), 및/또는 도 3의 전자 장치의 일 예일 수 있다. 예를 들어, 도 4a 내지 도 4e의 화면들(410, 420, 430, 440, 450)은, 도 1의 전자 장치(101)가 디스플레이(140)의 표시 영역 내에 표시하는 화면들일 수 있다. 이하에서, 화면(screen)은 디스플레이의 적어도 일부분 내에서 표시되는 UI(User Interface)를 의미할 수 있다. 화면은, 예를 들어, 안드로이드(Android) 운영 체제의 액티비티(Activity)를 포함할 수 있다.
도 4a 내지 도 4e를 참고하면, 복수의 콘텐트들을 열람하기 위한 어플리케이션이 실행된 상태 내에서, 전자 장치가 디스플레이(예, 도 1의 디스플레이(140))의 표시 영역 내에 표시하는 상이한 화면들(410, 420, 430, 440, 450)이 도시된다. 화면(410)은, 전자 장치의 메모리(예, 도 1의 메모리(130)) 내에 저장된 복수의 콘텐트들의 리스트를 표시하기 위한 화면일 수 있다. 예를 들어, 화면(410) 내에서, 전자 장치는 썸네일(412)과 같이, 복수의 콘텐트들 중 어느 하나에 대응하는 시각적 객체를 표시할 수 있다. 썸네일(412)을 선택하는 입력을 수신하는 것에 응답하여, 전자 장치는 화면(410)으로부터 화면들(420, 430, 440, 450) 중 어느 한 화면으로 전환할 수 있다. 이하에서는, 도 3의 콘텐트(310)가 썸네일(412)에 대응하는 것으로 가정한다. 썸네일(412)을 터치, 및/또는 클릭하는 제스쳐에 기반하여, 전자 장치는 썸네일(412)에 대응하는 콘텐트(예, 도 3의 콘텐트(310))를 표시하기 위한 요청을 수신할 수 있다. 도 4b 내지 도 4e의 화면들(420, 430, 440, 450)은, 상기 요청에 응답하여 전자 장치가 표시하는 예시적인 화면들일 수 있다.
도 4b를 참고하면, 일 실시예에 따른, 전자 장치가 콘텐트를 표시하는 예시적인 화면(420)이 도시된다. 화면(420) 내에서, 전자 장치는 상기 콘텐트에 포함된 픽셀들 전체를 표시할 수 있다. 화면(420) 내에서, 전자 장치는, 콘텐트의 너비가 표시 영역의 너비에 대응되도록, 상기 콘텐트의 배율을 조절할 수 있다. 예를 들어, 콘텐트의 너비가, 화면(420) 내에서, 표시 영역의 너비에 대응하는 수치 값이거나, 또는 상기 표시 영역의 상기 너비로부터 지정된 오프셋(또는 마진) 만큼 줄어든 수치 값을 가질 수 있다. 전자 장치가 상기 픽셀들 전체를 표시하기 때문에, 도 3의 콘텐트(310)의 모서리들(A1, A2, A3, A4)이 화면(420) 내에 포함될 수 있다. 일 실시예에 따른, 전자 장치는 화면(420) 내에서 수행되는 제스쳐(예, 핀치-투-줌 제스쳐)에 기반하여, 콘텐트를 확대하거나, 또는 축소할 수 있다. 도 4c 내지 도 4e의 화면들(430, 440, 450)은, 상기 제스쳐에 기반하여 상기 콘텐트를 확대하는 동안 표시되는 화면의 일 예일 수 있다.
화면(420) 내에서, 전자 장치는 화면(420)으로부터, 화면(410)으로 전환하기 위한 버튼(422)과 같은 시각적 객체를 표시할 수 있다. 화면(420) 내에서, 전자 장치는, 복수의 콘텐트들의 리스트를 표시하기 위한 썸네일 리스트(423)와 같은 시각적 객체를 표시할 수 있다. 썸네일 리스트(423) 내에서의 입력에 기반하여, 전자 장치는 화면(420) 내에 표시되는 콘텐트를 교체할 수 있다. 화면(420)의 부분(424) 내에, 전자 장치는, 화면(420) 내에 표시되는 콘텐트와 관련된 기능들을 표시할 수 있다. 상기 기능들은, 예를 들어, 상기 콘텐트에 "좋아요"와 같은 감정을 나타내는 태그를 임베딩하는 기능, 상기 콘텐트에 시각적 효과를 적용하는 기능, 상기 콘텐트를 화면(420)에 대응하는 어플리케이션과 상이한 다른 어플리케이션으로 공유하는 기능, 또는 상기 콘텐트를 제거하는 기능 중 적어도 하나를 포함할 수 있다.
일 실시예에 따른, 전자 장치는, 상기 전자 장치의 변형에 기반하여, 콘텐트를 확대하여 표시할 수 있다. 콘텐트를 확대하는 것은, 전자 장치가 디스플레이(예, 도 1의 디스플레이(140))를 변형하여 표시 영역의 크기가 변경되는 것에 기반하여, 수행될 수 있다. 예를 들어, 상기 디스플레이가 상기 전자 장치의 하우징 안으로 인입되어, 상기 표시 영역의 크기가 축소되는 경우, 전자 장치는 콘텐트를 확대할 수 있다. 예를 들어, 멀티태스킹에 기반하는 화면 분할, 및/또는 멀티윈도우와 같이, 표시 영역 내에서 콘텐트가 표시되는 부분의 크기가 축소되는 경우, 전자 장치는 상기 축소된 크기를 가지는 부분 내에서, 콘텐트를 확대하여 표시할 수 있다. 일 실시예에 따른, 전자 장치가 멀티윈도우에 기반하여 콘텐트를 확대하는 동작이, 도 8a 내지 도 8d를 참고하여 후술된다.
일 실시예에 따른, 전자 장치는, 접힘 가능한(foldable) 제1 디스플레이, 및 상기 제1 디스플레이 보다 작은 크기를 가지는 제2 디스플레이를 포함할 수 있다. 상기 제1 디스플레이는, 전자 장치의 폴딩 축을 포함하는 폴딩 하우징에 연결된 제1 하우징, 및 제2 하우징을 가로질러 배치될 수 있다. 상기 제2 디스플레이는, 상기 제1 디스플레이가 배치된 제1 하우징의 일 면과 마주하며 떨어진(faced away) 상기 제1 하우징의 다른 면 상에 배치될 수 있다. 상기 제1 디스플레이의 접힘에 의한 상기 제1 디스플레이의 표시 영역의 가려짐(occlusion)에 기반하여, 전자 장치는 상기 제1 디스플레이 내에서 표시되는 콘텐트를, 제2 디스플레이 내에 표시할 수 있다. 상기 예시 내에서, 전자 장치는, 제1 디스플레이 보다 작은 크기를 가지는 제2 디스플레이 내에 상기 콘텐트를 표시하는 동안, 상기 제2 디스플레이 내에서 상기 콘텐트를 확대할 수 있다. 일 실시예에서, 상기 제1 디스플레이는, 플렉서블 디스플레이로, 상기 제2 디스플레이는 커버 디스플레이로 참조될 수 있다. 일 실시예에 따른, 전자 장치는, 상기 콘텐트 내에 캡쳐된 하나 이상의 피사체들에 기반하여, 상기 콘텐트를 확대할 수 있다. 일 실시예에 따른, 전자 장치는, 콘텐트로부터 복수의 피사체들을 식별하는 것에 응답하여, 복수의 피사체들의 순서를 획득할 수 있다. 상기 전자 장치는, 획득된 순서에 기반하여, 표시 영역 내에, 복수의 피사체들 중 적어도 하나가 캡쳐된 일부분을 선택적으로 표시할 수 있다.
도 4c를 참고하면, 일 실시예에 따른, 전자 장치가 콘텐트 내에 캡쳐된 복수의 피사체들 중 어느 한 피사체를 선택적으로 표시하는 예시적인 화면(430)이 도시된다. 전자 장치는, 디스플레이의 변형에 의한 표시 영역의 축소, 및/또는 상기 표시 영역 내에서 콘텐트가 표시되는 영역의 축소에 응답하여, 화면(430)을 표시할 수 있다. 상기 디스플레이의 변형은, 도 2a 내지 도 2b를 참고하여 상술된, 전자 장치의 하우징 안으로의 디스플레이의 인입을 포함할 수 있다. 상기 콘텐트가 표시되는 영역의 축소는, 멀티윈도우, 및/또는 화면 분할에 기반하여 발생될 수 있다. 전자 장치가 복수의 피사체들 중 어느 한 피사체를 선택하는 것은, 상기 복수의 피사체들 사이의 우선 순위에 기반하여 수행될 수 있다. 예를 들어, 전자 장치는, 상기 우선 순위를, 도 3을 참고하여 상술된 동작에 기반하여 획득할 수 있다.
화면(430) 내에서, 콘텐트의 영역(320)이 표시 영역 내에 포함되도록, 전자 장치는 상기 콘텐트를 확대할 수 있다. 상기 콘텐트의 확대에 기반하여, 영역(320)의 너비가, 화면(430) 내에서, 표시 영역의 너비에 대응할 수 있다. 예를 들어, 상기 영역(320)의 상기 너비는, 상기 표시 영역의 상기 너비이거나, 또는 상기 표시 영역의 상기 너비로부터 지정된 오프셋만큼 차감된 수치 값일 수 있다. 예를 들어, 상기 영역(320)의 높이는, 상기 표시 영역의 높이 이거나, 또는 상기 표시 영역의 상기 높이로부터 지정된 오프셋만큼 차감된 수치 값일 수 있다. 도 4c를 참고하면, 상기 콘텐트의 확대에 의하여, 도 3의 콘텐트(310)의 모서리들(A1, A2, A3, A4)이 표시 영역으로부터 제외되고, 영역(320)의 모서리들(X1, X2, X3, X4)이 화면(430) 내에 포함될 수 있다. 전자 장치는, 영역(320)의 모서리들(X1, X2, X3, X4)에 인접하는 여백(margin), 패딩(padding), 및/또는 오프셋에 기반하여, 표시 영역 내에서 영역(320)에 대응하는 피사체를 표시할 수 있다.
콘텐트의 확대에 의하여, 상기 콘텐트의 일부분(예, 영역(320)을 포함하는 상기 콘텐트의 일부분)을 선택적으로 표시하는 동안, 전자 장치는 화면(430)의 지정된 일부분 내에, 콘텐트의 썸네일(431)과 같은 시각적 객체를 표시할 수 있다. 썸네일(431) 상에 중첩되는(superimposed on) 시각적 객체(432)를 이용하여, 전자 장치는 표시 영역 내에 표시되는 콘텐트의 일부분의 위치를 나타낼 수 있다. 일 실시예에서, 시각적 객체(432)는 프레임으로 참조될 수 있다. 일 실시예에서, 썸네일(431), 및 상기 썸네일(431) 상에 중첩되는 시각적 객체(432)가 맵 뷰로 참조될 수 있다. 예를 들어, 시각적 객체(432)의 모서리들이, 표시 영역 내에 표시되는 콘텐트의 일부분의 모서리들 각각에 매칭될 수 있다. 일 실시예에 따른, 전자 장치는 썸네일(431) 내에서 시각적 객체(432)를 쉬프트하는 입력에 기반하여, 표시 영역 내에서 표시되는 콘텐트의 일부분을 변경할 수 있다. 일 실시예에 따른, 전자 장치는 썸네일(431)에 대한 탭-제스쳐를 식별하는 것에 기반하여, 표시 영역 내에 콘텐트 전체를 표시하는 상태(예, 화면(420)에 대응하는 상태)로 전환할 수 있다. 상기 콘텐트 전체를 표시하는 상태로 전환하는 경우, 전자 장치는 썸네일(431), 및 상기 시각적 객체(432)의 표시를 중단할 수 있다.
일 실시예에 따른, 전자 장치는 콘텐트 내에 캡쳐된 복수의 피사체들 각각에 대응하는 복수의 시각적 객체들(434, 435, 436)을 표시할 수 있다. 전자 장치가 도 3의 콘텐트(310)를 표시하는 경우, 시각적 객체들(434, 435, 436) 각각은 도 3의 영역들(320, 330, 340) 각각에 기반하는 썸네일들을 포함할 수 있다. 전자 장치가 화면(430) 내에서 시각적 객체들(434, 435, 436)을 표시하는 순서는, 콘텐트 내에 캡쳐된 피사체들의 순서와 관련될 수 있다. 도 4c를 참고하면, 전자 장치가 영역(320)에 대응하는 제1 피사체를 확대한 상태 내에서, 전자 장치는 시각적 객체들(434, 435, 436) 중에서, 상기 제1 피사체에 대응하는 시각적 객체(434)를 다른 시각적 객체들(435, 436) 보다 우선하여 표시하고, 상기 제1 피사체를 제외한 다른 피사체들에 할당된 우선 순위에 기반하여, 시각적 객체들(435, 436)을 순차적으로 표시할 수 있다. 예를 들어, 도 3의 콘텐트(310) 내에 캡쳐된 피사체들 중에서, 이름과 같은 태그가 영역(320)에 대응하는 제1 피사체에 할당된 경우, 전자 장치는 도 4c의 시각적 객체들(434, 435, 436) 중에서 상기 제1 피사체에 대응하는 시각적 객체(434)를, 다른 시각적 객체들(435, 436) 보다 우선적으로 표시할 수 있다. 예를 들어, 도 4c의 화면(430) 내에서, 전자 장치는 시각적 객체(434)를, 다른 시각적 객체들(435, 436) 보다 좌측에 배치할 수 있다. 상기 예시 내에서, 전자 장치는 시각적 객체(433)와 같이, 상기 제1 피사체에 할당된 상기 태그를, 시각적 객체(434)에 인접하여 표시할 수 있다.
일 실시예에 따른, 전자 장치는, 시각적 객체들(434, 435, 436)과 함께, 콘텐트 내에 포함된 피사체들 전체를 포함하는 상기 콘텐트의 일부분에 대응하는 시각적 객체(437)를 표시할 수 있다. 콘텐트 내에 포함된 피사체들 중 제1 피사체에 기반하여 상기 콘텐트를 확대하는 상태 내에서, 전자 장치는 시각적 객체들(434, 435, 436, 437) 중 상기 제1 피사체에 대응하는 시각적 객체(434)를, 다른 시각적 객체들(435, 436, 437) 보다 강조할 수 있다. 도 4c를 참고하면, 전자 장치는 시각적 객체(434)의 경계 선(borderline)을 실선으로, 시각적 객체들(435, 436, 437)의 경계 선들을 파선으로 표시할 수 있다. 예를 들어, 전자 장치는 시각적 객체(434)의 경계선의 제1 색상을, 시각적 객체들(435, 436, 437)의 경계선들의 제2 색상과 다른 색상으로 표시할 수 있다. 상기 예시 내에서, 상기 제2 색상은, 흰 색으로, 상기 제1 색상은 황 색일 수 있다. 실시예가 이에 제한되는 것은 아니며, 예를 들어, 전자 장치는 시각적 객체들(434, 435, 436, 437) 중에서, 화면(430)에 의해 확대된 상기 제1 피사체에 대응하는 시각적 객체(434)의 표시를 적어도 일시적으로 중단(cease at least temporary)할 수 있다. 전자 장치가 시각적 객체(434)의 표시를 중단하는 상기 예시 내에서, 전자 장치는 시각적 객체들(435, 436, 437) 중 어느 하나를 선택하는 입력, 및/또는 화면(430) 내에서 콘텐트의 배율을 조절하는 입력에 응답하여, 시각적 객체(434)의 표시를 재개할 수 있다.
일 실시예에 따른, 전자 장치는, 시각적 객체들(433, 434, 435, 436, 437) 중에서 일 시각적 객체를 선택하는 입력을 수신할 수 있다. 상기 수신된 입력에 응답하여, 전자 장치는 상기 선택된 일 시각적 객체에 대응하는 콘텐트의 피사체에 기반하여 상기 콘텐트를 확대할 수 있다. 예를 들어, 시각적 객체들(433, 434, 435, 436, 437) 중 시각적 객체(435)를 선택하는 입력을 수신하는 것에 응답하여, 전자 장치는 도 4c의 화면(430)으로부터 도 4d의 화면(440)으로 전환할 수 있다. 예를 들어, 시각적 객체들(433, 434, 435, 436, 437) 중 시각적 객체(437)를 선택하는 입력을 수신하는 것에 응답하여, 전자 장치는 도 4c의 화면(430)으로부터 도 4e의 화면(450)으로 전환할 수 있다.
도 4d의 화면(440)은, 일 실시예에 따른, 시각적 객체(435)를 선택하는 입력을 수신한 전자 장치에 의하여 표시될 수 있다. 도 4c의 화면(430), 및 도 4d의 화면(440)을 참고하면, 전자 장치는, 상기 입력에 기반하여 시각적 객체(435)를 변경하여, 시각적 객체들(434, 435, 436, 437) 중에서 시각적 객체(435)를, 다른 시각적 객체들(434, 436, 437) 보다 강조할 수 있다. 예를 들어, 전자 장치는 시각적 객체(435)의 경계 선을, 파선으로부터 직선으로 교체할 수 있다. 전자 장치는 시각적 객체(434)의 경계 선을, 직선으로부터 파선으로 교체하여, 시각적 객체(434)를 강조하는 것을 중단할 수 있다. 화면(440) 내에서, 전자 장치는 시각적 객체(435)에 대응하는 콘텐트의 영역(330)을 포함하는 상기 콘텐트의 일부분을 표시할 수 있다. 도 4d를 참고하면, 영역(330)의 모서리들(Y1, Y2, Y3, Y4)이 화면(440) 내에 포함될 수 있다. 영역(330)을 포함하는 상기 콘텐트의 일부분을 표시하기 위하여, 상기 콘텐트의 모서리들(예, 도 3, 및/또는 도 4b의 모서리들(A1, A2, A3, A4)) 중 적어도 하나가 화면(440)으로부터 제외될 수 있다. 시각적 객체(435)가 선택된 동안, 전자 장치는 화면(440) 내에, 상기 시각적 객체(435)에 대응하는 영역(330)이 중심이 되는 콘텐트의 일부분을 표시할 수 있다.
도 4d를 참고하면, 영역(330)이 중심이 되는 상기 콘텐트의 상기 일부분이 표시되는 동안, 상기 일부분과 상이한 상기 콘텐트의 다른 부분이, 화면(440)으로부터 제외될 수 있다. 일 실시예에 따른, 전자 장치는, 썸네일(431) 상에 표시되는 시각적 객체(442)의 위치, 및/또는 크기를 조절하여, 화면(440) 내에 표시되는 상기 콘텐트의 일부분, 및 상기 다른 부분을 나타낼 수 있다. 도 4c를 참고하여 상술한 바와 같이, 일 실시예에 따른, 전자 장치는 시각적 객체(442)의 이동에 기반하여, 화면(440) 내에 표시되는 콘텐트의 일부분을 변경할 수 있다. 일 실시예에 따른, 전자 장치는 화면(440) 내에서 수행되는 제스쳐(예, 핀치-투-줌 제스쳐)에 기반하여 화면(440) 내에 표시되는 콘텐트의 일부분을 변경할 수 있다.
도 4e의 화면(450)을 참고하면, 일 실시예에 따른, 전자 장치는, 피사체들이 캡쳐된 콘텐트 내 영역들(320, 330, 340)을 포함하는 콘텐트의 일부분을 표시할 수 있다. 화면(450) 내에서, 전자 장치는 영역들(320, 330, 340)의 콘텐트 내 위치들에 기반하여, 영역들(320, 330, 340) 전부를 포함하는 최소한의 부분을 식별할 수 있다. 화면(450) 내에서, 전자 장치는 상기 최소한의 부분이 표시 영역 내에 포함되도록, 콘텐트를 확대할 수 있다. 전자 장치는 썸네일(431) 상에 중첩되는 시각적 객체(452)를 이용하여, 화면(450) 내에 표시되는 상기 최소한의 부분의 상기 콘텐트 내 위치, 및 크기를 나타낼 수 있다.
일 실시예에 따른, 전자 장치는, 콘텐트의 모서리들(A1, A2, A3, A4) 전부를 포함하고, 상기 콘텐트의 픽셀들 전부를 표시하기 위한, 화면(420)으로부터, 화면들(430, 440, 450) 중 어느 한 화면으로 전환하는 것을, 상기 표시 영역의 크기에 기반하여 수행할 수 있다. 예를 들어, 액추에이터(예, 도 1의 액추에이터(150))에 기반하는 디스플레이(예, 도 1의 디스플레이(140))의 변형에 기반하여 상기 표시 영역의 크기가 축소되는 경우, 전자 장치는 상기 화면들(430, 440, 450) 중 어느 한 화면으로 전환할 수 있다. 일 실시예에 따른, 전자 장치는 콘텐트 내에 포함된 복수의 피사체들의 순서에 기반하여, 상기 화면들(430, 440, 450) 중 어느 한 화면으로 전환할 수 있다.
일 실시예에 따른, 전자 장치는, 도 3을 참고하여 상술된 동작에 기반하여, 복수의 피사체들의 순서를 획득할 수 있다. 상기 순서에 의해 선택된 적어도 하나의 피사체가 표시 영역 내에서 확대되도록, 전자 장치는 상기 화면들(430, 440, 450) 중 어느 한 화면으로 선택적으로 전환할 수 있다. 예를 들어, 시각적 객체(433)와 같은 태그가 할당된 상기 제1 피사체가 확대되도록, 전자 장치는 상기 표시 영역의 축소에 기반하여, 화면(420)으로부터 화면(430)으로 전환할 수 있다. 상기 복수의 피사체들이 일치되는 스코어를 가지거나, 또는 상기 복수의 피사체들의 순서를 획득하지 못한 경우, 전자 장치는 상기 표시 영역의 축소에 기반하여, 화면(420)으로부터, 피사체들 전체를 표시하기 위한 화면(450)으로 전환할 수 있다. 또는, 상기 복수의 피사체들이 일치되는 스코어를 가지거나, 또는 상기 복수의 피사체들의 순서를 획득하지 못한 경우, 전자 장치는 상기 표시 영역의 축소에 기반하여, 피사체들 중에서 콘텐트의 중심 점에 배치된 적어도 하나의 피사체, 또는 상기 중심 점에 가장 인접한 일 피사체가 캡쳐된 일부분을 확대할 수 있다.
상술한 바와 같이, 일 실시예에 따른, 전자 장치는 콘텐트 전체를 표시하기 위한 화면(420) 뿐만 아니라, 상기 콘텐트 내에 캡쳐된 하나 이상의 피사체들 중 적어도 하나의 표시에 적합한(suitable for) 화면들(430, 440, 450) 사이의 전환을 지원할 수 있다. 전자 장치는, 상기 전자 장치, 및/또는 디스플레이의 변형에 의한 표시 영역의 변경에 기반하여, 화면들(420, 430, 440, 450) 사이를 전환할 수 있다. 예를 들어, 표시 영역이 축소되는 경우, 전자 장치는 화면(420)으로부터, 피사체들 중 적어도 하나의 표시에 적합한 화면들(430, 440, 450) 중 어느 한 화면으로 전환할 수 있다. 상기 예시 내에서, 상기 표시 영역이 확대되는 경우, 전자 장치는 콘텐트 전체를 표시하기 위한 화면(420)으로 전환할 수 있다.
이하에서는, 도 5를 참고하여, 전자 장치가, 상기 표시 영역의 확대, 또는 축소에 기반하여, 화면들(420, 430, 440, 450) 사이를 전환하는 동작이 설명된다.
도 5는, 일 실시예에 따른, 전자 장치(101)가 디스플레이(140)의 변형에 기반하여 콘텐트를 표시하는 동작을 설명하기 위한 도면이다. 도 5의 전자 장치는, 도 1, 도 2a 내지 도 2b의 전자 장치(101), 및/또는 도 3, 도 4a 내지 도 4e의 전자 장치의 일 예일 수 있다. 예를 들어, 도 1의 전자 장치(101), 및 디스플레이(140)는 도 5의 전자 장치(101), 및 디스플레이(140)를 포함할 수 있다. 비록, 도 2a의 제1 하우징(211), 및 제2 하우징(212)의 연결을 포함하는 전자 장치(101)에 기반하는 동작이 설명되지만, 도 2b의 제1 하우징(211), 및 제2 하우징(212)의 연결을 포함하는 전자 장치(101)도 유사하게 동작할 수 있다.
도 5를 참고하면, 전자 장치(101)의 롤-인 상태, 및 롤-아웃 상태 각각에 포함된 상태들(510, 520)이 도시된다. 일 실시예에 따른, 전자 장치(101)는 도 4a의 화면(410)을 표시한 상태 내에서, 도 4a의 썸네일(412)을 터치, 및/또는 클릭하는 입력을 수신하는 것에 응답하여, 도 5의 상태들(510, 520) 중 어느 한 상태로 전환할 수 있다. 도 5의 상태들(510, 520)은, 전자 장치(101)가 디스플레이(140)의 높이 방향을 따라 화면 내에 하나 이상의 시각적 객체들을 배치하는 포트레이트 모드 내 상태일 수 있다. 도 5의 상태(520)를 참고하면, 전자 장치(101)는 롤-아웃 상태 내에서, 상기 입력과 같이 콘텐트를 표시하기 위한 요청의 수신에 응답하여, 도 4b의 화면(420)과 같이 상기 콘텐트 내 픽셀들 전체를 표시할 수 있다. 도 5의 상태(510)를 참고하면, 전자 장치(101)는 롤-인 상태 내에서, 상기 입력과 같이 콘텐트를 표시하기 위한 요청을 수신하는 것에 응답하여, 도 4c의 화면(430)과 같이 상기 콘텐트 내에 캡쳐된 적어도 하나의 피사체가 캡쳐된 일부분을 확대할 수 있다.
일 실시예에 따른, 전자 장치(101)는 상태(520)와 같이 콘텐트 내 픽셀들 전체를 표시하는 동안, 디스플레이(140)를 변형하기 위한 입력을 수신할 수 있다. 상태(520)와 같은 롤-아웃 상태 내에서 상기 입력을 수신하는 것에 응답하여, 전자 장치(101)는 디스플레이(140)를, 제2 하우징(212) 안으로 인입하여, 표시 영역을 축소할 수 있다. 상기 표시 영역의 축소에 기반하여, 전자 장치(101)는 상태(520)로부터 상태(510)로 전환할 수 있다. 상태(520)로부터 상태(510)로 전환하는 동안, 전자 장치(101)는 상기 축소된 표시 영역 내에, 상기 콘텐트 내에 캡쳐된 복수의 피사체들 중 적어도 하나의 피사체가 캡쳐된 일부분을 선택적으로 표시할 수 있다. 상기 일부분의 선택적인 표시에 기반하여, 상기 콘텐트 내에서 상기 일부분과 상이한 다른 부분이, 상기 표시 영역으로부터 제외될 수 있다.
일 실시예에 따른, 전자 장치(101)는 상태(510)와 같이 콘텐트의 일부분을 확대한 동안, 디스플레이(140)를 변형하기 위한 입력을 수신할 수 있다. 상태(510)와 같은 롤-인 상태 내에서 상기 입력을 수신하는 것에 응답하여, 전자 장치(101)는 디스플레이(140)를, 제2 하우징(212)으로부터 인출하여, 표시 영역을 확대할 수 있다. 상기 표시 영역의 확대에 기반하여, 전자 장치(101)는 상태(510)로부터 상태(520)로 전환할 수 있다. 상태(510)로부터 상태(520)로 전환하는 동안, 전자 장치(101)는 상기 확대된 표시 영역 내에, 상기 콘텐트 내 픽셀들 전체를 표시할 수 있다.
상술한 바와 같이, 일 실시예에 따른, 전자 장치(101)는 디스플레이(140)의 변형에 기반하여 콘텐트의 배율을 조절할 수 있다. 표시 영역의 크기가 상기 디스플레이(140)의 상기 변형에 의하여 축소되는 경우, 전자 장치(101)는 상기 축소된 표시 영역 내에 상기 콘텐트 내에서 하나 이상의 피사체들이 캡쳐된 일부분을 확대할 수 있다. 상기 일부분이 확대되기 때문에, 상기 축소된 표시 영역 내에서 상기 하나 이상의 피사체들이 캡쳐되지 않은 다른 부분이 제외될 수 있다. 상기 다른 부분이 상기 축소된 표시 영역으로부터 제외되기 때문에, 전자 장치(101)는 상기 표시 영역의 축소에도 불구하고, 상기 하나 이상의 피사체들의 가시성을 개선할 수 있다.
이하에서는, 도 6a 내지 도 6b를 참고하여, 일 실시예에 따른, 전자 장치(101)가 콘텐트로부터 어느 피사체도 식별하지 못한 경우 내에서의 상기 전자 장치(101)의 동작이 설명된다.
도 6a 내지 도 6b는, 일 실시예에 따른, 전자 장치(101)가 지정된 타입들의 피사체를 포함하지 않는 콘텐트를 표시하는 동작을 설명하기 위한 도면이다. 도 6a 내지 도 6b의 전자 장치(101)는 도 1 내지 도 5의 전자 장치(101)의 일 예일 수 있다. 예를 들어, 도 1의 전자 장치(101), 및 디스플레이(140)는 도 5의 전자 장치(101), 및 디스플레이(140)를 포함할 수 있다.
도 6a 내지 도 6b를 참고하면, 일 실시예에 따른, 전자 장치(101)가 표시 영역의 크기에 기반하여 콘텐트를 확대, 또는 축소하여 표시하는 상이한 상태들(610, 620)이 도시된다. 도 6a 내지 도 6b의 상태들(610, 620)은, 전자 장치(101)가 디스플레이(140)의 너비 방향을 따라 화면 내에 하나 이상의 시각적 객체들을 배치하는 랜드스케이프 모드 내 상태일 수 있다. 도 6a의 상태(610) 내에서, 전자 장치(101)가 롤-아웃 상태의 형태를 가질 수 있다. 도 6a의 상태(610) 내에서, 전자 장치(101)는 표시 영역의 부분(614) 내에 콘텐트 전체를 표시할 수 있다. 도 6a의 상태(610) 내에서, 전자 장치(101)는 도 5의 상태(520), 및/또는 도 4b의 화면(420)과 유사하게 동작할 수 있다. 예를 들어, 전자 장치(101)가 상태(610) 내에서, 도 4b의 썸네일 리스트(423)와 유사하게, 전자 장치(101) 내에 저장된 복수의 콘텐트들을 탐색하기 위한(for exploring) 표시하는 썸네일 리스트(612)를 표시할 수 있다.
상태(610)와 같이, 콘텐트에 포함된 픽셀들 전체를 표시하는 동안, 전자 장치(101)는 표시 영역의 종횡 비, 및 콘텐트의 종횡 비에 기반하여, 콘텐트의 배율을 변경할 수 있다. 예를 들어, 전자 장치는, 콘텐트의 너비를 표시 영역의 너비 이하로 만들고, 콘텐트의 높이를 표시 영역의 높이 이하로 만드는 배율에 기반하여, 콘텐트를 표시할 수 있다. 상태(610) 내에서, 전자 장치(101)는 디스플레이(140) 상에서 수행되는 제스쳐에 기반하여, 부분(614) 내에 표시되는 콘텐트의 배율을 조절할 수 있다.
일 실시예에 따른, 전자 장치(101)는, 상기 전자 장치(101), 및/또는 디스플레이(140)의 변형에 기반하여, 도 6a의 상태(610)로부터 도 6b의 상태(620)로 전환할 수 있다. 예를 들어, 전자 장치(101)는 상태(610) 내에서 버튼(220)을 누르는 입력에 응답하여, 상기 상태(620)로 전환할 수 있다. 도 6b를 참고하면, 롤-아웃 상태로부터 롤-인 상태로 변형되는 것에 기반하여, 일 실시예에 따른, 전자 장치(101)는 콘텐트를 확대할 수 있다. 상기 콘텐트의 확대에 기반하여, 전자 장치(101)는 상기 변형에 의한 표시 영역의 축소와 독립적으로, 상기 콘텐트의 가시성을 유지할 수 있다.
일 실시예에 따른, 전자 장치(101)는, 콘텐트로부터 피사체를 식별한 결과에 기반하여, 콘텐트를 확대할 수 있다. 콘텐트로부터 하나 이상의 피사체들을 식별하는 경우, 전자 장치(101)는 상기 하나 이상의 피사체들이 캡쳐된 상기 콘텐트의 일부분을 확대할 수 있다. 콘텐트로부터 하나 이상의 피사체들을 식별하지 못하는 경우, 전자 장치(101)는 상기 콘텐트의 구도(composition)에 기반하여, 상기 콘텐트를 확대할 수 있다. 콘텐트로부터 하나 이상의 피사체들을 식별하지 못하는 것은, 예를 들어, 상기 콘텐트가 지정된 카테고리들에 대응하는 피사체를 포함하지 못하였거나, 사용자가 상기 콘텐트로 어떤 태그도 할당하지 않은 것을 의미할 수 있다.
일 실시예에 따른, 전자 장치(101)는, 상태(620) 내에서, 표시 영역의 부분(622) 내에 콘텐트를 확대할 수 있다. 전자 장치(101)는, 부분(622)에 상기 표시 영역 내에 표시되는 콘텐트의 일부분을 나타내기 위하여, 상기 표시 영역 내에 상기 콘텐트의 전체를 나타내는 썸네일(624), 및 썸네일(624) 상에 중첩되는 사각형의 시각적 객체(626)를 표시할 수 있다. 상기 시각적 객체(626)를 썸네일(624) 내에서 드래그하는 입력에 기반하여, 전자 장치(101)는 부분(622) 내에 표시되는 콘텐트의 일부분을, 상기 입력에 매칭되는 상기 콘텐트의 다른 부분으로 변경할 수 있다. 예를 들어, 썸네일(624)에 대한 탭-제스쳐의 수신에 기반하여, 전자 장치(101)는 도 4b의 화면(420), 및/또는 도 6a의 상태(610)와 같이, 상기 콘텐트 전체를 표시하는 상태로 전환할 수 있다.
일 실시예에 따른, 전자 장치(101)는, 상태(620) 내에서, 콘텐트의 구도에 기반하여 상기 콘텐트를 확대할 수 있다. 전자 장치(101)는 부분(622) 내에서 1 : 1.618과 같은 지정된 비율에 기반하여 상기 콘텐트를 확대할 수 있다. 도 6b를 참고하면, 전자 장치(101)는 부분(622) 내에서, 상기 콘텐트에 포함된 수평선이 상기 지정된 비율 상에 배치되도록, 상기 콘텐트를 확대할 수 있다.
상술한 바와 같이, 일 실시예에 따른, 전자 장치(101)는, 피사체를 포함하지 않는 콘텐트를 표시하는 상태 내에서, 상기 전자 장치(101), 및/또는 디스플레이(140)의 변형에 의한 표시 영역의 확대, 또는 축소에 기반하여, 상기 콘텐트를 확대, 또는 축소할 수 있다. 상기 상태 내에서, 전자 장치(101)는 상기 콘텐트의 구도에 기반하여, 상기 콘텐트의 일부분을 확대할 수 있다.
이하에서는, 도 7a 내지 도 7b를 참고하여, 일 실시예에 따른, 전자 장치(101)가 콘텐트 내에 포함된 비디오를 재생하는 동안, 상기 비디오의 프레임들 내에서 상이한 위치에 캡쳐된 피사체에 기반하여 수행하는 동작이 설명된다.
도 7a 내지 도 7b는, 일 실시예에 따른, 전자 장치(101)가 비디오를 포함하는 콘텐트 내에 캡쳐된 하나 이상의 피사체들에 기반하여, 상기 콘텐트를 표시하는 동작을 설명하기 위한 예시적인 도면들이다. 도 7a 내지 도 7b의 전자 장치(101)는 도 1 내지 도 5, 및/또는 도 6a 내지 도 6b의 전자 장치(101)의 일 예일 수 있다. 예를 들어, 도 1의 전자 장치(101), 및 디스플레이(140)는 도 7a 내지 도 7b의 전자 장치(101), 및 디스플레이(140)를 포함할 수 있다.
일 실시예에 따른, 전자 장치(101)는 콘텐트에 포함된 비디오를 재생할 수 있다. 비디오를 포함하는 콘텐트가, 도 4a의 화면(410)과 같이, 전자 장치(101) 내에 저장된 복수의 콘텐트들의 리스트 내에서 선택될 수 있다. 상기 비디오를 포함하는 콘텐트가 상기 리스트 내에서 선택되는 경우, 전자 장치(101)는 도 7a 내지 도 7b의 상태들(710, 720)과 같이, 상기 선택된 콘텐트에 포함된 비디오를 재생할 수 있다. 예를 들어, 전자 장치(101)는 디스플레이(140)의 표시 영역 내에서 상기 비디오에 포함된 복수의 프레임들을 순차적으로 표시하는 것과 동시에, 상기 콘텐트 내에 포함되고, 상기 비디오와 시간 영역 내에서 동기화된(synchronized in a time domain), 오디오를 출력할 수 있다. 예를 들어, 전자 장치(101)는, 전자 장치(101) 내에 포함된 하나 이상의 스피커들, 및/또는 상기 전자 장치(101)와 상이한 외부 전자 장치에 포함된 하나 이상의 스피커들로, 상기 오디오를 출력할 수 있다. 이하에서는, 랜드스케이프 모드에 기반하여, 전자 장치(101)가 콘텐트에 포함된 비디오를 재생하는 동작이 설명되지만, 실시예가 이에 제한되는 것은 아니다.
도 7a의 상태(710)를 참고하면, 전자 장치(101)는 롤-아웃 상태 내에서, 표시 영역의 부분(712) 내에, 콘텐트 내 비디오의 일 프레임에 포함된 픽셀들 전체를 표시할 수 있다. 예를 들어, 부분(712)의 모서리들은, 상기 프레임의 모서리들에 매칭될 수 있다. 일 실시예에 따른, 전자 장치(101)는 부분(712)과 함께, 상기 비디오, 및/또는 상기 콘텐트의 재생을 제어하기 위한 버튼(714)을 표시할 수 있다. 상기 버튼(714)에 대한 탭-제스쳐에 기반하여, 전자 장치(101)는 상기 비디오를 재생하거나, 또는 상기 비디오의 재생을 적어도 일시적으로 중단할 수 있다. 일 실시예에 따른, 전자 장치(101)는 부분(712)과 함께, 표시 영역 내에서 재생되는 일 프레임이, 상기 비디오의 전체 시간 구간 내에서 어느 시점에 대응하는지를 시각적으로 나타내는 타임라인(716)과 같은 시각적 객체를 표시할 수 있다.
일 실시예에 따른, 전자 장치(101)는, 상태(710) 내에서, 콘텐트를 확대하기 위한 버튼(718)을 표시할 수 있다. 상기 버튼(718)을 선택하는 입력에 응답하여, 전자 장치(101)는 상기 콘텐트를 확대할 수 있다. 한편, 전자 장치(101), 및/또는 디스플레이(140)의 변형을 위한 입력에 응답하여, 전자 장치(101)는 롤-아웃 상태로부터 롤-인 상태 내 형태로 변형할 수 있다. 도 7b를 참고하면, 상태(720)는 디스플레이(140)의 변형을 위한 입력에 응답하여, 롤-인 상태로 전환된 이후의 전자 장치(101)의 상태일 수 있다.
도 7b를 참고하면, 상태(720) 내에서, 전자 장치(101)는 콘텐트의 비디오 내에 캡쳐된 복수의 피사체들 중 적어도 하나가 캡쳐된 일부분을 확대할 수 있다. 도 7b를 참고하면, 상기 비디오의 일 프레임 내에 캡쳐되고, 사람에 대응하는 피사체가 확대된 예시적인 상태(720)가 도시된다. 전자 장치(101)는, 도 3을 참고하여 상술된 동작에 기반하여, 상기 일 프레임으로부터 하나 이상의 피사체들을 식별할 수 있다. 전자 장치(101)는 표시 영역의 부분(722) 내에 상기 피사체가 캡쳐된 일부분을 확대하면서, 상기 일 프레임 전체에 대응하는 썸네일(724), 및 상기 썸네일(724) 상에 중첩되고, 상기 확대된 일부분의 위치를 나타내기 위한 시각적 객체(726)를 표시할 수 있다.
일 실시예에 따른, 전자 장치(101)는 상태(720) 내에서, 콘텐트의 비디오에 포함된 프레임들을 순차적으로 재생하는 동안, 피사체가 상기 프레임들 내에서 상이한 위치들 내에 캡쳐될 수 있다. 전자 장치(101)는 상기 프레임들을 순차적으로 표시하는 동안, 상기 프레임들 각각에서 상이한 상기 피사체의 위치에 기반하여, 부분(722) 내에, 상기 프레임들 각각을 확대할 수 있다.
일 실시예에 따른, 전자 장치(101)는 상태(720) 내에서, 부분(722)과 함께, 상기 프레임 내에 캡쳐된 피사체들 각각에 대응하는 시각적 객체들(728, 729)을 표시할 수 있다. 전자 장치(101)는 시각적 객체들(728, 729)에, 상기 피사체들의 썸네일들을 표시할 수 있다. 시각적 객체들(728, 729) 중 어느 하나를 선택하는 입력에 응답하여, 전자 장치(101)는 선택된 시각적 객체에 대응하는 콘텐트의 일부분을 확대할 수 있다.
상술한 바와 같이, 일 실시예에 따른, 전자 장치(101)는, 표시 영역이 축소된 상태 내에서, 콘텐트 내에 포함된 복수의 피사체들 중 적어도 하나가 캡쳐된 일부분을 확대하여, 상기 복수의 피사체들을 우선적으로 표시할 수 있다. 전자 장치(101)가 상기 복수의 피사체들을 우선적으로 표시하기 때문에, 상기 표시 영역이 축소됨에도 불구하고, 상기 복수의 피사체들의 가시성이 개선될 수 있다.
도 8a 내지 도 8d는, 일 실시예에 따른, 전자 장치(101)가 콘텐트를 열람하기 위한(for browsing) 어플리케이션의 화면의 변형에 기반하여, 콘텐트를 표시하는 동작을 설명하기 위한 도면이다. 도 8a 내지 도 8d의 전자 장치(101)는, 도 1 내지 도 5, 도 6a 내지 도 6b, 및/또는 도 7a 내지 도 7b의 전자 장치(101)의 일 예일 수 있다. 예를 들어, 도 1의 전자 장치(101), 및 디스플레이(140)는 도 8a 내지 도 8d의 전자 장치(101), 및 디스플레이(140)를 포함할 수 있다.
일 실시예에 따른, 전자 장치(101)는 콘텐트를 열람하기 위한 어플리케이션의 실행에 기반하여, 디스플레이(140) 내에 화면을 표시할 수 있다. 도 8a의 상태(810) 내에서, 전자 장치(101)는 디스플레이(140)의 표시 영역 전체에, 상기 어플리케이션의 실행에 기반하는 화면을 표시할 수 있다. 상태(810) 내에서 표시되는 상기 화면은, 도 4b의 화면(420)을 포함할 수 있다. 화면(420) 내에서, 전자 장치(101)는 상기 콘텐트에 포함된 픽셀들 전체를 표시할 수 있다. 도 8a를 참고하면, 상기 콘텐트의 모서리들(A1, A2, A3, A4)이 디스플레이(140) 내에 포함될 수 있다.
일 실시예에 따른, 전자 장치(101)는 디스플레이(140) 내에, 전자 장치(101)에 의해 실행되는 어플리케이션을 전환하기 위한 시각적 객체(812)를 표시할 수 있다. 도 8a의 상태(810) 내에서, 시각적 객체(812)를 터치, 및/또는 클릭하는 입력에 기반하여, 전자 장치(101)는 도 8a의 상태(810)로부터 도 8b의 상태(820)로 전환할 수 있다.
도 8b를 참고하면, 상태(820) 내에서, 일 실시예에 따른, 전자 장치(101)는 상태(820)로 진입하기 이전의 상태(810)에서 상기 전자 장치(101)에 의해 실행되고 있던 어플리케이션의 화면(822)을, 디스플레이(140) 내에 표시할 수 있다. 전자 장치(101)는 디스플레이(140)의 표시 영역의 일부분 내에, 화면(822)을 표시할 수 있다. 화면(822)이 표시되는 디스플레이(140)의 일부분을 제외한 다른 부분에, 전자 장치(101)는, 상기 어플리케이션과 상이한 다른 어플리케이션(예, 홈 어플리케이션과 같은 런처 어플리케이션)에 기반하는 화면(824)을 표시할 수 있다. 일 실시예에 따른, 전자 장치(101)는 상태(820) 내에서, 화면(822)에 대응하는 상기 어플리케이션의 실행을 제어하기 위한 시각적 객체(826)를 표시할 수 있다. 도 8b의 일 실시예에서, 전자 장치(101)는 상기 어플리케이션의 아이콘을 포함하는 시각적 객체(826)를, 화면(826) 상에 중첩하여 표시할 수 있다.
시각적 객체(826)를 터치, 및/또는 클릭하는 입력에 기반하여, 전자 장치(101)는 도 8b의 상태(820)로부터, 시각적 객체(826)에 대응하는 어플리케이션(예, 화면(822)에 대응하는 어플리케이션)의 실행을 제어하기 위한 입력을 수신하기 위한 도 8c의 상태(830)로 전환할 수 있다. 도 8c를 참고하면, 상태(830) 내에서, 전자 장치(101)는 디스플레이(140) 내에, 화면(822)에 대응하는 상기 어플리케이션의 실행을 제어하기 위한 메뉴(832)를 표시할 수 있다. 도 8c를 참고하면, 메뉴(832)는, 도 8b의 시각적 객체(826) 상에 중첩하여 표시될 수 있다.
일 실시예에 따른, 전자 장치(101)는 메뉴(832) 내에서, 화면(822), 및/또는 메뉴(832)에 대응하는 어플리케이션과 관련된 선택 가능한(selectable) 옵션들을, 상이한 텍스트들, 및/또는 아이콘들에 기반하여 표시할 수 있다. 도 8c를 참고하면, 전자 장치(101)는 메뉴(832) 내에, 상기 어플리케이션의 정보를 표시하기 위한 제1 옵션을 나타내는 지정된 텍스트(예, "App info"), 디스플레이(140)의 표시 영역을 분할하는 그리드 형태에 기반하여 화면(822)을 표시하기 위한 제2 옵션을 나타내는 지정된 텍스트(예, "Open in split screen window"), 상기 표시 영역 상에 팝업 윈도우 형태에 기반하여 화면(822)을 표시하기 위한 제3 옵션을 나타내는 지정된 텍스트(예, "Open in pop-up view"), 또는 상기 화면(832)의 표시를 유지하기 위한 제4 옵션을 나타내는 지정된 텍스트(예, "Keep open") 중 적어도 하나를 표시할 수 있다.
도 8c를 참고하면, 일 실시예에 따른, 전자 장치(101)는 상태(830) 내에서, 메뉴(832)의 일부분(834)을 터치, 및/또는 클릭하는 입력을 수신할 수 있다. 상기 일부분(834)은, 상기 표시 영역 상에 팝업 윈도우 형태에 기반하여 화면(822)을 표시하기 위한 제3 옵션을 나타내는 지정된 텍스트(예, "Open in pop-up view")를 포함할 수 있다. 상기 일부분(834)과 관련된 상기 입력의 수신에 기반하여, 전자 장치(101)는 도 8c의 상태(830)로부터 도 8d의 상태(840)로 전환할 수 있다.
도 8d를 참고하면, 상태(840) 내에서, 일 실시예에 따른, 전자 장치(101)는 도 8a의 상태(810) 내에서 실행되고 있던 어플리케이션의 화면(822)을, 디스플레이(140) 내에 축소하여 표시할 수 있다. 디스플레이(140)의 일부분 내에 화면(822)을 표시하는 동안, 전자 장치(101)는 화면(822)의 디스플레이(140) 내 위치를 조절하기 위한 핸들과 같은 시각적 객체(842)를 표시할 수 있다. 시각적 객체(842)를 드래그하는 입력에 기반하여, 전자 장치(101)는 디스플레이(140) 내 화면(822)을 평행 이동할 수 있다. 일 실시예에 따른, 전자 장치(101)는 화면(822)의 경계 선을 드래그하는 입력에 기반하여, 화면(822)의 크기를 조절할 수 있다. 도 8d를 참고하면, 상기 경계 선을 드래그하는 상기 입력을 수신하는 동안, 전자 장치(101)는 사각형의 도형에 기반하는 시각적 객체(844)에 기반하여, 상기 입력에 의해 조절될 화면(822)의 크기를 알릴 수 있다.
화면(822)의 크기가 디스플레이(140)의 표시 영역 미만으로 축소되는 것에 기반하여, 전자 장치(101)는 화면(822) 내에 콘텐트에 포함된 픽셀들 전체를 표시하는 것과 독립적으로, 상기 콘텐트의 일부분을 표시할 수 있다. 도 8d를 참고하면, 상태(840) 내에서, 전자 장치(101)는 도 4c의 화면(430)과 같이, 화면(822) 내에 상기 콘텐트를 확대하여 표시할 수 있다. 상기 콘텐트가 화면(822) 내에서 확대되기 때문에, 콘텐트의 모서리들(A1, A2, A3, A4)의 표시가 상태(840) 내에서 중단될 수 있다. 일 실시예에 따른, 전자 장치(101)는 콘텐트 내에 캡쳐된 복수의 피사체들 중 적어도 하나를 선택적으로 표시하기 위하여, 화면(822) 내에서 상기 콘텐트를 확대할 수 있다. 도 8d를 참고하면, 전자 장치(101)는 상기 모서리들(A1, A2, A3, A4), 또는 콘텐트 내에 캡쳐된 복수의 피사체들 중 일 피사체가 캡쳐된 영역의 모서리들(X1, X2, X3, X4) 중 상기 모서리들(X1, X2, X3, X4)을, 화면(822) 내에 표시할 수 있다. 일 실시예에 따른, 전자 장치(101)가 콘텐트 내에서 상기 복수의 피사체들을 식별하는 동작은, 도 3을 참고하여 상술된 동작에 기반하여, 수행될 수 있다.
도 8d의 상태(840)와 같이, 디스플레이(140)의 표시 영역의 일부분을 점유하는 화면(822)에 기반하여 콘텐트를 표시하는 동안, 전자 장치(101)는 도 4c 내지 도 4e의 화면들(430, 440, 450)과 같이, 상기 콘텐트 내 복수의 피사체들 중 적어도 하나를 선택적으로 표시할 수 있다. 복수의 피사체들 중 적어도 하나를 선택적으로 표시하기 위하여, 전자 장치(101)는 상기 복수의 피사체들의 리스트를, 화면(822) 내에 표시할 수 있다. 상기 리스트에 기반하는 입력에 기반하여, 전자 장치(101)는 상기 입력에 의해 선택된 적어도 하나의 피사체를 선택적으로 표시할 수 있다. 상기 적어도 하나의 피사체가 선택적으로 디스플레이(140) 내에 표시되기 때문에, 상기 복수의 피사체들 중에서 다른 피사체의 표시가 적어도 일시적으로 중단될 수 있다.
상술한 바와 같이, 일 실시예에 따른, 전자 장치(101)는, 디스플레이(140)의 표시 영역 내에서 표시되는 콘텐트의 크기, 및/또는 상기 콘텐트를 표시하기 위한 어플리케이션에 의해 점유되는 상기 표시 영역 내 적어도 일부분의 크기에 기반하여, 상기 콘텐트를 확대할 수 있다. 상기 표시 영역 내에서 상기 콘텐트가 표시되는 적어도 일부분의 크기가 줄어드는 경우, 전자 장치(101)는 상기 콘텐트 전체를 표시하는 것을 중단하고, 상기 콘텐트를 확대할 수 있다. 전자 장치(101)는 상기 적어도 일부분의 크기가 줄어듦에도 불구하고, 상기 콘텐트 내 캡쳐된 복수의 피사체들을 선택적으로 표시하여, 상기 복수의 피사체들 중 적어도 하나가 표시되는 것을 유지할 수 있다. 상기 복수의 피사체들 중 적어도 하나의 표시가 유지되기 때문에, 전자 장치(101)는 상기 콘텐트를 표시하기 위한 표시 영역 내 일부분의 크기가 줄어듦에도 불구하고, 상기 복수의 피사체들의 가시성을 개선할 수 있다.
도 9은, 일 실시예에 따른, 전자 장치가 콘텐트 내에 캡쳐된 하나 이상의 피사체들에 기반하여 수행하는 동작을 설명하기 위한 흐름도이다. 도 9의 전자 장치는 도 1 내지 도 8의 전자 장치(101)의 일 예일 수 있다. 예를 들어, 도 9의 동작들 중 적어도 하나는 도 1의 전자 장치(101), 및/또는 도 1의 프로세서(120)에 의해 수행될 수 있다.
도 9을 참고하면, 동작(910) 내에서, 전자 장치는, 표시 영역 내에 콘텐트를 표시하기 위한 요청을 수신할 수 있다. 예를 들어, 전자 장치는 도 4a의 화면(410)과 같이, 전자 장치의 메모리(예, 도 1의 메모리(130)) 내에 저장된 복수의 콘텐트들의 리스트를 표시할 수 있다. 상기 리스트 내에서, 전자 장치는 하나의 콘텐트를 선택하기 위한 입력을 수신할 수 있다. 상기 콘텐트는, 도 3의 콘텐트(310)와 같이, 전자 장치의 디스플레이(예, 도 1의 디스플레이(140))의 표시 영역 내에 시각적으로 표시되기 위한 사진, 및/또는 비디오를 포함할 수 있다.
도 9을 참고하면, 동작(920) 내에서, 일 실시예에 따른, 전자 장치는, 콘텐트 내에 캡쳐된 복수의 피사체들을 식별할 수 있다. 전자 장치는 동작(910)의 요청에 응답하여, 동작(920)을 수행할 수 있다. 콘텐트가 사진을 포함하는 경우, 전자 장치는, 상기 사진 내에 캡쳐된 하나 이상의 피사체들을 나타내는 정보를 획득할 수 있다. 콘텐트가 비디오를 포함하는 경우, 전자 장치는, 상기 비디오에 포함된 프레임들 각각 내에서, 하나 이상의 피사체들이 캡쳐된 위치를 획득할 수 있다. 전자 장치가 콘텐트 내에 캡쳐된 상기 피사체들을 식별하는 것은, 상기 콘텐트에 대응하는 메타 데이터, 및/또는 상기 콘텐트에 적용된 이미지 분석에 기반하여 수행될 수 있다.
도 9을 참고하면, 동작(930) 내에서, 일 실시예에 따른, 전자 장치는, 복수의 피사체들의 순서를 획득할 수 있다. 상기 순서는, 복수의 피사체들 중에서 우선적으로 표시, 및/또는 확대될 적어도 하나의 피사체를 나타낼 수 있다. 상기 순서는, 복수의 피사체들에 대응하는 시각적 객체들(예, 도 4a 내지 도 4e의 시각적 객체들(434, 435, 436))을 표시하기 위한 순서일 수 있다. 일 실시예에 따른, 전자 장치는 콘텐트 내에 포함된 하나 이상의 태그들, 또는 복수의 피사체들의 타입들 중 적어도 하나에 기반하여 상기 순서를 획득할 수 있다. 일 실시예에 따른, 전자 장치는, 전자 장치의 사용자 및 상기 복수의 피사체들 중 적어도 하나의 피사체 사이의 호 연결, 및/또는 텍스트 메시지의 교환을 나타내는 이력 정보에 기반하여, 상기 순서를 획득할 수 있다. 상기 이력 정보는, 예를 들어, 상기 사용자 및 상기 적어도 하나의 피사체 사이에서, 호 연결이 수립된 횟수, 및/또는 텍스트 메시지가 교환된 횟수 중 적어도 하나를 포함할 수 있다.
도 9을 참고하면, 동작(940) 내에서, 일 실시예에 따른, 전자 장치는, 획득된 순서에 기반하여, 복수의 피사체들 각각에 대응하는 복수의 시각적 객체들을 표시할 수 있다. 예를 들어, 전자 장치는 표시 영역 내에서, 복수의 시각적 객체들을, 동작(930)의 순서에 기반하여 정렬할 수 있다. 일 실시예에 따른, 전자 장치는 복수의 피사체들 각각과 관련된 정보에 기반하여, 상기 복수의 시각적 객체들 중 적어도 하나 내에, 썸네일, 또는 텍스트 중 적어도 하나를 표시할 수 있다. 상기 썸네일은, 상기 복수의 피사체들이 캡쳐된 상기 콘텐트 내 부분들을 포함할 수 있다. 상기 텍스트는, 상기 복수의 피사체들 중 적어도 하나에 할당된 텍스트를 포함할 수 있다.
도 9을 참고하면, 동작(950) 내에서, 일 실시예에 따른, 전자 장치는, 획득된 순서에 기반하여 복수의 피사체들 중 적어도 하나가 캡쳐된 콘텐트의 제1 부분, 및 제1 부분과 상이한 제2 부분 중에서, 제1 부분을, 표시 영역 내에 표시할 수 있다. 예를 들어, 전자 장치는 상기 표시 영역 내에서, 상기 제1 부분을 확대할 수 있다. 일 실시예에 따른, 전자 장치는 도 7a의 시각적 객체(718)에 대한 입력에 응답하여, 동작(950)을 수행할 수 있다. 상기 제1 부분을 확대하는 동안, 전자 장치는 동작(940)의 복수의 시각적 객체들 중에서, 상기 제1 부분 내에 캡쳐된 적어도 하나의 피사체에 대응하는 적어도 하나의 시각적 객체를, 다른 시각적 객체들 보다 강조할 수 있다.
일 실시예에 따른, 전자 장치는 상기 표시 영역의 너비, 높이, 크기, 및/또는 면적에 기반하여, 동작(950)을 수행할 수 있다. 예를 들어, 상기 표시 영역의 크기가 상기 디스플레이의 인입에 의하여 지정된 크기 미만인 제1 상태 내에서, 전자 장치는, 상기 제1 부분, 및 상기 제2 부분 중에서 상기 제1 부분을, 상기 시각적 객체들과 함께 표시할 수 있다. 상기 예시 내에서, 상기 표시 영역의 상기 크기가 상기 디스플레이의 상기 인출에 의하여 상기 지정된 크기를 초과하는 제2 상태 내에서, 전자 장치는 상기 제1 부분, 및 상기 제2 부분 전부를 표시할 수 있다. 상기 예시 내에서, 상기 제1 상태 내에서, 상기 디스플레이의 상기 인출의 개시에 응답하여, 전자 장치는 상기 제1 부분, 및 상기 제2 부분 전부를 표시할 수 있다.
일 실시예에 따른, 전자 장치는, 콘텐트 내 비디오를 재생하는 동안, 표시 영역 내에 상기 비디오에 포함된 프레임들을 순차적으로 표시할 수 있다. 상기 표시 영역 내에서 상기 비디오의 재생에 기반하여 상기 프레임들을 순차적으로 표시하는 동안, 전자 장치는 상기 프레임들 내 피사체들의 위치들 중 적어도 하나에 기반하여, 상기 표시 영역 내에서 표시되는 콘텐트, 및/또는 상기 프레임 내 상기 제1 부분의 위치, 또는 크기 중 적어도 하나를 조절할 수 있다.
도 10는, 일 실시예에 따른, 전자 장치가 표시 영역의 크기에 기반하여 콘텐트를 표시하기 위한 배율을 조절하는 동작을 설명하기 위한 흐름도이다. 도 10의 전자 장치는 도 1 내지 도 8의 전자 장치(101), 및/또는 도 9의 전자 장치의 일 예일 수 있다. 예를 들어, 도 10의 동작들 중 적어도 하나는 도 1의 전자 장치(101), 및/또는 도 1의 프로세서(120)에 의해 수행될 수 있다. 도 10의 동작들 중 적어도 하나는, 도 9의 동작(950)과 관련될 수 있다.
도 10를 참고하면, 동작(1010) 내에서, 일 실시예에 따른, 전자 장치는, 콘텐트를 획득할 수 있다. 예를 들어, 전자 장치는, 메모리(예, 도 1의 메모리(130)) 내에 저장되고, 하나 이상의 피사체들이 캡쳐된 콘텐트를 식별할 수 있다. 전자 장치는 콘텐트 내에서, 도 9의 동작들에 기반하여 하나 이상의 피사체들을 식별할 수 있다.
도 10를 참고하면, 동작(1020) 내에서, 일 실시예에 따른, 전자 장치는, 표시 영역의 크기를, 지정된 크기와 비교할 수 있다. 표시 영역의 크기는, 전자 장치, 및/또는 디스플레이의 형태에 기반하여 조절될 수 있다. 예를 들어, 도 2a 내지 도 2b의 상태들(200, 205)과 같이, 전자 장치는 액추에이터(예, 도 1의 액추에이터(150))를 이용하여, 상기 디스플레이를 상기 전자 장치의 하우징 안으로 인입하거나, 또는 상기 하우징으로부터 인출할 수 있다. 상기 디스플레이의 외부로 노출된 일부분에 대응하는 상기 표시 영역의 크기는, 디스플레이의 상기 인입, 또는 상기 디스플레이의 상기 인출에 기반하여 조절될 수 있다. 일 실시예에 따른, 전자 장치는, 홀 센서와 같이, 상기 전자 장치, 및/또는 상기 디스플레이의 형태를 식별하기 위한 센서에 기반하여, 표시 영역의 크기를 식별할 수 있다. 상기 지정된 크기는, 롤-인 상태 내 전자 장치의 표시 영역의 크기를 초과하고, 롤-아웃 상태 내 전자 장치의 표시 영역의 크기 이하일 수 있다.
표시 영역의 크기가 지정된 크기 이상임을 식별하는 것에 응답하여(1020-아니오), 동작(1030) 내에서, 일 실시예에 따른, 전자 장치는, 표시 영역 내에, 제1 배율에 기반하여 콘텐트를 표시할 수 있다. 상기 제1 배율에 기반하여, 전자 장치는 콘텐트의 크기를 상기 표시 영역의 크기 이하로 만들 수 있다. 상기 콘텐트의 크기가 상기 표시 영역의 크기 이하로 조절되므로, 전자 장치는 상기 표시 영역 내에 콘텐트에 포함된 픽셀들 전체를 표시할 수 있다. 전자 장치가 동작(1030)에 기반하여 콘텐트를 표시하는 상태는, 도 4b의 화면(420)을 표시하는 일 상태, 도 5의 상태(520), 도 6a의 상태(610), 및/또는 도 7a의 상태(710)를 포함할 수 있다. 동작(1030) 내에서, 표시 영역 내에서 콘텐트를 열람하기 위한 지정된 영역의 모서리들(corners)에, 상기 콘텐트의 모서리들 각각이 표시될 수 있다.
표시 영역의 크기가 상기 지정된 크기 미만임을 식별하는 것에 응답하여(1020-예), 동작(1040) 내에서, 일 실시예에 따른, 전자 장치는, 동작(1030)의 제1 배율을 초과하는 제2 배율에 기반하여, 콘텐트의 적어도 일부분을, 표시 영역 내에 표시할 수 있다. 동작(1040)의 제2 배율이 동작(1030)의 제1 배율을 초과하기 때문에, 전자 장치는 동작(1030)의 콘텐트 보다 확대된 콘텐트를, 동작(1040)에 기반하여 표시할 수 있다. 일 실시예에 따른, 전자 장치는, 하나 이상의 피사체들이 캡쳐된 콘텐트의 일부분과 관련되고, 상기 제1 배율을 초과하는, 제2 배율에 기반하여 상기 콘텐트의 적어도 일부분을 표시할 수 있다.
예를 들어, 상기 제2 배율은, 상기 콘텐트의 적어도 일부분이, 상기 표시 영역 내에서, 지정된 비율을 초과하는 면적, 및/또는 크기를 점유하도록 조절될 수 있다. 하나 이상의 피사체들이 캡쳐된 콘텐트의 일부분을 동작(1040)에 기반하여 표시하는 상태 내에서, 표시 영역 내에서 콘텐트를 열람하기 위한 지정된 영역의 모서리들에, 상기 콘텐트의 상기 일부분의 모서리들 각각이 표시될 수 있다. 일 실시예에 따른, 전자 장치는, 상기 상태 내에서, 상기 콘텐트로부터 식별된 하나 이상의 피사체들에 대응하는 하나 이상의 시각적 객체들(예, 도 4c 내지 도 4e의 시각적 객체들(433, 434, 435, 436, 437), 및/또는 도 7b의 시각적 객체들(728, 729))을 표시할 수 있다.
도 11은, 일 실시예에 따른, 전자 장치가 콘텐트를 표시하기 위하여 수행하는 동작을 설명하기 위한 흐름도이다. 도 11의 전자 장치는 도 1 내지 도 10의 전자 장치의 일 예일 수 있다. 예를 들어, 도 11의 동작은, 도 1의 전자 장치(101), 및/또는 도 1의 프로세서(120)에 의해 수행될 수 있다. 도 11의 동작들 중 적어도 하나는, 예를 들어, 도 10의 동작(1040), 및/또는 도 2a 내지 도 2b의 상태(200)와 같이, 표시 영역의 너비, 높이, 크기, 및/또는 면적이 대응하는 임계치 미만인 동안 수행될 수 있다.
도 11을 참고하면, 동작(1110) 내에서, 일 실시예에 따른, 전자 장치는, 콘텐트를 식별할 수 있다. 예를 들어, 전자 장치는 도 9의 동작(910)에 기반하여 수신된 요청에 기반하여, 동작(1110)을 수행할 수 있다.
콘텐트의 식별에 기반하여, 동작(1120) 내에서, 일 실시예에 따른, 전자 장치는, 하나 이상의 피사체들이 콘텐트 내에 캡쳐되었는지 여부를 식별할 수 있다. 예를 들어, 전자 장치는, 콘텐트로 할당된 하나 이상의 태그들, 및/또는 이미지 인식에 기반하여 상기 콘텐트로부터 추출된 정보에 기반하여, 콘텐트 내에 캡쳐된 하나 이상의 피사체들을 식별할 수 있다. 예를 들어, 전자 장치는 피사체의 타입을 나타내는 지정된 카테고리들에 기반하여, 콘텐트 내에 캡쳐된 하나 이상의 피사체들을 식별할 수 있다.
콘텐트 내에서 어느 피사체도 식별하지 못한 경우(1120-아니오), 동작(1130) 내에서, 일 실시예에 따른, 전자 장치는, 콘텐트의 구도에 기반하여, 표시 영역 내에 콘텐트의 적어도 일부분을 표시할 수 있다. 예를 들어, 전자 장치는 도 6b의 상태(620)와 같이, 표시 영역 내에서 상기 콘텐트의 적어도 일부분이 지정된 비율에 기반하여 표시되도록, 상기 콘텐트를 확대할 수 있다.
콘텐트 내에서 적어도 하나의 피사체를 식별한 경우(1120-예), 동작(1140) 내에서, 일 실시예에 따른, 전자 장치는, 복수의 피사체들이 캡쳐되었는지 여부를 식별할 수 있다. 콘텐트로부터 단일의 피사체를 식별한 경우(1140-아니오), 동작(1150) 내에서, 일 실시예에 따른, 전자 장치는, 피사체가 캡쳐된 콘텐트의 부분에 기반하여 확대된 콘텐트를, 표시 영역 내에 표시할 수 있다. 동작(1150) 내에서, 전자 장치는 표시 영역 내에 상기 피사체가 캡쳐된 부분을 확대할 수 있다. 예를 들어, 동작(1150) 내에서, 상기 부분의 너비가 상기 표시 영역의 너비와 일치하거나, 또는 상기 표시 영역의 상기 너비 이하이고, 상기 부분의 높이가 상기 표시 영역의 높이와 일치하거나, 또는 상기 표시 영역의 상기 높이 이하일 수 있다. 일 실시예에 따른, 전자 장치가 동작(1150)에 기반하여, 상기 피사체가 캡쳐된 상기 부분을 확대하기 때문에, 전자 장치는 디스플레이의 인입에 의한 표시 영역의 축소에도 불구하고, 상기 피사체의 가시성을 유지할 수 있다.
콘텐트 내에서 복수의 피사체들을 식별한 경우(1140-예), 동작(1160) 내에서, 일 실시예에 따른, 전자 장치는, 복수의 피사체들의 순서를 식별할 수 있다. 전자 장치가 복수의 피사체들의 순서를 식별하는 것은, 도 3, 및/또는 도 9의 동작들(920, 930)에 기반하여, 수행될 수 있다. 복수의 피사체들의 순서를 식별하지 못한 경우(1160-아니오), 동작(1170) 내에서, 일 실시예에 따른, 전자 장치는, 복수의 피사체들이 캡쳐된 콘텐트의 부분에 기반하여 확대된 콘텐트를, 표시 영역 내에 표시할 수 있다. 예를 들어, 전자 장치는 복수의 피사체들 전부가 캡쳐된 콘텐트의 부분을, 표시 영역 내에서 확대할 수 있다. 전자 장치는, 도 4e의 화면(450)과 같이, 상기 복수의 피사체들 전부를 포함하고, 최소화된 면적을 가지는 부분을, 상기 표시 영역 내에 표시할 수 있다.
복수의 피사체들의 순서를 식별한 경우(1160-예), 동작(1180) 내에서, 일 실시예에 따른, 전자 장치는, 복수의 피사체들 중, 식별된 순서에 의해 선택된 제1 피사체가 캡쳐된 콘텐트의 부분에 기반하여 확대된 콘텐트를, 표시 영역 내에 표시할 수 있다. 일 실시예에 따른, 전자 장치는 복수의 피사체들에 대응하는 복수의 시각적 객체들을, 상기 확대된 콘텐트와 함께 표시할 수 있다. 상기 복수의 시각적 객체들 중에서, 전자 장치는 상기 제1 피사체에 대응하는 특정 시각적 객체를, 다른 시각적 객체들 보다 강조할 수 있다. 일 실시예에 따른, 전자 장치가 동작(1180)에 기반하여 콘텐트를 확대하는 상태는, 도 4c 내지 도 4d의 화면들(430, 440), 및/또는 도 7b의 상태(720)를 포함할 수 있다.
상술한 바와 같이, 일 실시예에 따른, 전자 장치는, 콘텐트 내에 캡쳐된 하나 이상의 피사체들을 강조할 수 있다. 전자 장치가 상기 하나 이상의 피사체들을 강조하는 것은, 콘텐트 내에서, 상기 하나 이상의 피사체들이 캡쳐된 부분을 확대하는 동작을 포함할 수 있다. 전자 장치는, 상기 전자 장치, 및/또는 디스플레이의 변형에 의한 표시 영역의 축소에 기반하여, 상기 하나 이상의 피사체들을 강조할 수 있다.
이하에서는, 도 12a 내지 도 12d, 및/또는 도 13a 내지 도 13b를 참고하여, 일 실시예에 따른, 전자 장치가 디스플레이를 변형하기 위하여 가지는 예시적인 구조가 설명된다.
도 12a는, 일 실시예에 따른 전자 장치의 제1 상태의 전면도(front view)이고, 도 12b는, 일 실시예에 따른 전자 장치의 제1 상태의 후면도(rear view)이고, 도 12c는, 일 실시예에 따른 전자 장치의 제2 상태의 전면도(front view)이고, 도 12d는, 일 실시예에 따른 전자 장치의 제2 상태의 후면도(rear view)이다.
도 12a, 도 12b, 도 12c, 및 도 12d를 참조하면, 일 실시예에 따른 전자 장치(1200)(예: 도 1의 전자 장치(111))는, 제1 하우징(1210), 제2 하우징(1220), 디스플레이(1230)(예: 도 1의 디스플레이(140)), 및 카메라(1240)를 포함할 수 있다. 일 실시예에 따르면, 제2 하우징(1220)은, 제1 하우징(1210)에 대하여 슬라이딩 가능(slidable)할 수 있다. 예를 들어, 제2 하우징(1220)은, 제1 하우징(1210)에 대하여 제1 방향(예: +y 방향)을 따라 지정된 거리 이내의 범위에서 이동할 수 있다. 제2 하우징(1220)이 제1 방향을 따라 이동하면, 제1 방향을 향하는 제2 하우징(1220)의 측면(1220a)과 제1 하우징(1210) 사이의 거리는 증가할 수 있다. 다른 예를 들어, 제2 하우징(1220)은, 제1 하우징(1210)에 대하여 제1 방향에 반대인 제2 방향(예: -y 방향)을 따라 지정된 거리 이내의 범위에서 이동할 수 있다. 제2 하우징(1220)이 제2 방향을 따라 이동하면, 제1 방향을 향하는 제2 하우징(1220)의 측면(1220a)과 제1 하우징(1210) 사이의 거리는 감소할 수 있다. 일 실시예에 따르면, 제2 하우징(1220)은, 제1 하우징(1210)에 대하여 상대적으로 슬라이딩함으로써, 제1 하우징(1210)에 대하여 직선 왕복 운동할 수 있다. 예를 들어, 제2 하우징(1220)의 적어도 일부는, 제1 하우징(1210) 내로 인입 가능하거나, 제1 하우징(1210)으로부터 인출 가능할 수 있다.
일 실시예에 따르면, 전자 장치(1200)는, 제2 하우징(1220)이 제1 하우징(1210)에 대하여 슬라이딩 가능하도록 설계됨에 따라 "슬라이더블(slidable) 전자 장치"로 명명될 수 있다. 일 실시예에 따르면, 전자 장치(1200)는, 디스플레이(1230)의 적어도 일부분이 제2 하우징(1220)의 슬라이드 이동에 기반하여 제2 하우징(1220)(또는 제1 하우징(1210))의 내부에서 감기도록 설계됨에 따라 "롤러블 전자 장치"로 명명될 수 있다.
일 실시예에 따르면, 전자 장치(1200)의 제1 상태는, 제2 하우징(1220)이 제2 방향으로 이동한 상태(예: 수축 상태, 또는 슬라이드 인 상태(slide-in state))로 정의될 수 있다. 예를 들어, 전자 장치(1200)의 제1 상태에서, 제2 방향으로 실질적으로 이동 가능하지 않을 수 있다. 전자 장치(1200)의 제1 상태에서, 제2 하우징(1220)의 측면(1220a)과 제1 하우징(1210) 사이의 거리는, 감소되지 않을 수 있다. 다른 예를 들어, 전자 장치(1200)의 제1 상태에서, 제2 하우징(1220)의 일부는 인입 가능하지 않을 수 있다. 일 실시예에 따르면, 전자 장치(1200)의 제1 상태는, 디스플레이(1230)의 제2 영역(1230b)이 전자 장치(1200)의 외부에서 시각적으로 노출되지 않는 상태일 수 있다. 예를 들어, 전자 장치(1200)의 제1 상태에서, 디스플레이(1230)의 제2 영역(1230b)은, 제1 하우징(1210) 및/또는 제2 하우징(1220)이 형성하는 전자 장치(1200)의 내부 공간(미도시)의 내부에 위치하여, 전자 장치(1200)의 외부에서 시인되지 않을(not be visible) 수 있다.
일 실시예에 따르면, 전자 장치(1200)의 제2 상태는, 제2 하우징(1220)이 제1 방향으로 이동한 상태(예: 인출 상태, 또는 슬라이드 아웃 상태(slide-out state))로 정의될 수 있다. 예를 들어, 전자 장치(1200)의 제2 상태에서, 제2 하우징(1220)은, 제1 방향으로 실질적으로 이동 가능하지 않을 수 있다. 전자 장치(1200)의 제2 상태에서, 제2 하우징(1220)의 측면(1220a)과 제1 하우징(1210) 사이의 거리는, 증가하지 않을 수 있다. 다른 예를 들어, 전자 장치(1200)의 제2 상태에서, 제2 하우징(1220)의 일부는 제1 하우징(1210)으로부터 인출 가능하지 않을 수 있다. 일 실시예에 따르면, 전자 장치(1200)의 제2 상태는, 디스플레이(1230)의 제2 영역(1230b)이 전자 장치(1200)의 외부에서 시각적으로 노출된 상태일 수 있다. 예를 들어, 전자 장치(1200)의 제2 상태에서, 디스플레이(1230)의 제2 영역(1230b)은, 전자 장치(1200)의 내부 공간으로부터 인출되어, 전자 장치(1200)의 외부에서 시인될(visible) 수 있다.
일 실시예에 따르면, 제2 하우징(1220)이 제1 하우징(1210)으로부터 제1 방향으로 이동할 경우, 제2 하우징(1220)의 적어도 일부 및/또는 디스플레이(1230)의 제2 영역(1230b)은, 제2 하우징(1220)의 이동 거리에 대응되는 인출 길이(d1)만큼 제1 하우징(1210)으로부터 인출될 수 있다. 일 실시 예에 따르면, 제2 하우징(1220)은 지정된 거리(d2) 이내로 왕복이동 할 수 있다. 일 실시예에 따르면, 인출 길이(d1)는 대략 0 내지 지정된 거리(d2)의 크기를 가질 수 있다.
일 실시예에 따르면, 전자 장치(1200)의 상태는, 사용자에 의한 수동 조작(manual operation)으로, 또는 제1 하우징(1210) 또는 제2 하우징(1220)의 내부에 배치된 구동 모듈(미도시)에 의한 자동 조작(automatic operation)으로, 제2 상태 및/또는 제1 상태의 사이에서 전환 가능할(convertible) 수 있다. 일 실시 예에 따르면, 상기 구동 모듈은, 사용자 입력에 기반하여 동작이 트리거될 수 있다. 일 실시 예에 따르면, 구동 모듈의 동작을 트리거하기 위한 사용자 입력은, 디스플레이(1230)를 통한 터치 입력, 포스 터치 입력, 및/또는 제스처 입력을 포함할 수 있다. 다른 실시예에 따르면, 구동 모듈의 동작을 트리거하기 위한 사용자 입력은, 음성 입력(보이스 입력), 또는 제1 하우징(1210) 또는 제2 하우징(1220)의 외부로 노출된 물리 버튼의 입력을 포함할 수 있다. 일 실시 예에 따르면, 구동 모듈은 사용자의 외력에 의한 수동 조작을 감지하면 동작이 트리거 되는, 반자동 방식으로 구동될 수 있다.
일 실시예에 따르면, 전자 장치(1200)의 제1 상태는 제1 형상으로 참조될 수 있고, 전자 장치(1200)의 제2 상태는 제2 형상으로 참조될 수 있다. 예를 들면, 제1 형상은 기본(normal) 상태, 축소 상태, 또는 닫힌 상태를 포함할 수 있고, 제2 형상은, 열린 상태를 포함할 수 있다. 일 실시 예에 따르면, 전자 장치(1200)는 제1 상태와 제2 상태의 사이의 상태인 제3 상태(예: 중간 상태)를 형성할 수 있다. 예를 들면, 제3 상태는 제3 형상으로 참조될 수 있으며, 제3 형상은, 프리 스탑(free stop) 상태를 포함할 수 있다.
일 실시 예에 따르면, 디스플레이(1230)는, 사용자에게 시각적 정보를 표시할 수 있도록, 전자 장치(1200)의 전면 방향(예: -z 방향)을 통해 외부에서 시인 가능할(visible 또는 viewable) 수 있다. 예를 들어, 디스플레이(1230)는, 플렉서블 디스플레이를 포함할 수 있다. 일 실시예에 따르면, 디스플레이(1230)의 적어도 일부는, 제2 하우징(1220)에 배치되고, 제2 하우징(1220)의 이동에 따라 전자 장치(1200)의 내부 공간(미도시)으로부터 인출되거나, 전자 장치(1200)의 내부 공간으로 인입될 수 있다. 전자 장치(1200)의 내부 공간은, 제1 하우징(1210)과 제2 하우징(1220)의 결합에 의해 형성되는 제1 하우징(1210) 및 제2 하우징(1220)의 내의 공간을 의미할 수 있다. 예를 들어, 전자 장치(1200)의 제1 상태에서, 디스플레이(1230)의 적어도 일부는 전자 장치(1200)의 내부 공간으로 말려 들어가, 인입될 수 있다. 디스플레이(1230)의 적어도 일부가 전자 장치(1200)의 내부 공간에 인입된 상태에서, 제2 하우징(1220)이 제1 방향으로 이동하면, 디스플레이(1230)의 적어도 일부는, 전자 장치(1200)의 내부 공간으로부터 인출될 수 있다. 다른 예를 들어, 제2 하우징(1220)이 제2 방향으로 이동하면, 디스플레이(1230)의 적어도 일부는, 전자 장치(1200)의 내부로 말려 들어감으로써, 전자 장치(1200)의 내부 공간으로 인입될 수 있다. 디스플레이(1230)의 적어도 일부가 인출되거나 인입됨에 따라, 전자 장치(1200)의 외부에서 시인 가능한 디스플레이(1230)의 면적은, 확장 또는 축소될 수 있다. 일 실시예에 따르면, 디스플레이(1230)는, 제1 영역(1230a) 및/또는 제2 영역(1230b)을 포함할 수 있다.
일 실시 예에 따르면, 디스플레이(1230)의 제1 영역(1230a)은, 전자 장치(1200)가 제2 상태인지 또는 제1 상태인지 여부에 무관하게, 고정적으로 전자 장치(1200)의 외부에서 시인 가능한 디스플레이(1230)의 영역을 의미할 수 있다. 예를 들어, 제1 영역(1230a)은, 전자 장치(1200)의 내부 공간 내로 말려들어 가지 않은 디스플레이(1230)의 일부 영역을 의미할 수 있다. 일 실시예에 따르면, 제1 영역(1230a)은, 제2 하우징(1220)이 이동하면, 제2 하우징(1220)과 함께 이동할 수 있다. 예를 들어, 제1 영역(1230a)은, 제2 하우징(1220)이 제1 방향 또는 제2 방향을 따라 이동하면, 제2 하우징(1220)과 함께 전자 장치(1200)의 전면 상에서, 제1 방향 또는 제2 방향을 따라 이동할 수 있다.
일 실시 예에 따르면, 디스플레이(1230)의 제2 영역(1230b)은, 제2 하우징(1220)의 이동에 따라, 전자 장치(1200)의 내부 공간으로 인입되거나, 또는 전자 장치(1200)의 내부 공간으로부터 외부로 인출될 수 있다. 예를 들어, 디스플레이(1230)의 제2 영역(1230b)의 적어도 일부는, 전자 장치(1200)의 제1 상태에서, 말려진 상태로 전자 장치(1200)의 내부 공간 내에 인입된 상태일 수 있다. 디스플레이(1230)의 제2 영역(1230b)은, 전자 장치(1200)의 제1 상태에서, 전자 장치(1200)의 내부 공간으로 인입되어 외부에서 시인 가능하지 않을 수 있다. 다른 예를 들어, 디스플레이(1230)의 제2 영역(1230b)은, 전자 장치(1200)의 제2 상태에서, 전자 장치(1200)의 내부 공간으로부터 인출된 상태일 수 있다. 디스플레이(1230)의 제2 영역(1230b)은, 제2 상태에서, 전자 장치(1200)의 외부에서 시인 가능할 수 있다.
일 실시 예에 따르면, 전자 장치(1200)의 제1 상태에서, 전자 장치(1200)의 외부에서 시인 가능한 디스플레이(1230)의 면적은, 디스플레이(1230)의 제1 영역(1230a)만을 포함할 수 있다. 전자 장치(1200)의 제2 상태에서 전자 장치(1200)의 외부에서 시인 가능한 디스플레이(1230)의 면적은, 디스플레이(1230)의 제1 영역(1230a) 및 제2 영역(1230b)의 적어도 일부를 포함할 수 있다.
일 실시 예에 따르면, 전자 장치(1200)의 제1 하우징(1210)은, 제1 하우징(1210)의 내부 공간을 둘러싸는 제1 지지 부재(1211), 제1 지지 부재(1211)의 후면을 감싸는 후면 플레이트(1212), 및 제1 지지 부재(1211)의 가장자리의 적어도 일부를 감싸는 제1 측면 부재(1214)를 포함할 수 있다. 일 실시예에 따르면, 제1 지지 부재(1211)는 제1 측면 부재(1214)와 일체로 형성될 수 있다. 제1 지지 부재(1211)는, 전자 장치(1200)의 내부를 향하는 제1 측면 부재(1214)의 일 면의 적어도 일부로부터 상기 전자 장치(1200)의 내부로 연장될 수 있다. 일 실시예에 따르면, 제1 지지 부재(1211) 및 제1 측면 부재(1214)는 일체로 형성되거나 동일한 재질로 형성될 수 있다.
일 실시예에 따르면, 전자 장치(1200)의 제2 하우징(1220)은, 전자 장치(1200)의 내부 공간을 감싸는 제2 지지 부재(1221) 및 제2 측면 부재(1229)를 포함할 수 있다.
일 실시예에 따르면, 제2 측면 부재(1229)는, 제2 하우징(1220)의 측면의 적어도 일부를 형성할 수 있다. 제2 지지 부재(1221)는, 제2 하우징(1220) 내에 배치되는 전자 장치(예: 카메라(1240) 및/또는 인쇄 회로 기판(1224))를 지지할 수 있다. 제2 측면 부재(1229)는, 제2 지지 부재(1221)의 적어도 일부를 감쌀 수 있다. 일 실시예에 따르면, 제2 지지 부재(1221)는 제2 측면 부재(1229)와 일체로 형성될 수 있다. 제2 지지 부재(1221)는, 제2 하우징(1220)의 내부를 향하는 제2 측면 부재(1224)의 일 면의 적어도 일부로부터 상기 제2 하우징(1220)의 내부로 연장될 수 있다. 일 실시예에 따르면, 제2 지지 부재(1221) 및 제2 측면 부재(1229)는 일체로 형성되거나 동일한 재질로 형성될 수 있다.
일 실시 예에 따르면, 제2 지지 부재(1221)는, 제1 하우징(1210)의 내부로 삽입되지 않는 제2 지지 부재(1221)의 제1 커버 영역(1221a) 및, 제1 하우징(1210)의 내부로 삽입 또는 인출되는 제2 커버 영역(1221b)을 포함할 수 있다. 제2 지지 부재(1221)의 제1 커버 영역(1221a)은, 전자 장치(1200)가 제2 상태 및 제1 상태인지 여부에 무관하게, 항상 시인 가능할 수 있다. 일 실시예에 따르면, 제2 지지 부재(1221)의 제1 커버 영역(1221a)의 적어도 일부는, 제2 하우징(1220)의 측면(1220a)을 형성할 수 있다. 일 실시 예에 따르면, 제2 하우징(1220)의 제2 커버 영역(1221b)은, 제1 상태에서 시인 가능하지 않고, 제2 상태에서 시인 가능할 수 있다.
카메라(1240)는, 전자 장치(1200)의 외부로부터 빛을 수신하는 것에 기반하여, 피사체(a subject)에 대한 이미지를 획득할 수 있다. 일 실시 예에 따르면, 카메라(1240)는, 하나 또는 복수의 렌즈들, 이미지 센서 및/또는 이미지 시그널 프로세서를 포함할 수 있다. 일 실시예에 따르면, 카메라(1240)는, 디스플레이(1230)의 제1 영역(1230a)이 배치되는 전자 장치(1200)의 전면에 반대인 전자 장치(1200)의 후면을 향하도록, 제2 하우징(1220)에 배치될 수 있다. 예를 들어, 카메라(1240)는, 제2 하우징(1220)의 제2 지지 부재(1221)에 배치되고, 전자 장치(1200)가 제1 상태일 때, 제1 지지 부재(1211)에 형성된 개구(1211a)를 통해, 전자 장치(1200)의 외부에서 시인 가능할 수 있다. 다른 예를 들어, 카메라(1240)는, 제2 하우징(1220)의 제2 지지 부재(1221)에 배치되고, 전자 장치(1200)가 제1 상태일 때, 제1 지지 부재(1211) 및/또는 후면 플레이트(1212)에 의해 가려져, 전자 장치(1200)의 외부에서 시인 가능하지 않을 수 있다.
일 실시예에 따르면, 카메라(1240)는, 복수개의 카메라들을 포함할 수 있다. 예를 들면, 카메라(1240)는, 광각 카메라, 초 광각 카메라, 망원 카메라, 근접 카메라 및/또는 뎁스 카메라를 포함할 수 있다. 다만, 카메라(1240)가 반드시 복수의 카메라들을 포함하는 것으로 한정되는 것은 아니며, 하나의 카메라를 포함할 수 있다.
일 실시예에 따르면, 카메라(1240)는, 디스플레이(1230)의 제1 영역(1230a)이 배치되는 전자 장치(1200)의 전면을 지향하는 카메라(미도시)를 더 포함할 수 있다. 카메라(1240)가 전자 장치(1200)의 전면을 지향할 경우, 카메라(1240)는, 디스플레이(1230)의 아래(예: 디스플레이(1230)로부터 +z 방향)에 배치되는 언더 디스플레이 카메라(UDC, under display camera)일 수 있으나, 이에 제한되지 않는다.
일 실시 예에 따르면, 전자 장치(1200)는 디스플레이(1230) 아래에 배치되는 센서 모듈(미도시) 및/또는 카메라 모듈(미도시)을 포함할 수 있다. 센서 모듈은 디스플레이(1230)를 관통하여 수신되는 정보(예: 빛)를 기반으로 외부 환경을 검출할 수 있다. 일 실시 예에 따르면, 상기 센서 모듈은, 리시버, 근접 센서, 초음파 센서, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 모터 엔코더(motor encoder) 또는 인디케이터 중 적어도 하나를 포함할 수 있다. 일 실시 예에 따르면, 전자 장치(1200)의 적어도 일부 센서 모듈은, 디스플레이(1230)의 일부 영역을 통해 외부에서 시각적으로 노출될 수 있다. 일 실시 예에 따르면, 전자 장치(1200)는 센서 모듈을 이용하여 인출 길이(예: 길이 d1)를 감지할 수 있다. 일 실시 예에 따르면, 전자 장치(1200)는 센서가 감지한 인출된 정도에 관한 대한 인출 정보를 생성할 수 있다. 예를 들면, 전자 장치(1200)는 인출 정보를 이용하여 제2 하우징(1220)의 인출된 정도를 감지 및/또는 확인할 수 있다. 일 실시 예에 따르면, 인출 정보는 제2 하우징(1220)의 인출 길이에 관한 정보를 포함할 수 있다.
일 실시 예에 따르면, 제1 하우징(1210)과 제2 하우징(1220)의 결합 형태는, 도 12a, 도 12b, 도 12c 및 도 12d에 도시된 형태 및 결합으로 제한되지 않으며, 다른 형상이나 부품의 조합 및/또는 결합에 의해 구현될 수도 있다.
도 13a는, 일 실시예에 따른 전자 장치의 분해 사시도(exploded perspective view)이고, 도 13b는, 일 실시예에 따른 전자 장치를 도 12a의 A-A'를 따라 절단한 예를 도시한 단면도(cross-sectional view)이다.
도 13a 및 도 13b를 참조하면, 일 실시예에 따른, 전자 장치(1200)는, 제1 하우징(1210), 제2 하우징(1220), 디스플레이(1230), 카메라(1240), 배터리(1250)(예: 도 1의 배터리(189)) 및/또는 구동부(1260)를 포함할 수 있다. 일 실시예에 따르면, 제1 하우징(1210) 및 제2 하우징(1220)은, 서로 결합되어 전자 장치(1200)의 내부 공간(1201)을 형성할 수 있다. 예를 들어, 전자 장치(1200)의 제1 상태에서, 디스플레이(1230)의 제2 영역(1230b)은, 내부 공간(1201)에 수용될 수 있다.
일 실시예에 따르면, 제1 하우징(1210)은, 제1 지지 부재(1211), 후면 플레이트(1212), 및/또는 제3 지지 부재(1213)를 포함할 수 있다. 일 실시예에 따르면, 제1 하우징(1210)에 포함된 제1 지지 부재(1211), 후면 플레이트(1212), 및 제3 지지 부재(1213)는, 서로 결합되어, 제2 하우징(1220)이 제1 하우징(1210)에 대하여 이동할 때, 이동하지 않을 수 있다. 일 실시예에 따르면, 제1 지지 부재(1211)는, 전자 장치(1200)의 외면의 적어도 일부를 형성할 수 있다. 예를 들어, 제1 지지 부재(1211)는, 전자 장치(1200)의 측면의 적어도 일부를 형성하고, 전자 장치(1200)의 후면의 적어도 일부를 형성할 수 있다. 일 실시예에 따르면, 제1 지지 부재(1211)는, 후면 플레이트(1212)가 안착되는 면을 제공할 수 있다. 후면 플레이트(1212)는, 제1 지지 부재(1211)의 일 면에 안착될 수 있다.
일 실시예에 따르면, 제3 지지 부재(1213)는, 전자 장치(1200)의 내부 구성 요소들을 지지할 수 있다. 예를 들어, 제3 지지 부재(1213)는, 배터리(1250), 구동부(1260)의 모터(1261)를 수용할 수 있다. 배터리(1250) 및 모터(1261)는, 제3 지지 부재(1213)에 포함된 리세스 또는 홀 중 적어도 하나에 수용될 수 있다. 일 실시예에 따르면, 제3 지지 부재(1213)는, 제1 지지 부재(1211)에 의해 둘러싸일(surrounded) 수 있다. 예를 들어, 전자 장치(1200)의 제1 상태에서, 배터리(1250)가 배치되는 제3 지지 부재(1213)의 일 면(1213a)은, 제1 지지 부재(1211) 및/또는 디스플레이(1230)의 제2 영역(1230b)을 마주할 수 있다. 다른 예를 들어, 전자 장치(1200)의 제1 상태에서, 제3 지지 부재(1213)의 일 면(1213a)과 반대 방향을 향하는 제3 지지 부재(1213)의 타 면(1213b)은, 디스플레이(1230)의 제1 영역(1230a), 또는 제2 지지 부재(1221)를 마주할 수 있다. 예를 들어, 제3 지지 부재(1213)는, 소재로 알루미늄을 포함할 수 있으나, 이에 제한되지 않는다.
일 실시예에 따르면, 제2 하우징(1220)은, 제2 지지 부재(1221), 리어 커버(1222), 및/또는 슬라이드 커버(1223)를 포함할 수 있다. 일 실시예에 따르면, 제2 지지 부재(1221), 리어 커버(1222), 및 슬라이드 커버(1223)는, 서로 결합되어, 제2 하우징(1220)이 제1 하우징(1210)에 대하여 상대적으로 이동하면, 제2 하우징(1220)과 함께 이동할 수 있다. 제2 지지 부재(1221)는, 전자 장치(1200)의 내부 구성 요소들을 지지할 수 있다. 예를 들어, 전자 장치(1200)의 전자 부품들(예: 도 1의 프로세서(120))이 배치된 인쇄 회로 기판(1224) 및/또는 카메라(1240)는, 내부 공간(1201)을 향하는 제2 지지 부재(1221)의 일 면(1221c)에 배치될 수 있다. 제2 지지 부재(1221)의 일 면(1221c)과 반대 방향으로 향하는 제2 지지 부재(1221)의 타 면(1221d)은, 전자 장치(1200)가 제1 상태일 때, 디스플레이(1230)의 제1 영역(1230a)과 마주할 수 있다. 일 실시예에 따르면, 리어 커버(1222)는, 제2 지지 부재(1221)에 결합되어, 제2 지지 부재(1221)에 배치된 전자 장치(1200)의 구성 요소들을 보호할 수 있다. 예를 들어, 리어 커버(1222)는, 제2 지지 부재(1221)의 일 면(1221c)의 일부를 덮을 수 있다. 일 실시예에 따르면, 슬라이드 커버(1223)는, 리어 커버(1222) 상에 배치되어, 후면 플레이트(1212), 및 제1 지지 부재(1211)와 함께 전자 장치(1200)의 외면을 형성할 수 있다. 슬라이드 커버(1223)는, 리어 커버(1222)의 일 면 또는 제2 지지 부재(1221)에 결합되어, 리어 커버(1222) 및/또는 제2 지지 부재(1221)를 보호할 수 있다.
일 실시예에 따르면, 전자 장치(1200)가 제1 상태일 때, 디스플레이(1230)는, 적어도 일부가 내부 공간(1201)으로 말려 들어감으로써(rolled into), 굽어질 수 있다. 일 실시예에 따르면, 디스플레이(1230)는, 제3 지지 부재(1213)의 적어도 일부, 및 제2 지지 부재(1221)의 적어도 일부를 감쌀(covering) 수 있다. 예를 들어, 전자 장치(1200)가 제1 상태일 때, 디스플레이(1230)는, 제2 지지 부재(1221)의 타 면(1221d)을 덮고, 제2 지지 부재(1221)와 제1 지지 부재(1211)의 사이를 통과하여, 내부 공간(1201)을 향해 연장될 수 있다. 디스플레이(1230)의 적어도 일부는, 제2 지지 부재(1221)와 제1 지지 부재(1211)의 사이를 통과한 후, 제3 지지 부재(1213)의 적어도 일부를 둘러쌀 수 있다. 디스플레이(1230)는, 내부 공간(1201) 내에서, 제3 지지 부재(1213)의 일 면(1213a)을 덮을 수 있다. 일 실시예에 따르면, 제2 하우징(1220)이 제1 방향으로 이동하면, 디스플레이(1230)의 제2 영역(1230b)은, 내부 공간(1201)으로부터 인출될 수 있다. 예를 들어, 제2 하우징(1220)이 제2 방향으로 이동함에 따라, 디스플레이(1230)는, 제2 지지 부재(1221)와 제1 지지 부재(1211) 사이를 통과하여 내부 공간(1201)으로부터 인출될 수 있다.
일 실시예에 따르면, 전자 장치(1200)는, 디스플레이(1230)를 지지하는 지지 바(1231) 및 가이드 레일(1232)을 포함할 수 있다. 예를 들어, 지지 바(1231)는, 서로 결합된 복수의 바들을 포함하고, 디스플레이(1230)의 제2 영역(1230b)의 형상에 대응되는 형상으로 제작될 수 있다. 일 실시예에 따르면, 지지 바(1231)는, 디스플레이(1230)가 이동함에 따라, 디스플레이(1230)와 함께 이동할 수 있다. 일 실시예에 따르면, 디스플레이(1230)의 제2 영역(1230b)이 내부 공간(1201) 내에 감겨진 상태인 제1 상태에서, 지지 바(1231)는, 디스플레이(1230)의 제2 영역(1230b)과 함께 내부 공간(1201) 내에서 감겨져 있을 수 있다. 지지 바(1231)는, 제2 하우징(1220)이 제1 방향으로 이동함에 따라, 디스플레이(1230)의 제2 영역(1230b)과 함께 이동할 수 있다. 일 실시예에 따르면, 가이드 레일(1232)은, 지지 바(1231)의 운동을 가이드할 수 있다. 예를 들어, 디스플레이(1230)가 이동함에 따라, 지지 바(1231)는, 제3 지지 부재(1213)에 결합된 가이드 레일(1232)을 따라 이동할 수 있다. 일 실시예에 따르면, 가이드 레일(1232)은, 제3 지지 부재(1213) 또는 제1 지지 부재(1211)에 결합될 수 있다. 예를 들어, 가이드 레일(1232)은, 제1 방향에 수직인 제3 방향(예: +x 방향)을 따라 서로 이격되는 제3 지지 부재(1213)의 양 가장 자리들에 서로 이격되어 배치되는 복수의 가이드 레일(1232)들을 포함할 수 있다. S
일 실시예에 따르면, 구동부(1260)는, 제2 하우징(1220)이 제1 하우징(1210)에 대하여 상대적으로 이동할 수 있도록, 제2 하우징(1220)에 구동력을 제공할 수 있다. 일 실시예에 따르면, 구동부(1260)는, 모터(1261), 피니언 기어(1262), 및/또는 랙 기어(1263)를 포함할 수 있다. 모터(1261)는, 배터리(1250)로부터 전력을 공급받아, 제2 하우징(1220)에 구동력을 제공할 수 있다. 일 실시예에 따르면, 모터(1261)는, 제1 하우징(1210)에 배치되어, 제2 하우징(1220)이 제1 하우징(1210)에 대하여 이동할 때, 이동하지 않을 수 있다. 예를 들어, 모터(1261)는, 제3 지지 부재(1213)에 형성된 리세스에 배치될 수 있다. 일 실시예에 따르면, 피니언 기어(1262)는, 모터(1261)에 결합되고, 모터(1261)로부터 제공된 구동력에 의해 회전할 수 있다. 일 실시예에 따르면, 랙 기어(1263)는, 피니언 기어(1262)와 맞물리고, 피니언 기어(1262)의 회전에 따라 이동할 수 있다. 예를 들어, 랙 기어(1263)는, 피니언 기어(1262)의 회전에 따라, 제1 방향 또는 제2 방향으로, 직선 왕복 운동할 수 있다. 일 실시예에 따르면, 랙 기어(1263)는, 제2 하우징(1220)에 배치될 수 있다. 예를 들어, 랙 기어(1263)는, 제2 하우징(1220)에 포함된 제2 지지 부재(1221)에 결합될 수 있다. 일 실시예에 따르면, 랙 기어(1263)는, 제3 지지 부재(1213)에 형성된 작동 공간(1213p)의 내부에서 이동 가능할 수 있다.
일 실시예에 따르면, 피니언 기어(1262)가 제1 회전 방향(예: 도 13b에서 시계 방향)을 따라 회전하면, 랙 기어(1263)는, 제1 방향(예: +y 방향)으로 이동할 수 있다. 랙 기어(1263)가 제1 방향을 따라 이동하면, 랙 기어(1263)와 결합된 제2 하우징(1220)은, 제1 방향을 따라 이동할 수 있다. 제2 하우징(1220)이 제1 방향을 따라 이동함에 따라, 전자 장치(1200)의 외부에서 시인 가능한 디스플레이(1230)의 면적은 확장될 수 있다. 피니언 기어(1262)가 제2 회전 방향(예: 도 13b에서 반시계 방향)을 따라 회전하면, 랙 기어(1263)는, 제2 방향(예: -y 방향)으로 이동할 수 있다. 랙 기어(1263)가 제2 방향을 따라 이동하면, 랙 기어(1263)와 결합된 제2 하우징(1220)은, 제2 방향을 따라 이동할 수 있다. 제2 하우징(1220)이 제2 방향을 따라 이동함에 따라, 전자 장치(1200)의 외부에서 시인 가능한 디스플레이(1230)의 면적은 축소될 수 있다.
상술한 설명에서, 모터(1261) 및 피니언 기어(1262)가 제1 하우징(1210)에 배치되고, 랙 기어(1263)가 제2 하우징(1220)이 배치되는 것으로 설명하였으나, 실시예들은 이에 제한되지 않을 수 있다. 실시예들에 따라, 모터(1261) 및 피니언 기어(1262)는 제2 하우징(1220)에 배치되고, 랙 기어(1263)는 제1 하우징(1210)에 배치될 수 있다.
플렉서블 디스플레이를 변형하는 액추에이터를 포함하는 전자 장치에서, 상기 전자 장치가 플렉서블 디스플레이에 의해 조절된 표시 영역의 너비, 및/또는 높이에 기반하여, 콘텐트를 표시하기 위한 방안이 요구될 수 있다. 상술한 바와 같은, 일 실시예에 따른, 전자 장치(an electronic device)는, 하우징, 디스플레이, 상기 디스플레이를 상기 하우징 안으로 인입하거나, 또는 상기 하우징으로부터 인출하여, 상기 디스플레이의 표시 영역을 조절하기 위한, 액추에이터, 인스트럭션들을 저장하기 위한 메모리, 상기 디스플레이, 상기 액추에이터, 및 상기 메모리와 작동적으로 결합된(operably coupled to) 적어도 하나의 프로세서를 포함할 수 있다. 상기 적어도 하나의 프로세서는, 상기 인스트럭션들이 실행될 시에, 상기 표시 영역 내에 콘텐트를 표시하기 위한 요청을 수신할 수 있다. 상기 적어도 하나의 프로세서는 상기 요청에 응답하여, 상기 콘텐트 내에 캡쳐된 복수의 피사체들을 식별할 수 있다. 상기 적어도 하나의 프로세서는, 상기 콘텐트로부터 상기 복수의 피사체들을 식별하는 것에 응답하여, 상기 복수의 피사체들의 순서(sequence)를 획득할 수 있다. 상기 적어도 하나의 프로세서는, 상기 획득된 순서에 기반하여, 상기 표시 영역 내에, 상기 복수의 피사체들 각각에 대응하는 복수의 시각적 객체들을 표시할 수 있다. 상기 적어도 하나의 프로세서는, 상기 액추에이터에 의해 제어되는 상기 표시 영역의 크기에 기반하여, 상기 복수의 피사체들 중 상기 순서에 기반하여 선택된 적어도 하나의 피사체가 캡쳐된 제1 부분, 및 상기 제1 부분과 상이한 상기 콘텐트의 제2 부분 중에서, 상기 제1 부분을, 상기 표시 영역 내에서 상기 복수의 시각적 객체들과 함께 표시할 수 있다. 일 실시예에 따른, 전자 장치는, 상기 액추에이터에 의해 조절된 표시 영역의 크기에 기반하여, 상기 표시 영역 내에 표시되는 콘텐트를 확대, 및/또는 축소하여 표시할 수 있다.
일 실시예에 따른, 전자 장치는, 상기 콘텐트 내에 캡쳐된 하나 이상의 피사체들이 포함되도록, 상기 콘텐트를 확대할 수 있다.
예를 들어, 상기 적어도 하나의 프로세서는, 상기 인스트럭션들이 실행될 시에, 상기 표시 영역의 크기가 상기 디스플레이의 상기 인입에 의하여 지정된 크기 미만인 제1 상태 내에서, 상기 요청에 응답하여, 상기 제1 부분, 및 상기 제2 부분 중에서 상기 제1 부분을, 상기 시각적 객체들과 함께 표시할 수 있다. 예를 들어, 상기 적어도 하나의 프로세서는, 상기 표시 영역의 상기 크기가 상기 디스플레이의 상기 인출에 의하여 상기 지정된 크기를 초과하는 제2 상태 내에서, 상기 요청에 응답하여, 상기 표시 영역 내에, 상기 제1 부분, 및 상기 제2 부분을 표시할 수 있다.
예를 들어, 상기 적어도 하나의 프로세서는, 상기 인스트럭션들이 실행될 시에, 상기 제1 상태 내에서, 상기 디스플레이의 상기 인출의 개시(initiation)에 응답하여, 상기 표시 영역 내에, 상기 제1 부분, 및 상기 제2 부분 전부를 표시할 수 있다.
예를 들어, 상기 적어도 하나의 프로세서는, 상기 인스트럭션들이 실행될 시에, 상기 복수의 시각적 객체들 중에서, 상기 제1 부분 내에 캡쳐된 제1 피사체에 대응하는 제1 시각적 객체와 상이한 제2 시각적 객체를 선택하는 입력을 수신할 수 있다. 상기 적어도 하나의 프로세서는, 상기 입력을 수신하는 것에 응답하여, 상기 제2 시각적 객체에 대응하는 제2 피사체가 캡쳐되고, 상기 제1 부분과 상이한, 제3 부분을, 상기 표시 영역 내에 표시할 수 있다.
예를 들어, 상기 적어도 하나의 프로세서는, 상기 인스트럭션들이 실행될 시에, 상기 콘텐트 내에 포함된 하나 이상의 태그들, 또는 상기 복수의 피사체들의 타입들 중 적어도 하나에 기반하여 상기 순서를 획득할 수 있다.
예를 들어, 상기 적어도 하나의 프로세서는, 상기 인스트럭션들이 실행될 시에, 상기 전자 장치의 사용자 및 상기 복수의 피사체들 중 적어도 하나의 피사체 사이의 호 연결, 또는 텍스트 메시지의 교환에 기반하여, 상기 순서를 획득할 수 있다.
예를 들어, 상기 적어도 하나의 프로세서는, 상기 인스트럭션들이 실행될 시에, 비디오에 대응하는 상기 콘텐트를 표시하기 위한 상기 요청에 응답하여, 상기 비디오에 포함된 프레임들 각각 내에서, 상기 복수의 피사체들 중 제1 피사체의 위치들을 획득할 수 있다. 상기 적어도 하나의 프로세서는, 상기 표시 영역 내에서 상기 비디오의 재생에 기반하여 상기 프레임들을 순차적으로 표시하는 동안, 상기 획득된 위치들 중 적어도 하나에 기반하여, 상기 콘텐트 내 상기 제1 부분의 위치, 또는 크기 중 적어도 하나를 조절할 수 있다.
예를 들어, 상기 적어도 하나의 프로세서는, 상기 인스트럭션들이 실행될 시에, 상기 식별된 복수의 피사체들 각각과 관련된 정보에 기반하여, 상기 복수의 시각적 객체들 중 적어도 하나 내에, 썸네일, 또는 텍스트 중 적어도 하나를 표시할 수 있다.
상술한 바와 같은, 일 실시예에 따른, 전자 장치(electronic device)는, 하우징, 디스플레이, 상기 디스플레이를 상기 하우징 안으로 인입하거나(insert), 또는 상기 하우징으로부터 인출하여, 상기 디스플레이의 표시 영역을 조절하기 위한, 액추에이터, 인스트럭션들을 저장하기 위한 메모리, 상기 디스플레이, 상기 액추에이터, 및 상기 메모리와 작동적으로 결합된(operably coupled to) 적어도 하나의 프로세서를 포함할 수 있다. 상기 적어도 하나의 프로세서는, 상기 인스트럭션들이 실행될 시에, 상기 메모리 내에 저장되고, 하나 이상의 피사체들이 캡쳐된 콘텐트를 식별할 수 있다. 상기 적어도 하나의 프로세서는, 상기 디스플레이의 상기 인입, 또는 상기 디스플레이의 상기 인출에 기반하여 조절되는, 상기 표시 영역의 크기를 획득할 수 있다. 상기 적어도 하나의 프로세서는, 상기 표시 영역의 크기가 지정된(preset) 크기를 초과하는 제1 상태 내에서, 상기 콘텐트의 크기를 상기 표시 영역의 크기 이하로 만드는 제1 배율에 기반하여 상기 콘텐트를 표시할 수 있다. 상기 적어도 하나의 프로세서는, 상기 표시 영역의 크기가 상기 지정된 크기 미만인 제2 상태 내에서, 상기 하나 이상의 피사체들이 캡쳐된 상기 콘텐트의 일부분과 관련되고, 상기 제1 배율을 초과하는, 제2 배율에 기반하여 상기 콘텐트의 적어도 일부분을 표시할 수 있다.
예를 들어, 상기 적어도 하나의 프로세서는, 상기 인스트럭션들이 실행될 시에, 상기 제1 상태 내에서, 상기 표시 영역 내에서 상기 콘텐트를 열람하기 위한 지정된 영역의 모서리들(corners)에 매칭되는, 상기 콘텐트의 모서리들을 표시할 수 있다. 상기 적어도 하나의 프로세서는, 상기 제2 상태 내에서, 상기 지정된 영역의 모서리들에 매칭되는, 상기 콘텐트의 일부분의 모서리들을 표시할 수 있다.
예를 들어, 상기 적어도 하나의 프로세서는, 상기 인스트럭션들이 실행될 시에, 상기 제2 상태 내에서, 상기 콘텐트로부터 복수의 피사체들을 식별하는 것에 응답하여, 상기 제2 배율에 기반하여 표시되는 상기 콘텐트의 일부분과 함께, 상기 복수의 피사체들 각각에 대응하는 복수의 시각적 객체들을 표시할 수 있다.
예를 들어, 상기 적어도 하나의 프로세서는, 상기 인스트럭션들이 실행될 시에, 상기 복수의 피사체들을 식별하는 것에 응답하여, 상기 복수의 피사체들의 순서를 획득할 수 있다. 상기 적어도 하나의 프로세서는, 상기 획득된 순서에 기반하여, 상기 복수의 시각적 객체들을 표시할 수 있다.
예를 들어, 상기 적어도 하나의 프로세서는, 상기 인스트럭션들이 실행될 시에, 상기 제2 상태 내에서, 상기 복수의 시각적 객체들 중 제1 시각적 객체에 대응하는 제1 피사체가 캡쳐된 상기 콘텐트의 제1 부분을 표시하는 동안, 상기 제1 시각적 객체와 상이한 제2 시각적 객체를 선택하는 입력을 수신할 수 있다. 상기 적어도 하나의 프로세서는, 상기 입력을 수신하는 것에 응답하여, 상기 콘텐트 내에서 상기 제2 시각적 객체에 대응하는 제2 피사체가 캡쳐된 제2 부분을, 상기 표시 영역 내에 표시할 수 있다.
예를 들어, 상기 적어도 하나의 프로세서는, 상기 인스트럭션들이 실행될 시에, 상기 제2 상태 내에서, 상기 하나 이상의 피사체들에 대응하는 썸네일 또는 텍스트를 포함하는 하나 이상의 시각적 객체들을, 상기 콘텐트의 적어도 일부분과 함께 표시할 수 있다.
예를 들어, 상기 적어도 하나의 프로세서는, 상기 인스트럭션들이 실행될 시에, 상기 제1 상태 내에서, 상기 디스플레이의 상기 인입에 기반하여 상기 표시 영역의 크기를 상기 지정된 크기 미만으로 축소하는 입력을 수신하는 것에 응답하여, 상기 제2 배율에 기반하여 상기 콘텐트의 상기 적어도 일부분을 표시할 수 있다.
상술한 바와 같은, 일 실시예에 따른, 전자 장치의 방법은, 상기 전자 장치의 디스플레이의 표시 영역 내에 콘텐트를 표시하기 위한 요청을 수신하는 동작을 포함할 수 있다. 상기 전자 장치의 방법은, 상기 요청에 응답하여, 상기 콘텐트 내에 캡쳐된 복수의 피사체들을 식별하는 동작을 포함할 수 있다. 상기 전자 장치의 방법은, 상기 콘텐트로부터 상기 복수의 피사체들을 식별하는 것에 응답하여, 상기 복수의 피사체들의 순서를 획득하는 동작을 포함할 수 있다. 상기 전자 장치의 방법은, 상기 획득된 순서에 기반하여, 상기 표시 영역 내에, 상기 복수의 피사체들 각각에 대응하는 복수의 시각적 객체들을 표시하는 동작을 포함할 수 있다. 상기 전자 장치의 방법은, 상기 액추에이터에 의해 제어되는 상기 표시 영역의 크기에 기반하여, 상기 복수의 피사체들 중 상기 순서에 기반하여 선택된 적어도 하나의 피사체가 캡쳐된 상기 콘텐트의 제1 부분, 및 상기 제1 부분과 상이한 상기 콘텐트의 제2 부분 중에서, 상기 제1 부분을, 상기 표시 영역 내에서 상기 복수의 시각적 객체들과 함께 표시하는 동작을 포함할 수 있다.
예를 들어, 상기 제1 부분을 표시하는 동작은, 상기 표시 영역의 크기가 상기 디스플레이의 상기 전자 장치의 하우징 안으로의 인입에 의하여 지정된 크기 미만인 제1 상태 내에서, 수행될 수 있다. 상기 전자 장치의 방법은, 상기 표시 영역의 상기 크기가 상기 디스플레이의 인출에 의하여 상기 지정된 크기를 초과하는 제2 상태 내에서, 상기 요청에 응답하여, 상기 표시 영역 내에, 상기 제1 부분, 및 상기 제2 부분을 표시하는 동작을 더 포함할 수 있다.
예를 들어, 상기 전자 장치의 방법은, 상기 복수의 시각적 객체들 중에서, 상기 제1 부분 내에 캡쳐된 제1 피사체에 대응하는 제1 시각적 객체와 상이한 제2 시각적 객체를 선택하는 입력을 수신하는 동작을 더 포함할 수 있다. 상기 전자 장치의 방법은, 상기 입력을 수신하는 것에 응답하여, 상기 제2 시각적 객체에 대응하는 제2 피사체가 캡쳐되고, 상기 제1 부분과 상이한, 제3 부분을, 상기 표시 영역 내에 표시하는 동작을 더 포함할 수 있다.
예를 들어, 상기 순서를 획득하는 동작은, 상기 콘텐트 내에 포함된 하나 이상의 태그들, 또는 상기 복수의 피사체들의 타입들 중 적어도 하나에 기반하여 상기 순서를 획득하는 동작을 포함할 수 있다. 상기 전자 장치의 방법은, 상기 전자 장치의 사용자 및 상기 복수의 피사체들 중 적어도 하나의 피사체 사이의 호 연결, 또는 텍스트 메시지의 교환에 기반하여, 상기 순서를 획득하는 동작을 포함할 수 있다.
예를 들어, 상기 제1 부분을 표시하는 동작은, 비디오에 대응하는 상기 콘텐트를 표시하기 위한 상기 요청에 응답하여, 상기 비디오에 포함된 프레임들 각각 내에서, 상기 복수의 피사체들 중 제1 피사체의 위치들을 획득하는 동작을 포함할 수 있다. 상기 제1 부분을 표시하는 동작은, 상기 표시 영역 내에서 상기 비디오의 재생에 기반하여 상기 프레임들을 순차적으로 표시하는 동안, 상기 획득된 위치들 중 적어도 하나에 기반하여, 상기 콘텐트 내 상기 제1 부분의 위치, 또는 크기 중 적어도 하나를 조절하는 동작을 포함할 수 있다.
예를 들어, 상기 복수의 시각적 객체들을 표시하는 동작은, 상기 식별된 복수의 피사체들 각각과 관련된 정보에 기반하여, 상기 복수의 시각적 객체들 중 적어도 하나 내에, 썸네일, 또는 텍스트 중 적어도 하나를 표시하는 동작을 포함할 수 있다.
상술한 바와 같은, 일 실시예에 따른, 전자 장치의 방법은, 하나 이상의 피사체들이 캡쳐된 콘텐트를 식별하는 동작을 포함할 수 있다. 상기 전자 장치의 방법은, 상기 전자 장치의 디스플레이의 상기 전자 장치의 하우징 안으로의 인입, 또는 상기 디스플레이의 상기 하우징으로부터의 인출에 기반하여 조절되는, 상기 디스플레이의 표시 영역의 크기를 획득하는 동작을 포함할 수 있다. 상기 전자 장치의 방법은, 상기 표시 영역의 크기가 지정된(preset) 크기를 초과하는 제1 상태 내에서, 상기 콘텐트의 크기를 상기 표시 영역의 크기 이하로 만드는 제1 배율에 기반하여 상기 콘텐트를 표시하는 동작을 포함할 수 있다. 상기 전자 장치의 방법은, 상기 표시 영역의 크기가 상기 지정된 크기 미만인 제2 상태 내에서, 상기 하나 이상의 피사체들이 캡쳐된 상기 콘텐트의 일부분과 관련되고, 상기 제1 배율을 초과하는, 제2 배율에 기반하여 상기 콘텐트의 적어도 일부분을 표시하는 동작을 포함할 수 있다.
예를 들어, 상기 제1 상태 내에서 상기 콘텐트를 표시하는 동작은, 상기 표시 영역 내에서 상기 콘텐트를 열람하기 위한(for browsing) 지정된 영역의 모서리들(corners)에 매칭되는, 상기 콘텐트의 모서리들을 표시하는 동작을 포함할 수 있다. 예를 들어, 상기 제2 상태 내에서 상기 콘텐트를 표시하는 동작은, 상기 지정된 영역의 모서리들에 매칭되는, 상기 콘텐트의 일부분의 모서리들을 표시하는 동작을 포함할 수 있다.
예를 들어, 상기 제2 상태 내에서 상기 콘텐트를 표시하는 동작은, 상기 콘텐트로부터 복수의 피사체들을 식별하는 것에 응답하여, 상기 제2 배율에 기반하여 표시되는 상기 콘텐트의 일부분과 함께, 상기 복수의 피사체들 각각에 대응하는 복수의 시각적 객체들을 표시하는 동작을 포함할 수 있다.
예를 들어, 상기 제2 상태 내에서 상기 콘텐트를 표시하는 동작은, 상기 복수의 피사체들을 식별하는 것에 응답하여, 상기 복수의 피사체들의 순서를 획득하는 동작을 포함할 수 있다. 예를 들어, 상기 제2 상태 내에서 상기 콘텐트를 표시하는 동작은, 상기 획득된 순서에 기반하여, 상기 복수의 시각적 객체들을 표시하는 동작을 포함할 수 있다.
예를 들어, 상기 제2 상태 내에서 상기 콘텐트를 표시하는 동작은, 상기 복수의 시각적 객체들 중 제1 시각적 객체에 대응하는 제1 피사체가 캡쳐된 상기 콘텐트의 제1 부분을 표시하는 동안, 상기 제1 시각적 객체와 상이한 제2 시각적 객체를 선택하는 입력을 수신하는 동작을 포함할 수 있다. 예를 들어, 상기 제2 상태 내에서 상기 콘텐트를 표시하는 동작은, 상기 입력을 수신하는 것에 응답하여, 상기 콘텐트 내에서 상기 제2 시각적 객체에 대응하는 제2 피사체가 캡쳐된 제2 부분을, 상기 표시 영역 내에 표시하는 동작을 포함할 수 있다.
상술한 바와 같은, 일 실시예에 따른, 전자 장치(electronic device)는, 하우징, 디스플레이, 상기 하우징에 대한 상기 디스플레이의 위치를 제어하여 상기 디스플레이의 활성 영역(active area)을 조절하도록 구성된 액추에이터, 인스트럭션들을 저장하기 위한 메모리, 상기 디스플레이, 상기 액추에이터, 및 상기 메모리와 작동적으로 결합된(operably coupled to) 적어도 하나의 프로세서를 포함할 수 있다. 상기 적어도 하나의 프로세서는 상기 인스트럭션들을 실행하여, 상기 활성 영역에 콘텐트를 표시하기 위한 요청을 수신하도록, 구성될 수 있다. 상기 적어도 하나의 프로세서는, 상기 인스트럭션들을 실행하여, 상기 요청에 기반하여, 상기 콘텐트 내에 캡쳐된 복수의 피사체들을 식별하도록, 구성될 수 있다. 상기 적어도 하나의 프로세서는, 상기 인스트럭션들을 실행하여, 상기 콘텐트로부터 상기 복수의 피사체들을 식별하는 것에 기반하여, 상기 복수의 피사체들의 순서(sequence)를 획득하도록, 구성될 수 있다. 상기 적어도 하나의 프로세서는, 상기 인스트럭션들을 실행하여, 상기 순서에 기반하여, 상기 디스플레이의 상기 활성 영역에, 상기 복수의 피사체들 각각에 대응하는 복수의 시각적 객체들을 표시하도록, 구성될 수 있다. 상기 적어도 하나의 프로세서는, 상기 인스트럭션들을 실행하여, 상기 액추에이터에 의해 제어되는 상기 활성 영역의 크기에 기반하여, 상기 복수의 피사체들 중 상기 순서에 기반하여 선택된 적어도 하나의 피사체가 캡쳐된 상기 콘텐트의 제1 부분, 및 상기 제1 부분과 상이한 상기 콘텐트의 제2 부분 중에서, 상기 제1 부분을, 상기 활성 영역 내에서 상기 복수의 시각적 객체들과 함께 표시하도록, 구성될 수 있다.
예를 들어, 상기 적어도 하나의 프로세서는, 상기 인스트럭션들을 실행하여, 상기 활성 영역의 상기 사이즈가 지정된 사이즈 보다 작은 제1 상태의 상기 디스플레이에 기반하여, 상기 복수의 시각적 객체들과 함께 상기 콘텐트의 상기 제1 부분을 표시하도록, 구성될 수 있다. 상기 적어도 하나의 프로세서는, 상기 인스트럭션들을 실행하여, 상기 활성 영역의 상기 사이즈가 상기 지정된 사이즈 보다 큰 제2 상태의 상기 디스플레이에 기반하여, 상기 제1 부분과 상이한 상기 콘텐트의 상기 제2 부분 및 상기 콘텐트의 상기 제1 부분을 표시하도록, 구성될 수 있다.
예를 들어, 상기 적어도 하나의 프로세서는, 상기 인스트럭션들을 실행하여, 상기 제1 상태 내에서, 상기 디스플레이의 상기 인출에 기반하여, 상기 활성 영역 내에, 상기 제1 부분, 및 상기 제2 부분을 표시하도록, 구성될 수 있다.
예를 들어, 상기 적어도 하나의 프로세서는, 상기 인스트럭션들을 실행하여, 상기 복수의 시각적 객체들 중 제1 시각적 객체와 상이한 제2 시각적 객체를 선택하는 입력을 수신할 수 있다. 상기 제1 시각적 객체는 상기 제1 부분 내에 캡쳐된 제1 피사체에 대응할 수 있다. 상기 적어도 하나의 프로세서는, 상기 인스트럭션들을 실행하여, 상기 입력에 기반하여, 상기 제2 시각적 객체에 대응하는 상기 콘텐트의 제3 부분을, 상기 활성 영역 내에 표시하도록, 구성될 수 있다. 상기 제2 시각적 객체는 상기 제3 부분 내에 캡쳐된 제2 피사체에 대응할 수 있다. 예를 들어, 상기 적어도 하나의 프로세서는, 상기 인스트럭션들을 실행하여, 상기 콘텐트 내에 포함된 태그, 또는 상기 복수의 피사체들의 타입 중 적어도 하나에 기반하여 상기 순서를 획득할 수 있다.
예를 들어, 상기 적어도 하나의 프로세서는, 상기 인스트럭션들을 실행하여, 상기 전자 장치의 사용자 및 상기 복수의 피사체들 중 적어도 하나의 피사체 사이의 호 연결, 또는 텍스트 메시지의 교환에 기반하여, 상기 순서를 획득할 수 있다.
예를 들어, 상기 적어도 하나의 프로세서는, 상기 인스트럭션들을 실행하여, 프레임들을 포함하는 비디오에 대응하는 상기 콘텐트에 기반하여, 상기 비디오에 포함된 상기 프레임들 각각 내에서, 상기 복수의 피사체들의 제1 피사체의 위치들을 획득하도록, 구성될 수 있다. 상기 적어도 하나의 프로세서는, 상기 인스트럭션들을 실행하여, 상기 제1 피사체의 상기 위치들 중 적어도 하나에 기반하여, 상기 활성 영역 내에서 상기 비디오 내 상기 프레임들을 순차적으로 표시하는 동안 상기 제1 부분의 위치, 또는 크기 중 적어도 하나를 조절할 수 있다.
예를 들어, 상기 적어도 하나의 프로세서는, 상기 인스트럭션들을 실행하여, 상기 식별된 복수의 피사체들 각각과 관련된 정보에 기반하여, 상기 복수의 시각적 객체들 중 적어도 하나 내에, 썸네일, 또는 텍스트 중 적어도 하나를 표시할 수 있다.
상술한 바와 같은, 일 실시예에 따른, 전자 장치(electronic device)는, 하우징, 디스플레이, 상기 하우징에 대한 상기 디스플레이의 위치를 제어하여 상기 디스플레이의 활성 영역(active area)을 조절하도록 구성된 액추에이터, 인스트럭션들을 저장하기 위한 메모리, 상기 디스플레이, 상기 액추에이터, 및 상기 메모리와 작동적으로 결합된(operably coupled to) 적어도 하나의 프로세서를 포함할 수 있다. 상기 적어도 하나의 프로세서는, 상기 인스트럭션들을 실행하여, 상기 메모리 내에 저장된 콘텐트를 식별하도록, 구성될 수 있다. 상기 콘텐트는 적어도 하나의 캡쳐된 피사체를 포함할 수 있다. 상기 적어도 하나의 프로세서는, 상기 인스트럭션들을 실행하여, 상기 디스플레이의 상기 하우징 안으로의 인입, 또는 상기 디스플레이의 상기 하우징으로부터의 인출 중 적어도 하나에 기반하여 조절되는, 상기 활성 영역의 크기를 획득하도록, 구성될 수 있다. 상기 적어도 하나의 프로세서는, 상기 인스트럭션들을 실행하여, 상기 활성 영역의 크기가 지정된(preset) 크기를 초과하는 제1 상태의 상기 디스플레이에 기반하여, 상기 콘텐트의 제1 배율에 기반하여 상기 콘텐트를 표시하도록, 구성될 수 있다. 상기 적어도 하나의 프로세서는, 상기 인스트럭션들을 실행하여, 상기 활성 영역의 크기가 상기 지정된 크기 미만인 제2 상태의 상기 디스플레이에 기반하여, 상기 적어도 하나의 캡쳐된 피사체의 위치와 관련된 제2 배율에 기반하여 상기 콘텐트의 적어도 일부분을 표시할 수 있다.
예를 들어, 상기 적어도 하나의 프로세서는, 상기 인스트럭션들을 실행하여, 상기 제1 상태의 상기 디스플레이에 기반하여, 상기 활성 영역 내에서 상기 콘텐트를 열람하기 위한 지정된 영역의 꼭지점에 상기 콘텐트의 적어도 하나의 꼭지점을 매칭하여, 상기 활성 영역에 상기 콘텐트를 표시하도록, 구성될 수 있다. 상기 적어도 하나의 프로세서는, 상기 인스트럭션들을 실행하여, 상기 제2 상태의 상기 디스플레이에 기반하여, 상기 지정된 영역의 꼭지점에 상기 일부분의 적어도 하나의 꼭지점을 매칭하여 상기 활성 영역에 상기 콘텐트의 상기 일부분을 표시할 수 있다.
예를 들어, 상기 적어도 하나의 프로세서는, 상기 인스트럭션들을 실행하여, 상기 제2 상태 내에서, 상기 콘텐트로부터 복수의 피사체들을 식별하는 것에 기반하여, 상기 활성 영역에, 상기 제2 배율에 기반하여 표시되는 상기 콘텐트의 상기 일부분과 함께, 상기 복수의 피사체들 각각에 대응하는 복수의 시각적 객체들을 표시할 수 있다.
예를 들어, 상기 적어도 하나의 프로세서는, 상기 인스트럭션들을 실행하여, 상기 복수의 피사체들을 식별하는 것에 기반하여, 상기 복수의 피사체들의 순서를 획득하도록, 구성될 수 있다. 상기 적어도 하나의 프로세서는, 상기 인스트럭션들을 실행하여, 상기 획득된 순서에 기반하여, 상기 복수의 시각적 객체들을 표시할 수 있다.
예를 들어, 상기 적어도 하나의 프로세서는, 상기 인스트럭션들을 실행하여, 상기 제2 상태의 상기 디스플레이, 및 상기 복수의 시각적 객체들의 제1 시각적 객체에 대응하는 제1 피사체를 포함하는 상기 콘텐트의 제1 부분을 표시하는 것에 기반하여, 상기 제1 시각적 객체와 상이한 제2 시각적 객체를 선택하는 입력을 수신하도록, 구성될 수 있다. 상기 적어도 하나의 프로세서는, 상기 인스트럭션들을 실행하여, 상기 수신된 입력에 기반하여, 상기 제2 시각적 객체에 대응하는 제2 피사체를 포함하는 상기 모터의 제2 부분을, 상기 활성 영역 내에 표시할 수 있다.
예를 들어, 상기 적어도 하나의 프로세서는, 상기 인스트럭션들을 실행하여, 상기 제2 상태의 상기 디스플레이에 기반하여, 상기 제2 배율에 기반하여 상기 콘텐트의 상기 일부분과 함께 적어도 하나의 시각적 객체를 표시하고, 상기 적어도 하나의 시각적 객체는 상기 적어도 하나의 캡쳐된 피사체에 대응하는 썸네일 또는 텍스트 중 적어도 하나를 포함할 수 있다.
예를 들어, 상기 적어도 하나의 프로세서는, 상기 인스트럭션들을 실행하여, 상기 제1 상태의 상기 디스플레이 및 상기 활성 영역의 크기를 상기 지정된 크기 보다 작게 축소하는 입력을 수신하는 것에 기반하여, 상기 제2 배율에 기반하여 상기 콘텐트의 상기 적어도 일부분을 표시할 수 있다.
상술한 바와 같은, 일 실시예에 따른, 전자 장치의 방법은, 상기 전자 장치의 디스플레이의 활성 영역 내에 콘텐트를 표시하기 위한 요청을 수신하는 동작을 포함할 수 있다. 상기 방법은, 상기 요청에 기반하여, 상기 콘텐트 내에 캡쳐된 복수의 피사체들을 식별하는 동작을 포함할 수 있다. 상기 방법은, 상기 콘텐트로부터 상기 복수의 피사체들을 식별하는 것에 기반하여, 상기 복수의 피사체들의 순서를 획득하는 동작을 포함할 수 있다. 상기 방법은, 상기 획득된 순서에 기반하여, 상기 디스플레이의 상기 활성 영역 내에, 상기 복수의 피사체들 각각에 대응하는 복수의 시각적 객체들을 표시하는 동작을 포함할 수 있다. 상기 방법은, 상기 디스플레이를 변형하기 위한 상기 전자 장치의 액추에이터에 의해 제어되는 상기 활성 영역의 크기에 기반하여, 상기 복수의 피사체들 중 상기 순서에 기반하여 선택된 적어도 하나의 피사체가 캡쳐된 상기 콘텐트의 제1 부분, 및 상기 제1 부분과 상이한 상기 콘텐트의 제2 부분 중에서, 상기 제1 부분을, 상기 활성 영역 내에서 상기 복수의 시각적 객체들과 함께 표시하는 동작을 포함할 수 있다.
예를 들어, 상기 제1 부분을 표시하는 동작은, 상기 활성 영역의 상기 크기가 지정된 크기 미만인 제1 상태의 상기 디스플레이에 기반하여 상기 제1 부분을 표시하는 동작을 포함할 수 있다. 상기 방법은, 상기 활성 영역의 상기 크기가 상기 지정된 크기를 초과하는 제2 상태의 상기 디스플레이에 기반하여, 상기 콘텐트의 상기 제1 부분, 및 상기 제2 부분을 표시하는 동작을 포함할 수 있다.
예를 들어, 상기 방법은, 상기 복수의 시각적 객체들 중에서, 제1 시각적 객체와 상이한 제2 시각적 객체를 선택하는 입력을 수신하는 동작을 포함할 수 있다. 상기 제1 시각적 객체는 상기 제1 부분에 캡쳐된 제1 피사체에 대응할 수 있다. 상기 방법은, 상기 입력에 기반하여, 상기 제2 시각적 객체에 대응하는 상기 콘텐트의 제3 부분을 표시하는 동작을 포함할 수 있다. 상기 제2 시각적 객체는 상기 제3 부분에 캡쳐된 제2 시각적 객체에 대응할 수 있다.
예를 들어, 상기 순서를 획득하는 동작은, 상기 콘텐트 내에 포함된 태그, 또는 상기 복수의 피사체들의 타입 중 적어도 하나에 기반하여 상기 순서를 획득하는 동작을 포함할 수 있다. 상기 방법은, 상기 전자 장치의 사용자 및 상기 복수의 피사체들 중 적어도 하나의 피사체 사이의 호 연결, 또는 텍스트 메시지의 교환 중 적어도 하나에 기반하여, 상기 순서를 획득하는 동작을 포함할 수 있다.
예를 들어, 상기 콘텐트의 상기 제1 부분을 표시하는 동작은, 프레임들을 포함하는 비디오에 대응하는 상기 콘텐트에 기반하여, 상기 비디오에 포함된 프레임들 각각 내에서, 상기 복수의 피사체들의 제1 피사체의 위치들을 획득하는 동작을 포함할 수 있다. 상기 방법은, 상기 활성 영역 내에서 상기 비디오의 재생에 기반하여 상기 프레임들을 순차적으로 표시하는 동안, 상기 획득된 위치들 중 적어도 하나에 기반하여, 상기 콘텐트 내 상기 제1 부분의 위치, 또는 크기 중 적어도 하나를 조절하는 동작을 포함할 수 있다.
예를 들어, 상기 활성 영역의 크기에 기반하여, 상기 제1 부분을 표시하는 동작은, 상기 활성 영역의 사이즈가 지정된 사이즈 보다 작은 제1 상태의 상기 디스플레이에 기반하여, 상기 복수의 시각적 객체들과 함께 상기 콘텐트의 상기 제1 부분을 표시하는 동작을 포함할 수 있다.
예를 들어, 상기 방법은, 상기 활성 영역의 상기 사이즈가 상기 지정된 사이즈 보다 큰 제2 상태의 상기 디스플레이에 기반하여, 상기 제1 부분과 상이한 상기 콘텐트의 상기 제2 부분 및 상기 콘텐트의 상기 제1 부분을 표시하는 동작을 포함할 수 있다.
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 어플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 컴퓨터 저장 매체 또는 장치에 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 이때, 매체는 컴퓨터로 실행 가능한 프로그램을 계속 저장하거나, 실행 또는 다운로드를 위해 임시 저장하는 것일 수도 있다. 또한, 매체는 단일 또는 수 개의 하드웨어가 결합된 형태의 다양한 기록수단 또는 저장수단일 수 있는데, 어떤 컴퓨터 시스템에 직접 접속되는 매체에 한정되지 않고, 네트워크 상에 분산 존재하는 것일 수도 있다. 매체의 예시로는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등을 포함하여 프로그램 명령어가 저장되도록 구성된 것이 있을 수 있다. 또한, 다른 매체의 예시로, 어플리케이션을 유통하는 앱 스토어나 기타 다양한 소프트웨어를 공급 내지 유통하는 사이트, 서버 등에서 관리하는 기록매체 내지 저장매체도 들 수 있다.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구의 범위와 균등한 것들도 후술하는 특허청구의 범위의 범위에 속한다.

Claims (15)

  1. 전자 장치(electronic device)에 있어서,
    하우징;
    디스플레이;
    상기 하우징에 대한 상기 디스플레이의 위치를 제어하여 상기 디스플레이의 활성 영역(active area)을 조절하도록 구성된 액추에이터;
    인스트럭션들을 저장하기 위한 메모리;
    상기 디스플레이, 상기 액추에이터, 및 상기 메모리와 작동적으로 결합된(operably coupled to) 적어도 하나의 프로세서를 포함하고,
    상기 적어도 하나의 프로세서는 상기 인스트럭션들을 실행하여,
    상기 활성 영역에 콘텐트를 표시하기 위한 요청을 수신하고;
    상기 요청에 기반하여, 상기 콘텐트 내에 캡쳐된 복수의 피사체들을 식별하고;
    상기 콘텐트로부터 상기 복수의 피사체들을 식별하는 것에 기반하여, 상기 복수의 피사체들의 순서(sequence)를 획득하고;
    상기 순서에 기반하여, 상기 디스플레이의 상기 활성 영역에, 상기 복수의 피사체들 각각에 대응하는 복수의 시각적 객체들을 표시하고; 및
    상기 액추에이터에 의해 제어되는 상기 활성 영역의 크기에 기반하여, 상기 복수의 피사체들 중 상기 순서에 기반하여 선택된 적어도 하나의 피사체가 캡쳐된 상기 콘텐트의 제1 부분, 및 상기 제1 부분과 상이한 상기 콘텐트의 제2 부분 중에서, 상기 제1 부분을, 상기 활성 영역 내에서 상기 복수의 시각적 객체들과 함께 표시하도록, 구성된, 전자 장치.
  2. 제1항에 있어서,
    상기 적어도 하나의 프로세서는, 상기 인스트럭션들을 실행하여,
    상기 활성 영역의 상기 사이즈가 지정된 사이즈 보다 작은 제1 상태의 상기 디스플레이에 기반하여, 상기 복수의 시각적 객체들과 함께 상기 콘텐트의 상기 제1 부분을 표시하고; 및
    상기 활성 영역의 상기 사이즈가 상기 지정된 사이즈 보다 큰 제2 상태의 상기 디스플레이에 기반하여, 상기 제1 부분과 상이한 상기 콘텐트의 상기 제2 부분 및 상기 콘텐트의 상기 제1 부분을 표시하도록, 구성된, 전자 장치.
  3. 제2항에 있어서,
    상기 적어도 하나의 프로세서는, 상기 인스트럭션들을 실행하여,
    상기 제1 상태 내에서, 상기 디스플레이의 상기 인출에 기반하여, 상기 활성 영역 내에, 상기 제1 부분, 및 상기 제2 부분을 표시하도록, 구성된, 전자 장치.
  4. 제1항에 있어서,
    상기 적어도 하나의 프로세서는, 상기 인스트럭션들을 실행하여,
    상기 복수의 시각적 객체들 중 제1 시각적 객체와 상이한 제2 시각적 객체를 선택하는 입력을 수신하고, 상기 제1 시각적 객체는 상기 제1 부분 내에 캡쳐된 제1 피사체에 대응함; 및
    상기 입력에 기반하여, 상기 제2 시각적 객체에 대응하는 상기 콘텐트의 제3 부분을, 상기 활성 영역 내에 표시하고, 상기 제2 시각적 객체는 상기 제3 부분 내에 캡쳐된 제2 피사체에 대응하는, 전자 장치.
  5. 제1항에 있어서,
    상기 적어도 하나의 프로세서는, 상기 인스트럭션들을 실행하여,
    상기 콘텐트 내에 포함된 태그, 또는 상기 복수의 피사체들의 타입 중 적어도 하나에 기반하여 상기 순서를 획득하는, 전자 장치.
  6. 제1항에 있어서,
    상기 적어도 하나의 프로세서는, 상기 인스트럭션들을 실행하여,
    상기 전자 장치의 사용자 및 상기 복수의 피사체들 중 적어도 하나의 피사체 사이의 호 연결, 또는 텍스트 메시지의 교환에 기반하여, 상기 순서를 획득하는, 전자 장치.
  7. 제1항에 있어서,
    상기 적어도 하나의 프로세서는, 상기 인스트럭션들을 실행하여,
    프레임들을 포함하는 비디오에 대응하는 상기 콘텐트에 기반하여, 상기 비디오에 포함된 상기 프레임들 각각 내에서, 상기 복수의 피사체들의 제1 피사체의 위치들을 획득하고;
    상기 제1 피사체의 상기 위치들 중 적어도 하나에 기반하여, 상기 활성 영역 내에서 상기 비디오 내 상기 프레임들을 순차적으로 표시하는 동안 상기 제1 부분의 위치, 또는 크기 중 적어도 하나를 조절하는, 전자 장치.
  8. 제1항에 있어서,
    상기 적어도 하나의 프로세서는, 상기 인스트럭션들을 실행하여,
    상기 식별된 복수의 피사체들 각각과 관련된 정보에 기반하여, 상기 복수의 시각적 객체들 중 적어도 하나 내에, 썸네일, 또는 텍스트 중 적어도 하나를 표시하는, 전자 장치.
  9. 전자 장치의 방법에 있어서,
    상기 전자 장치의 디스플레이의 활성 영역 내에 콘텐트를 표시하기 위한 요청을 수신하는 동작;
    상기 요청에 기반하여, 상기 콘텐트 내에 캡쳐된 복수의 피사체들을 식별하는 동작;
    상기 콘텐트로부터 상기 복수의 피사체들을 식별하는 것에 기반하여, 상기 복수의 피사체들의 순서를 획득하는 동작;
    상기 획득된 순서에 기반하여, 상기 디스플레이의 상기 활성 영역 내에, 상기 복수의 피사체들 각각에 대응하는 복수의 시각적 객체들을 표시하는 동작; 및
    상기 디스플레이를 변형하기 위한 상기 전자 장치의 액추에이터에 의해 제어되는 상기 활성 영역의 크기에 기반하여, 상기 복수의 피사체들 중 상기 순서에 기반하여 선택된 적어도 하나의 피사체가 캡쳐된 상기 콘텐트의 제1 부분, 및 상기 제1 부분과 상이한 상기 콘텐트의 제2 부분 중에서, 상기 제1 부분을, 상기 활성 영역 내에서 상기 복수의 시각적 객체들과 함께 표시하는 동작을 포함하는, 방법.
  10. 제9항에 있어서,
    상기 제1 부분을 표시하는 동작은,
    상기 활성 영역의 상기 크기가 지정된 크기 미만인 제1 상태의 상기 디스플레이에 기반하여 상기 제1 부분을 표시하는 동작; 및
    상기 활성 영역의 상기 크기가 상기 지정된 크기를 초과하는 제2 상태의 상기 디스플레이에 기반하여, 상기 콘텐트의 상기 제1 부분, 및 상기 제2 부분을 표시하는 동작을 포함하는, 방법.
  11. 제9항에 있어서,
    상기 복수의 시각적 객체들 중에서, 제1 시각적 객체와 상이한 제2 시각적 객체를 선택하는 입력을 수신하는 동작, 상기 제1 시각적 객체는 상기 제1 부분에 캡쳐된 제1 피사체에 대응함; 및
    상기 입력에 기반하여, 상기 제2 시각적 객체에 대응하는 상기 콘텐트의 제3 부분을 표시하는 동작을 더 포함하고, 상기 제2 시각적 객체는 상기 제3 부분에 캡쳐된 제2 시각적 객체에 대응하는, 방법.
  12. 제9항에 있어서,
    상기 순서를 획득하는 동작은,
    상기 콘텐트 내에 포함된 태그, 또는 상기 복수의 피사체들의 타입 중 적어도 하나에 기반하여 상기 순서를 획득하는 동작; 및
    상기 전자 장치의 사용자 및 상기 복수의 피사체들 중 적어도 하나의 피사체 사이의 호 연결, 또는 텍스트 메시지의 교환 중 적어도 하나에 기반하여, 상기 순서를 획득하는 동작을 포함하는, 방법.
  13. 제9항에 있어서,
    상기 콘텐트의 상기 제1 부분을 표시하는 동작은,
    프레임들을 포함하는 비디오에 대응하는 상기 콘텐트에 기반하여, 상기 비디오에 포함된 프레임들 각각 내에서, 상기 복수의 피사체들의 제1 피사체의 위치들을 획득하는 동작; 및
    상기 활성 영역 내에서 상기 비디오의 재생에 기반하여 상기 프레임들을 순차적으로 표시하는 동안, 상기 획득된 위치들 중 적어도 하나에 기반하여, 상기 콘텐트 내 상기 제1 부분의 위치, 또는 크기 중 적어도 하나를 조절하는 동작을 포함하는, 방법.
  14. 제9항에 있어서, 상기 활성 영역의 크기에 기반하여, 상기 제1 부분을 표시하는 동작은,
    상기 활성 영역의 사이즈가 지정된 사이즈 보다 작은 제1 상태의 상기 디스플레이에 기반하여, 상기 복수의 시각적 객체들과 함께 상기 콘텐트의 상기 제1 부분을 표시하는 동작을 포함하는, 방법.
  15. 제14항에 있어서,
    상기 활성 영역의 상기 사이즈가 상기 지정된 사이즈 보다 큰 제2 상태의 상기 디스플레이에 기반하여, 상기 제1 부분과 상이한 상기 콘텐트의 상기 제2 부분 및 상기 콘텐트의 상기 제1 부분을 표시하는 동작을 더 포함하는, 방법.
PCT/KR2023/000747 2022-04-19 2023-01-16 디스플레이의 변형에 기반하여 콘텐트를 표시하기 위한 전자 장치 및 그 방법 WO2023204388A1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP23791972.5A EP4440089A1 (en) 2022-04-19 2023-01-16 Electronic device for displaying content on basis of deformation of display, and method therefor
US18/120,717 US20230334739A1 (en) 2022-04-19 2023-03-13 Electronic device and method for displaying content based on transformation of display

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR20220047996 2022-04-19
KR10-2022-0047996 2022-04-19
KR10-2022-0082533 2022-07-05
KR1020220082533A KR20230149185A (ko) 2022-04-19 2022-07-05 디스플레이의 변형에 기반하여 콘텐트를 표시하기 위한 전자 장치 및 그 방법

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US18/120,717 Continuation US20230334739A1 (en) 2022-04-19 2023-03-13 Electronic device and method for displaying content based on transformation of display

Publications (1)

Publication Number Publication Date
WO2023204388A1 true WO2023204388A1 (ko) 2023-10-26

Family

ID=88420120

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2023/000747 WO2023204388A1 (ko) 2022-04-19 2023-01-16 디스플레이의 변형에 기반하여 콘텐트를 표시하기 위한 전자 장치 및 그 방법

Country Status (1)

Country Link
WO (1) WO2023204388A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170053273A (ko) * 2015-11-06 2017-05-16 삼성전자주식회사 컨텐츠 표시 방법 및 이를 구현한 전자 장치
KR20190021042A (ko) * 2017-08-22 2019-03-05 삼성전자주식회사 표시 장치에 표시된 콘텐트의 크기를 변경하기 위한 방법 및 그 전자 장치
KR20190098340A (ko) * 2018-02-14 2019-08-22 삼성전자주식회사 어플리케이션과 관련된 기능 또는 콘텐트를 제공하는 방법 및 이를 수행하는 전자 장치
KR20190106769A (ko) * 2018-03-07 2019-09-18 삼성전자주식회사 전자 장치 및 전자 장치에서 오브젝트를 디스플레이 하는 방법
KR20210074254A (ko) * 2018-02-22 2021-06-21 삼성전자주식회사 디스플레이 영역의 크기 변경이 가능한 플렉시블 디스플레이를 포함하는 전자 장치 및 그 제어 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170053273A (ko) * 2015-11-06 2017-05-16 삼성전자주식회사 컨텐츠 표시 방법 및 이를 구현한 전자 장치
KR20190021042A (ko) * 2017-08-22 2019-03-05 삼성전자주식회사 표시 장치에 표시된 콘텐트의 크기를 변경하기 위한 방법 및 그 전자 장치
KR20190098340A (ko) * 2018-02-14 2019-08-22 삼성전자주식회사 어플리케이션과 관련된 기능 또는 콘텐트를 제공하는 방법 및 이를 수행하는 전자 장치
KR20210074254A (ko) * 2018-02-22 2021-06-21 삼성전자주식회사 디스플레이 영역의 크기 변경이 가능한 플렉시블 디스플레이를 포함하는 전자 장치 및 그 제어 방법
KR20190106769A (ko) * 2018-03-07 2019-09-18 삼성전자주식회사 전자 장치 및 전자 장치에서 오브젝트를 디스플레이 하는 방법

Similar Documents

Publication Publication Date Title
WO2021201315A1 (ko) 이미지를 표시하는 이동 단말기 및 그 제어 방법
WO2021221180A1 (ko) 콘텐츠를 표시하는 이동 단말기 및 그 제어 방법
WO2014133219A1 (en) Digital device and method for controlling the same
WO2018030594A1 (en) Mobile terminal and method for controlling the same
WO2017048076A1 (en) Display apparatus and method for controlling display of display apparatus
WO2016209020A1 (en) Image processing apparatus and image processing method
WO2014025185A1 (en) Method and system for tagging information about image, apparatus and computer-readable recording medium thereof
WO2011078540A2 (en) Mobile device and related control method for external output depending on user interaction based on image sensing module
WO2014137131A1 (en) Method and apparatus for manipulating data on electronic device display
WO2015186964A1 (ko) 촬영 장치 및 촬영 장치의 비디오 생성방법
WO2016072674A1 (en) Electronic device and method of controlling the same
WO2021085658A1 (ko) 크기가 변경되는 디스플레이를 포함하는 전자 장치 및 그 제어 방법
WO2021025534A1 (ko) 카메라 프리뷰 이미지를 제공하기 위한 전자 장치 및 그의 동작 방법
WO2022034942A1 (ko) 이미지 표시 장치 및 그 제어 방법
WO2019160198A1 (ko) 이동 단말기 및 그 제어방법
WO2017086559A1 (en) Image display device and operating method of the same
WO2016204449A1 (en) Electronic device for displaying a plurality of images and method for processing an image
WO2020059925A1 (ko) 이동 단말기
WO2021157954A1 (ko) 복수의 카메라를 이용한 동영상 촬영 방법 및 그 장치
WO2016089074A1 (en) Device and method for receiving character input through the same
WO2022119143A1 (ko) 전자 장치 및 전자 장치의 디스플레이 확장 방법
WO2021187850A1 (ko) 멀티 윈도우를 표시하기 위한 폴더블 전자 장치 및 그의 동작 방법
WO2016129843A1 (en) Display apparatus and display method
WO2019194423A1 (en) Electronic apparatus and operating method thereof
WO2021241774A1 (ko) 이동단말기 및 그 제어방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23791972

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2023791972

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2023791972

Country of ref document: EP

Effective date: 20240625