WO2024019312A1 - 촬영을 위한 사용자 인터페이스를 위한 전자 장치, 방법, 및 비일시적 컴퓨터 판독가능 저장 매체 - Google Patents

촬영을 위한 사용자 인터페이스를 위한 전자 장치, 방법, 및 비일시적 컴퓨터 판독가능 저장 매체 Download PDF

Info

Publication number
WO2024019312A1
WO2024019312A1 PCT/KR2023/007545 KR2023007545W WO2024019312A1 WO 2024019312 A1 WO2024019312 A1 WO 2024019312A1 KR 2023007545 W KR2023007545 W KR 2023007545W WO 2024019312 A1 WO2024019312 A1 WO 2024019312A1
Authority
WO
WIPO (PCT)
Prior art keywords
area
magnification
display
state
image
Prior art date
Application number
PCT/KR2023/007545
Other languages
English (en)
French (fr)
Inventor
이재한
엄태원
장광현
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020220099030A external-priority patent/KR20240010685A/ko
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Publication of WO2024019312A1 publication Critical patent/WO2024019312A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio

Definitions

  • the descriptions below relate to an electronic device, a method, and a non-transitory computer readable storage medium for a user interface (UI) for photography.
  • UI user interface
  • a portable electronic device may include a plurality of cameras.
  • the electronic device may display a user interface (UI) for photography for an image acquired through at least one of the plurality of cameras.
  • the UI may include a viewfinder area so that the photographer can check the status of the image.
  • the electronic device may include a display.
  • the electronic device may include a plurality of cameras.
  • the electronic device may include a processor.
  • the processor is configured to represent, through the display, a first scene, acquired through at least one of the plurality of cameras, within a first area of a user interface (UI) for photography ( represent), displaying the first preview image at a first magnification that is less than the reference magnification, and displaying one or more images acquired through at least one of the plurality of cameras within a second area of the UI that is distinct from the first area. It may be configured to display one or more thumbnail images, each indicating.
  • UI user interface
  • the processor may be configured to receive an input for changing the first magnification to a second magnification that is greater than or equal to the reference magnification while the first preview image and the one or more thumbnail images are displayed within the UI. Based on the input, the processor displays, through the display, a second preview image representing a second scene in which a part of the first scene is enlarged at the second magnification within the first area, It may be configured to display a guide image representing the second scene for at least a portion of the first scene within the second area.
  • a method for an electronic device including a display and a plurality of cameras includes expressing, through the display, a first scene, acquired through at least one of the plurality of cameras, within a first area of a user interface (UI) for photography ( represent), displaying the first preview image at a first magnification that is less than the reference magnification, and displaying one or more images acquired through at least one of the plurality of cameras within a second area of the UI that is distinct from the first area. It may include the operation of displaying one or more thumbnail images, each indicated.
  • the method may include receiving an input to change the first magnification to a second magnification that is greater than or equal to the reference magnification while the first preview image and the one or more thumbnail images are displayed within the UI.
  • the method includes, based on the input, displaying, through the display, a second preview image within the first area representing a second scene in which a portion of the first scene is enlarged at the second magnification, The method may include displaying a guide image representing the second scene for at least a portion of the first scene within the second area.
  • a non-transitory computer-readable storage medium storing one or more programs is provided.
  • the one or more programs are executed by a processor of an electronic device including a display and a plurality of cameras, the one or more programs are displayed, through the display, within a first area of a user interface (UI) for photography, the plurality of cameras.
  • UI user interface
  • the one or more programs when executed by the processor, provide an input for changing the first magnification to a second magnification that is greater than or equal to the reference magnification while the first preview image and the one or more thumbnail images are displayed within the UI.
  • the one or more programs when executed by the processor, display, based on the input, a second preview image representing a second scene in which a portion of the first scene is enlarged at the second magnification through the display. Instructions that cause the electronic device to display within a first area and to display a guide image representing the second scene for at least a portion of the first scene within the second area.
  • FIG. 1 depicts an environment containing an example electronic device.
  • FIG. 2 illustrates an exemplary electronic device capable of performing the operations to be illustrated within this document.
  • Figure 3 shows an example of an operation for displaying a guide image within a user interface (UI) for photography.
  • UI user interface
  • Figure 4 shows an example of a UI including a first area and a second area.
  • Figure 5 shows an example of a guide image that moves according to the movement of a visual object.
  • FIG. 6 shows an example of an operation for displaying a third preview image in response to an input received while displaying a first preview image.
  • FIG. 7 shows an example of a third preview image displayed in response to input received while displaying the first preview image.
  • Figure 8 shows an example of an operation of changing the display state of a second preview image in response to a user input on a guide image.
  • 9, 10, 11, and 12 show examples of the display state of a second preview image that changes in response to a user input on a guide image.
  • FIG. 13 shows an example of an operation of displaying a first area with an enlarged size according to a change from the first state to the second state.
  • FIG. 14 illustrates an example of a plurality of states of an example electronic device.
  • FIG. 15 shows an example of a UI that changes in response to a change from a first state to a second state or from a second state to a first state.
  • FIG. 16 shows an example of a UI that changes in response to a change from the first state to the second state or from the first state to the third state.
  • 17 shows an example of an operation for identifying whether the first state changes to the second state.
  • FIG. 1 depicts an environment containing an example electronic device.
  • the electronic device 100 may include a telephoto camera and a wide angle camera.
  • the field of view (FOV) 110 of the telephoto camera may be relatively narrow.
  • the electronic device 100 represents a scene acquired through a telephoto camera with respect to a scene acquired through a wide-angle camera having a FOV 120 wider than the FOV 110.
  • a guidance image can be displayed within a user interface (UI) for photography. For example, as the size of the guide image increases, this inconvenience can be further reduced.
  • UI user interface
  • FIG. 2 shows an exemplary electronic device capable of performing the operations to be illustrated within this document.
  • the electronic device 200 (e.g., electronic device 100) includes a laptop 290, smartphones 291 having various form factors (e.g., a bar-type smartphone 291-1), ), various types of mobile devices, such as foldable-type smartphones 291-2, or rollable-type smartphones 291-3), tablets 292, cellular phones, and other similar computing devices. It could be one of these.
  • the components shown in FIG. 2, their relationships, and their functions are illustrative only and do not limit the implementations described or claimed within this document.
  • Electronic device 200 may be referred to as a user device, multi-function device, or portable device.
  • the electronic device 200 includes a processor 210, volatile memory 220, non-volatile memory 230, display 240, image sensor 250, communication circuit 260, and sensor 270. May contain components. The above components are merely exemplary.
  • the electronic device 200 may include other components (eg, a power management integrated circuit (PMIC), an audio processing circuit, or an input/output interface). For example, some components may be omitted from electronic device 200.
  • PMIC power management integrated circuit
  • the processor 210 may be implemented with one or more integrated circuit (IC) chips and may perform various data processing.
  • the processor 210 may be implemented as a system on chip (SoC) (eg, a single chip or chipset).
  • SoC system on chip
  • the processor 210 includes a central processing unit (CPU) 211, a graphics processing unit (GPU) 212, a neural processing unit (NPU) 213, an image signal processor (ISP) 214, and a display controller 215. ), a memory controller 216, a storage controller 217, a communication processor (CP) 218, and/or a sensor interface 219.
  • the above sub-components are merely examples.
  • the processor 210 may further include other sub-components. For example, some sub-components may be omitted from processor 210.
  • CPU 211 may be configured to control the sub-components based on execution of instructions stored in volatile memory 220 and/or non-volatile memory 230.
  • GPU 212 may include circuitry configured to execute parallel operations (e.g., rendering).
  • NPU 213 may include circuitry configured to execute computations (e.g., convolution computation) for an artificial intelligence model.
  • ISP 214 may include circuitry configured to process raw images acquired via image sensor 250 into a format suitable for components within electronic device 200 or subcomponents within processor 210. You can.
  • the image sensor 250 may include a plurality of cameras.
  • the image sensor 250 may include a wide-angle camera and a telephoto camera.
  • the wide-angle camera may have a first FOV (eg, FOV 120) and a first focal length.
  • the wide-angle camera may be referred to as a first camera.
  • the telephoto camera may have a second FOV (eg, FOV 110) narrower than the first FOV and a second focal length longer than the first focal length.
  • the telephoto camera may be referred to as a second camera.
  • the direction in which the first camera faces may correspond to the direction in which the second camera faces.
  • Display controller 215 may include circuitry configured to process images obtained from CPU 211, GPU 212, ISP 214, or volatile memory 220 into a format suitable for display 240.
  • Memory controller 216 may include circuitry configured to control reading data from and writing data to volatile memory 220 .
  • the storage controller 217 may include circuitry configured to control reading data from the non-volatile memory 230 and writing data to the non-volatile memory 230 .
  • CP 218 processes data obtained from sub-components within processor 210 into a suitable format for transmission to another electronic device via communication circuitry 260, or from another electronic device via communication circuitry 260. and circuitry configured to process the acquired data into a format suitable for processing by the sub-component.
  • the sensor interface 219 converts data obtained through the sensor 270 about the state of the electronic device 200 and/or the state surrounding the electronic device 200 into a format suitable for sub-components within the processor 210. It may include a circuit configured to process.
  • Figure 3 shows an example of an operation for displaying a guide image within a user interface (UI) for photography. Operations illustrated in FIG. 3 may be performed by the electronic device 100 shown in FIG. 1, the electronic device 200 shown in FIG. 2, or the processor 210 of the electronic device 200 shown in FIG. 2. It can be executed by .
  • UI user interface
  • the processor 210 processes a first scene (e.g., the image sensor 250 in FIG. 2) of the electronic device 200.
  • a first preview image representing a scene) and one or more thumbnail images each representing one or more images acquired through at least one of the plurality of cameras may be displayed through the display 240.
  • the first preview image and the one or more thumbnail images may be displayed within a user interface (UI) for photography.
  • UI user interface
  • the first preview image may be displayed within the first area of the UI.
  • the first area may include a viewfinder area.
  • the first area may include an executable object for controlling images (eg, static images and dynamic images (eg, video)) corresponding to the first preview image.
  • images eg, static images and dynamic images (eg, video)
  • the first area may include an executable object (eg, a visual shooting button) indicating acquiring the image.
  • the first region may include an executable object for starting and ending acquiring the image.
  • the first preview image may represent the first scene.
  • the first scene may represent at least a portion of the environment surrounding the electronic device 200, included within the FOV of at least one of the plurality of cameras.
  • the first preview image may be displayed at a first magnification that is lower than the reference magnification.
  • the reference magnification will be illustrated through operation 303.
  • the one or more thumbnail images may be displayed within a second area of the UI.
  • the second area may include an area displaying the one or more thumbnail images corresponding to the one or more images that are acquired or were acquired while displaying the first preview image.
  • the second area may include an area displaying the one or more thumbnail images corresponding to the one or more images that were acquired before displaying the first preview image.
  • the second area calls or displays N images (N is a natural number of 1 or more) that were recently acquired using the electronic device 200 (or at least one of the plurality of cameras) within the UI. It may be an area provided for this purpose.
  • the number (eg, N) of one or more thumbnail images that can be displayed in the second area may be predefined or determined based on the size of the second area.
  • the second area may be referred to as a capture and view area.
  • the size of each of the one or more thumbnail images may be larger than the size of an item in the first area representing the most recently acquired single image (e.g., a circular item positioned around the visual capture button). there is.
  • each of the one or more thumbnail images may provide more detailed information than the item. However, it is not limited to this.
  • the UI including the first area and the second area can be illustrated through FIG. 4.
  • Figure 4 shows an example of a UI including a first area and a second area.
  • the processor 210 may display the UI 410, which is the UI.
  • the UI 410 may include a first area 420 and a second area 430.
  • the first area 420 may include a first preview image 421, which is the first preview image.
  • the first area 420 may include an executable object 422 that is a shooting button.
  • the first area 420 may include an executable object 423, which is the item.
  • the executable object 423 may be used to display a UI of a software application for managing photos (or images) in response to a touch input.
  • the processor 210 may display the UI of the software application including the most recently captured photo in response to the touch input on the executable object 423.
  • the first region 420 may include an executable object 424 for changing the camera used to acquire the image.
  • the first area 420 may include executable objects 425 for providing effects and settings to be applied to an image that is being acquired through a camera or will be acquired through a camera.
  • the first area 420 may include a set of executable objects 426 for changing the magnification of the first preview image 421 and/or the magnification of the image corresponding to the first preview image 421. It can be included.
  • executable object 427 in set 426 may be used to change the magnification of first preview image 421 (and/or the magnification of the image) to the magnification indicated by a drag input. You can.
  • the executable objects 428 in the set 426 may be displayed in the first preview image 421 at the scale represented by one of the executable objects 428 identified by the touch input. may be used to change the magnification of (and/or the magnification of the image). However, it is not limited to this.
  • the first area 420 may be an area maintained within the UI 410 independently of changes in the state of the electronic device 200.
  • the change in the state of the electronic device 200 will be illustrated through the description of FIGS. 13 to 17.
  • the second area 430 may include one or more thumbnail images 431, which are the one or more thumbnail images.
  • one or more thumbnail images 431 may represent one or more images that were recently acquired through the electronic device 200 or through a camera of the electronic device 200.
  • the size of each of the one or more thumbnail images 431 may be larger than the size of the executable object 423. However, it is not limited to this.
  • the processor 210 changes the first magnification to a second magnification that is greater than or equal to the reference magnification while the first preview image and the one or more thumbnail images are displayed within the UI.
  • Input to change can be received.
  • the reference magnification may be a parameter for identifying whether to display a guide image in the second area, as will be illustrated below.
  • the reference magnification may be a parameter used to identify whether to execute operation 305 or not.
  • the reference magnification may be 20 times. However, it is not limited to this.
  • the processor 210 may display a second preview image within the first area and a guide image within the second area through the display 240, based on the input.
  • the second preview image may represent a second scene in which a part of the first scene is enlarged at the second magnification.
  • the camera used to acquire the second preview image may be different from the camera used to acquire the first preview image.
  • the first preview image may be acquired through the first camera illustrated in FIG. 2, and the second preview image may be acquired through the second camera illustrated in FIG. 2.
  • the camera used to acquire the second preview image may be the same as the camera used to acquire the first preview image.
  • the second preview image may be an enlarged image of the first preview image through digital zoom. However, it is not limited to this.
  • the guide image may be an image for guiding or assisting shooting through the second preview image.
  • the guide image may represent the second scene with respect to at least a portion of the first scene.
  • the guide image may include a visual element for informing or guiding the location of the second scene within at least a portion of the first scene.
  • the guide image may represent the second scene with respect to the first scene.
  • the guide image may be the second scene represented by the second preview image displayed at the second magnification with respect to the first scene represented by the first preview image displayed at the first magnification. It can represent a scene.
  • the guide image may represent the second scene for a portion of the first scene.
  • the guide image may be configured to display the second magnification for the portion of the first scene represented by a portion of the first preview image displayed at a third magnification that is greater than the first magnification and less than the second magnification.
  • the second scene represented by the second preview image displayed at magnification may be displayed.
  • the third magnification may be less than the reference magnification.
  • the third magnification may be greater than or equal to the reference magnification.
  • the third magnification may be identified based on the second magnification.
  • the third magnification may be 1/a times the second magnification (a is a real number of 1 or more).
  • the third magnification may be 4.
  • the third magnification may be 10.
  • the third magnification may be 20.
  • the third magnification may be 10.
  • the guide image may represent the second preview image for an image having a fourth magnification that is smaller than the first magnification.
  • the image may be an image representing a scene including the first scene. However, it is not limited to this.
  • the guide image may be referred to as a map view image or mini map image.
  • the first preview image, the second preview image, and the guide image may be displayed while acquiring video through at least one of the plurality of cameras.
  • the second preview image and the guide image may be illustrated in FIG. 4 .
  • processor 210 may receive the input.
  • the input may be an input for changing the first magnification to a second magnification that is greater than or equal to the reference magnification.
  • the input may be an input for enlarging the first preview image 421.
  • the input may be received via executable object 427.
  • the input may be a drag input received through the executable object 427.
  • the second magnification may be identified based on the position at which the drag input is released.
  • the input may be a tap input indicating selecting one of the executable objects 428 (eg, the executable object 429).
  • the second magnification may be a magnification (eg, 8 times) represented by the executable object (eg, executable object 429).
  • the processor 210 may change state 400 to state 450 in response to the input.
  • the processor 210 may change the state 400 to the state 450 based on the second magnification that is greater than or equal to the reference magnification.
  • the processor 210 may display a second preview image 451, which is the second preview image, within the first area 420.
  • the processor 210 may display the guide image 440, which is the guide image, within the second area 430.
  • the guide image 440 may include a visual element 441.
  • the visual element 441 may represent the second scene with respect to at least a portion of the first scene.
  • visual element 441 may be included in guide image 440 to indicate the location of the second scene within the at least part of the first scene.
  • the visual element 441 is an element independent from the guide image 440 and may be an element that overlaps the guide image 440. However, it is not limited to this.
  • processor 210 stops displaying some of the one or more thumbnail images 431 within second region 430, based on the input, and A guide image 440 may be displayed within the second area 430.
  • one or more thumbnail images 431 may be moved based on the input.
  • display of some of the one or more thumbnail images 431 may be interrupted in response to the movement.
  • the processor 210 unlike the illustration of state 450, provides a guide to replace one of the one or more thumbnail images 431 within the second area 430 based on the input.
  • An image 440 may be displayed.
  • the processor 210 has a guide image 440 and a reduced size within the second area 430 based on the input.
  • One or more thumbnail images 431 may be displayed. However, it is not limited to this.
  • the guide image 440 is visually relative to the remaining portion of the one or more thumbnail images 431 that remain displayed within the second area 430 after the input is received. Can be visually highlighted. According to one embodiment, the remaining portion of the one or more thumbnail images 431 maintained within the second area 430 after the input is received, unlike the guide image 440, may be blurred. there is. According to one embodiment, the remaining portion of the one or more thumbnail images 431 maintained within the second area 430 after the input is received, unlike the guide image 440, may be dimmed. there is. For example, the processor 210 may display a translucent layer overlaid on the remaining portion of one or more thumbnail images 431 . However, it is not limited to this.
  • the location of the guide image 440 within the second area 430 may be identified based on the grip state of the electronic device 200. For example, if the electronic device 200 is gripped as in the grip state 442 within state 400, the guide image 440 is in state 450, which is a position corresponding to the grip state 442. It can be displayed in the position shown in . For example, if the electronic device 200 is gripped in the grip state 443 within the state 400, the guide image 440 corresponds to the grip state 443, unlike the illustration in the state 450. It can be displayed in any location.
  • the guide image 440 unlike the illustration of the state 450, displays a thumbnail image 444, which is one of one or more thumbnail images 431, at a position corresponding to the grip state 443. Can be displayed at location.
  • a thumbnail image 444 which is one of one or more thumbnail images 431, at a position corresponding to the grip state 443. Can be displayed at location.
  • it is not limited to this.
  • the processor 210 is configured to: select a guide image 440 and the remaining portion of one or more thumbnail images 431 A user input 455 indicating selection may be received. For example, processor 210 may change state 450 to state 490 in response to input 455.
  • processor 210 receives user input indicating selection of guide image 440 from the remaining portion of guide image 440 and one or more thumbnail images 431. (456) can be received. For example, processor 210 may change state 450 to state 490 in response to input 456.
  • the processor 210 may receive a user input 457 indicating moving the guide image 440 to the first area 420.
  • processor 210 may change state 450 to state 490 in response to input 457.
  • the guide image 440 moved to the first area 420 through the user input 457 may be displayed at a position within the first area 420 where the user input 457 is released. .
  • the processor 210 may stop displaying the guide image 440 within the second area 430.
  • the processor 210 may stop displaying the guide image 440 within the second area 430 and partially display the guide image 440 on the second preview image 451 displayed within the first area 420.
  • An overlapping guide image 440 may be displayed.
  • the size of the guide image 440 e.g., the guide image 440 in the state 490
  • the second preview image 451 is the guide image displayed in the second area 430. It may be smaller than the size of 440 (e.g., guide image 440 in state 450).
  • processor 210 may respond to user input (e.g., user input 455, user input 456, and/or user input 457) to change state 450 to state 490.
  • user input e.g., user input 455, user input 456, and/or user input 457
  • displaying the portion of one or more thumbnail images 431 may resume within the second area 430 .
  • state 490 may be defined as an intermediate state between state 400 and state 450.
  • the processor 210 within state 400, may receive an input for changing the first magnification to a third magnification that is greater than the first magnification and smaller than the reference magnification.
  • the processor 210 may change state 400 to state 490 in response to the input.
  • processor 210 may change state 400 to state 490 based on identifying that the third multiplier indicated by the input received within state 400 is less than the reference multiplier. It can be changed to .
  • the processor 210 may maintain the display state of the second area 430.
  • the processor 210 may display a guide image overlaid on the third preview image.
  • the third preview image may represent a third scene in which a part of the first scene is enlarged at the third magnification.
  • the guide image may represent the third scene with respect to at least part of the first scene.
  • the processor 210 may receive an input to change the third magnification to the second magnification while the guide image and the third preview image are displayed. .
  • the processor 210 may change state 490 to state 450 in response to the input.
  • the processor 210 determines the size of the visual object corresponding to the subject on which the input is focused within the first scene and/or the third scene to a reference size. It is possible to identify the above change input, and change the state 490 to the state 450 in response to the identification.
  • the processor 210 changes the state 490 to a state ( 450).
  • the guide image 440 displayed within the state 490 includes a visual object 470, corresponding to the focused subject within the second scene (or the third scene). It may be overlapped on a second portion of the second preview image 451, which is distinct from the first portion of the second preview image 451. For example, as shown in state 490 , the guide image 440 may be displayed at a location that does not obscure the visual object 470 . However, it is not limited to this.
  • the guide image 440 displayed within the state 490 may be moved. Movement of the guide image 440 can be illustrated through FIG. 5 .
  • Figure 5 shows an example of a guide image that moves according to the movement of a visual object.
  • the processor 210 may identify a visual object 470 moving to the second portion of the second preview image 451 within the state 490 .
  • processor 210 may change state 490 to state 550 in response to movement 471 of visual object 470 .
  • processor 210 may display guide image 440 superimposed on the first portion of second preview image 451 or the third portion of second preview image. You can.
  • the guide image 440 may avoid the visual object 470 so as not to overlap the visual object 470 . However, it is not limited to this.
  • the electronic device 200 may display the guide image within the second area in response to an input for changing the first magnification to the second magnification.
  • the size of the guide image displayed in the second area may be larger than the size of the guide image displayed in the first area.
  • the electronic device 200 may provide an enhanced shooting environment by displaying the guide image within the second area. For example, a user of the electronic device 200 can more easily recognize the direction in which the second camera, which provides relatively high magnification, is facing.
  • FIG. 6 shows an example of an operation for displaying a third preview image in response to an input received while displaying a first preview image. Operations illustrated in FIG. 6 may be performed by the electronic device 100 shown in FIG. 1 , the electronic device 200 shown in FIG. 2 , or the processor 210 of the electronic device 200 shown in FIG. 2 It can be executed by .
  • the processor 210 may display the first preview image in the first area and display the one or more thumbnail images in the second area.
  • the first preview image may express the first scene at the first magnification.
  • operation 601 may correspond to operation 301 of FIG. 3 .
  • the processor 210 may receive an input for changing the first magnification to a third magnification that is greater than the first magnification and less than the reference magnification.
  • the input received in operation 603 may be received while the first preview image is displayed within the first area and the one or more thumbnail images are displayed within the second area.
  • the processor 210 in response to the input received in operation 603, displays a third preview image representing a third scene with a portion of the first scene enlarged at the third magnification to the first area. It can be displayed within
  • the processor 210 may maintain the display state of the second area in response to the input received in operation 603.
  • the processor 210 may refrain from displaying or bypass displaying the guide image in the second area based on the third magnification that is less than the reference magnification. Displaying the third preview image and maintaining the display state of the second area can be illustrated through FIG. 7 .
  • FIG. 7 shows an example of a third preview image displayed in response to input received while displaying the first preview image.
  • the processor 210 may receive an input for changing the first magnification to the third magnification.
  • the processor 210 may change state 400 to state 700 in response to the input.
  • the processor 210 may display a third preview image 710, which is the third preview image, within the first area 420.
  • the third preview image 710 may represent the third scene in which a part of the first scene is enlarged at the third magnification.
  • the processor 210 may maintain the display state of the second area 430 independently of the input (or regardless of the input). For example, the processor 210 may maintain displaying one or more thumbnail images 431 within the second area 430 . For example, the processor 210 may refrain from displaying the guide image 440 within the second area 430, as in state 450 of FIG. 4 .
  • the electronic device 200 displays the guide image (e.g., guide image 440) within the second area in response to an input for changing the first magnification to the third magnification. You can refrain from doing it.
  • the third magnification unlike the second magnification, may be a magnification that allows one to easily recognize the direction in which the second camera is heading.
  • the electronic device 200 may provide an enhanced shooting environment by displaying the third preview image and refraining from displaying the guide image when the first magnification is changed to the third magnification. .
  • Figure 8 shows an example of an operation of changing the display state of a second preview image in response to a user input on a guide image.
  • Operations illustrated in FIG. 8 include the electronic device 100 shown in FIG. 1, the electronic device 200 shown in FIG. 2, or the processor 210 of the electronic device 200 shown in FIG. 2. It can be executed by .
  • the processor 210 may display the second preview image within the first area and display the guide image within the second area.
  • operation 801 may correspond to operation 305 of FIG. 3 .
  • the processor 210 may receive a user input on the guide image while the second preview image is displayed within the first area and the guide image is displayed within the second area.
  • the user input may be received to change the display state of the second preview image.
  • the user input may be received for settings or effects to be applied to an image acquired or to be acquired through the second preview image.
  • the user input may be a touch input having a contact point on the guide image. However, it is not limited to this.
  • the processor 210 may change the display state of the second preview image based at least in part on the user input.
  • the processor 210 may change the state of the guide image based at least in part on the user input.
  • the change in the display state of the second preview image can be illustrated through FIGS. 9 to 12.
  • 9 to 12 show examples of the display state of a second preview image that changes in response to a user input on a guide image.
  • the processor 210 displays a first region 420 including a second preview image 451, a guide image 440, and one or more thumbnail images 431.
  • a UI 410 including a second area 430 including the remaining part of the display may be displayed.
  • the processor 210 may receive a user input 900 to change the brightness of the second preview image 451.
  • the user input 900 may be an input that is released after the contact point on the guide image 440 is moved.
  • the processor 210 may change state 450 to state 950 in response to user input 900 .
  • processor 210 may change the display state of second preview image 451 by changing the brightness of second preview image 451 based at least in part on user input 900. .
  • the processor 210 may identify the moving distance of the user input 900 or the brightness corresponding to the location where the user input 900 was released.
  • the processor 210 may change the brightness of the second preview image 451 to the identified brightness.
  • the second preview image 451 in state 950 may be brighter than the second preview image 451 in state 450 .
  • a plurality of executable objects (e.g., the executable object 422) included in the first area 420 within the state 400 to executable objects 428) may be excluded from the first region 420 within the state 450.
  • the second preview image 451 can be controlled through a user input to the guide image 440, such as the user input 900, the plurality of executions that provide a function corresponding to the user input At least some of the possible objects may not be displayed within state 450.
  • the processor 210 may, within state 450, select the at least some of the plurality of executable objects in the first region 420 for changing the display state of the second preview image 451.
  • the display can be stopped. However, it is not limited to this.
  • the processor 210 displays a first region 420 including a second preview image 451, a guide image 440, and one or more thumbnail images 431.
  • a UI 410 including a second area 430 including the remaining part of the display may be displayed.
  • the processor 210 may input a user input to control an auto exposure (AE) function and/or an auto focus (AF) function of a camera (e.g., the second camera) related to the second preview image 451. (1000) can be received.
  • the user input 1000 may be an input having a contact point on the guide image 440.
  • the processor 210 may change state 950 to state 1050 in response to user input 1000.
  • processor 210 may change the display state of second preview image 451 by controlling the AE function and/or the AF function based at least in part on user input 1050.
  • the processor 210 changes the exposure state of the second camera based on the position on the guide image 440 where the user input 1050 is received, thereby changing the display state of the second preview image 451.
  • the processor 210 may change the display state of the second preview image 451 by changing the focus state of the second camera based on the position.
  • the second preview image 451 in state 1050 unlike the second preview image 451 in state 450, is a display state identified based on the visual object 470 corresponding to the location. You can have
  • the processor 210 processes a first region 420 including a second preview image 451, a guide image 440, and one or more thumbnail images 431.
  • a UI 410 including a second area 430 including the remaining part of the display may be displayed.
  • the processor 210 may receive a user input 1100 to change the aspect ratio of the second preview image 451.
  • the user input 1100 may be an input for changing the size of the visual element 441 in the guide image 440.
  • the user input 1100 may be an input indicating movement of one edge 1101 of the visual element 441.
  • the processor 210 may change state 450 to state 1150 in response to user input 1100.
  • processor 210 may change the display state of second preview image 451 by changing the aspect ratio of second preview image 451 based at least in part on user input 1100. You can. For example, the processor 210 may identify the location where the user input 1100 is released. For example, the processor 210 may identify the aspect ratio of the second preview image 451 based on the location. According to one embodiment, the processor 210 identifies a candidate aspect ratio corresponding to the position among a plurality of candidate aspect ratios predefined in the electronic device 200, and generates a second preview image ( 451), the aspect ratio can be changed.
  • the plurality of candidate aspect ratios may include 3:4, 9:16, and 1:1. However, it is not limited to this.
  • the second preview image 451 in state 115 may have a different aspect ratio than the second preview image 451 in state 450.
  • the arrangement of the plurality of executable objects in the first area 420 may change according to the changed aspect ratio of the second preview image 451. However, it is not limited to this.
  • the processor 210 displays a first region 420 including a second preview image 451, a guide image 440, and one or more thumbnail images 431.
  • a UI 410 including a second area 430 including the remaining part of the display may be displayed.
  • the processor 210 may receive a user input 1200 to change the second magnification to a third magnification that is larger than the second magnification.
  • the user input 1200 may be an input in which two contact points move away from each other to enlarge a portion of the guide image 440.
  • the processor 210 may change state 450 to state 1250 in response to user input 1200.
  • processor 210 displays a third preview image 1251 that has been changed from the second preview image 451 within the first area 420 based at least in part on the user input 1200. can do.
  • the third preview image 1251 may represent a third scene in which a part of the first scene is enlarged at the third magnification.
  • the processor 210 may determine the distance between the two contact points when the user input 1200 is released, the moving distance of the second contact points, and/or the location of the second contact points. Thus, the third magnification can be identified.
  • the processor 210 may display a third preview image 1251 representing the third scene enlarged at the identified third magnification.
  • processor 210 may display message 1260 before changing state 1250 from state 450 in response to user input 1200.
  • the processor 210 may display a guide image representing the third scene for at least a portion of the first scene and display a message 1260.
  • the message 1260 may include text indicating whether to replace the second preview image 451 with the third preview image 1251.
  • message 1260 may include executable object 1261 and executable object 1262.
  • Processor 210 may provide status 1250 in response to receiving input 1263 indicating selection of executable object 1261 among executable object 1261 and executable object 1262. there is. However, it is not limited to this.
  • the electronic device 200 may change the display state of the second preview image through the guide image in the second area. For example, because the guide image in the second area represents the first scene wider than the second preview image, the display state of the second preview image through the guide image in the second area The change may provide a user experience that changes the display state of the second preview image by considering the state of the first scene and the state of the second scene. For example, the electronic device 200 may provide an enhanced shooting environment.
  • FIG. 13 shows an example of an operation of displaying a first area with an enlarged size according to a change from the first state to the second state. Operations illustrated in FIG. 13 may be performed by the electronic device 100 shown in FIG. 1, the electronic device 200 shown in FIG. 2, or the processor 210 of the electronic device 200 shown in FIG. 2. It can be executed by .
  • the processor 210 may display the second preview image within the first area and display the guide image within the second area.
  • the processor 210 displays the second preview image in the first area and displays the guide image in the second area.
  • the first state may be one of a plurality of states of the electronic device 200. The plurality of states can be illustrated through FIG. 14.
  • FIG. 14 illustrates an example of a plurality of states of an example electronic device.
  • the display 240 of the electronic device 200 may be foldable about the axis 1400 .
  • electronic device 200 may be in a plurality of states, with display 240 foldable about axis 1400 .
  • the display 240 may include a first display area 241 and a second display area 242 adjacent to the first display area 241.
  • the angle between the first display area 241 and the second display area 242 (or the first display area 241) is The angle between the first direction toward which the second display area 242 faces and the direction toward which the second display area 242 faces may be changed.
  • the electronic device 200 may have a plurality of states depending on the angle. For example, a reference range may be predefined within the electronic device 200 to identify the plurality of states.
  • the reference range may include a first reference range for identifying the angle between 0 degrees and angle 1430 and a second reference range for identifying the angle between angle 1430 and angle 1460. It can be included.
  • the first state among the plurality of states may be a state in which the angle is within the first reference range.
  • the second state among the plurality of states may be a state in which the angle is outside the first reference range and the second reference range.
  • the third state among the plurality of states may be a state in which the angle is within the second reference range.
  • the third state among the plurality of states may be a state in which the angle is within the second reference range and a portrait mode is provided.
  • the third state among the plurality of states may be a state in which the angle is within the second reference range and a landscape mode is provided.
  • the processor 210 operates the electronic device 200 while the second preview image is displayed within the first area and the guide image is displayed within the second area. It can be identified that the state changes from the first state shown in FIG. 14 to the second state shown in FIG. 14 .
  • processor 210 in response to the identification, ceases displaying the second area and displays the second preview image having an enlarged size and the second preview image superimposed on the second preview image.
  • the first area having an enlarged size including a guide image is divided into a first display area of the display 240 (e.g., the first display area 241 of FIG. 14) and a second display area of the display 240 (e.g. : Can be displayed within the second display area 242 in FIG. 14.
  • the first area having the enlarged size can be illustrated through FIGS. 15 and 16.
  • FIG. 15 shows an example of a UI that changes in response to a change from a first state to a second state or from a second state to a first state.
  • FIG. 16 shows an example of a UI that changes in response to a change from the first state to the second state or from the first state to the third state.
  • the processor 210 includes a second preview image 451, such as state 450, while the electronic device 200 providing the portrait mode is in the first state.
  • a UI 410 including a first area 420 and a second area 430 including the remaining part of the guide image 440 and one or more thumbnail images 431 may be displayed.
  • the processor 210 may identify a change from the first state to the second state.
  • the identification may be performed through an acceleration sensor, a gyro sensor, and/or a Hall sensor within the electronic device 200.
  • processor 210 may change state 450 to state 1550 in response to the identification.
  • the UI 410 may include a first area 420 of the first area 420 and the second area 430.
  • the first area 420 may have an enlarged size than the first area 420 in the state 450.
  • the first area 420 may be displayed within the first display area 241 and the second display area 242.
  • the first area 420 may include a second preview image 451 that has an enlarged size than the second preview image 451 in the state 450.
  • display of the second area 430 may be stopped within state 1550.
  • the guide image 440 may partially overlap the second preview image 451 having the enlarged size according to the interruption of the display of the second area 430.
  • the size of the guide image 440 in state 1550 may be larger than the size of the guide image 440 in state 490. However, it is not limited to this.
  • the processor 210 may identify that the state of the electronic device 200 changes from the second state to the first state.
  • Processor 210 may change state 1550 to state 450 in response to the identification.
  • the guide image 440 may be moved to the second area 430 according to a change from state 1550 to state 450 .
  • processor 210 includes a second preview image 451, such as state 450, while the electronic device 200 providing the landscape mode is within the first state.
  • a UI 410 including a first area 420 and a second area 430 including the remaining part of the guide image 440 and one or more thumbnail images 431 may be displayed.
  • the processor 210 may identify a change from the first state to the second state.
  • processor 210 may change state 450 to state 1650 in response to the identification.
  • the UI 410 may include a first area 420 of the first area 420 and the second area 430.
  • the first area 420 may have an enlarged size than the first area 420 in the state 450.
  • the first area 420 may be displayed within the first display area 241 and the second display area 242.
  • the first area 420 may include a second preview image 451 that has an enlarged size than the second preview image 451 in the state 450.
  • display of the second area 430 may be stopped within state 1550.
  • the guide image 440 may partially overlap the second preview image 451 having the enlarged size according to the interruption of the display of the second area 430.
  • the size of the guide image 440 in state 1650 may be larger than the size of the guide image 440 in state 490. However, it is not limited to this.
  • the processor 210 may identify that the state of the electronic device 200 changes from the second state to the first state.
  • Processor 210 may change state 1650 to state 450 in response to the identification.
  • the guide image 440 may be moved to the second area 430 displayed according to a change from state 1650 to state 450.
  • the electronic device 200 may change the configuration of the UI depending on whether the state of the electronic device 200 is the first state or the second state. For example, the electronic device 200 displays the guide image in the second area while the electronic device 200 is in the first state, and the electronic device 200 displays the guide image in the second area while the electronic device 200 is in the first state. By displaying the guide image within the first area while the device is in use, a shooting environment that adaptively changes depending on the state of the electronic device 200 can be provided.
  • FIG. 17 shows an example of an operation for identifying whether the first state changes to the second state. Operations illustrated in FIG. 17 may be performed by the electronic device 100 shown in FIG. 1, the electronic device 200 shown in FIG. 2, or the processor 210 of the electronic device 200 shown in FIG. 2. It can be executed by .
  • the processor 210 may display the second preview image within the first area and display the guide image within the second area.
  • operation 1701 may be executed while the electronic device 200 provides the landscape mode.
  • the processor 210 performs the operation of the electronic device 200 that provides the landscape mode while the second preview image is displayed within the first area and the guide image is displayed within the second area. It is possible to identify whether the state changes from the first state to the second state. For example, the processor 210 may identify whether the first state changes to the second state or the third state. For example, the processor 210 may execute operation 1705 based on the second state changed from the first state and execute operation 1707 based on the third state changed from the first state. .
  • the processor 210 displays the first area having the enlarged size as the first display under the condition that the state of the electronic device 200 providing the landscape mode is changed to the second state. area and can be displayed within the second display area. For example, processor 210 may provide state 1650 of FIG. 16 .
  • the processor 210 displays a display area in the first display area (or the second display area) under the condition that the state of the electronic device 200 providing the landscape mode changes to the third state. displays the first area including the second preview image and the guide image overlaid on the second preview image, and within the second display area (or the first display area) the guide image and the An executable object for control related to the second preview image may be displayed.
  • the display in operation 1707 can be illustrated through Figure 16.
  • the processor 210 includes a second preview image 451, such as state 450, while the electronic device 200 providing the landscape mode is within the first state.
  • a UI 410 including a first area 420 and a second area 430 including the remaining part of the guide image 440 and one or more thumbnail images 431 may be displayed.
  • processor 210 may change state 450 to state 1670 in response to identifying a change from the first state to the third state.
  • the UI 410 may include a first area 420 of the first area 420 and the second area 430.
  • the first area 420 may have a larger size than the first area 420 in the state 450.
  • the first area 420 may be displayed within the first display area and the second display area.
  • the first area 420 may include a second preview image 451 displayed within the first display area (or the second display area).
  • the size of the second preview image 451 in state 1670 may correspond to the size of the second preview image 451 in state 450.
  • the size of the second preview image 451 in state 1670 may be larger than the size of the second preview image 451 in state 450.
  • the size of the second preview image 451 in state 1670 may be smaller than the size of the second preview image 451 in state 450.
  • the first area 420 may include a guide image 440.
  • the guide image 440 may be overlaid on the second preview image 451.
  • the size of the guide image 440 overlaid on the second preview image 451 may be smaller than the size of the guide image 440 in the state 450.
  • the first area 420 may include a guide image 440 displayed within the second display area (or the first display area).
  • the second display area unlike the first display area, may be oriented in a direction corresponding to the direction of the ground (or the direction of gravity) among the second display areas.
  • the guide image 440 displayed within the second display area (or the first display area) may be a second preview image displayed within the first display area (or the second display area) ( 451).
  • the size of the guide image 440 displayed within the second display area (or the first display area) is larger than the size of the guide image 440 overlaid on the second preview image 451. You can. However, it is not limited to this.
  • the first area 420 may include an executable object 422 to a set of executable objects 426 displayed within the second display area (or the first display area).
  • an executable object 422 or a set of executable objects 426 may be positioned next to a guide image 440 displayed within the second display area (or the first display area). .
  • State 1670 may display two guide images 440.
  • the third state uses one of the first display area and the second display area as an information provision area, and uses the other display area of the first display area and the second display area as an information provision area. Since the state is used as a control area, the processor 210 can display two guide images 440 in the third state 1670.
  • the electronic device 200 may display two guide images 440 in each of different display areas within the state 1670 so that the user can conveniently access various controls. .
  • the electronic device 200 may provide an enhanced shooting environment.
  • Figure 16 shows an example in which state 1670 is provided while providing the landscape mode, but this is for convenience of explanation. It should be noted that while the electronic device 200 provides the portrait mode, a state similar to state 1670 may be provided.
  • the electronic device 200 can display the UI that can adaptively change the display of the guide image.
  • the electronic device 200 may provide an enhanced shooting environment through display of the UI.
  • the electronic device 200 may include a display 240, a plurality of cameras 250, and a processor 210.
  • the processor 210 operates the plurality of cameras within a first area 420 of a user interface (UI) 410 for photography, through the display 240.
  • a first preview image 421 representing a first scene, obtained through at least one of the fields 250, is displayed at a first magnification that is less than a reference magnification, and the first area 420 Within the second area 430 of the UI 410, one or more thumbnail images 431 each indicating one or more images acquired through at least one of the plurality of cameras 250. It can be configured to display.
  • the processor 210 sets the first magnification while the first preview image 421 and the one or more thumbnail images 431 are displayed within the UI 410. It may be configured to receive an input for changing to a second magnification that is greater than or equal to the reference magnification. According to one embodiment, the processor 210, based on the input, displays a second scene that represents a second scene in which a part of the first scene is enlarged at the second magnification through the display 240. Displaying a preview image 451 within the first area 420 and displaying a guide image 440 representing the second scene for at least a portion of the first scene within the second area 430 , can be configured.
  • the processor 210 stops displaying a portion of the one or more thumbnail images 431 within the second area 430 based on the input, and It may be configured to display the guide image 440 within the area 430.
  • the guide image 440 is visually relative to the remaining portion of the one or more thumbnail images 431 maintained within the second area 430 after the input is received. can be emphasized.
  • the remaining portion of the one or more thumbnail images 431 maintained within the second area 430 after the input is received may be blurred, unlike the guide image 440.
  • the processor 210 selects the remaining part of the one or more thumbnail images 431 from the guide image 440 and the remaining part of the one or more thumbnail images 431. In response to a user input indicating that It may be configured to display the guide image 440 partially superimposed on.
  • the size of the guide image 440 partially overlaid on the second preview image 451 is larger than the size of the guide image 440 displayed within the second area 430. It can be small.
  • the processor 210 selects the remaining portion of the one or more thumbnail images 431 in response to the user input indicating selection of the remaining portion of the one or more thumbnail images 431. It may be configured to resume displaying a portion within the second area.
  • the processor 210 distinguishes a first portion of the second preview image 451 from a first portion of the second preview image 451, which includes a visual object 470 corresponding to a focused subject within the second scene. It may be configured to display the guide image 440 overlaid on the second part of the second preview image 451.
  • the processor 210 may be configured to identify the visual object 470 that moves to the second part of the second preview image 451. According to one embodiment, the processor 210, in response to the movement of the visual object, overlaps the first portion of the second preview image 451 or the third portion of the second preview image. It may be configured to display the guide image 440.
  • the processor 210 operates the guide image 440 in the second area 430 in response to a user input indicating movement of the guide image 440 to the first area 420. Stop displaying 440 within the second area 430 and display the guide image 440 partially overlaid on the second preview image 451 displayed within the first area 420. It can be configured to display.
  • the guide image 440 may be displayed overlapping on the second preview image 451 at a position where the chant user input is released.
  • the remaining portion of the one or more thumbnail images 431 maintained within the second area 430 after the user input is received may be blurred, unlike the guide image 440. .
  • the processor 210 displays the first preview image 421 in the first area 420 and displays the one or more thumbnail images 431 in the second area 430. ), may be configured to receive an input for changing the first magnification to a third magnification that is greater than the first magnification and less than the reference magnification. According to one embodiment, the processor 210, based on the input for changing the first magnification to the third magnification, displays a portion of the first scene through the display 240. It may be configured to display a third preview image representing the third scene enlarged at 3 magnification within the first area 420 and maintain the display state of the second area 430.
  • the processor 210 may be configured to refrain from displaying the guide image 440 within the second area 430 based on the third magnification that is less than the reference magnification. You can.
  • the plurality of cameras 250 include a first camera having a first field of view (FOV) and a first focal length, a second FOV narrower than the first FOV, and the first camera having a first field of view (FOV) and a first focal length. It may include a second camera having a second focal length longer than the first focal length.
  • each of the first preview image 421 and the guide image 440 may be acquired based on at least a portion of a plurality of images acquired through the first camera among the plurality of cameras.
  • the second preview image 451 may be obtained based on at least a portion of a plurality of images acquired through the second camera among the plurality of cameras.
  • the guide image 440 may represent the second scene with respect to a third scene in which a part of the first scene is enlarged at a third magnification that is greater than the first magnification and less than the reference magnification.
  • the third magnification may be identified based on the second magnification.
  • the guide image 440 may include a visual element 441 for informing the location of the second scene within at least part of the first scene.
  • the processor 210 displays the second preview image 451 within the first area 420 and displays the guide image 440 within the second area 430. While being displayed, it may be configured to receive a user input on the guide image 440 to change the display state of the second preview image 451. According to one embodiment, the processor 210 may be configured to change the display state of the second preview image based at least in part on the user input.
  • the processor 210 changes the display state of the second preview image 451 by changing the brightness of the second preview image 451 based at least in part on the user input. It can be configured to do so.
  • the processor 210 controls an auto exposure (AE) function of a camera related to the second preview image 451 among the plurality of cameras based at least in part on the user input, It may be configured to change the display state of the second preview image 451.
  • AE auto exposure
  • the processor 210 controls an auto focus (AF) function of a camera related to the second preview image 451 among the plurality of cameras based at least in part on the user input, It may be configured to change the display state of the second preview image 451.
  • AF auto focus
  • the processor 210 changes the aspect ratio of the second preview image 451 based at least in part on the user input, thereby changing the aspect ratio of the second preview image 451.
  • the processor 210 may be configured to change the display state of the guide image 440 based at least in part on the user input.
  • the processor 210 may be configured to stop displaying the executable object in the first area 420 for changing the display state based on the input.
  • the processor 210 in response to the input, selects the guide image 440 to be displayed in the second area 430 based on the grip state of the electronic device 200. It may be configured to identify a location. According to one embodiment, the processor 210 may be configured to display the guide image 440 at the identified location within the second area 430.
  • the display 240 may include a flexible display including a first display area 241 and a second display area 242 adjacent to the first display area.
  • the processor 210 displays the second preview image 451 within the first area 420 and displays the guide image 440 within the second area 430. While being displayed, the state of the electronic device 200 is such that the angle between the first direction in which the first display area 241 faces and the second direction in which the second display area 242 faces is within the reference range. and identify a change from a state to a second state where the angle is outside the reference range.
  • the processor 210 in response to the identification, stops displaying the second area 430 and displays the second preview image 451 having an enlarged size. Configured to display the first area 420 having an enlarged size including the guide image 440 partially overlapped within the first display area 241 and the second display area 242. It can be.
  • the processor 210 identifies that the state of the electronic device 200 is restored to the first state while the first area 420 having the enlarged size is displayed. It can be configured. According to one embodiment, the processor 210, in response to identifying that the state of the electronic device 200 is restored to the first state, displays the second preview image 451 in the first region. It may be configured to display within 420 and to display the guide image 440 within the second area 430 .
  • the processor 210 displays the second preview image 451 within the first area 420 and displays the guide image 440 within the second area 430. While being displayed, it may be configured to identify whether the state of the electronic device 200 providing a landscape mode changes from the first state to a state different from the first state. According to one embodiment, the processor 210 determines that the state of the electronic device 200 providing the landscape mode is such that the angle from the first state is outside the reference range and another reference range. In response to identifying the change to the second state, display the first area 420 having the enlarged size within the first display area 241 and the second display area 242. You can.
  • the processor 210 determines that the state of the electronic device 200 providing the landscape mode is such that the angle from the first state is outside the reference range and is within the other reference range.
  • stop displaying the second area 430 and display the second preview image 451 and the second preview image ( Displays the first area 420 including the guide image 440 overlaid on 451), and displays the guide image 440 and the second preview image 451 within the second display area 242. ) may be configured to display an executable object for control related to.
  • the first preview image 421, the second preview image 451, and the guide image 440 are to be displayed while acquiring video through at least one of the plurality of cameras. You can.
  • a and/or B As used herein: “A and/or B”, “A or B”, “at least one of A and B”, “at least one of A or B”, “A, B or C”, “A, B and C” Phrases such as “at least one of”, and “at least one of A, B, or C” may each include any one of the items listed together in the corresponding phrase, or any possible combination thereof. Terms such as “first”, “second”, or “first” or “second” may be used simply to distinguish one component from another, and to refer to that component in other respects (e.g., importance or order) is not limited.
  • One (e.g., first) component is said to be “coupled” or “connected” to another (e.g., second) component, with or without the terms “functionally” or “communicatively.”
  • second component e.g., any of the components can be connected to the other components directly (e.g. wired), wirelessly, or through a third component.
  • module used in various embodiments of this document may include a unit implemented in hardware, software, or firmware, and is interchangeable with terms such as logic, logic block, component, or circuit, for example. It can be used as A module may be an integrated part or a minimum unit of the parts or a part thereof that performs one or more functions. For example, according to one embodiment, the module may be implemented in the form of an application-specific integrated circuit (ASIC).
  • ASIC application-specific integrated circuit
  • Various embodiments of the present document are one or more instructions stored in a storage medium (e.g., built-in memory 1536 or external memory 1538) that can be read by a machine (e.g., electronic device 1501). It may be implemented as software (e.g., program 1540) including these.
  • a processor e.g., processor 1520 of a device (e.g., electronic device 1501) may call at least one command among one or more commands stored from a storage medium and execute it. This allows the device to be operated to perform at least one function according to the at least one instruction called.
  • the one or more instructions may include code generated by a compiler or code that can be executed by an interpreter.
  • a storage medium that can be read by a device may be provided in the form of a non-transitory storage medium.
  • 'non-transitory' only means that the storage medium is a tangible device and does not contain signals (e.g. electromagnetic waves), and this term refers to cases where data is semi-permanently stored in the storage medium. There is no distinction between temporary storage cases.
  • Computer program products are commodities and can be traded between sellers and buyers.
  • the computer program product may be distributed in the form of a machine-readable storage medium (e.g. compact disc read only memory (CD-ROM)) or through an application store (e.g. Play StoreTM) or on two user devices (e.g. It can be distributed (e.g. downloaded or uploaded) directly between smart phones) or online.
  • a machine-readable storage medium e.g. compact disc read only memory (CD-ROM)
  • an application store e.g. Play StoreTM
  • two user devices e.g. It can be distributed (e.g. downloaded or uploaded) directly between smart phones) or online.
  • at least a portion of the computer program product may be at least temporarily stored or temporarily created in a machine-readable storage medium, such as the memory of a manufacturer's server, an application store's server, or a relay server.
  • each component (e.g., module or program) of the above-described components may include a single or plural entity, and some of the plurality of entities may be separately placed in other components. there is.
  • one or more of the components or operations described above may be omitted, or one or more other components or operations may be added.
  • multiple components eg, modules or programs
  • the integrated component may perform one or more functions of each component of the plurality of components in the same or similar manner as those performed by the corresponding component of the plurality of components prior to the integration. .
  • operations performed by a module, program, or other component may be executed sequentially, in parallel, iteratively, or heuristically, or one or more of the operations may be executed in a different order, or omitted. Alternatively, one or more other operations may be added.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

전자 장치가 제공된다. 상기 전자 장치는, 디스플레이를 포함한다. 상기 전자 장치는, 복수의 카메라들을 포함한다. 상기 전자 장치는, 프로세서를 포함한다. 상기 프로세서는, 제1 프리뷰 이미지 및 하나 이상의 썸네일 이미지들이 UI 내에서 표시되는 동안, 배율을 변경하기 위한 입력을 수신하도록 구성된다. 상기 프로세서는, 상기 입력에 기반하여, 상기 디스플레이를 통해, 제2 프리뷰 이미지를 상기 UI의 제1 영역 내에서 표시하고, 제1 장면의 적어도 일부에 대하여 제2 장면을 나타내는 가이드 이미지를 상기 UI의 제2 영역 내에서 표시하도록, 구성된다.

Description

촬영을 위한 사용자 인터페이스를 위한 전자 장치, 방법, 및 비일시적 컴퓨터 판독가능 저장 매체
아래의 설명들은, 촬영(photographing)을 위한 UI(user interface)를 위한 전자 장치(electronic device), 방법, 및 비일시적 컴퓨터 판독가능 저장 매체(non-transitory computer readable storage medium)에 관한 것이다.
휴대용(portable) 전자 장치(electronic device)는, 복수의 카메라들을 포함할 수 있다. 예를 들면, 상기 전자 장치는, 상기 복수의 카메라들 중 적어도 하나를 통해 획득되는 이미지를 위해, 촬영(photographing)을 위한 UI(user interface)를 표시할 수 있다. 예를 들면, 상기 UI는, 사진사가 상기 이미지의 상태를 확인할 수 있도록, 뷰파인더(viewfinder) 영역을 포함할 수 있다.
전자 장치가 제공된다. 상기 전자 장치는, 디스플레이를 포함할 수 있다. 상기 전자 장치는, 복수의 카메라들을 포함할 수 있다. 상기 전자 장치는, 프로세서를 포함할 수 있다. 상기 프로세서는, 상기 디스플레이를 통해, 촬영(photographing)을 위한 UI(user interface)의 제1 영역 내에서, 상기 복수의 카메라들 중 적어도 하나를 통해 획득되는, 제1 장면(scene)을 표현하는(represent), 제1 프리뷰 이미지를 기준 배율 미만인 제1 배율로 표시하고, 상기 제1 영역과 구별되는 상기 UI의 제2 영역 내에서, 상기 복수의 카메라들 중 적어도 하나를 통해 획득된 하나 이상의 이미지들을 각각 나타내는(indicate) 하나 이상의 썸네일 이미지들을 표시하도록 구성될 수 있다. 상기 프로세서는, 상기 제1 프리뷰 이미지 및 상기 하나 이상의 썸네일 이미지들이 상기 UI 내에서 표시되는 동안, 상기 제1 배율을 상기 기준 배율 이상인 제2 배율로 변경하기 위한 입력을 수신하도록 구성될 수 있다. 상기 프로세서는, 상기 입력에 기반하여, 상기 디스플레이를 통해, 상기 제1 장면의 일부가 상기 제2 배율로 확대된 제2 장면을 표현하는 제2 프리뷰 이미지를 상기 제1 영역 내에서 표시하고, 상기 제1 장면의 적어도 일부에 대하여 상기 제2 장면을 나타내는 가이드 이미지를 상기 제2 영역 내에서 표시하도록, 구성될 수 있다.
디스플레이 및 복수의 카메라들을 포함하는 전자 장치를 위한 방법이 제공된다. 상기 방법은, 상기 디스플레이를 통해, 촬영(photographing)을 위한 UI(user interface)의 제1 영역 내에서, 상기 복수의 카메라들 중 적어도 하나를 통해 획득되는, 제1 장면(scene)을 표현하는(represent), 제1 프리뷰 이미지를 기준 배율 미만인 제1 배율로 표시하고, 상기 제1 영역과 구별되는 상기 UI의 제2 영역 내에서, 상기 복수의 카메라들 중 적어도 하나를 통해 획득된 하나 이상의 이미지들을 각각 나타내는(indicate) 하나 이상의 썸네일 이미지들을 표시하는 동작을 포함할 수 있다. 상기 방법은, 상기 제1 프리뷰 이미지 및 상기 하나 이상의 썸네일 이미지들이 상기 UI 내에서 표시되는 동안, 상기 제1 배율을 상기 기준 배율 이상인 제2 배율로 변경하기 위한 입력을 수신하는 동작을 포함할 수 있다. 상기 방법은, 상기 입력에 기반하여, 상기 디스플레이를 통해, 상기 제1 장면의 일부가 상기 제2 배율로 확대된 제2 장면을 표현하는 제2 프리뷰 이미지를 상기 제1 영역 내에서 표시하고, 상기 제1 장면의 적어도 일부에 대하여 상기 제2 장면을 나타내는 가이드 이미지를 상기 제2 영역 내에서 표시하는 동작을 포함할 수 있다.
하나 이상의 프로그램들을 저장하는 비일시적 컴퓨터 판독가능 저장 매체가 제공된다. 상기 하나 이상의 프로그램들은, 디스플레이 및 복수의 카메라들을 포함하는 전자 장치의 프로세서에 의해 실행될 시, 상기 디스플레이를 통해, 촬영(photographing)을 위한 UI(user interface)의 제1 영역 내에서, 상기 복수의 카메라들 중 적어도 하나를 통해 획득되는, 제1 장면(scene)을 표현하는(represent), 제1 프리뷰 이미지를 기준 배율 미만인 제1 배율로 표시하고, 상기 제1 영역과 구별되는 상기 UI의 제2 영역 내에서, 상기 복수의 카메라들 중 적어도 하나를 통해 획득된 하나 이상의 이미지들을 각각 나타내는(indicate) 하나 이상의 썸네일 이미지들을 표시하도록 상기 전자 장치를 야기하는 인스트럭션들을 포함할 수 있다. 상기 하나 이상의 프로그램들은, 상기 프로세서에 의해 실행될 시, 상기 제1 프리뷰 이미지 및 상기 하나 이상의 썸네일 이미지들이 상기 UI 내에서 표시되는 동안, 상기 제1 배율을 상기 기준 배율 이상인 제2 배율로 변경하기 위한 입력을 수신하도록 상기 전자 장치를 야기하는 인스트럭션들을 포함할 수 있다. 상기 하나 이상의 프로그램들은, 상기 프로세서에 의해 실행될 시, 상기 입력에 기반하여, 상기 디스플레이를 통해, 상기 제1 장면의 일부가 상기 제2 배율로 확대된 제2 장면을 표현하는 제2 프리뷰 이미지를 상기 제1 영역 내에서 표시하고, 상기 제1 장면의 적어도 일부에 대하여 상기 제2 장면을 나타내는 가이드 이미지를 상기 제2 영역 내에서 표시하도록, 상기 전자 장치를 야기하는 인스트럭션들을 포함할 수 있다.
도 1은 예시적인 전자 장치를 포함하는 환경을 도시한다.
도 2는 본 문서 내에서 예시될 동작들을 수행할 수 있는 예시적인(exemplary) 전자 장치를 도시한다.
도 3은 촬영(photographing)을 위한 UI(user interface) 내에서 가이드 이미지를 표시하는 동작의 예를 도시한다.
도 4는 제1 영역 및 제2 영역을 포함하는 UI의 예를 도시한다.
도 5는 시각적 객체의 이동에 따라 이동되는 가이드 이미지의 예를 도시한다.
도 6은 제1 프리뷰 이미지를 표시하는 동안 수신된 입력에 응답하여 제3 프리뷰 이미지를 표시하는 동작의 예를 도시한다.
도 7은 제1 프리뷰 이미지를 표시하는 동안 수신된 입력에 응답하여 표시되는 제3 프리뷰 이미지의 예를 도시한다.
도 8은 가이드 이미지 상의 사용자 입력에 응답하여 제2 프리뷰 이미지의 표시 상태를 변경하는 동작의 예를 도시한다.
도 9, 도 10, 도 11 및 도 12는 가이드 이미지 상의 사용자 입력에 응답하여 변경되는 제2 프리뷰 이미지의 표시 상태의 예를 도시한다.
도 13은 제1 상태로부터 제2 상태로의 변경에 따라 확대 사이즈를 가지는 제1 영역을 표시하는 동작의 예를 도시한다.
도 14는 예시적인 전자 장치의 복수의 상태들의 예를 도시한다.
도 15는 제1 상태로부터 제2 상태로의 변경 또는 제2 상태로부터 제1 상태로의 변경에 응답하여 변경되는 UI의 예를 도시한다.
도 16은 제1 상태로부터 제2 상태 또는 제1 상태로부터 제3 상태로의 변경에 응답하여 변경되는 UI의 예를 도시한다.
도 17은 제1 상태가 제2 상태로 변경되는지 여부를 식별하는 동작의 예를 도시한다.
도 1은 예시적인 전자 장치를 포함하는 환경을 도시한다.
전자 장치(100)는 망원(telephoto) 카메라 및 광각(wide angle) 카메라를 포함할 수 있다. 예를 들면, 상기 망원 카메라의 FOV(field of view)(110))는 상대적으로 좁을(narrow) 수 있다. 예를 들어, 사용자(111)가 상기 망원 카메라를 이용하여, 높은 배율로, 이동되고 있는 피사체(112)를 촬영하는 경우, 사용자(111)는, 상기 높은 배율에 대하여 상대적으로 좁은 상기 망원 카메라의 FOV(110)로 인하여, 피사체(112)의 이동을 추적하는 동안, 불편함을 느낄 수 있다. 예를 들면, 전자 장치(100)는, 이러한 불편함을 해소하기 위해, FOV(110)보다 넓은 FOV(120)를 가지는 광각 카메라를 통해 획득되는 장면에 대하여 망원 카메라를 통해 획득되는 장면을 나타내는, 가이드 이미지(guidance image)를, 촬영(photographing)을 위한 UI(user interface) 내에서, 표시할 수 있다. 예를 들면, 상기 가이드 이미지의 사이즈가 커질수록, 이러한 불편함은 더 감소될 수 있다.
도 2는, 본 문서 내에서 예시될 동작들을 수행할 수 있는 예시적인(exemplary) 전자 장치를 도시한다.
도 2를 참조하면, 전자 장치(200)(예: 전자 장치(100))는, 노트북(290), 다양한 폼 팩터들을 가지는 스마트폰들(291)(예: 바 타입의 스마트폰(291-1), 폴더블 타입의 스마트폰(291-2), 또는 롤러블 타입의 스마트폰(291-3)), 태블릿(292), 셀룰러 전화, 및 기타 유사 컴퓨팅 장치들과 같은, 다양한 형태들의 모바일 장치들 중 하나일 수 있다. 도 2 내에서 도시된 구성요소들, 그들의 관계들, 및 그들의 기능들은, 예시적일 뿐이며, 본 문서 내에서 설명되거나 청구된 구현들을 제한하는 것이 아니다. 전자 장치(200)는, 사용자 장치, 다기능 장치 또는 휴대용 장치로 참조될 수 있다.
전자 장치(200)는, 프로세서(210), 휘발성 메모리(220), 비휘발성 메모리(230), 디스플레이(240), 이미지 센서(250), 통신 회로(260), 및 센서(270)를 포함하는 구성요소들을 포함할 수 있다. 상기 구성요소들은 단지 예시적인 것이다. 예를 들면, 전자 장치(200)는 다른 구성요소(예: PMIC(power management integrated circuit), 오디오 처리 회로, 또는 입출력 인터페이스)를 포함할 수 있다. 예를 들면, 몇몇 구성요소들은 전자 장치(200)로부터 생략될 수 있다.
프로세서(210)는, 하나 이상의 IC(integrated circuit) 칩으로 구현될 수 있고, 다양한 데이터 처리들을 실행할 수 있다. 예를 들면, 프로세서(210)는, SoC(system on chip)(예를 들어, 하나의 칩 또는 칩셋)로 구현될 수 있다. 프로세서(210)는, CPU(central processing unit)(211), GPU(graphics processing unit)(212), NPU(neural processing unit)(213), ISP(image signal processor)(214), 디스플레이 컨트롤러(215), 메모리 컨트롤러(216), 스토리지(storage) 컨트롤러(217), CP(communication processor)(218), 및/또는 센서 인터페이스(219)를 포함하는 서브 구성요소들을 포함할 수 있다. 상기 서브 구성요소들은, 단지 예시적인 것이다. 예를 들면, 프로세서(210)는, 다른 서브 구성요소들을 더 포함할 수 있다. 예를 들면, 몇몇 서브 구성요소들은, 프로세서(210)로부터 생략될 수 있다.
CPU(211)는 휘발성 메모리(220) 및/또는 비휘발성 메모리(230) 내에 저장된 인스트럭션들의 실행에 기반하여 상기 서브 구성요소들을 제어하도록 구성될 수 있다. GPU(212)는 병렬 연산(예: 렌더링(rendering))들을 실행하도록 구성된 회로를 포함할 수 있다. NPU(213)는 인공 지능 모델을 위한 연산(예: 합성곱 연산(convolution computation))들을 실행하도록 구성된 회로를 포함할 수 있다.
ISP(214)는 이미지 센서(250)를 통해 획득된 원시 이미지(raw image)를 전자 장치(200) 내의 구성요소 또는 프로세서(210) 내의 서브 구성요소를 위해 적합한 포맷으로 처리하도록 구성된 회로를 포함할 수 있다.
예를 들면, 이미지 센서(250)는, 복수의 카메라들을 포함할 수 있다. 예를 들면, 이미지 센서(250)는, 광각 카메라 및 망원 카메라를 포함할 수 있다. 예를 들면, 상기 광각 카메라는, 제1 FOV(예: FOV(120)) 및 제1 초점 거리를 가질 수 있다. 예를 들면, 상기 광각 카메라는 제1 카메라로 참조될 수 있다. 예를 들면, 상기 망원 카메라는, 상기 제1 FOV보다 좁은 제2 FOV(예: FOV(110)) 및 상기 제1 초점 거리보다 긴 제2 초점 거리를 가질 수 있다. 예를 들면, 상기 망원 카메라는 제2 카메라로 참조될 수 있다. 예를 들면, 상기 제1 카메라가 향하는 방향은 상기 제2 카메라가 향하는 방향에 대응할 수 있다.
디스플레이 컨트롤러(215)는 CPU(211), GPU(212), ISP(214), 또는 휘발성 메모리(220)로부터 획득된 이미지를 디스플레이(240)를 위해 적합한 포맷으로 처리하도록 구성된 회로를 포함할 수 있다. 메모리 컨트롤러(216)는 휘발성 메모리(220)로부터 데이터를 읽고 데이터를 휘발성 메모리(220)에 기록하는 것을 제어하도록 구성된 회로를 포함할 수 있다. 스토리지 컨트롤러(217)는, 비휘발성 메모리(230)로부터 데이터를 읽고 데이터를 비휘발성 메모리(230)에 기록하는 것을 제어하도록 구성된 회로를 포함할 수 있다. CP(218)는 프로세서(210) 내의 서브 구성요소로부터 획득된 데이터를 통신 회로(260)를 통해 다른 전자 장치에게 송신하는 것을 위해 적합한 포맷으로 처리하거나, 다른 전자 장치로부터 통신 회로(260)를 통해 획득된 데이터를 상기 서브 구성요소의 처리를 위해 적합한 포맷으로 처리하도록 구성된 회로를 포함할 수 있다. 센서 인터페이스(219)는 센서(270)를 통해 획득된, 전자 장치(200)의 상태 및/또는 전자 장치(200) 주변의 상태에 대한 데이터를 프로세서(210) 내의 서브 구성요소를 위해 적합한 포맷으로 처리하도록 구성된 회로를 포함할 수 있다.
도 3은, 촬영(photographing)을 위한 UI(user interface) 내에서 가이드 이미지를 표시하는 동작의 예를 도시한다. 도 3을 통해 예시되는 동작들은, 도 1 내에서 도시된 전자 장치(100), 도 2 내에서 도시된 전자 장치(200), 또는 도 2 내에서 도시된 전자 장치(200)의 프로세서(210)에 의해 실행될 수 있다.
도 3을 참조하면, 동작 301에서, 프로세서(210)는, 전자 장치(200)의 복수의 카메라들(예: 도 2 내의 이미지 센서(250)) 중 적어도 하나를 통해 획득되는, 제1 장면(scene)을 표현하는, 제1 프리뷰 이미지 및 상기 복수의 카메라들 중 적어도 하나를 통해 획득된 하나 이상의 이미지들을 각각 나타내는 하나 이상의 썸네일 이미지들을, 디스플레이(240)를 통해 표시할 수 있다. 예를 들면, 상기 제1 프리뷰 이미지 및 상기 하나 이상의 썸네일 이미지들은, 촬영(photographing)을 위한 UI(user interface) 내에서 표시될 수 있다.
예를 들면, 상기 제1 프리뷰 이미지는, 상기 UI의 제1 영역 내에서 표시될 수 있다. 예를 들면, 상기 제1 영역은, 뷰파인더(viewfinder) 영역을 포함할 수 있다. 예를 들면, 상기 제1 영역은, 상기 제1 프리뷰 이미지에 대응하는 이미지(예: 정적 이미지 및 동적 이미지(예: 비디오))의 제어를 위한 실행가능한 객체를 포함할 수 있다. 예를 들어, 상기 이미지가 정적 이미지인 경우, 상기 제1 영역은, 상기 이미지를 획득함을 나타내는 실행가능한 객체(예: 시각적 촬영 버튼(visual shooting button))를 포함할 수 있다. 예를 들어, 상기 이미지가 동적 이미지인 경우, 상기 제1 영역은, 상기 이미지를 획득하는 것을 개시하고 상기 이미지를 획득하는 것을 종료하기 위한 실행가능한 객체를 포함할 수 있다. 하지만, 이에 제한되지 않는다.
예를 들면, 상기 제1 프리뷰 이미지는, 상기 제1 장면을 표현할 수 있다. 예를 들면, 상기 제1 장면은, 상기 복수의 카메라들 중 적어도 하나의 FOV 내에 포함된, 전자 장치(200) 주변의, 환경의 적어도 일부를 나타낼 수 있다. 예를 들면, 상기 제1 프리뷰 이미지는, 기준 배율 미만인 제1 배율로 표시될 수 있다. 예를 들면, 상기 기준 배율은, 동작 303을 통해 예시될 것이다.
예를 들면, 상기 하나 이상의 썸네일 이미지들은, 상기 UI의 제2 영역 내에서 표시될 수 있다. 예를 들면, 상기 제2 영역은, 상기 제1 프리뷰 이미지를 표시하는 동안 획득되거나 획득되었던 상기 하나 이상의 이미지들에 대응하는 상기 하나 이상의 썸네일 이미지들을 표시하는 영역을 포함할 수 있다. 예를 들면, 상기 제2 영역은, 상기 제1 프리뷰 이미지를 표시하기 전 획득되었던 상기 하나 이상의 이미지들에 대응하는 상기 하나 이상의 썸네일 이미지들을 표시하는 영역을 포함할 수 있다. 예를 들면, 상기 제2 영역은 전자 장치(200)(또는 상기 복수의 카메라들 중 적어도 하나)를 이용하여 최근 획득되었던 N개의 이미지들(N은 1 이상의 자연수)을 상기 UI 내에서 호출하거나 표시하기 위해 제공되는 영역일 수 있다. 예를 들면, 상기 제2 영역 내에서 표시할 수 있는 상기 하나 이상의 썸네일 이미지들의 수(예: N)는, 상기 제2 영역의 사이즈에 기반하여 미리 정의되거나 결정될 수 있다. 하지만, 이에 제한되지 않는다. 예를 들면, 상기 제2 영역은, 캡쳐 앤 뷰(capture and view) 영역으로 참조될 수 있다.
예를 들면, 상기 하나 이상의 썸네일 이미지들 각각의 사이즈는, 가장 최근 획득되었던 단일 이미지를 표현하는 상기 제1 영역 내의 아이템(예: 상기 시각적 촬영 버튼 주변에 위치된 원형의 아이템)의 사이즈보다 클 수 있다. 예를 들면, 상기 하나 이상의 썸네일 이미지들 각각의 사이즈는, 상기 아이템의 사이즈보다 크기 때문에, 상기 하나 이상의 썸네일 이미지들 각각은, 상기 아이템보다 디테일한 정보를 제공할 수 있다. 하지만, 이에 제한되지 않는다.
상기 제1 영역 및 상기 제2 영역을 포함하는 상기 UI는, 도 4를 통해 예시될 수 있다.
도 4는, 제1 영역 및 제2 영역을 포함하는 UI의 예를 도시한다.
도 4를 참조하면, 상태(400) 내에서, 프로세서(210)는, 상기 UI인 UI(410)를 표시할 수 있다. 예를 들면, UI(410)는, 제1 영역(420) 및 제2 영역(430)을 포함할 수 있다.
예를 들면, 제1 영역(420)은, 상기 제1 프리뷰 이미지인 제1 프리뷰 이미지(421)를 포함할 수 있다. 예를 들면, 제1 영역(420)은, 촬영 버튼인 실행가능한 객체(422)를 포함할 수 있다. 예를 들면, 제1 영역(420)은, 상기 아이템인 실행가능한 객체(423)를 포함할 수 있다. 예를 들면, 실행가능한 객체(423)는, 터치 입력에 응답하여, 사진(또는 이미지)의 관리를 위한 소프트웨어 어플리케이션의 UI를 표시하기 위해 이용될 수 있다. 예를 들면, 프로세서(210)는, 실행가능한 객체(423)에 대한 상기 터치 입력에 응답하여, 가장 최근 촬영된 사진을 포함하는 상기 소프트웨어 어플리케이션의 상기 UI를 표시할 수 있다. 예를 들면, 제1 영역(420)은, 이미지를 획득하기 위해 이용되는 카메라를 변경하기 위한 실행가능한 객체(424)를 포함할 수 있다. 예를 들면, 제1 영역(420)은, 카메라를 통해 획득되고 있거나 카메라를 통해 획득될 이미지에 적용될 효과 및 설정을 제공하기 위한 실행가능한 객체들(425)을 포함할 수 있다. 예를 들면, 제1 영역(420)은, 제1 프리뷰 이미지(421)의 배율 및/또는 제1 프리뷰 이미지(421)에 대응하는 이미지의 배율을 변경하기 위한 실행가능한 객체들의 세트(426)를 포함할 수 있다. 예를 들면, 세트(426) 내의 실행가능한 객체(427)는 드래그 입력에 의해 나타내어지는 배율로 제1 프리뷰 이미지(421)의 상기 배율(및/또는 상기 이미지의 상기 배율)을 변경하기 위해 이용될 수 있다. 예를 들면, 세트(426) 내의 실행가능한 객체들(428)은, 실행가능한 객체들(428) 중 터치 입력에 의해 식별된 하나의 실행가능한 객체에 의해 나타내어지는 배율로 제1 프리뷰 이미지(421)의 상기 배율(및/또는 상기 이미지의 상기 배율)을 변경하기 위해 이용될 수 있다. 하지만, 이에 제한되지 않는다.
예를 들면, 제1 영역(420)은, 전자 장치(200)의 상태의 변경과 독립적으로 UI(410) 내에서 유지되는 영역일 수 있다. 전자 장치(200)의 상기 상태의 상기 변경은, 도 13 내지 도 17의 설명을 통해 예시될 것이다.
예를 들면, 제2 영역(430)은, 상기 하나 이상의 썸네일 이미지들인 하나 이상의 썸네일 이미지들(431)을 포함할 수 있다. 예를 들면, 하나 이상의 썸네일 이미지들(431)은, 전자 장치(200)를 통해 또는 전자 장치(200)의 카메라를 통해 최근 획득되었던 상기 하나 이상의 이미지들을 나타낼 수 있다. 예를 들면, 하나 이상의 썸네일 이미지들(431) 각각의 사이즈는, 실행가능한 객체(423)의 사이즈보다 클 수 있다. 하지만, 이에 제한되지 않는다.
다시 도 3을 참조하면, 동작 303에서, 프로세서(210)는, 상기 제1 프리뷰 이미지 및 상기 하나 이상의 썸네일 이미지들이 상기 UI 내에서 표시되는 동안, 상기 제1 배율을 상기 기준 배율 이상인 제2 배율로 변경하기 위한 입력을 수신할 수 있다. 예를 들면, 상기 기준 배율은, 아래에서 예시될, 가이드 이미지(guidance image)를 상기 제2 영역 내에서 표시할 것인지 여부를 식별하기 위한 파라미터일 수 있다. 예를 들면, 상기 기준 배율은, 동작 305를 실행할 것인지 여부를 식별하기 위해 이용되는 파라미터일 수 있다. 예를 들면, 상기 기준 배율은, 20배일 수 있다. 하지만, 이에 제한되지 않는다.
동작 305에서, 프로세서(210)는, 상기 입력에 기반하여, 디스플레이(240)를 통해, 제2 프리뷰 이미지를 상기 제1 영역 내에서 표시하고, 가이드 이미지를 상기 제2 영역 내에서 표시할 수 있다. 예를 들면, 상기 제2 프리뷰 이미지는, 상기 제1 장면의 일부가 상기 제2 배율로 확대된, 제2 장면을 표현할 수 있다. 일 실시예에 따르면, 상기 제2 프리뷰 이미지를 획득하기 위해 이용되는 카메라는 상기 제1 프리뷰 이미지를 획득하기 위해 이용되는 카메라와 다를 수 있다. 예를 들면, 상기 제1 프리뷰 이미지는, 도 2를 통해 예시된 상기 제1 카메라를 통해 획득되고, 상기 제2 프리뷰 이미지는, 도 2를 통해 예시된 상기 제2 카메라를 통해 획득될 수 있다. 일 실시예에 따르면, 상기 제2 프리뷰 이미지를 획득하기 위해 이용되는 카메라는 상기 제1 프리뷰 이미지를 획득하기 위해 이용되는 카메라와 동일할 수 있다. 예를 들면, 상기 제2 프리뷰 이미지는, 디지털 줌을 통해 상기 제1 프리뷰 이미지를 확대한 이미지일 수 있다. 하지만, 이에 제한되지 않는다.
예를 들면, 상기 가이드 이미지(guidance image)는, 상기 제2 프리뷰 이미지를 통한 촬영을 가이드하거나(guide) 보조하기(assist) 위한 이미지일 수 있다. 예를 들면, 상기 가이드 이미지는, 상기 제1 장면의 적어도 일부에 대하여, 상기 제2 장면을 나타낼 수 있다. 예를 들면, 상기 가이드 이미지는, 상기 제1 장면의 상기 적어도 일부 내에서의 상기 제2 장면의 위치를 알리거나 가이드하기 위한 시각적 요소를 포함할 수 있다. 일 실시예에 따르면, 상기 가이드 이미지는, 상기 제1 장면에 대하여 상기 제2 장면을 나타낼 수 있다. 예를 들면, 상기 가이드 이미지는 상기 제1 배율로 표시되는 상기 제1 프리뷰 이미지에 의해 나타내어지는 상기 제1 장면에 대하여, 상기 제2 배율로 표시되는 상기 제2 프리뷰 이미지에 의해 나타내어지는 상기 제2 장면을 나타낼 수 있다. 일 실시예에 따르면, 상기 가이드 이미지는, 상기 제1 장면의 일부에 대하여 상기 제2 장면을 나타낼 수 있다. 예를 들면, 상기 가이드 이미지는 상기 제1 배율보다 크고 상기 제2 배율보다 작은 제3 배율로 표시되는 상기 제1 프리뷰 이미지의 일부에 의해 나타내어지는 상기 제1 장면의 상기 일부에 대하여, 상기 제2 배율로 표시되는 상기 제2 프리뷰 이미지에 의해 나타내어지는 상기 제2 장면을, 나타낼 수 있다. 일 실시예에 따르면, 상기 제3 배율은, 상기 기준 배율 미만일 수 있다. 일 실시예에 따르면, 상기 제3 배율은, 상기 기준 배율 이상일 수도 있다. 하지만, 이에 제한되지 않는다. 일 실시예에 따르면, 상기 제3 배율은, 상기 제2 배율에 기반하여 식별될 수 있다. 예를 들면, 상기 제3 배율은, 상기 제2 배율의 1/a배(a는 1 이상의 실수)일 수 있다. 예를 들어, a가 5이고 상기 제2 배율이 20인 경우, 상기 제3 배율은 4일 수 있다. 예를 들어, a가 5이고 상기 제2 배율이 50인 경우, 상기 제3 배율은 10일 수 있다. 예를 들어, a가 5이고 상기 제2 배율이 100인 경우, 상기 제3 배율은 20일 수 있다. 예를 들어, a가 10이고 상기 제2 배율이 100인 경우, 상기 제3 배율은 10일 수 있다. 하지만, 이에 제한되지 않는다.
일 실시예에 따르면, 상기 가이드 이미지는, 상기 제1 배율보다 작은 제4 배율을 가지는 이미지에 대하여, 상기 제2 프리뷰 이미지를 나타낼 수도 있다. 예를 들면, 상기 이미지는, 상기 제1 장면을 포함하는 장면을 표현하는 이미지일 수 있다. 하지만, 이에 제한되지 않는다.
예를 들면, 상기 가이드 이미지는, 맵 뷰(map view) 이미지 또는 미니 맵(mini map) 이미지로 참조될 수 있다.
일 실시예에 따르면, 상기 제1 프리뷰 이미지, 상기 제2 프리뷰 이미지, 및 상기 가이드 이미지는, 상기 복수의 카메라들 중 적어도 하나를 통해 비디오를 획득하는 동안 표시될 수 있다. 하지만, 이에 제한되지 않는다.
상기 제2 프리뷰 이미지 및 상기 가이드 이미지는 도 4를 통해 예시될 수 있다.
도 4를 참조하면, 상태(400) 내에서, 프로세서(210)는, 상기 입력을 수신할 수 있다. 예를 들면, 상기 입력은, 상기 제1 배율을 상기 기준 배율 이상인 제2 배율로 변경하기 위한 입력일 수 있다. 예를 들면, 상기 입력은, 제1 프리뷰 이미지(421)를 확대하기 위한 입력일 수 있다. 예를 들면, 상기 입력은, 실행가능한 객체(427)를 통해 수신될 수 있다. 예를 들면, 상기 입력은, 실행가능한 객체(427)를 통해 수신되는 드래그 입력일 수 있다. 예를 들면, 상기 제2 배율은, 상기 드래그 입력이 해제되는 위치에 기반하여 식별될 수 있다. 예를 들면, 상기 입력은, 실행가능한 객체들(428) 중 하나의(an) 실행가능한 객체(예: 실행가능한 객체(429))를 선택함을 나타내는 탭 입력(tap input)일 수 있다. 예를 들면, 상기 제2 배율은, 상기 실행가능한 객체(예: 실행가능한 객체(429))에 의해 나타내어지는 배율(예: 8배)일 수 있다. 예를 들면, 프로세서(210)는, 상기 입력에 응답하여, 상태(400)를 상태(450)로 변경할 수 있다. 예를 들면, 프로세서(210)는, 상기 기준 배율 이상인 상기 제2 배율에 기반하여, 상태(400)를 상태(450)로 변경할 수 있다.
상태(450) 내에서, 프로세서(210)는, 제1 영역(420) 내에서, 상기 제2 프리뷰 이미지인 제2 프리뷰 이미지(451)를 표시할 수 있다. 예를 들면, 프로세서(210)는, 제2 영역(430) 내에서, 상기 가이드 이미지인 가이드 이미지(440)를 표시할 수 있다. 예를 들면, 가이드 이미지(440)는, 시각적 요소(441)를 포함할 수 있다. 예를 들면, 시각적 요소(441)는, 상기 제1 장면의 적어도 일부에 대하여 상기 제2 장면을 나타낼 수 있다. 예를 들면, 시각적 요소(441)는, 상기 제1 장면의 상기 적어도 일부 내에서의 상기 제2 장면의 위치를 알리기 위해, 가이드 이미지(440) 내에 포함될 수 있다. 일 실시예에 따르면, 시각적 요소(441)는, 가이드 이미지(440)로부터 독립된 요소로, 가이드 이미지(440) 상에 중첩되는 요소일 수도 있다. 하지만, 이에 제한되지 않는다.
일 실시예에 따르면, 상태(450)와 같이, 프로세서(210)는, 상기 입력에 기반하여, 제2 영역(430) 내에서 하나 이상의 썸네일 이미지들(431) 중 일부를 표시하는 것을 중단하고, 제2 영역(430) 내에서 가이드 이미지(440)를 표시할 수 있다. 예를 들면, 하나 이상의 썸네일 이미지들(431)은, 상기 입력에 기반하여, 이동될 수 있다. 예를 들면, 하나 이상의 썸네일 이미지들(431) 중 상기 일부의 표시는, 상기 이동에 따라, 중단될 수 있다. 일 실시예에 따르면, 프로세서(210)는, 상태(450)의 도시와 달리, 상기 입력에 기반하여, 제2 영역(430) 내에서, 하나 이상의 썸네일 이미지들(431) 중 하나를 대체하는 가이드 이미지(440)를 표시할 수 있다. 일 실시예에 따르면, 상태(450)의 도시와 달리, 프로세서(210)는, 상기 입력에 기반하여, 제2 영역(430) 내에서, 가이드 이미지(440) 및 축소 사이즈(reduced size)를 가지는 하나 이상의 썸네일 이미지들(431)을 표시할 수도 있다. 하지만, 이에 제한되지 않는다.
일 실시예에 따르면, 가이드 이미지(440)는, 상기 입력이 수신된 후 제2 영역(430) 내에서 표시가 유지되는 하나 이상의 썸네일 이미지들(431)의 남은 일부에 대하여(relative to) 시각적으로 강조될(visually highlighted) 수 있다. 일 실시예에 따르면, 상기 입력이 수신된 후 제2 영역(430) 내에서 유지되는 하나 이상의 썸네일 이미지들(431) 중 상기 남은 일부는, 가이드 이미지(440)와 달리, 블러될(blurred) 수 있다. 일 실시예에 따르면, 상기 입력이 수신된 후 제2 영역(430) 내에서 유지되는 하나 이상의 썸네일 이미지들(431) 중 상기 남은 일부는, 가이드 이미지(440)와 달리, 흐릿해질(dimmed) 수 있다. 예를 들면, 프로세서(210)는, 하나 이상의 썸네일 이미지들(431) 중 상기 남은 일부 상에 중첩된, 반투명 레이어를 표시할 수 있다. 하지만, 이에 제한되지 않는다.
일 실시예에 따르면, 제2 영역(430) 내의 가이드 이미지(440)의 위치는, 전자 장치(200)의 그립 상태에 기반하여 식별될 수 있다. 예를 들어, 상태(400) 내에서 전자 장치(200)가 그립 상태(442)와 같이 그립된 경우, 가이드 이미지(440)는, 그립 상태(442)에 대응하는 위치인, 상태(450) 내에서 도시된, 위치에서 표시될 수 있다. 예를 들어, 상태(400) 내에서 전자 장치(200)가 그립 상태(443)와 같이 그립된 경우, 가이드 이미지(440)는, 상태(450)의 도시와 달리, 그립 상태(443)에 대응하는 위치에서 표시될 수 있다. 예를 들면, 가이드 이미지(440)는, 상태(450)의 도시와 달리, 그립 상태(443)에 대응하는 위치인, 하나 이상의 썸네일 이미지들(431) 중 하나인 썸네일 이미지(444)가 표시된, 위치에서 표시될 수 있다. 하지만, 이에 제한되지 않는다.
일 실시예에 따르면, 상태(450) 내에서, 프로세서(210)는, 가이드 이미지(440) 및 하나 이상의 썸네일 이미지들(431)의 상기 남은 일부 중 하나 이상의 썸네일 이미지들(431)의 상기 남은 일부를 선택함을 나타내는 사용자 입력(455)을 수신할 수 있다. 예를 들면, 프로세서(210)는, 입력(455)에 응답하여, 상태(450)를 상태(490)로 변경할 수 있다.
일 실시예에 따르면, 상태(450) 내에서, 프로세서(210)는, 가이드 이미지(440) 및 하나 이상의 썸네일 이미지들(431)의 상기 남은 일부 중 가이드 이미지(440)를 선택함을 나타내는 사용자 입력(456)을 수신할 수 있다. 예를 들면, 프로세서(210)는, 입력(456)에 응답하여, 상태(450)를 상태(490)로 변경할 수 있다.
일 실시예에 따르면, 상태(450) 내에서, 프로세서(210)는, 가이드 이미지(440)를 제1 영역(420)으로 이동함을 나타내는 사용자 입력(457)을 수신할 수 있다. 예를 들면, 프로세서(210)는, 입력(457)에 응답하여, 상태(450)를 상태(490)로 변경할 수 있다. 예를 들면, 사용자 입력(457)을 통해 제1 영역(420)으로 이동된 가이드 이미지(440)는, 사용자 입력(457)이 해제된 제1 영역(420) 내에서의 위치에서 표시될 수 있다. 하지만, 이에 제한되지 않는다.
상태(490) 내에서, 프로세서(210)는, 가이드 이미지(440)를 제2 영역(430) 내에서 표시하는 것을 중단할 수 있다. 예를 들면, 프로세서(210)는, 가이드 이미지(440)를 제2 영역(430) 내에서 표시하는 것을 중단하고, 제1 영역(420) 내에서 표시된 제2 프리뷰 이미지(451) 상에 부분적으로 중첩된 가이드 이미지(440)를 표시할 수 있다. 예를 들면, 제2 프리뷰 이미지(451) 상에 중첩된 가이드 이미지(440)(예: 상태(490) 내의 가이드 이미지(440))의 사이즈는, 제2 영역(430) 내에서 표시되었던 가이드 이미지(440)(예: 상태(450) 내의 가이드 이미지(440))의 사이즈보다 작을 수 있다. 예를 들면, 프로세서(210)는, 상태(450)를 상태(490)로 변경하기 위한 사용자 입력(예: 사용자 입력(455), 사용자 입력(456), 및/또는 사용자 입력(457))에 응답하여, 하나 이상의 썸네일 이미지들(431)의 상기 일부를 제2 영역(430) 내에서 표시하는 것을 재개할 수 있다.
일 실시예에 따르면, 상태(490)는, 상태(400)와 상태(450) 사이의 중간 상태로 정의될 수도 있다. 예를 들면, 프로세서(210)는, 상태(400) 내에서, 상기 제1 배율을 상기 제1 배율보다 크고 상기 기준 배율보다 작은 제3 배율로 변경하기 위한 입력을 수신할 수 있다. 프로세서(210)는, 상기 입력에 응답하여, 상태(400)를 상태(490)로 변경할 수 있다. 예를 들면, 프로세서(210)는, 상태(400) 내에서 수신되는 상기 입력에 의해 나타내어진 상기 제3 배율이 상기 기준 배율보다 작음을 식별하는 것에 기반하여, 상태(400)를 상태(490)로 변경할 수 있다. 상태(400)로부터 변경된 상태(490) 내에서, 프로세서(210)는, 제2 영역(430)의 표시 상태를 유지할 수 있다. 상태(400)로부터 변경된 상태(490) 내에서, 프로세서(210)는, 제3 프리뷰 이미지 상에 중첩된 가이드 이미지를 표시할 수 있다. 예를 들면, 상기 제3 프리뷰 이미지는 상기 제1 장면의 일부가 상기 제3 배율로 확대된 제3 장면을 표현하는 제3 장면을 표현할 수 있다. 예를 들면, 상기 가이드 이미지는, 상기 제1 장면의 상기 적어도 일부에 대하여, 상기 제3 장면을 나타낼 수 있다. 예를 들면, 상태(490) 내에서, 프로세서(210)는, 상기 가이드 이미지 및 상기 제3 프리뷰 이미지가 표시되는 동안, 상기 제3 배율을 상기 제2 배율로 변경하기 위한 입력을 수신할 수 있다. 예를 들면, 프로세서(210)는, 상기 입력에 응답하여, 상태(490)를 상태(450)로 변경할 수 있다. 일 실시예에 따르면, 프로세서(210)는, 상기 입력에 응답하여, 상기 입력이 상기 제1 장면 및/또는 상기 제3 장면 내에서 포커스된(focused) 피사체에 대응하는 시각적 객체의 사이즈가 기준 사이즈 이상으로 변경하는 입력임을 식별하고, 상기 식별에 응답하여, 상태(490)를 상태(450)로 변경할 수도 있다.
일 실시예에 따르면, 프로세서(210)는, 상태(490) 내에서 표시되는 가이드 이미지(440)를 제2 영역(430)으로 이동함을 나타내는 사용자 입력에 응답하여, 상태(490)를 상태(450)로 변경할 수도 있다.
일 실시예에 따르면, 상태(490) 내에서 표시되는 가이드 이미지(440)는, 상기 제2 장면(또는 상기 제3 장면) 내에서 포커스된 피사체에 대응하는, 시각적 객체(470)를 포함하는, 제2 프리뷰 이미지(451)의 제1 부분과 구별되는, 제2 프리뷰 이미지(451)의 제2 부분 상에 중첩될 수 있다. 예를 들면, 상태(490)의 도시와 같이, 가이드 이미지(440)는, 시각적 객체(470)를 가리지 않는 위치에서 표시될 수 있다. 하지만, 이에 제한되지 않는다.
일 실시예에 따르면, 상태(490) 내에서 표시되는 가이드 이미지(440)는, 이동될 수 있다. 가이드 이미지(440)의 이동은, 도 5를 통해 예시될 수 있다.
도 5는, 시각적 객체의 이동에 따라 이동되는 가이드 이미지의 예를 도시한다.
도 5를 참조하면, 프로세서(210)는, 상태(490) 내에서, 제2 프리뷰 이미지(451)의 상기 제2 부분으로 이동되는 시각적 객체(470)를 식별할 수 있다. 예를 들면, 프로세서(210)는, 시각적 객체(470)의 이동(471)에 응답하여, 상태(490)를 상태(550)로 변경할 수 있다. 예를 들면, 상태(550) 내에서, 프로세서(210)는, 제2 프리뷰 이미지(451)의 상기 제1 부분 또는 제2 프리뷰 이미지의 제3 부분 상에 중첩된 가이드 이미지(440)를 표시할 수 있다. 예를 들면, 가이드 이미지(440)는, 시각적 객체(470) 상에 중첩되지 않도록, 시각적 객체(470)를 회피할 수 있다. 하지만, 이에 제한되지 않는다.
상술한 바와 같이, 전자 장치(200)는, 상기 제1 배율을 상기 제2 배율로 변경하기 위한 입력에 응답하여, 상기 가이드 이미지를 상기 제2 영역 내에서 표시할 수 있다. 예를 들면, 상기 제2 영역 내에서 표시되는 상기 가이드 이미지의 사이즈는, 상기 제1 영역 내에서 표시되는 상기 가이드 이미지의 사이즈보다 클 수 있다. 예를 들면, 전자 장치(200)는, 상기 제2 영역 내에서 상기 가이드 이미지를 표시함으로써, 강화된 촬영 환경을 제공할 수 있다. 예를 들면, 전자 장치(200)의 사용자는, 상대적으로 높은 배율을 제공하는 상기 제2 카메라가 향하는 방향이 어디인지를 보다 쉽게 인지할 수 있다.
도 6은 제1 프리뷰 이미지를 표시하는 동안 수신된 입력에 응답하여 제3 프리뷰 이미지를 표시하는 동작의 예를 도시한다. 도 6을 통해 예시되는 동작들은, 도 1 내에서 도시된 전자 장치(100), 도 2 내에서 도시된 전자 장치(200), 또는 도 2 내에서 도시된 전자 장치(200)의 프로세서(210)에 의해 실행될 수 있다.
도 6을 참조하면, 동작 601에서, 프로세서(210)는, 상기 제1 프리뷰 이미지를 상기 제1 영역 내에서 표시하고, 상기 하나 이상의 썸네일 이미지들을 상기 제2 영역 내에서 표시할 수 있다. 예를 들면, 상기 제1 프리뷰 이미지는, 상기 제1 장면을 상기 제1 배율로 표현할 수 있다. 예를 들면, 동작 601은, 도 3의 동작 301에 대응할 수 있다.
동작 603에서, 프로세서(210)는, 상기 제1 배율을 상기 제1 배율 초과이고 상기 기준 배율 미만인 제3 배율로 변경하기 위한 입력을 수신할 수 있다. 예를 들면, 동작 603에서 수신되는 상기 입력은, 상기 제1 프리뷰 이미지가 상기 제1 영역 내에서 표시되고, 상기 하나 이상의 썸네일 이미지들이 상기 제2 영역 내에서 표시되는 동안 수신될 수 있다.
동작 605에서, 프로세서(210)는, 동작 603에서 수신되는 상기 입력에 응답하여, 상기 제1 장면의 일부가 상기 제3 배율로 확대된 제3 장면을 표현하는 제3 프리뷰 이미지를 상기 제1 영역 내에서 표시할 수 있다. 예를 들면, 프로세서(210)는, 동작 603에서 수신되는 상기 입력에 응답하여, 상기 제2 영역의 표시 상태를 유지할 수 있다. 예를 들면, 프로세서(210)는, 상기 기준 배율 미만인 상기 제3 배율에 기반하여, 상기 제2 영역 내에서 상기 가이드 이미지를 표시하는 것을 삼가하거나 우회할 수 있다. 상기 제3 프리뷰 이미지의 표시 및 상기 제2 영역의 표시 상태의 유지는, 도 7을 통해 예시될 수 있다.
도 7은 제1 프리뷰 이미지를 표시하는 동안 수신된 입력에 응답하여 표시되는 제3 프리뷰 이미지의 예를 도시한다.
도 7을 참조하면, 상태(400) 내에서, 프로세서(210)는, 상기 제1 배율을 상기 제3 배율로 변경하기 위한 입력을 수신할 수 있다. 프로세서(210)는, 상기 입력에 응답하여, 상태(400)를 상태(700)로 변경할 수 있다.
상태(700) 내에서, 프로세서(210)는, 제1 영역(420) 내에서 상기 제3 프리뷰 이미지인 제3 프리뷰 이미지(710)를 표시할 수 있다. 예를 들면, 제3 프리뷰 이미지(710)는, 상기 제1 장면의 일부가 상기 제3 배율로 확대된 상기 제3 장면을 표현할 수 있다. 프로세서(210)는, 상기 입력과 독립적으로(또는 상기 입력과 관계없이), 제2 영역(430)의 표시 상태를 유지할 수 있다. 예를 들면, 프로세서(210)는, 제2 영역(430) 내에서, 하나 이상의 썸네일 이미지들(431)을 표시하는 것을 유지할 수 있다. 예를 들면, 프로세서(210)는, 도 4의 상태(450)와 같이, 가이드 이미지(440)를 제2 영역(430) 내에서 표시하는 것을 삼가할 수 있다.
상술한 바와 같이, 전자 장치(200)는, 상기 제1 배율을 상기 제3 배율로 변경하기 위한 입력에 응답하여, 상기 가이드 이미지(예: 가이드 이미지(440))를 상기 제2 영역 내에서 표시하는 것을 삼가할 수 있다. 예를 들면, 상기 제3 배율은, 상기 제2 배율과 달리, 상기 제2 카메라가 향하는 방향이 어디인지를 쉽게 인지할 수 있는 배율일 수 있다. 예를 들면, 전자 장치(200)는, 상기 제1 배율이 상기 제3 배율로 변경될 시 상기 제3 프리뷰 이미지를 표시하고 상기 가이드 이미지의 표시를 삼가함으로써, 강화된 촬영 환경을 제공할 수 있다.
도 8은 가이드 이미지 상의 사용자 입력에 응답하여 제2 프리뷰 이미지의 표시 상태를 변경하는 동작의 예를 도시한다. 도 8을 통해 예시되는 동작들은, 도 1 내에서 도시된 전자 장치(100), 도 2 내에서 도시된 전자 장치(200), 또는 도 2 내에서 도시된 전자 장치(200)의 프로세서(210)에 의해 실행될 수 있다.
도 8을 참조하면, 동작 801에서, 프로세서(210)는, 상기 제2 프리뷰 이미지를 상기 제1 영역 내에서 표시하고, 상기 가이드 이미지를 상기 제2 영역 내에서 표시할 수 있다. 예를 들면, 동작 801은, 도 3의 동작 305에 대응할 수 있다.
동작 803에서, 프로세서(210)는, 상기 제2 프리뷰 이미지가 상기 제1 영역 내에서 표시되고, 상기 가이드 이미지가 상기 제2 영역 내에서 표시되는 동안, 상기 가이드 이미지 상의 사용자 입력을 수신할 수 있다. 예를 들면, 상기 사용자 입력은, 상기 제2 프리뷰 이미지의 표시 상태를 변경하기 위해 수신될 수 있다. 예를 들면, 상기 사용자 입력은, 상기 제2 프리뷰 이미지를 통해 획득되거나 획득될 이미지에 적용될 설정 또는 효과를 위해, 수신될 수 있다. 예를 들면, 상기 사용자 입력은, 상기 가이드 이미지 상에 접촉점을 가지는 터치 입력일 수 있다. 하지만, 이에 제한되지 않는다.
동작 805에서, 프로세서(210)는, 상기 사용자 입력에 적어도 일부 기반하여, 상기 제2 프리뷰 이미지의 표시 상태를 변경할 수 있다. 예를 들면, 프로세서(210)는, 상기 사용자 입력에 적어도 일부 기반하여, 상기 가이드 이미지의 상태를 변경할 수 있다. 상기 제2 프리뷰 이미지의 상기 표시 상태의 상기 변경은, 도 9 내지 도 12를 통해 예시될 수 있다.
도 9 내지 12는, 가이드 이미지 상의 사용자 입력에 응답하여 변경되는 제2 프리뷰 이미지의 표시 상태의 예를 도시한다.
도 9를 참조하면, 상태(450) 내에서, 프로세서(210)는, 제2 프리뷰 이미지(451)를 포함하는 제1 영역(420) 및 가이드 이미지(440) 및 하나 이상의 썸네일 이미지들(431) 중 상기 남은 일부를 포함하는 제2 영역(430)을 포함하는 UI(410)를 표시할 수 있다. 예를 들면, 프로세서(210)는, 제2 프리뷰 이미지(451)의 밝기를 변경하기 위한 사용자 입력(900)을 수신할 수 있다. 예를 들면, 사용자 입력(900)은, 가이드 이미지(440) 상의 접촉점이 이동된 후 해제되는 입력일 수 있다. 예를 들면, 프로세서(210)는, 사용자 입력(900)에 응답하여, 상태(450)를 상태(950)으로 변경할 수 있다.
상태(950) 내에서, 프로세서(210)는, 사용자 입력(900)에 적어도 일부 기반하여 제2 프리뷰 이미지(451)의 밝기를 변경함으로써 제2 프리뷰 이미지(451)의 상기 표시 상태를 변경할 수 있다. 예를 들면, 프로세서(210)는, 사용자 입력(900)의 이동 거리 또는 사용자 입력(900)이 해제된 위치에 대응하는 밝기를 식별할 수 있다. 프로세서(210)는, 상기 식별된 밝기로 제2 프리뷰 이미지(451)의 상기 밝기를 변경할 수 있다. 예를 들면, 상태(950) 내의 제2 프리뷰 이미지(451)는, 상태(450) 내의 제2 프리뷰 이미지(451)보다 밝을 수 있다.
일 실시예에 따르면, 상태(400)가 상태(450)로 변경될 시, 상태(400) 내에서 제1 영역(420) 내에 포함된 복수의 실행가능한 객체들(예: 실행가능한 객체(422) 내지 실행가능한 객체들(428))의 적어도 일부는, 상태(450) 내에서 제1 영역(420)으로부터 제외될 수 있다. 예를 들어, 사용자 입력(900)과 같이 가이드 이미지(440)에 대한 사용자 입력을 통해 제2 프리뷰 이미지(451)를 제어할 수 있는 경우, 상기 사용자 입력에 대응하는 기능을 제공하는 상기 복수의 실행가능한 객체들의 상기 적어도 일부는, 상태(450) 내에서 표시되지 않을 수 있다. 예를 들면, 프로세서(210)는, 상태(450) 내에서, 제2 프리뷰 이미지(451)의 상기 표시 상태의 변경을 위한 제1 영역(420) 내의 상기 복수의 실행가능한 객체들의 상기 적어도 일부의 표시를 중단할 수 있다. 하지만, 이에 제한되지 않는다.
도 10을 참조하면, 상태(450) 내에서, 프로세서(210)는, 제2 프리뷰 이미지(451)를 포함하는 제1 영역(420) 및 가이드 이미지(440) 및 하나 이상의 썸네일 이미지들(431) 중 상기 남은 일부를 포함하는 제2 영역(430)을 포함하는 UI(410)를 표시할 수 있다. 예를 들면, 프로세서(210)는, 제2 프리뷰 이미지(451)와 관련된 카메라(예: 상기 제2 카메라)의 AE(auto exposure) 기능 및/또는 AF(auto focus) 기능을 제어하기 위한 사용자 입력(1000)을 수신할 수 있다. 예를 들면, 사용자 입력(1000)은, 가이드 이미지(440) 상에서 접촉점을 가지는 입력일 수 있다. 예를 들면, 프로세서(210)는, 사용자 입력(1000)에 응답하여, 상태(950)를 상태(1050)로 변경할 수 있다.
상태(1050) 내에서, 프로세서(210)는, 사용자 입력(1050)에 적어도 일부 기반하여 상기 AE 기능 및/또는 상기 AF 기능을 제어함으로써, 제2 프리뷰 이미지(451)의 상기 표시 상태를 변경할 수 있다. 예를 들면, 프로세서(210)는, 사용자 입력(1050)이 수신된 가이드 이미지(440) 상의 위치를 기준으로 상기 제2 카메라의 노출 상태를 변경함으로써, 제2 프리뷰 이미지(451)의 상기 표시 상태를 변경할 수 있다. 예를 들면, 프로세서(210)는, 상기 위치를 기준으로 상기 제2 카메라의 포커스 상태를 변경함으로써, 제2 프리뷰 이미지(451)의 상기 표시 상태를 변경할 수 있다. 예를 들면, 상태(1050) 내의 제2 프리뷰 이미지(451)는, 상태(450) 내의 제2 프리뷰 이미지(451)와 달리, 상기 위치에 대응하는 시각적 객체(470)를 기준으로 식별된 표시 상태를 가질 수 있다.
도 11을 참조하면, 상태(450) 내에서, 프로세서(210)는, 제2 프리뷰 이미지(451)를 포함하는 제1 영역(420) 및 가이드 이미지(440) 및 하나 이상의 썸네일 이미지들(431) 중 상기 남은 일부를 포함하는 제2 영역(430)을 포함하는 UI(410)를 표시할 수 있다. 예를 들면, 프로세서(210)는, 제2 프리뷰 이미지(451)의 종횡비(aspect ratio)를 변경하기 위한 사용자 입력(1100)을 수신할 수 있다. 예를 들면, 사용자 입력(1100)은, 가이드 이미지(440) 내의 시각적 요소(441)의 사이즈를 변경하기 위한 입력일 수 있다. 예를 들면, 사용자 입력(1100)은, 시각적 요소(441)의 일 가장자리(1101)를 이동함을 나타내는 입력일 수 있다. 예를 들면, 프로세서(210)는, 사용자 입력(1100)에 응답하여, 상태(450)를 상태(1150)로 변경할 수 있다.
상태(1150) 내에서, 프로세서(210)는, 사용자 입력(1100)에 적어도 일부 기반하여, 제2 프리뷰 이미지(451)의 종횡비를 변경함으로써, 제2 프리뷰 이미지(451)의 상기 표시 상태를 변경할 수 있다. 예를 들면, 프로세서(210)는, 사용자 입력(1100)이 해제되는 위치를 식별할 수 있다. 예를 들면, 프로세서(210)는, 상기 위치에 기반하여, 제2 프리뷰 이미지(451)의 종횡비를 식별할 수 있다. 일 실시예에 따르면, 프로세서(210)는, 전자 장치(200) 내에서 미리 정의된 복수의 후보 종횡비들 중 상기 위치에 대응하는 후보 종횡비를 식별하고, 상기 식별된 후보 종횡비로 제2 프리뷰 이미지(451)의 상기 종횡비를 변경할 수 있다. 예를 들면, 상기 복수의 후보 종횡비들은, 3:4, 9:16, 및 1:1을 포함할 수 있다. 하지만, 이에 제한되지 않는다. 예를 들면, 상태(115) 내의 제2 프리뷰 이미지(451)은, 상태(450) 내의 제2 프리뷰 이미지(451)와 다른 종횡비를 가질 수 있다. 예를 들면, 제1 영역(420) 내의 상기 복수의 실행가능한 객체들의 배치(arrangement)는, 제2 프리뷰 이미지(451)의 상기 변경된 종횡비에 따라, 변경될 수 있다. 하지만, 이에 제한되지 않는다.
도 12를 참조하면, 상태(450) 내에서, 프로세서(210)는, 제2 프리뷰 이미지(451)를 포함하는 제1 영역(420) 및 가이드 이미지(440) 및 하나 이상의 썸네일 이미지들(431) 중 상기 남은 일부를 포함하는 제2 영역(430)을 포함하는 UI(410)를 표시할 수 있다. 예를 들면, 프로세서(210)는, 상기 제2 배율을 상기 제2 배율보다 큰 제3 배율로 변경하기 위한 사용자 입력(1200)을 수신할 수 있다. 예를 들면, 사용자 입력(1200)은, 가이드 이미지(440)의 일부를 확대하기 위해 2개의 접촉점들이 서로 멀어지는(move away from each other) 입력일 수 있다. 예를 들면, 프로세서(210)는, 사용자 입력(1200)에 응답하여, 상태(450)를 상태(1250)로 변경할 수 있다.
상태(1250) 내에서, 프로세서(210)는, 사용자 입력(1200)에 적어도 일부 기반하여, 제2 프리뷰 이미지(451)로부터 변경된 제3 프리뷰 이미지(1251)를 제1 영역(420) 내에서 표시할 수 있다. 예를 들면, 제3 프리뷰 이미지(1251)는, 상기 제1 장면의 일부가 상기 제3 배율로 확대된 제3 장면을 표현할 수 있다. 예를 들면, 프로세서(210)는, 사용자 입력(1200)이 해제될 시의 상기 2개의 접촉점들 사이의 거리, 상기 제2 개의 접촉점들의 이동 거리, 및/또는 상기 제2 개의 접촉점들의 위치에 기반하여, 상기 제3 배율을 식별할 수 있다. 프로세서(210)는, 상기 식별된 제3 배율로 확대된 상기 제3 장면을 표현하는 제3 프리뷰 이미지(1251)를 표시할 수 있다.
일 실시예에 따르면, 프로세서(210)는, 사용자 입력(1200)에 응답하여 상태(450)로부터 상태(1250)를 변경하기 전, 메시지(1260)를 표시할 수 있다. 예를 들면, 프로세서(210)는, 사용자 입력(1200)에 응답하여, 상기 제1 장면의 상기 적어도 일부에 대하여 상기 제3 장면을 나타내는 가이드 이미지를 표시하고, 메시지(1260)를 표시할 수 있다. 예를 들면, 메시지(1260)는, 제2 프리뷰 이미지(451)를 제3 프리뷰 이미지(1251)로 대체할 것인지 여부를 나타내는 텍스트를 포함할 수 있다. 예를 들면, 메시지(1260)는, 실행가능한 객체(1261) 및 실행가능한 객체(1262)를 포함할 수 있다. 프로세서(210)는, 실행가능한 객체(1261) 및 실행가능한 객체(1262) 중 실행가능한 객체(1261)을 선택함을 나타내는 입력(1263)을 수신하는 것에 응답하여, 상태(1250)를 제공할 수 있다. 하지만, 이에 제한되지 않는다.
상술한 바와 같이, 전자 장치(200)는, 상기 제2 프리뷰 이미지의 상기 표시 상태를 상기 제2 영역 내의 상기 가이드 이미지를 통해 변경할 수 있다. 예를 들면, 상기 제2 영역 내의 상기 가이드 이미지는, 상기 제2 프리뷰 이미지보다 넓은 상기 제1 장면을 표현하기 때문에, 상기 제2 영역 내의 상기 가이드 이미지를 통한 상기 제2 프리뷰 이미지의 상기 표시 상태의 변경은, 상기 제1 장면의 상태 및 상기 제2 장면의 상태를 고려하여 상기 제2 프리뷰 이미지의 상기 표시 상태를 변경하는 사용자 경험을 제공할 수 있다. 예를 들면, 전자 장치(200)는, 강화된 촬영 환경을 제공할 수 있다.
도 13은 제1 상태로부터 제2 상태로의 변경에 따라 확대 사이즈를 가지는 제1 영역을 표시하는 동작의 예를 도시한다. 도 13을 통해 예시되는 동작들은, 도 1 내에서 도시된 전자 장치(100), 도 2 내에서 도시된 전자 장치(200), 또는 도 2 내에서 도시된 전자 장치(200)의 프로세서(210)에 의해 실행될 수 있다.
도 13을 참조하면, 동작 1301에서, 프로세서(210)는, 상기 제2 프리뷰 이미지를 상기 제1 영역 내에서 표시하고, 상기 가이드 이미지를 상기 제2 영역 내에서 표시할 수 있다. 예를 들면, 프로세서(210)는, 전자 장치(200)의 상태가 제1 상태인 동안, 상기 제2 프리뷰 이미지를 상기 제1 영역 내에서 표시하고, 상기 가이드 이미지를 상기 제2 영역 내에서 표시할 수 있다. 예를 들면, 상기 제1 상태는, 전자 장치(200)의 복수의 상태들 중 하나의 상태일 수 있다. 상기 복수의 상태들은, 도 14를 통해 예시될 수 있다.
도 14는 예시적인 전자 장치의 복수의 상태들의 예를 도시한다.
도 14를 참조하면, 전자 장치(200)의 디스플레이(240)는, 축(1400)을 기준으로 폴딩가능할(foldable) 수 있다. 예를 들면, 전자 장치(200)는, 축(1400)을 기준으로 폴딩가능한 디스플레이(240)를 통해, 복수의 상태들 내에서 있을 수 있다.
예를 들면, 디스플레이(240)는, 제1 표시 영역(241) 및 제1 표시 영역(241)에 인접한 제2 표시 영역(242)을 포함할 수 있다. 예를 들면, 디스플레이(240)는, 축(1400)을 기준으로 폴딩가능하기 때문에, 제1 표시 영역(241)과 제2 표시 영역(242) 사이의 각도(또는 제1 표시 영역(241)이 향하는 제1 방향과 제2 표시 영역(242)이 향하는 방향 사이의 각도)는, 변경될 수 있다. 전자 장치(200)는, 상기 각도에 따라 복수의 상태들을 가질 수 있다. 예를 들면, 기준 범위가 상기 복수의 상태들을 식별하기 위해, 전자 장치(200) 내에서 미리 정의될 수 있다. 예를 들면, 상기 기준 범위는, 0도와 각도(1430) 사이의 상기 각도를 식별하기 위한 제1 기준 범위 및 각도(1430)와 각도(1460) 사이의 상기 각도를 식별하기 위한 제2 기준 범위를 포함할 수 있다. 예를 들면, 상기 복수의 상태들 중 상기 제1 상태는, 상기 각도가 상기 제1 기준 범위 내에 있는 상태일 수 있다. 예를 들면, 상기 복수의 상태들 중 제2 상태는, 상기 각도가 상기 제1 기준 범위 및 상기 제2 기준 범위 밖에 있는 상태일 수 있다. 예를 들면, 상기 복수의 상태들 중 제3 상태는, 상기 각도가 상기 제2 기준 범위 내에 있는 상태일 수 있다. 예를 들면, 상기 복수의 상태들 중 제3 상태는, 상기 각도가 상기 제2 기준 범위 내에 있고 포트레이트 모드(portrait mode)가 제공되는 상태일 수 있다. 예를 들면, 상기 복수의 상태들 중 제3 상태는, 상기 각도가 상기 제2 기준 범위 내에 있고 랜드스케이프 모드(landscape mode)가 제공되는 상태일 수 있다. 하지만, 이에 제한되지 않는다.
다시 도 13을 참조하면, 동작 1303에서, 프로세서(210)는, 상기 제2 프리뷰 이미지가 상기 제1 영역 내에서 표시되고 상기 가이드 이미지가 상기 제2 영역 내에서 표시되는 동안, 전자 장치(200)의 상태가 도 14를 통해 나타내어진 상기 제1 상태로부터 도 14를 통해 나타내어진 상기 제2 상태로 변경됨을 식별할 수 있다.
동작 1305에서, 프로세서(210)는, 상기 식별에 응답하여, 상기 제2 영역의 표시를 중단하고, 확대 사이즈(enlarged size)를 가지는 상기 제2 프리뷰 이미지 및 상기 제2 프리뷰 이미지 상에 중첩된 상기 가이드 이미지를 포함하는 확대 사이즈를 가지는 상기 제1 영역을, 디스플레이(240)의 제1 표시 영역(예: 도 14의 제1 표시 영역(241)) 및 디스플레이(240)의 제2 표시 영역(예: 도 14의 제2 표시 영역(242)) 내에서 표시할 수 있다. 상기 확대 사이즈를 가지는 상기 제1 영역은, 도 15 및 도 16을 통해 예시될 수 있다.
도 15는 제1 상태로부터 제2 상태로의 변경 또는 제2 상태로부터 제1 상태로의 변경에 응답하여 변경되는 UI의 예를 도시한다.
도 16은 제1 상태로부터 제2 상태 또는 제1 상태로부터 제3 상태로의 변경에 응답하여 변경되는 UI의 예를 도시한다.
도 15를 참조하면, 프로세서(210)는, 상기 포트레이트 모드를 제공하는 전자 장치(200)가 상기 제1 상태 내에서 있는 동안, 상태(450)와 같이, 제2 프리뷰 이미지(451)를 포함하는 제1 영역(420) 및 가이드 이미지(440) 및 하나 이상의 썸네일 이미지들(431) 중 상기 남은 일부를 포함하는 제2 영역(430)을 포함하는 UI(410)를 표시할 수 있다. 예를 들면, 프로세서(210)는, 상기 제1 상태로부터 상기 제2 상태로의 변경을 식별할 수 있다. 예를 들면, 상기 식별은, 전자 장치(200) 내의 가속도 센서, 자이로 센서, 및/또는 홀 센서를 통해 실행될 수 있다. 예를 들면, 프로세서(210)는, 상기 식별에 응답하여, 상태(450)를 상태(1550)로 변경할 수 있다.
상태(1550) 내에서, UI(410)는, 제1 영역(420) 및 제2 영역(430) 중 제1 영역(420)을 포함할 수 있다. 예를 들면, 제1 영역(420)은 상태(450) 내의 제1 영역(420)보다 확대 사이즈(enlarged size)를 가질 수 있다. 예를 들면, 제1 영역(420)은, 제1 표시 영역(241) 및 제2 표시 영역(242) 내에서 표시될 수 있다. 예를 들면, 제1 영역(420)은, 상태(450) 내의 제2 프리뷰 이미지(451)보다 확대 사이즈를 가지는 제2 프리뷰 이미지(451)를 포함할 수 있다. 예를 들면, 제2 영역(430)의 표시는, 상태(1550) 내에서, 중단될 수 있다. 예를 들면, 가이드 이미지(440)는, 제2 영역(430)의 표시의 상기 중단에 따라, 상기 확대 사이즈를 가지는 제2 프리뷰 이미지(451) 상에 부분적으로 중첩될 수 있다. 일 실시예에 따르면, 상태(1550) 내에서의 가이드 이미지(440)의 사이즈는, 상태(490) 내에서의 가이드 이미지(440)의 사이즈보다 클 수 있다. 하지만, 이에 제한되지 않는다.
상태(1550) 내에서, 프로세서(210)는, 전자 장치(200)의 상기 상태가 상기 제2 상태로부터 상기 제1 상태로 변경됨을 식별할 수 있다. 프로세서(210)는, 상기 식별에 응답하여, 상태(1550)를 상태(450)로 변경할 수 있다. 예를 들면, 가이드 이미지(440)는, 상태(1550)로부터 상태(450)로의 변경에 따라, 제2 영역(430)으로 이동될 수 있다.
도 16을 참조하면, 프로세서(210)는, 상기 랜드스케이프 모드를 제공하는 전자 장치(200)가 상기 제1 상태 내에서 있는 동안, 상태(450)와 같이, 제2 프리뷰 이미지(451)를 포함하는 제1 영역(420) 및 가이드 이미지(440) 및 하나 이상의 썸네일 이미지들(431) 중 상기 남은 일부를 포함하는 제2 영역(430)을 포함하는 UI(410)를 표시할 수 있다. 예를 들면, 프로세서(210)는, 상기 제1 상태로부터 상기 제2 상태로의 변경을 식별할 수 있다. 예를 들면, 프로세서(210)는, 상기 식별에 응답하여, 상태(450)를 상태(1650)로 변경할 수 있다.
상태(1650) 내에서, UI(410)는, 제1 영역(420) 및 제2 영역(430) 중 제1 영역(420)을 포함할 수 있다. 예를 들면, 제1 영역(420)은 상태(450) 내의 제1 영역(420)보다 확대 사이즈(enlarged size)를 가질 수 있다. 예를 들면, 제1 영역(420)은, 제1 표시 영역(241) 및 제2 표시 영역(242) 내에서 표시될 수 있다. 예를 들면, 제1 영역(420)은, 상태(450) 내의 제2 프리뷰 이미지(451)보다 확대 사이즈를 가지는 제2 프리뷰 이미지(451)를 포함할 수 있다. 예를 들면, 제2 영역(430)의 표시는, 상태(1550) 내에서, 중단될 수 있다. 예를 들면, 가이드 이미지(440)는, 제2 영역(430)의 표시의 상기 중단에 따라, 상기 확대 사이즈를 가지는 제2 프리뷰 이미지(451) 상에 부분적으로 중첩될 수 있다. 일 실시예에 따르면, 상태(1650) 내에서의 가이드 이미지(440)의 사이즈는, 상태(490) 내에서의 가이드 이미지(440)의 사이즈보다 클 수 있다. 하지만, 이에 제한되지 않는다.
상태(1650) 내에서, 프로세서(210)는, 전자 장치(200)의 상기 상태가 상기 제2 상태로부터 상기 제1 상태로 변경됨을 식별할 수 있다. 프로세서(210)는, 상기 식별에 응답하여, 상태(1650)를 상태(450)로 변경할 수 있다. 예를 들면, 가이드 이미지(440)는, 상태(1650)로부터 상태(450)로의 변경에 따라 표시되는 제2 영역(430)으로 이동될 수 있다.
상술한 바와 같이, 전자 장치(200)는, 전자 장치(200)의 상태가 상기 제1 상태인지 또는 상기 제2 상태인지 여부에 따라 상기 UI의 구성(configuration)을 변경할 수 있다. 예를 들면, 전자 장치(200)는, 전자 장치(200)가 상기 제1 상태 내에서 있는 동안 상기 가이드 이미지를 상기 제2 영역 내에서 표시하고, 전자 장치(200)가 상기 제2 상태 내에서 있는 동안 상기 가이드 이미지를 상기 제1 영역 내에서 표시함으로써, 전자 장치(200)의 상태에 따라 적응적으로 변경되는 촬영 환경을 제공할 수 있다.
도 17은 제1 상태가 제2 상태로 변경되는지 여부를 식별하는 동작의 예를 도시한다. 도 17을 통해 예시되는 동작들은, 도 1 내에서 도시된 전자 장치(100), 도 2 내에서 도시된 전자 장치(200), 또는 도 2 내에서 도시된 전자 장치(200)의 프로세서(210)에 의해 실행될 수 있다.
도 17을 참조하면, 동작 1701에서, 프로세서(210)는, 상기 제2 프리뷰 이미지를 상기 제1 영역 내에서 표시하고, 상기 가이드 이미지를 상기 제2 영역 내에서 표시할 수 있다. 예를 들면, 동작 1701은, 전자 장치(200)가 상기 랜드스케이프 모드를 제공하는 동안, 실행될 수 있다.
동작 1703에서, 프로세서(210)는, 상기 제2 프리뷰 이미지가 상기 제1 영역 내에서 상기 가이드 이미지가 상기 제2 영역 내에서 표시되는 동안, 상기 랜드스케이프 모드를 제공하는 전자 장치(200)의 상기 상태가 상기 제1 상태로부터 상기 제2 상태로 변경되는지 여부를 식별할 수 있다. 예를 들면, 프로세서(210)는, 상기 제1 상태가 상기 제2 상태 또는 상기 제3 상태로 변경되는지 여부를 식별할 수 있다. 예를 들면, 프로세서(210)는, 상기 제1 상태로부터 변경된 상기 제2 상태에 기반하여, 동작 1705를 실행하고, 상기 제1 상태로부터 변경된 상기 제3 상태에 기반하여, 동작 1707을 실행할 수 있다.
동작 1705에서, 프로세서(210)는, 상기 랜드스케이프 모드를 제공하는 전자 장치(200)의 상기 상태가 상기 제2 상태로 변경되는 조건 상에서, 상기 확대 사이즈를 가지는 상기 제1 영역을 상기 제1 표시 영역 및 상기 제2 표시 영역 내에서 표시할 수 있다. 예를 들면, 프로세서(210)는, 도 16의 상태(1650)를 제공할 수 있다.
동작 1707에서, 프로세서(210)는, 상기 랜드스케이프 모드를 제공하는 전자 장치(200)의 상기 상태가 상기 제3 상태로 변경되는 조건 상에서, 상기 제1 표시 영역(또는 상기 제2 표시 영역) 내에서 상기 제2 프리뷰 이미지 및 상기 제2 프리뷰 이미지 상에 중첩된 상기 가이드 이미지를 포함하는 상기 제1 영역을 표시하고, 상기 제2 표시 영역(또는 상기 제1 표시 영역) 내에서 상기 가이드 이미지 및 상기 제2 프리뷰 이미지와 관련된 제어를 위한 실행가능한 객체를 표시할 수 있다. 동작 1707에서의 표시는 도 16을 통해 예시될 수 있다.
도 16을 참조하면, 프로세서(210)는, 상기 랜드스케이프 모드를 제공하는 전자 장치(200)가 상기 제1 상태 내에서 있는 동안, 상태(450)와 같이, 제2 프리뷰 이미지(451)를 포함하는 제1 영역(420) 및 가이드 이미지(440) 및 하나 이상의 썸네일 이미지들(431) 중 상기 남은 일부를 포함하는 제2 영역(430)을 포함하는 UI(410)를 표시할 수 있다. 예를 들면, 프로세서(210)는, 상기 제1 상태로부터 상기 제3 상태로의 변경을 식별하는 것에 응답하여, 상태(450)를 상태(1670)로 변경할 수 있다.
상태(1670) 내에서, UI(410)는, 제1 영역(420) 및 제2 영역(430) 중 제1 영역(420)을 포함할 수 있다. 예를 들면, 제1 영역(420)은, 상태(450) 내의 제1 영역(420)보다 확대 사이즈를 가질 수 있다. 예를 들면, 제1 영역(420)은, 상기 제1 표시 영역 및 상기 제2 표시 영역 내에서 표시될 수 있다.
예를 들면, 제1 영역(420)은, 상기 제1 표시 영역(또는 상기 제2 표시 영역) 내에서 표시되는 제2 프리뷰 이미지(451)를 포함할 수 있다. 예를 들면, 상태(1670) 내에서의 제2 프리뷰 이미지(451)의 사이즈는, 상태(450) 내에서의 제2 프리뷰 이미지(451)의 사이즈에 대응할 수 있다. 예를 들면, 상태(1670) 내에서의 제2 프리뷰 이미지(451)의 사이즈는, 상태(450) 내에서의 제2 프리뷰 이미지(451)의 사이즈보다 클 수 있다. 상태(1670) 내에서의 제2 프리뷰 이미지(451)의 사이즈는, 상태(450) 내에서의 제2 프리뷰 이미지(451)의 사이즈보다 작을 수 있다.
예를 들면, 제1 영역(420)은, 가이드 이미지(440)를 포함할 수 있다. 예를 들면, 가이드 이미지(440)는, 제2 프리뷰 이미지(451) 상에 중첩될 수 있다. 예를 들면, 제2 프리뷰 이미지(451) 상에 중첩된 가이드 이미지(440)의 사이즈는, 상태(450) 내에서의 가이드 이미지(440)의 사이즈보다 작을 수 있다.
예를 들면, 제1 영역(420)은, 상기 제2 표시 영역(또는 상기 제1 표시 영역) 내에서 표시되는 가이드 이미지(440)를 포함할 수 있다. 예를 들면, 상기 제2 표시 영역은, 상기 제1 표시 영역과 달리, 상기 제2 표시 영역 중 지면의 방향(또는 중력 방향)에 대응하는 방향을 향할 수 있다. 예를 들면, 상기 제2 표시 영역(또는 상기 제1 표시 영역) 내에서 표시되는 가이드 이미지(440)는, 상기 제1 표시 영역(또는 상기 제2 표시 영역) 내에서 표시되는 제2 프리뷰 이미지(451)로부터 이격될 수 있다. 예를 들면, 상기 제2 표시 영역(또는 상기 제1 표시 영역) 내에서 표시되는 가이드 이미지(440)의 사이즈는, 제2 프리뷰 이미지(451) 상에 중첩된 가이드 이미지(440)의 사이즈보다 클 수 있다. 하지만, 이에 제한되지 않는다.
예를 들면, 제1 영역(420)은, 상기 제2 표시 영역(또는 상기 제1 표시 영역) 내에서 표시되는, 실행가능한 객체(422) 내지 실행가능한 객체들의 세트(426)를 포함할 수 있다. 예를 들면, 실행가능한 객체(422) 내지 실행가능한 객체들의 세트(426)는, 상기 제2 표시 영역(또는 상기 제1 표시 영역) 내에서 표시되는, 가이드 이미지(440) 옆에 위치될 수 있다.
상태(1670)는, 상태(450) 및 상태(1650)와 달리, 2개의 가이드 이미지들(440)이 표시될 수 있다. 예를 들면, 상기 제3 상태는, 상기 제1 표시 영역 및 상기 제2 표시 영역 중 하나의 표시 영역을 정보 제공 영역으로 이용하고, 상기 제1 표시 영역 및 상기 제2 표시 영역 중 다른 표시 영역을 제어 영역으로 이용하는 상태이기 때문에, 프로세서(210)는, 상기 제3 상태인 상태(1670) 내에서 2개의 가이드 이미지들(440)을 표시할 수 있다. 예를 들면, 전자 장치(200)는, 사용자가 다양한 제어들에 편리하게 접근할 수 있도록, 상태(1670) 내에서 2개의 가이드 이미지들(440)을 서로 다른 표시 영역들 각각에서 표시할 수 있다. 예를 들면, 전자 장치(200)는, 강화된 촬영 환경을 제공할 수 있다.
도 16은, 상기 랜드스케이프 모드를 제공하는 동안, 상태(1670)가 제공되는 예를 도시하고 있으나, 이는 설명의 편의를 위한 것이다. 전자 장치(200)가 상기 포트레이트 모드를 제공하는 동안, 상태(1670)와 유사한 상태가 제공될 수 있음에 유의하여야 한다.
상술한 바와 같이, 전자 장치(200)는, 상기 가이드 이미지의 표시를 적응적으로 변경할 수 있는 상기 UI를 표시할 수 있다. 전자 장치(200)는, 상기 UI의 표시를 통해, 강화된 촬영 환경을 제공할 수 있다.
상술한 바와 같은, 전자 장치(electronic device)(200)는, 디스플레이(240), 복수의 카메라들(250), 및 프로세서(210)를 포함할 수 있다. 일 실시예에 따르면, 상기 프로세서는(210)는, 상기 디스플레이(240)를 통해, 촬영(photographing)을 위한 UI(user interface)(410)의 제1 영역(420) 내에서, 상기 복수의 카메라들(250) 중 적어도 하나를 통해 획득되는, 제1 장면(scene)을 표현하는(represent), 제1 프리뷰 이미지(421)를 기준 배율 미만인 제1 배율로 표시하고, 상기 제1 영역(420)과 구별되는 상기 UI(410)의 제2 영역(430) 내에서, 상기 복수의 카메라들(250) 중 적어도 하나를 통해 획득된 하나 이상의 이미지들을 각각 나타내는(indicate) 하나 이상의 썸네일 이미지들(431)을 표시하도록 구성될 수 있다. 일 실시예에 따르면, 상기 프로세서는(210)는, 상기 제1 프리뷰 이미지(421) 및 상기 하나 이상의 썸네일 이미지들(431)이 상기 UI(410) 내에서 표시되는 동안, 상기 제1 배율을 상기 기준 배율 이상인 제2 배율로 변경하기 위한 입력을 수신하도록 구성될 수 있다. 일 실시예에 따르면, 상기 프로세서는(210)는, 상기 입력에 기반하여, 상기 디스플레이(240)를 통해, 상기 제1 장면의 일부가 상기 제2 배율로 확대된 제2 장면을 표현하는 제2 프리뷰 이미지(451)를 상기 제1 영역(420) 내에서 표시하고, 상기 제1 장면의 적어도 일부에 대하여 상기 제2 장면을 나타내는 가이드 이미지(440)를 상기 제2 영역(430) 내에서 표시하도록, 구성될 수 있다.
일 실시예에 따르면, 상기 프로세서는(210)는, 상기 입력에 기반하여, 상기 제2 영역(430) 내에서 상기 하나 이상의 썸네일 이미지들(431)의 일부를 표시하는 것을 중단하고, 상기 제2 영역(430) 내에서 상기 가이드 이미지(440)를 표시하도록, 구성될 수 있다.
일 실시예에 따르면, 상기 가이드 이미지(440)는, 상기 입력이 수신된 후 상기 제2 영역(430) 내에서 유지되는 상기 하나 이상의 썸네일 이미지들(431)의 남은 일부에 대하여(relative to) 시각적으로 강조될 수 있다.
일 실시예에 따르면, 상기 입력이 수신된 후 상기 제2 영역(430) 내에서 유지되는 상기 하나 이상의 썸네일 이미지들(431)의 남은 일부는, 상기 가이드 이미지(440)와 달리 흐릿해질 수 있다.
일 실시예에 따르면, 상기 프로세서는(210)는, 상기 가이드 이미지(440) 및 상기 하나 이상의 썸네일 이미지들(431)의 상기 남은 일부 중 상기 하나 이상의 썸네일 이미지들(431)의 상기 남은 일부를 선택함을 나타내는 사용자 입력에 응답하여, 상기 가이드 이미지(440)를 상기 제2 영역(430) 내에서 표시하는 것을 중단하고, 상기 제1 영역(420) 내에서 표시된 상기 제2 프리뷰 이미지(451) 상에 부분적으로 중첩된(partially superimposed on) 상기 가이드 이미지(440)를 표시하도록, 구성될 수 있다.
일 실시예에 따르면, 상기 제2 프리뷰 이미지(451) 상에 부분적으로 중첩된 상기 가이드 이미지(440)의 사이즈는, 상기 제2 영역(430) 내에서 표시되는 상기 가이드 이미지(440)의 사이즈보다 작을 수 있다.
일 실시예에 따르면, 상기 프로세서는(210)는, 상기 하나 이상의 썸네일 이미지들(431)의 상기 남은 일부를 선택함을 나타내는 상기 사용자 입력에 응답하여, 상기 하나 이상의 썸네일 이미지들(431)의 상기 일부를 상기 제2 영역 내에서 표시하는 것을 재개하도록, 구성될 수 있다.
일 실시예에 따르면, 상기 프로세서는(210)는, 상기 제2 장면 내에서 포커스된 피사체에 대응하는, 시각적 객체(470)를 포함하는, 상기 제2 프리뷰 이미지(451)의 제1 부분과 구별되는, 상기 제2 프리뷰 이미지(451)의 제2 부분 상에 중첩된 상기 가이드 이미지(440)를 표시하도록, 구성될 수 있다.
일 실시예에 따르면, 상기 프로세서는(210)는, 상기 제2 프리뷰 이미지(451)의 상기 제2 부분으로 이동되는 상기 시각적 객체(470)를 식별하도록 구성될 수 있다. 일 실시예에 따르면, 상기 프로세서는(210)는, 상기 시각적 객체의 상기 이동에 응답하여, 상기 제2 프리뷰 이미지(451)의 상기 제1 부분 또는 상기 제2 프리뷰 이미지의 제3 부분 상에 중첩된 상기 가이드 이미지(440)를 표시하도록, 구성될 수 있다.
일 실시예에 따르면, 상기 프로세서는(210)는, 상기 제2 영역(430) 내의 상기 가이드 이미지(440)를 상기 제1 영역(420)으로 이동함을 나타내는 사용자 입력에 응답하여, 상기 가이드 이미지(440)를 상기 제2 영역(430) 내에서 표시하는 것을 중단하고, 상기 제1 영역(420) 내에서 표시된 상기 제2 프리뷰 이미지(451) 상에 부분적으로 중첩된 상기 가이드 이미지(440)를 표시하도록, 구성될 수 있다.
일 실시예에 따르면, 상기 가이드 이미지(440)는, 성가 사용자 입력이 해제된 위치에서, 상기 제2 프리뷰 이미지(451) 상에 중첩으로, 표시될 수 있다.
일 실시예에 따르면, 상기 사용자 입력이 수신된 후 상기 제2 영역(430) 내에서 유지되는 상기 하나 이상의 썸네일 이미지들(431) 중 남은 일부는, 상기 가이드 이미지(440)와 달리 블러될 수 있다.
일 실시예에 따르면, 상기 프로세서는(210)는, 상기 제1 프리뷰 이미지(421)가 상기 제1 영역(420) 내에서 표시되고 상기 하나 이상의 썸네일 이미지들(431)이 상기 제2 영역(430) 내에서 표시되는 동안, 상기 제1 배율을 상기 제1 배율 초과이고 상기 기준 배율 미만인 제3 배율로 변경하기 위한 입력을 수신하도록 구성될 수 있다. 일 실시예에 따르면, 상기 프로세서는(210)는, 상기 제1 배율을 상기 제3 배율로 변경하기 위한 상기 입력에 기반하여, 상기 디스플레이(240)를 통해, 상기 제1 장면의 일부가 상기 제3 배율로 확대된 제3 장면을 표현하는 제3 프리뷰 이미지를 상기 제1 영역(420) 내에서 표시하고, 상기 제2 영역(430)의 표시 상태를 유지하도록, 구성될 수 있다.
일 실시예에 따르면, 상기 프로세서는(210)는, 상기 기준 배율 미만인 상기 제3 배율에 기반하여, 상기 제2 영역(430) 내에서 상기 가이드 이미지(440)를 표시하는 것을 삼가하도록, 구성될 수 있다.
일 실시예에 따르면, 상기 복수의 카메라들(250)은, 제1 FOV(field of view) 및 제1 초점 거리(focal length)를 가지는 제1 카메라 및 상기 제1 FOV보다 좁은 제2 FOV 및 상기 제1 초점 거리보다 긴 제2 초점 거리를 가지는 제2 카메라를 포함할 수 있다. 일 실시예에 따르면, 상기 제1 프리뷰 이미지(421) 및 상기 가이드 이미지(440) 각각은, 상기 복수의 카메라들 중 상기 제1 카메라를 통해 획득된 복수의 이미지들의 적어도 일부에 기반하여 획득될 수 있다. 일 실시예에 따르면, 상기 제2 프리뷰 이미지(451)는, 상기 복수의 카메라들 중 상기 제2 카메라를 통해 획득된 복수의 이미지들의 적어도 일부에 기반하여 획득될 수 있다.
일 실시예에 따르면, 상기 가이드 이미지(440)는, 상기 제1 장면의 일부가 상기 제1 배율 초과이고 상기 기준 배율 미만인 제3 배율로 확대된 제3 장면에 대하여 상기 제2 장면을 나타낼 수 있다.
일 실시예에 따르면, 상기 제3 배율은, 상기 제2 배율에 기반하여, 식별될 수 있다.
일 실시예에 따르면, 상기 가이드 이미지(440)는, 상기 제1 장면의 상기 적어도 일부 내에서의 상기 제2 장면의 위치를 알리기(inform) 위한 시각적 요소(441)를 포함할 수 있다.
일 실시예에 따르면, 상기 프로세서는(210)는, 상기 제2 프리뷰 이미지(451)가 상기 제1 영역(420) 내에서 표시되고 상기 가이드 이미지(440)가 상기 제2 영역(430) 내에서 표시되는 동안, 상기 제2 프리뷰 이미지(451)의 표시 상태를 변경하기 위한 상기 가이드 이미지(440) 상의 사용자 입력을 수신하도록 구성될 수 있다. 일 실시예에 따르면, 상기 프로세서는(210)는, 상기 사용자 입력에 적어도 일부 기반하여, 상기 제2 프리뷰 이미지의 표시 상태를 변경하도록, 구성될 수 있다.
일 실시예에 따르면, 상기 프로세서는(210)는, 상기 사용자 입력에 적어도 일부 기반하여 상기 제2 프리뷰 이미지(451)의 밝기를 변경함으로써, 상기 제2 프리뷰 이미지(451)의 상기 표시 상태를 변경하도록, 구성될 수 있다.
일 실시예에 따르면, 상기 프로세서는(210)는, 상기 사용자 입력에 적어도 일부 기반하여 상기 복수의 카메라들 중 상기 제2 프리뷰 이미지(451)와 관련된 카메라의 AE(auto exposure) 기능을 제어함으로써, 상기 제2 프리뷰 이미지(451)의 상기 표시 상태를 변경하도록, 구성될 수 있다.
일 실시예에 따르면, 상기 프로세서는(210)는, 상기 사용자 입력에 적어도 일부 기반하여 상기 복수의 카메라들 중 상기 제2 프리뷰 이미지(451)와 관련된 카메라의 AF(auto focus) 기능을 제어함으로써, 상기 제2 프리뷰 이미지(451)의 상기 표시 상태를 변경하도록, 구성될 수 있다.
일 실시예에 따르면, 상기 프로세서는(210)는, 상기 사용자 입력에 적어도 일부 기반하여 상기 제2 프리뷰 이미지(451)의 종횡비(aspect ratio)를 변경함으로써, 상기 제2 프리뷰 이미지(451)의 상기 표시 상태를 변경하도록, 구성될 수 있다.
일 실시예에 따르면, 상기 프로세서는(210)는, 상기 사용자 입력에 적어도 일부 기반하여, 상기 가이드 이미지(440)의 표시 상태를 변경하도록, 구성될 수 있다.
일 실시예에 따르면, 상기 프로세서는(210)는, 상기 입력에 기반하여, 상기 표시 상태의 변경을 위한 상기 제1 영역(420) 내의 상기 실행가능한 객체의 표시를 중단하도록, 구성될 수 있다.
일 실시예에 따르면, 상기 프로세서는(210)는, 상기 입력에 응답하여, 상기 전자 장치(200)의 그립 상태에 기반하여 상기 제2 영역(430) 내에서 표시될 상기 가이드 이미지(440)의 위치를 식별하도록 구성될 수 있다. 일 실시예에 따르면, 상기 프로세서는(210)는, 상기 제2 영역(430) 내의 상기 식별된 위치에서 상기 가이드 이미지(440)를 표시하도록, 구성될 수 있다.
일 실시예에 따르면, 상기 디스플레이(240)는, 제1 표시 영역(241) 및 상기 제1 표시 영역에 인접한 제2 표시 영역(242)을 포함하는 플렉서블 디스플레이를 포함할 수 있다.
일 실시예에 따르면, 상기 프로세서는(210)는, 상기 제2 프리뷰 이미지(451)가 상기 제1 영역(420) 내에서 표시되고 상기 가이드 이미지(440)가 상기 제2 영역(430) 내에서 표시되는 동안, 상기 전자 장치(200)의 상태가 상기 제1 표시 영역(241)이 향하는 제1 방향과 상기 제2 표시 영역(242)이 향하는 제2 방향 사이의 각도가 기준 범위 내에 있는 제1 상태로부터 상기 각도가 상기 기준 범위 밖에 있는 제2 상태로 변경됨을 식별하도록 구성될 수 있다.
일 실시예에 따르면, 상기 프로세서는(210)는, 상기 식별에 응답하여, 상기 제2 영역(430)의 표시를 중단하고, 확대 사이즈(enlarged size)를 가지는 상기 제2 프리뷰 이미지(451) 상에 부분적으로 중첩된 상기 가이드 이미지(440)를 포함하는 확대 사이즈를 가지는 상기 제1 영역(420)을, 상기 제1 표시 영역(241) 및 상기 제2 표시 영역(242) 내에서 표시하도록, 구성될 수 있다.
일 실시예에 따르면, 상기 프로세서는(210)는, 상기 확대 사이즈를 가지는 상기 제1 영역(420)이 표시되는 동안, 상기 전자 장치(200)의 상기 상태가 상기 제1 상태로 복원됨을 식별하도록 구성될 수 있다. 일 실시예에 따르면, 상기 프로세서는(210)는, 상기 전자 장치(200)의 상기 상태가 상기 제1 상태로 복원됨을 식별하는 것에 응답하여, 상기 제2 프리뷰 이미지(451)를 상기 제1 영역(420) 내에서 표시하고, 상기 가이드 이미지(440)를 상기 제2 영역(430) 내에서 표시하도록, 구성될 수 있다.
일 실시예에 따르면, 상기 프로세서는(210)는, 상기 제2 프리뷰 이미지(451)가 상기 제1 영역(420) 내에서 표시되고 상기 가이드 이미지(440)가 상기 제2 영역(430) 내에서 표시되는 동안, 랜드스케이프 모드(landscape mode)를 제공하는 상기 전자 장치(200)의 상기 상태가 상기 제1 상태로부터 상기 제1 상태와 다른 상태로 변경되는지 여부를 식별하도록 구성될 수 있다. 일 실시예에 따르면, 상기 프로세서는(210)는, 상기 랜드스케이프 모드를 제공하는 상기 전자 장치(200)의 상기 상태가 상기 제1 상태로부터 상기 각도가 상기 기준 범위 및 다른(another) 기준 범위 밖에 있는 상기 제2 상태로 변경됨을 식별하는 것에 응답하여, 상기 확대 사이즈를 가지는 상기 제1 영역(420)을 상기 제1 표시 영역(241) 및 상기 제2 표시 영역(242) 내에서 표시하도록 구성될 수 있다. 일 실시예에 따르면, 상기 프로세서는(210)는, 상기 랜드스케이프 모드를 제공하는 상기 전자 장치(200)의 상기 상태가 상기 제1 상태로부터 상기 각도가 상기 기준 범위 밖에 있고 상기 다른 기준 범위 내에 있는 제3 상태로 변경됨을 식별하는 것에 응답하여, 상기 제2 영역(430)의 표시를 중단하고, 상기 제1 표시 영역(241) 내에서 상기 제2 프리뷰 이미지(451) 및 상기 제2 프리뷰 이미지(451) 상에 중첩된 상기 가이드 이미지(440)를 포함하는 상기 제1 영역(420)을 표시하고, 상기 제2 표시 영역(242) 내에서 상기 가이드 이미지(440) 및 상기 제2 프리뷰 이미지(451)와 관련된 제어를 위한 실행가능한 객체를 표시하도록, 구성될 수 있다.
일 실시예에 따르면, 상기 제1 프리뷰 이미지(421), 상기 제2 프리뷰 이미지(451), 및 상기 가이드 이미지(440)는, 상기 복수의 카메라들 중 적어도 하나를 통해 비디오를 획득하는 동안 표시될 수 있다.
본 문서의 다양한 실시예들 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시예들로 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다. 본 문서에서, "A 및/또는 B", "A 또는 B", "A 및 B 중 적어도 하나", "A 또는 B 중 적어도 하나", "A, B 또는 C", "A, B 및 C 중 적어도 하나", 및 "A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에, "기능적으로" 또는 "통신적으로"라는 용어와 함께 또는 이런 용어 없이, "커플드" 또는 "커넥티드"라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 제 3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.
본 문서의 다양한 실시예들에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로와 같은 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일실시예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다.
본 문서의 다양한 실시예들은 기기(machine)(예: 전자 장치(1501)) 의해 읽을 수 있는 저장 매체(storage medium)(예: 내장 메모리(1536) 또는 외장 메모리(1538))에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예: 프로그램(1540))로서 구현될 수 있다. 예를 들면, 기기(예: 전자 장치(1501))의 프로세서(예: 프로세서(1520))는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장 매체는, 비일시적(non-transitory) 저장 매체의 형태로 제공될 수 있다. 여기서, ‘비일시적’은 저장 매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장 매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.
일실시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory(CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어™)를 통해 또는 두 개의 사용자 장치들(예: 스마트 폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.
다양한 실시예들에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있으며, 복수의 개체 중 일부는 다른 구성요소에 분리 배치될 수도 있다. 다양한 실시예들에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시예들에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.

Claims (15)

  1. 전자 장치(electronic device)(200)에 있어서,
    디스플레이(240);
    복수의 카메라들(250); 및
    프로세서(210)를 포함하고,
    상기 프로세서는(210)는,
    상기 디스플레이(240)를 통해, 촬영(photographing)을 위한 UI(user interface)(410)의 제1 영역(420) 내에서, 상기 복수의 카메라들(250) 중 적어도 하나를 통해 획득되는, 제1 장면(scene)을 표현하는(represent), 제1 프리뷰 이미지(421)를 기준 배율 미만인 제1 배율로 표시하고, 상기 제1 영역(420)과 구별되는 상기 UI(410)의 제2 영역(430) 내에서, 상기 복수의 카메라들(250) 중 적어도 하나를 통해 획득된 하나 이상의 이미지들을 각각 나타내는(indicate) 하나 이상의 썸네일 이미지들(431)을 표시하고,
    상기 제1 프리뷰 이미지(421) 및 상기 하나 이상의 썸네일 이미지들(431)이 상기 UI(410) 내에서 표시되는 동안, 상기 제1 배율을 상기 기준 배율 이상인 제2 배율로 변경하기 위한 입력을 수신하고,
    상기 입력에 기반하여, 상기 디스플레이(240)를 통해, 상기 제1 장면의 일부가 상기 제2 배율로 확대된 제2 장면을 표현하는 제2 프리뷰 이미지(451)를 상기 제1 영역(420) 내에서 표시하고, 상기 제1 장면의 적어도 일부에 대하여 상기 제2 장면을 나타내는 가이드 이미지(440)를 상기 제2 영역(430) 내에서 표시하도록, 구성되는,
    전자 장치.
  2. 청구항 1에 있어서, 상기 프로세서(210)는,
    상기 입력에 기반하여, 상기 제2 영역(430) 내에서 상기 하나 이상의 썸네일 이미지들(431)의 일부를 표시하는 것을 중단하고, 상기 제2 영역(430) 내에서 상기 가이드 이미지(440)를 표시하도록, 구성되는,
    전자 장치.
  3. 청구항 2에 있어서, 상기 가이드 이미지(440)는,
    상기 입력이 수신된 후 상기 제2 영역(430) 내에서 유지되는 상기 하나 이상의 썸네일 이미지들(431)의 남은 일부에 대하여(relative to) 시각적으로 강조되는(visually highlighted),
    전자 장치.
  4. 청구항 2에 있어서, 상기 입력이 수신된 후 상기 제2 영역(430) 내에서 유지되는 상기 하나 이상의 썸네일 이미지들(431)의 남은 일부는,
    흐릿해지는(dimmed),
    전자 장치.
  5. 청구항 4에 있어서, 상기 프로세서(210)는,
    상기 가이드 이미지(440) 및 상기 하나 이상의 썸네일 이미지들(431)의 상기 남은 일부 중 상기 하나 이상의 썸네일 이미지들(431)의 상기 남은 일부를 선택함을 나타내는 사용자 입력에 응답하여, 상기 가이드 이미지(440)를 상기 제2 영역(430) 내에서 표시하는 것을 중단하고, 상기 제1 영역(420) 내에서 표시된 상기 제2 프리뷰 이미지(451) 상에 부분적으로 중첩된(partially superimposed on) 상기 가이드 이미지(440)를 표시하도록, 더 구성되는,
    전자 장치.
  6. 청구항 5에 있어서, 상기 제2 프리뷰 이미지(451) 상에 부분적으로 중첩된 상기 가이드 이미지(440)의 사이즈는,
    상기 제2 영역(430) 내에서 표시되는 상기 가이드 이미지(440)의 사이즈보다 작은,
    전자 장치.
  7. 청구항 5에 있어서, 상기 프로세서(210)는,
    상기 하나 이상의 썸네일 이미지들(431)의 상기 남은 일부를 선택함을 나타내는 상기 사용자 입력에 응답하여, 상기 하나 이상의 썸네일 이미지들(431)의 상기 일부를 상기 제2 영역 내에서 표시하는 것을 재개하도록, 더 구성되는,
    전자 장치.
  8. 청구항 5에 있어서, 상기 프로세서(210)는,
    상기 제2 장면 내에서 포커스된 피사체에 대응하는, 시각적 객체(470)를 포함하는, 상기 제2 프리뷰 이미지(451)의 제1 부분과 구별되는, 상기 제2 프리뷰 이미지(451)의 제2 부분 상에 중첩된 상기 가이드 이미지(440)를 표시하도록, 구성되는,
    전자 장치.
  9. 청구항 8에 있어서, 상기 프로세서(210)는,
    상기 제2 프리뷰 이미지(451)의 상기 제2 부분으로 이동되는 상기 시각적 객체(470)를 식별하고,
    상기 시각적 객체의 상기 이동에 응답하여, 상기 제2 프리뷰 이미지(451)의 상기 제1 부분 또는 상기 제2 프리뷰 이미지의 제3 부분 상에 중첩된 상기 가이드 이미지(440)를 표시하도록, 더 구성되는,
    전자 장치.
  10. 청구항 4에 있어서, 상기 프로세서(210)는,
    상기 제2 영역(430) 내의 상기 가이드 이미지(440)를 상기 제1 영역(420)으로 이동함을 나타내는 사용자 입력에 응답하여, 상기 가이드 이미지(440)를 상기 제2 영역(430) 내에서 표시하는 것을 중단하고, 상기 제1 영역(420) 내에서 표시된 상기 제2 프리뷰 이미지(451) 상에 부분적으로 중첩된 상기 가이드 이미지(440)를 표시하도록, 더 구성되는,
    전자 장치.
  11. 청구항 10에 있어서, 상기 가이드 이미지(440)는,
    성가 사용자 입력이 해제된 위치에서, 상기 제2 프리뷰 이미지(451) 상에 중첩으로, 표시되는,
    전자 장치.
  12. 청구항 2에 있어서, 상기 사용자 입력이 수신된 후 상기 제2 영역(430) 내에서 유지되는 상기 하나 이상의 썸네일 이미지들(431) 중 남은 일부는,
    블러되는(blurred),
    전자 장치.
  13. 청구항 1에 있어서, 상기 프로세서(210)는,
    상기 제1 프리뷰 이미지(421)가 상기 제1 영역(420) 내에서 표시되고 상기 하나 이상의 썸네일 이미지들(431)이 상기 제2 영역(430) 내에서 표시되는 동안, 상기 제1 배율을 상기 제1 배율 초과이고 상기 기준 배율 미만인 제3 배율로 변경하기 위한 입력을 수신하고,
    상기 제1 배율을 상기 제3 배율로 변경하기 위한 상기 입력에 기반하여, 상기 디스플레이(240)를 통해, 상기 제1 장면의 일부가 상기 제3 배율로 확대된 제3 장면을 표현하는 제3 프리뷰 이미지를 상기 제1 영역(420) 내에서 표시하고, 상기 제2 영역(430)의 표시 상태를 유지하도록, 더 구성되는,
    전자 장치.
  14. 디스플레이(240) 및 복수의 카메라들(250)을 포함하는 전자 장치 내에서 실행되는 방법에 있어서,
    상기 디스플레이(240)를 통해, 촬영(photographing)을 위한 UI(user interface)(410)의 제1 영역(420) 내에서, 상기 복수의 카메라들(250) 중 적어도 하나를 통해 획득되는, 제1 장면(scene)을 표현하는(represent), 제1 프리뷰 이미지(421)를 기준 배율 미만인 제1 배율로 표시하고, 상기 제1 영역(420)과 구별되는 상기 UI(410)의 제2 영역(430) 내에서, 상기 복수의 카메라들(250) 중 적어도 하나를 통해 획득된 하나 이상의 이미지들을 각각 나타내는(indicate) 하나 이상의 썸네일 이미지들(431)을 표시하는 동작과,
    상기 제1 프리뷰 이미지(421) 및 상기 하나 이상의 썸네일 이미지들(431)이 상기 UI(410) 내에서 표시되는 동안, 상기 제1 배율을 상기 기준 배율 이상인 제2 배율로 변경하기 위한 입력을 수신하는 동작과,
    상기 입력에 기반하여, 상기 디스플레이(240)를 통해, 상기 제1 장면의 일부가 상기 제2 배율로 확대된 제2 장면을 표현하는 제2 프리뷰 이미지(451)를 상기 제1 영역(420) 내에서 표시하고, 상기 제1 장면의 적어도 일부에 대하여 상기 제2 장면을 나타내는 가이드 이미지(440)를 상기 제2 영역(430) 내에서 표시하는 동작을 포함하는,
    방법.
  15. 하나 이상의 프로그램들을 저장하는 비일시적 컴퓨터 판독가능 저장 매체에 있어서,
    상기 하나 이상의 프로그램들은, 디스플레이(240) 및 복수의 카메라들(250)을 포함하는 전자 장치의 프로세서에 의해 실행될 시,
    상기 디스플레이(240)를 통해, 촬영(photographing)을 위한 UI(user interface)(410)의 제1 영역(420) 내에서, 상기 복수의 카메라들(250) 중 적어도 하나를 통해 획득되는, 제1 장면(scene)을 표현하는(represent), 제1 프리뷰 이미지(421)를 기준 배율 미만인 제1 배율로 표시하고, 상기 제1 영역(420)과 구별되는 상기 UI(410)의 제2 영역(430) 내에서, 상기 복수의 카메라들(250) 중 적어도 하나를 통해 획득된 하나 이상의 이미지들을 각각 나타내는(indicate) 하나 이상의 썸네일 이미지들(431)을 표시하고,
    상기 제1 프리뷰 이미지(421) 및 상기 하나 이상의 썸네일 이미지들(431)이 상기 UI(410) 내에서 표시되는 동안, 상기 제1 배율을 상기 기준 배율 이상인 제2 배율로 변경하기 위한 입력을 수신하고,
    상기 입력에 기반하여, 상기 디스플레이(240)를 통해, 상기 제1 장면의 일부가 상기 제2 배율로 확대된 제2 장면을 표현하는 제2 프리뷰 이미지(451)를 상기 제1 영역(420) 내에서 표시하고, 상기 제1 장면의 적어도 일부에 대하여 상기 제2 장면을 나타내는 가이드 이미지(440)를 상기 제2 영역(430) 내에서 표시하도록,
    상기 전자 장치를 야기하는 인스트럭션들을 포함하는,
    비일시적 컴퓨터 판독가능 저장 매체.
PCT/KR2023/007545 2022-07-17 2023-06-01 촬영을 위한 사용자 인터페이스를 위한 전자 장치, 방법, 및 비일시적 컴퓨터 판독가능 저장 매체 WO2024019312A1 (ko)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR20220087868 2022-07-17
KR10-2022-0087868 2022-07-17
KR10-2022-0099030 2022-08-09
KR1020220099030A KR20240010685A (ko) 2022-07-17 2022-08-09 촬영을 위한 사용자 인터페이스를 위한 전자 장치, 방법, 및 비일시적 컴퓨터 판독가능 저장 매체

Publications (1)

Publication Number Publication Date
WO2024019312A1 true WO2024019312A1 (ko) 2024-01-25

Family

ID=89618104

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2023/007545 WO2024019312A1 (ko) 2022-07-17 2023-06-01 촬영을 위한 사용자 인터페이스를 위한 전자 장치, 방법, 및 비일시적 컴퓨터 판독가능 저장 매체

Country Status (1)

Country Link
WO (1) WO2024019312A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180081918A (ko) * 2017-01-09 2018-07-18 삼성전자주식회사 전자 장치 및 전자 장치의 영상 촬영 방법
KR20200005211A (ko) * 2018-07-06 2020-01-15 삼성전자주식회사 카메라의 방향에 따라 프리뷰 이미지의 위치를 변경하기 위한 전자 장치 및 방법
WO2021147482A1 (zh) * 2020-01-23 2021-07-29 华为技术有限公司 一种长焦拍摄的方法及电子设备
WO2022054991A1 (ko) * 2020-09-11 2022-03-17 엘지전자 주식회사 이동 단말기 및 그 제어 방법
KR20220080195A (ko) * 2019-11-15 2022-06-14 후아웨이 테크놀러지 컴퍼니 리미티드 촬영 방법 및 전자 장치

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180081918A (ko) * 2017-01-09 2018-07-18 삼성전자주식회사 전자 장치 및 전자 장치의 영상 촬영 방법
KR20200005211A (ko) * 2018-07-06 2020-01-15 삼성전자주식회사 카메라의 방향에 따라 프리뷰 이미지의 위치를 변경하기 위한 전자 장치 및 방법
KR20220080195A (ko) * 2019-11-15 2022-06-14 후아웨이 테크놀러지 컴퍼니 리미티드 촬영 방법 및 전자 장치
WO2021147482A1 (zh) * 2020-01-23 2021-07-29 华为技术有限公司 一种长焦拍摄的方法及电子设备
WO2022054991A1 (ko) * 2020-09-11 2022-03-17 엘지전자 주식회사 이동 단말기 및 그 제어 방법

Similar Documents

Publication Publication Date Title
WO2017014415A1 (en) Image capturing apparatus and method of operating the same
WO2020226294A1 (en) Foldable device and method for controlling image capturing by using plurality of cameras
WO2021040284A1 (en) System and method for content enhancement using quad color filter array sensors
EP3642802A1 (en) Apparatus for editing image using depth map and method thereof
WO2020171583A1 (en) Electronic device for stabilizing image and method for operating same
WO2015186964A1 (ko) 촬영 장치 및 촬영 장치의 비디오 생성방법
WO2016209020A1 (en) Image processing apparatus and image processing method
WO2019039771A1 (en) ELECTRONIC DEVICE FOR STORING DEPTH INFORMATION IN RELATION TO AN IMAGE BASED ON DEPTH INFORMATION PROPERTIES OBTAINED USING AN IMAGE, AND ITS CONTROL METHOD
WO2021015505A1 (en) Foldable electronic device and photographing method using multiple cameras in foldable electronic device
WO2013094901A1 (en) Method and apparatus for creating or storing resultant image which changes in selected area
WO2014077659A1 (en) Photographing apparatus and method for controlling thereof
WO2019164286A1 (ko) 전자 장치 및 그의 녹화 방법
WO2019039870A1 (ko) 이미지의 표시 효과를 제어할 수 있는 전자 장치 및 영상 표시 방법
WO2019035551A1 (en) APPARATUS FOR COMPOSING OBJECTS USING DEPTH CARD AND ASSOCIATED METHOD
WO2021157954A1 (ko) 복수의 카메라를 이용한 동영상 촬영 방법 및 그 장치
WO2024019312A1 (ko) 촬영을 위한 사용자 인터페이스를 위한 전자 장치, 방법, 및 비일시적 컴퓨터 판독가능 저장 매체
WO2016208833A1 (en) View finder apparatus and method of operating the same
WO2021162396A1 (ko) 복수의 콘텐츠를 생성하는 방법 및 그 전자 장치
WO2020159115A1 (ko) 복수의 렌즈를 구비하는 전자 장치 및 그 제어 방법
WO2022010193A1 (ko) 이미지 개선을 위한 전자장치 및 그 전자장치의 카메라 운용 방법
WO2021210807A1 (ko) 멀티 카메라를 포함하는 전자 장치 및 촬영 방법
JP2009224882A (ja) 撮像装置、撮像装置の表示方法、プログラム及びコンピュータ読み取り可能な記録媒体
WO2021096219A1 (ko) 카메라를 포함하는 전자 장치 및 그의 방법
WO2014148741A1 (en) Mobile device and method for controlling the same
WO2019039837A1 (ko) 그래픽컬 콘텐트를 제공하는 전자 장치 및 제어 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23843169

Country of ref document: EP

Kind code of ref document: A1