KR20230039466A - Electronic device for generating stereoscopy based on images obtained from multiple cameras and method thereof - Google Patents

Electronic device for generating stereoscopy based on images obtained from multiple cameras and method thereof Download PDF

Info

Publication number
KR20230039466A
KR20230039466A KR1020210129297A KR20210129297A KR20230039466A KR 20230039466 A KR20230039466 A KR 20230039466A KR 1020210129297 A KR1020210129297 A KR 1020210129297A KR 20210129297 A KR20210129297 A KR 20210129297A KR 20230039466 A KR20230039466 A KR 20230039466A
Authority
KR
South Korea
Prior art keywords
image
electronic device
camera
visual object
subject
Prior art date
Application number
KR1020210129297A
Other languages
Korean (ko)
Inventor
강성훈
박예린
안효인
이재익
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to PCT/KR2022/010179 priority Critical patent/WO2023038264A1/en
Publication of KR20230039466A publication Critical patent/KR20230039466A/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • H04M1/0202Portable telephone sets, e.g. cordless phones, mobile phones or bar type handsets
    • H04M1/026Details of the structure or mounting of specific components
    • H04M1/0264Details of the structure or mounting of specific components for a camera module assembly
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters

Abstract

According to one embodiment of the present invention, an electronic device comprises: a display; a plurality of cameras including a first camera and a second camera having a second field-of-view (FOV) distinguished from a first field-of-view (FOV) of the first camera; a memory; and a processor operatively coupled with the display, the cameras, and the memory. The memory stores one or more instructions. When executed by the processor, the instructions allow the processor to display a preview image on the display on the basis of at least a portion of a plurality of images acquired through the first camera, wherein each of the images includes a first visual object corresponding to a subject included in the first FOV, to receive a photographing input while displaying the preview image, to acquire a first image including the first visual object through the first camera and a second image including a second visual object corresponding to the subject through the second camera, in response to reception of the photographing input, to acquire a third image converted from the second image and including the second visual object having a size corresponding to that of the first visual object, and to acquire a four image for providing an animation for the subject by displaying the third image after displaying the first image. Therefore, a three-dimensional effect can be provided for a user.

Description

복수의 카메라들로부터 획득된 이미지들에 기반하는 입체 사진을 생성하는 전자 장치 및 그 방법{ELECTRONIC DEVICE FOR GENERATING STEREOSCOPY BASED ON IMAGES OBTAINED FROM MULTIPLE CAMERAS AND METHOD THEREOF}Electronic device and method for generating stereoscopic pictures based on images acquired from a plurality of cameras

아래의 설명들은 복수의 카메라들로부터 획득된 이미지들에 기반하는 입체 사진을 생성하는 전자 장치 및 그 방법에 관한 것이다. The descriptions below relate to an electronic device and method for generating a stereoscopic picture based on images obtained from a plurality of cameras.

최근 전자 기술의 발전에 따라, 전자 장치에 의해 수행되는 기능이 증가하고 있다. 예를 들어, 사용자가 다양한 타입들의 멀티미디어 콘텐트를 생성하는 것을 지원하기 위하여, 전자 장치에 포함된 카메라의 개수 및 카메라의 성능이 개선되고 있다. 예를 들어, 서로 다른 거리의 피사체를 용이하게 촬영하기 위하여, 전자 장치는 서로 다른 FOV들(Field-Of-Views)을 가지는 복수의 카메라들을 포함할 수 있다.BACKGROUND OF THE INVENTION With the recent development of electronic technology, functions performed by electronic devices are increasing. For example, in order to support users to create various types of multimedia content, the number and performance of cameras included in electronic devices are being improved. For example, in order to easily photograph subjects at different distances, an electronic device may include a plurality of cameras having different FOVs (Field-Of-Views).

사용자가 전자 장치에 포함된 복수의 카메라들을 제어하여, 입체 사진을 획득하기 위한 방안이 요구될 수 있다.A method for obtaining a 3D picture by a user controlling a plurality of cameras included in an electronic device may be required.

입체감을 제공하도록 설계된 하드웨어 컴포넌트(예, 3차원 디스플레이)와 독립적으로, 전자 장치가 사용자에게 입체감을 가지는 멀티미디어 콘텐트를 재생하기 위한 방안이 요구될 수 있다.A method for an electronic device to reproduce multimedia content having a three-dimensional effect to a user independently of a hardware component (eg, a 3D display) designed to provide a three-dimensional effect may be required.

본 문서에서 이루고자 하는 기술적 과제는 상술한 기술적 과제로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다. The technical problem to be achieved in this document is not limited to the above-mentioned technical problem, and other technical problems not mentioned will be clearly understood by those skilled in the art from the description below. .

일 실시예(an embodiment)에 따른 전자 장치(electronic device)는, 디스플레이, 제1 카메라 및 상기 제1 카메라의 제1 FOV(Field-of-View)와 구별되는 제2 FOV를 가지는 제2 카메라를 포함하는 복수의 카메라들, 메모리 및 상기 디스플레이, 상기 복수의 카메라들 및 상기 메모리와 작동적으로 결합된 프로세서를 포함하고, 상기 메모리는 하나 이상의 인스트럭션들을 저장하고, 상기 하나 이상의 인스트럭션들은, 상기 프로세서에 의해 실행될 시에, 상기 프로세서가, 상기 제1 카메라를 통해 획득되는 복수의 이미지들 중 적어도 일부분에 기반하여, 상기 디스플레이 상에 프리뷰 이미지를 표시하고, 상기 복수의 이미지들 각각은, 상기 제1 FOV 내에 포함된 피사체에 대응하는 제1 시각적 객체를 포함하고, 상기 프리뷰 이미지를 표시하는 동안, 촬영 입력(shooting input)을 수신하고, 상기 촬영 입력을 수신하는 것에 응답하여, 상기 제1 카메라를 통해 상기 제1 시각적 객체를 포함하는 제1 이미지를 획득하고, 상기 제2 카메라를 통해 상기 피사체에 대응하는 제2 시각적 객체를 포함하는 제2 이미지를 획득하고, 상기 제2 이미지로부터 변환되고, 상기 제1 시각적 객체의 크기에 대응하는 크기를 가지는 상기 제2 시각적 객체를 포함하는 제3 이미지를 획득하고, 및 상기 제1 이미지를 표시한 후 상기 제3 이미지를 표시함으로써, 상기 피사체에 대한 애니메이션을 제공하기 위한 제4 이미지를 획득할 수 있다.An electronic device according to an embodiment includes a display, a first camera, and a second camera having a second FOV that is distinct from a first field-of-view (FOV) of the first camera. a plurality of cameras comprising: a memory and the display; a processor operatively coupled to the plurality of cameras and the memory, the memory storing one or more instructions, the one or more instructions to the processor; When executed by the processor, the processor displays a preview image on the display based on at least a portion of a plurality of images acquired through the first camera, each of the plurality of images, the first FOV It includes a first visual object corresponding to a subject included in the image, receives a shooting input while displaying the preview image, and receives the shooting input through the first camera in response to receiving the shooting input. A first image including a first visual object is acquired, a second image including a second visual object corresponding to the subject is acquired through the second camera, converted from the second image, and Obtaining a third image including the second visual object having a size corresponding to the size of the visual object, and displaying the third image after displaying the first image, thereby providing animation for the subject It is possible to obtain a fourth image for

일 실시예에 따른 전자 장치의 방법은, 상기 전자 장치의 복수의 카메라들 중 제1 카메라를 통해 획득되는 복수의 이미지들 중 적어도 일부분에 기반하여, 상기 전자 장치의 디스플레이 상에 프리뷰 이미지를 표시하는 동작, 상기 복수의 이미지들 각각은, 상기 제1 카메라의 제1 FOV(Field-Of-View) 내에 포함된 피사체에 대응하는 제1 시각적 객체를 포함하고, 상기 프리뷰 이미지를 표시하는 동안, 촬영 입력을 수신하는 동작, 상기 촬영 입력을 수신하는 것에 응답하여, 상기 제1 카메라를 통해 상기 제1 시각적 객체를 포함하는 제1 이미지를 획득하는 동작, 상기 촬영 입력을 수신하는 것에 응답하여, 상기 제1 카메라와 구별되는 상기 복수의 카메라들 중 제2 카메라를 통해 상기 피사체에 대응하는 제2 시각적 객체를 포함하는 제2 이미지를 획득하는 동작, 상기 제2 이미지로부터 변환되고, 상기 제1 시각적 객체의 크기에 대응하는 크기를 가지는 제2 시각적 객체를 포함하는 제3 이미지를 획득하는 동작 및 상기 제1 이미지를 표시한 후 상기 제3 이미지를 표시함으로써, 상기 피사체에 대한 애니메이션을 제공하기 위한 제4 이미지를 획득하는 동작을 포함할 수 있다. A method of an electronic device according to an embodiment includes displaying a preview image on a display of the electronic device based on at least a portion of a plurality of images obtained through a first camera among a plurality of cameras of the electronic device. Operation, each of the plurality of images includes a first visual object corresponding to a subject included in a first field-of-view (FOV) of the first camera, and while displaying the preview image, a shooting input In response to receiving the photographing input, obtaining a first image including the first visual object through the first camera, in response to receiving the photographing input, the first image Obtaining a second image including a second visual object corresponding to the subject through a second camera among the plurality of cameras distinguished from the camera, converted from the second image, and the size of the first visual object Obtaining a third image including a second visual object having a size corresponding to , and displaying the third image after displaying the first image, thereby providing a fourth image for providing animation for the subject. It may include an operation to acquire.

일 실시예에 따른 전자 장치(electronic device)는, 디스플레이, 서로 다른 FOV들(Field-of-Views)을 가지는 복수의 카메라들, 메모리 및 상기 디스플레이, 상기 복수의 카메라들 및 상기 메모리와 작동적으로 결합된 프로세서를 포함하고, 상기 메모리는 하나 이상의 인스트럭션들을 저장하고, 상기 하나 이상의 인스트럭션들은, 상기 프로세서에 의해 실행될 시에, 상기 프로세서가, 상기 복수의 카메라들 중 제1 카메라를 이용하여 상기 디스플레이 상에 프리뷰 이미지를 표시하고, 상기 프리뷰 이미지는, 상기 제1 카메라가 향하는 제1 FOV 내에 포함된 피사체에 대응하는 제1 시각적 객체를 포함하고, 상기 프리뷰 이미지를 표시하는 동안, 상기 제1 카메라와 관련된 촬영 입력(shooting input)을 수신하고, 상기 촬영 입력을 수신하는 것에 응답하여, 상기 복수의 카메라들 중에서, 상기 피사체를 포함하고, 상기 제1 카메라의 제1 FOV에 대하여 시차를 가지는 제2 FOV를 가지는 제2 카메라를 식별하고, 및 상기 제2 카메라를 식별하는 것에 응답하여, 상기 제1 카메라를 통해 상기 제1 시각적 객체를 포함하는 제1 이미지를 획득하고, 상기 식별된 제2 카메라를 통해 상기 피사체에 대응하는 제2 시각적 객체를 포함하는 제2 이미지를 획득하는 것을 야기할 수 있다. An electronic device according to an embodiment includes a display, a plurality of cameras having different FOVs (Field-of-Views), a memory, and the display, the plurality of cameras, and the memory and operatively a coupled processor, wherein the memory stores one or more instructions, which, when executed by the processor, causes the processor to: A preview image is displayed on , the preview image includes a first visual object corresponding to a subject included in a first FOV toward which the first camera is directed, and while displaying the preview image, the preview image includes a first visual object related to the first camera. A shooting input is received, and in response to receiving the shooting input, among the plurality of cameras, a second FOV including the subject and having a parallax with respect to the first FOV of the first camera is selected. identifies a second camera, and in response to identifying the second camera, acquires a first image including the first visual object through the first camera, and obtains the first image through the identified second camera. It may cause obtaining a second image including a second visual object corresponding to the subject.

일 실시예에 따른 전자 장치의 방법은, 전자 장치에 포함된 복수의 카메라들 중 제1 카메라를 이용하여 전자 장치의 디스플레이 상에 프리뷰 이미지를 표시하는 동작, 상기 프리뷰 이미지는, 상기 제1 카메라가 향하는 제1 FOV 내에 포함된 피사체에 대응하는 제1 시각적 객체를 포함하고, 상기 프리뷰 이미지를 표시하는 동안, 상기 제1 카메라와 관련된 촬영 입력을 수신하는 동작, 상기 촬영 입력을 수신하는 것에 응답하여, 상기 복수의 카메라들 중에서, 상기 피사체를 포함하고, 상기 제1 카메라의 FOV에 대하여 시차를 가지는 제2 FOV를 가지는 제2 카메라를 식별하는 동작, 및 상기 제2 카메라를 식별하는 것에 응답하여, 상기 제1 카메라를 통해 상기 제1 시각적 객체를 포함하는 제1 이미지를 획득하고, 상기 식별된 제2 카메라를 통해 상기 피사체에 대응하는 제2 시각적 객체를 포함하는 제2 이미지를 획득하는 동작을 포함할 수 있다.A method of an electronic device according to an embodiment includes an operation of displaying a preview image on a display of the electronic device using a first camera among a plurality of cameras included in the electronic device, wherein the preview image is displayed by the first camera An operation of including a first visual object corresponding to a subject included in a first FOV toward which the user is directed and receiving a photographing input related to the first camera while displaying the preview image; in response to receiving the photographing input, identifying a second camera among the plurality of cameras, including the subject, and having a second FOV having a parallax with respect to the FOV of the first camera; and in response to identifying the second camera, Acquiring a first image including the first visual object through a first camera, and obtaining a second image including a second visual object corresponding to the subject through the identified second camera. can

일 실시예에 따른 전자 장치는, 단일 촬영 입력만으로 입체 사진을 생성할 수 있다. An electronic device according to an embodiment may generate a 3D picture with only a single photographing input.

일 실시예에 따른 전자 장치가 생성하는 입체 사진은, 입체감을 제공하도록 설계된 하드웨어 컴포넌트와 독립적으로, 사용자에게 입체감을 제공할 수 있다.A 3D picture generated by an electronic device according to an embodiment may provide a 3D effect to a user independently of a hardware component designed to provide a 3D effect.

본 개시에서 얻을 수 있는 효과는 상술한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다. Effects obtainable in the present disclosure are not limited to the above-mentioned effects, and other effects not mentioned will be clearly understood by those skilled in the art from the description below.

도 1은 일 실시예에 따른 전자 장치의 블록도이다.
도 2는 일 실시예에 따른 전자 장치가 표시하는 UI(User Interface)의 일 예를 도시한 도면이다.
도 3a 내지 3b는 일 실시예에 따른 전자 장치가 복수의 카메라들 중에서 적어도 두 개의 카메라들을 선택하는 동작의 일 예를 설명하기 위한 도면이다.
도 4a 내지 4c는 외력에 의해 변형 가능한(deformable) 전자 장치의 구조를 설명하기 위한 예시적인 도면이다.
도 5a 내지 5b는 도 4a 내지 4c의 일 실시예에 따른 전자 장치가 복수의 카메라들 중에서 적어도 하나의 카메라를 선택하는 동작의 일 예를 설명하기 위한 도면이다.
도 6a 내지 6c는 일 실시예에 따른 전자 장치가 복수의 카메라들 각각을 이용하여 수행하는 동작을 설명하기 위한 예시적인 도면이다.
도 7은 일 실시예에 따른 전자 장치가 복수의 카메라들 각각으로부터 획득한 복수의 이미지들 각각에 하나 이상의 시각적 객체들을 결합하는 동작을 설명하기 위한 예시적인 도면이다.
도 8은 일 실시예에 따른 전자 장치가 복수의 피사체들 중 어느 한 피사체를 선택하는 사용자 입력에 기반하여 수행하는 동작을 설명하기 위한 예시적인 도면이다.
도 9a 내지 9b는 일 실시예에 따른 전자 장치가 복수의 카메라들 각각으로부터 획득한 복수의 이미지들을 보간하는 동작을 설명하기 위한 예시적인 도면이다.
도 10은 일 실시예에 따른 전자 장치의 동작을 설명하기 위한 흐름도이다.
도 11은 일 실시예에 따른 전자 장치가 복수의 카메라들 중에서 적어도 하나 이상의 카메라를 선택하는 동작을 설명하기 위한 흐름도이다.
도 12는 일 실시예에 따른 전자 장치가 피사체 및 전자 장치 사이의 거리에 기반하여 수행하는 동작을 설명하기 위한 흐름도이다.
도 13은 일 실시예에 따른 전자 장치가 복수의 이미지들 각각에 시차를 가지는 하나 이상의 시각적 객체들을 결합하는 동작을 설명하기 위한 흐름도이다.
1 is a block diagram of an electronic device according to an exemplary embodiment.
2 is a diagram illustrating an example of a user interface (UI) displayed by an electronic device according to an exemplary embodiment.
3A to 3B are diagrams for explaining an example of an operation of selecting at least two cameras from among a plurality of cameras by an electronic device according to an embodiment.
4A to 4C are exemplary diagrams for explaining the structure of an electronic device deformable by an external force.
5A to 5B are diagrams for explaining an example of an operation of selecting at least one camera from among a plurality of cameras by the electronic device according to the embodiments of FIGS. 4A to 4C .
6A to 6C are exemplary diagrams for explaining an operation performed by an electronic device using each of a plurality of cameras according to an embodiment.
7 is an exemplary diagram for explaining an operation of combining one or more visual objects with each of a plurality of images acquired from each of a plurality of cameras by an electronic device according to an embodiment.
8 is an exemplary diagram for explaining an operation performed by an electronic device based on a user input for selecting one of a plurality of subjects according to an exemplary embodiment.
9A and 9B are exemplary diagrams for explaining an operation of interpolating a plurality of images acquired from each of a plurality of cameras by an electronic device according to an embodiment.
10 is a flowchart illustrating an operation of an electronic device according to an exemplary embodiment.
11 is a flowchart illustrating an operation of selecting at least one camera from among a plurality of cameras by an electronic device according to an exemplary embodiment.
12 is a flowchart illustrating an operation performed by an electronic device based on a distance between a subject and the electronic device according to an exemplary embodiment.
13 is a flowchart illustrating an operation of combining one or more visual objects having a parallax with each of a plurality of images by an electronic device according to an exemplary embodiment.

이하, 본 문서의 다양한 실시예들이 첨부된 도면을 참조하여 설명된다.Hereinafter, various embodiments of this document will be described with reference to the accompanying drawings.

본 문서의 다양한 실시 예들 및 이에 사용된 용어들은 본 문서에 기재된 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 해당 실시 예의 다양한 변경, 균등물, 및/또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및/또는 B 중 적어도 하나", "A, B 또는 C" 또는 "A, B 및/또는 C 중 적어도 하나" 등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", "첫째" 또는 "둘째" 등의 표현들은 해당 구성요소들을, 순서 또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에 "(기능적으로 또는 통신적으로) 연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제 3 구성요소)를 통하여 연결될 수 있다.Various embodiments of this document and terms used therein are not intended to limit the technology described in this document to a specific embodiment, and should be understood to include various modifications, equivalents, and/or substitutes of the embodiments. In connection with the description of the drawings, like reference numerals may be used for like elements. Singular expressions may include plural expressions unless the context clearly indicates otherwise. In this document, expressions such as "A or B", "at least one of A and/or B", "A, B or C" or "at least one of A, B and/or C" refer to all of the items listed together. Possible combinations may be included. Expressions such as "first", "second", "first" or "second" may modify the elements in any order or importance, and are used only to distinguish one element from another. The components are not limited. When a (e.g., first) element is referred to as being "(functionally or communicatively) coupled to" or "connected to" another (e.g., second) element, that element refers to the other (e.g., second) element. It may be directly connected to the component or connected through another component (eg, a third component).

본 문서에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구성된 유닛을 포함하며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로 등의 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 모듈은 ASIC(application-specific integrated circuit)으로 구성될 수 있다.The term "module" used in this document includes a unit composed of hardware, software, or firmware, and may be used interchangeably with terms such as logic, logic block, component, or circuit, for example. A module may be an integral part or a minimum unit or part thereof that performs one or more functions. For example, the module may be composed of an application-specific integrated circuit (ASIC).

도 1은 일 실시예에 따른 전자 장치(101)의 블록도이다. 일 실시예에 따른 전자 장치(101)는 프로세서(110), 메모리(120), 디스플레이(130), 카메라(140) 또는 센서(150) 중 적어도 하나를 포함할 수 있다. 프로세서(110), 메모리(120), 디스플레이(130), 카메라(140) 및 센서(150)는 통신 버스(a communication bus)와 같은 전자 소자(electronical component)에 의해 서로 전기적으로 및/또는 작동적으로 연결될 수 있다(electronically and/or operably coupled with each other). 전자 장치(101)에 포함된 하드웨어 컴포넌트의 타입 및/또는 개수는 도 1에 도시된 바에 제한되지 않는다. 예를 들어, 전자 장치(101)는 도 1에 도시된 하드웨어 컴포넌트 중 일부만 포함할 수 있다. 일 실시예에 따른 전자 장치(101)는 사용자에 의해 소유되는(be owned by) 단말일 수 있다. 단말은, 예를 들어, 랩톱 및 데스크톱과 같은 개인용 컴퓨터(Personal Computer, PC), 스마트폰(smartphone), 스마트패드(smartpad), 태블릿 PC(Personal Computer), 스마트워치(smartwatch) 및 HMD(Head-Mounted Device)와 같은 스마트액세서리를 포함할 수 있다.1 is a block diagram of an electronic device 101 according to an embodiment. The electronic device 101 according to an embodiment may include at least one of a processor 110 , a memory 120 , a display 130 , a camera 140 , and a sensor 150 . Processor 110, memory 120, display 130, camera 140 and sensor 150 are electrically and/or operationally compatible with each other by means of an electronic component such as a communication bus. can be connected (electronically and/or operably coupled with each other). The type and/or number of hardware components included in the electronic device 101 are not limited to those shown in FIG. 1 . For example, the electronic device 101 may include only some of the hardware components shown in FIG. 1 . The electronic device 101 according to an embodiment may be a terminal owned by a user. The terminal is, for example, a personal computer (PC) such as a laptop and desktop, a smartphone, a smart pad, a tablet PC (Personal Computer), a smart watch, and an HMD (Head- Mounted Device) may include smart accessories.

일 실시예에 따른 전자 장치(101)의 프로세서(110)는 하나 이상의 인스트럭션에 기반하여 데이터를 처리하기 위한 하드웨어 컴포넌트를 포함할 수 있다. 데이터를 처리하기 위한 하드웨어 컴포넌트는, 예를 들어, ALU(Arithmetic and Logic Unit), FPGA(Field Programmable Gate Array) 및/또는 CPU(Central Processing Unit)를 포함할 수 있다. 프로세서(110)의 개수는 하나 이상일 수 있다. 예를 들어, 프로세서(110)는 듀얼 코어(dual core), 쿼드 코어(quad core) 또는 헥사 코어(hexa core)와 같은 멀티-코어 프로세서의 구조를 가질 수 있다.The processor 110 of the electronic device 101 according to an embodiment may include a hardware component for processing data based on one or more instructions. Hardware components for processing data may include, for example, an Arithmetic and Logic Unit (ALU), a Field Programmable Gate Array (FPGA), and/or a Central Processing Unit (CPU). The number of processors 110 may be one or more. For example, the processor 110 may have a structure of a multi-core processor such as a dual core, quad core, or hexa core.

일 실시예에 따른 전자 장치(101)의 메모리(120)는 프로세서(110)에 입력 및/또는 출력되는 데이터 및/또는 인스트럭션을 저장하기 위한 하드웨어 컴포넌트를 포함할 수 있다. 메모리(120)는, 예를 들어, RAM(Random-Access Memory)와 같은 휘발성 메모리(Volatile Memory) 및/또는 ROM(Read-Only Memory)와 같은 비휘발성 메모리(Non-Volatile Memory)를 포함할 수 있다. 휘발성 메모리는, 예를 들어, DRAM(Dynamic RAM), SRAM(Static RAM), Cache RAM, PSRAM (Pseudo SRAM) 중 적어도 하나를 포함할 수 있다. 비휘발성 메모리는, 예를 들어, PROM(Programmable ROM), EPROM (Erasable PROM), EEPROM (Electrically Erasable PROM), 플래시 메모리, 하드디스크, 컴팩트 디스크, eMMC(Embedded Multi Media Card) 중 적어도 하나를 포함할 수 있다.The memory 120 of the electronic device 101 according to an embodiment may include a hardware component for storing data and/or instructions input and/or output to the processor 110 . The memory 120 may include, for example, volatile memory such as random-access memory (RAM) and/or non-volatile memory such as read-only memory (ROM). there is. The volatile memory may include, for example, at least one of Dynamic RAM (DRAM), Static RAM (SRAM), Cache RAM, and Pseudo SRAM (PSRAM). The nonvolatile memory may include, for example, at least one of a programmable ROM (PROM), an erasable PROM (EPROM), an electrically erasable PROM (EEPROM), a flash memory, a hard disk, a compact disk, and an embedded multi media card (eMMC). can

일 실시예에 따른 전자 장치(101)의 메모리(120) 내에서, 프로세서(110)가 데이터에 수행할 동작을 나타내는 인스트럭션이 하나 이상 저장될 수 있다. 인스트럭션의 집합은, 펌웨어, 운영 체제, 프로세스, 루틴, 서브-루틴 및/또는 어플리케이션으로 참조될 수 있다. 예를 들어, 전자 장치(101)의 프로세서(110)는 어플리케이션 형태로 배포된 복수의 인스트럭션의 집합(set of a plurality of instructions)을 실행하여, 후술되는 전자 장치의 동작(예, 도 10 내지 도 13의 동작들 중 적어도 하나)을 수행할 수 있다.One or more instructions indicating an operation to be performed on data by the processor 110 may be stored in the memory 120 of the electronic device 101 according to an embodiment. A set of instructions may refer to firmware, operating system, process, routine, sub-routine and/or application. For example, the processor 110 of the electronic device 101 executes a set of a plurality of instructions distributed in the form of an application to operate the electronic device described later (eg, FIGS. 10 to 10). At least one of the operations of 13) may be performed.

일 실시예에 따른 전자 장치(101)의 디스플레이(130)는 사용자에게 시각화된 정보(예를 들어, 도 2, 도 6a 및/또는 도 8의 화면들 중 적어도 하나)를 출력할 수 있다. 상기 시각화된 정보는, 예를 들어, 전자 장치(101)의 프로세서(110)에 의해 실행되고 있는 어플리케이션에 의해 생성될 수 있다. 예를 들어, 디스플레이(130)는, 프로세서(110)에 포함되거나, 또는 프로세서(110)와 독립적으로 전자 장치(101) 내에 배치된 GPU(Graphic Processing Unit)와 같은 컨트롤러에 의해 제어되어, 사용자에게 시각화된 정보(visualized information)를 출력할 수 있다. 디스플레이(130)는 FPD(Flat Panel Display) 및/또는 전자 종이(electronic paper)를 포함할 수 있다. 상기 FPD는 LCD(Liquid Crystal Display), PDP(Plasma Display Panel) 및/또는 하나 이상의 LED(Light Emitting Diode)를 포함할 수 있다. 상기 LED는 OLED(Organic LED)를 포함할 수 있다.The display 130 of the electronic device 101 according to an embodiment may output visualized information (eg, at least one of the screens of FIGS. 2, 6A and/or 8) to the user. The visualized information may be generated by, for example, an application being executed by the processor 110 of the electronic device 101 . For example, the display 130 is controlled by a controller such as a graphics processing unit (GPU) included in the processor 110 or disposed in the electronic device 101 independently of the processor 110 to provide information to the user. Visualized information can be output. The display 130 may include a flat panel display (FPD) and/or electronic paper. The FPD may include a Liquid Crystal Display (LCD), a Plasma Display Panel (PDP), and/or one or more Light Emitting Diodes (LEDs). The LED may include organic LED (OLED).

일 실시예에 따른 전자 장치(101)의 카메라(140)는 빛의 색상 및/또는 밝기를 나타내는 전기 신호를 생성하는 광 센서(예, CCD(Charged Coupled Device) 센서, CMOS(Complementary Metal Oxide Semiconductor) 센서)를 하나 이상 포함할 수 있다. 카메라(140)에 포함된 복수의 광 센서는 2차원 격자(2 dimensional array)의 형태로 배치될 수 있다. 카메라(140)는 복수의 광 센서 각각의 전기 신호를 실질적으로 동시에 획득하여, 2차원 격자의 광 센서들에 도달한 빛에 대응하고, 2차원으로 배열된 복수의 픽셀들을 포함하는 이미지를 생성할 수 있다. 예를 들어, 카메라(140)를 이용하여 캡쳐한 사진 데이터는 카메라(140)로부터 획득한 하나의 이미지를 의미할 수 있다. 예를 들어, 카메라(140)를 이용하여 캡쳐한 비디오 데이터는 카메라(140)로부터 지정된 프레임율(frame rate)을 따라 획득한 복수의 이미지들의 시퀀스(sequence)를 의미할 수 있다. 일 실시예에 따른 전자 장치(101)는, 카메라(140)가 빛을 수신하는 방향을 향하여 배치되고, 상기 방향으로 빛을 출력하기 위한 플래시 라이트를 더 포함할 수 있다.The camera 140 of the electronic device 101 according to an embodiment includes an optical sensor (eg, a Charged Coupled Device (CCD) sensor, a Complementary Metal Oxide Semiconductor (CMOS)) that generates an electrical signal representing the color and/or brightness of light. may include one or more sensors). A plurality of light sensors included in the camera 140 may be arranged in a 2-dimensional array. The camera 140 substantially simultaneously obtains electrical signals from each of the plurality of light sensors, corresponds to light reaching the light sensors of the two-dimensional grid, and generates an image including a plurality of pixels arranged in two dimensions. can For example, photo data captured using the camera 140 may refer to one image obtained from the camera 140 . For example, video data captured using the camera 140 may refer to a sequence of a plurality of images acquired from the camera 140 according to a specified frame rate. The electronic device 101 according to an embodiment is disposed toward a direction in which the camera 140 receives light and may further include a flash light for outputting light in the direction.

일 실시예에 따른 전자 장치(101)에 포함된 카메라(140)의 수는 하나 이상일 수 있다. 도 1을 참고하면, 전자 장치(101)는 n개의 카메라들(140-1, 140-2, ..., 140-n)을 포함할 수 있다. n개의 카메라들(140-1, 140-2, ..., 140-n)은, 전자 장치(101) 내에서 독립적인 방향 및/또는 FOV(Field-of-View, FOV)를 가질 수 있다. 상기 FOV는, 카메라(140)의 렌즈가 빛을 수신 가능한 화각(view angle)에 기반하여 형성되는 영역으로, 카메라(140)에서 생성된 이미지에 대응하는 영역에 대응할 수 있다. 일 실시예에 따른 전자 장치(101)는 n개의 카메라들(140-1, 140-2, ..., 140-n) 중에서, 적어도 일부분이 서로 중첩된 FOV들을 가지는 적어도 두 카메라들을 실질적으로 동시에(substantially simultaneously) 제어하여, 상기 적어도 두 카메라들로부터 적어도 두 개의 이미지들을 획득할 수 있다. n개의 카메라들(140-1, 140-2, ..., 140-n)이 전자 장치(101)에 배치되는 일 실시예는 도 3a 내지 3b, 도 4a 내지 4c, 도 5a 내지 5b를 참고하여 후술된다.The number of cameras 140 included in the electronic device 101 according to an embodiment may be one or more. Referring to FIG. 1 , the electronic device 101 may include n cameras 140-1, 140-2, ..., 140-n. The n cameras 140-1, 140-2, ..., 140-n may have independent directions and/or field-of-view (FOV) within the electronic device 101. . The FOV is an area formed based on a view angle at which the lens of the camera 140 can receive light, and may correspond to an area corresponding to an image generated by the camera 140 . The electronic device 101 according to an embodiment substantially simultaneously displays at least two cameras having FOVs overlapping each other at least partially among n cameras 140-1, 140-2, ..., 140-n. (substantially simultaneously) control to obtain at least two images from the at least two cameras. For an embodiment in which n cameras 140-1, 140-2, ..., 140-n are disposed in the electronic device 101, refer to FIGS. 3A to 3B, 4A to 4C, and 5A to 5B. It is described later.

일 실시예에 따른 전자 장치(101)의 센서(150)는 전자 장치(101)와 관련된 비-전기적 정보(non-electronic information)로부터 프로세서(110) 및/또는 메모리(120)에 의해 처리될 수 있는 전기적 정보를 생성할 수 있다. 센서(150)에 의하여 생성된 상기 전기적 정보는, 메모리(120)에 저장되거나, 프로세서(110)에 의해 처리되거나, 및/또는 전자 장치(101)와 구별되는 다른 전자 장치로 송신될 수 있다. 예를 들어, 센서(150)는 전자 장치(101)의 지리적 위치(geographic location)를 탐지하기 위한 GPS(Global Positioning System) 센서, 주변광(ambient light)의 밝기를 측정하는 조도 센서를 포함할 수 있다.The sensor 150 of the electronic device 101 according to an embodiment may be processed by the processor 110 and/or the memory 120 from non-electronic information related to the electronic device 101. electrical information can be generated. The electrical information generated by the sensor 150 may be stored in the memory 120, processed by the processor 110, and/or transmitted to another electronic device distinct from the electronic device 101. For example, the sensor 150 may include a Global Positioning System (GPS) sensor for detecting the geographic location of the electronic device 101 and an illuminance sensor for measuring the brightness of ambient light. there is.

도 1을 참고하면, 일 실시예에 따른 전자 장치(101)의 센서(150)는 전자 장치(101)의 물리적인 움직임을 측정하기 위한 가속도 센서(152)를 포함할 수 있다. 상기 가속도 센서(152)는 서로 수직을 이루는 복수의 지정된 축들(예, x 축, y 축, z 축) 각각에서 측정된 중력 가속도의 크기를 나타내는 전기적 정보를 출력할 수 있다. 일 실시예에 따른 전자 장치(101)의 프로세서(110)는, 가속도 센서(152)로부터 출력되는 전기적 정보에 기반하여, 물리적인 공간 내에서의 전자 장치(101)의 자세(posture)를 측정할 수 있다. 전자 장치(101)가 측정하는 상기 자세는, 센서(152)에 의해 측정되는 전자 장치(101)의 방향(orientation) 및/또는 전자 장치(101)의 형태(예, 도 4a 내지 4c에서 후술될 외력에 의해 변형되는 전자 장치(101)의 형태)를 나타낼 수 있다. 전자 장치(101)의 형태는, 예를 들어, 홀 센서에 의해 측정될 수 있다. 전자 장치(101)는 측정된 자세에 기반하여, 전자 장치(101)의 모드를 결정할 수 있다. 예를 들어, 전자 장치(101)는 복수의 지정된 모드들로써, 랜드스케이프 모드(landscape mode) 및 포트레이트 모드(portrait mode)를 포함하는 지정된 모드들 중에서, 전자 장치(101)의 자세에 대응하는 모드를 식별할 수 있다.Referring to FIG. 1 , the sensor 150 of the electronic device 101 according to an embodiment may include an acceleration sensor 152 for measuring physical movement of the electronic device 101 . The acceleration sensor 152 may output electrical information indicating the magnitude of the gravitational acceleration measured at each of a plurality of designated axes (eg, x-axis, y-axis, and z-axis) perpendicular to each other. The processor 110 of the electronic device 101 according to an embodiment is configured to measure a posture of the electronic device 101 in a physical space based on electrical information output from the acceleration sensor 152. can The posture measured by the electronic device 101 is the orientation of the electronic device 101 measured by the sensor 152 and/or the shape of the electronic device 101 (eg, as will be described later in FIGS. 4A to 4C ). form of the electronic device 101 deformed by an external force). The shape of the electronic device 101 may be measured by, for example, a hall sensor. The electronic device 101 may determine the mode of the electronic device 101 based on the measured posture. For example, the electronic device 101 selects a mode corresponding to the posture of the electronic device 101 from among designated modes including a landscape mode and a portrait mode as a plurality of designated modes. can be identified.

예를 들어, 전자 장치(101)의 하우징 및/또는 디스플레이(130)가 너비 및 길이를 가지는 경우, 랜드스케이프 모드는, 가속도 센서(152)에 의해 측정되는 중력 가속도의 방향 및 전자 장치(101)의 길이 방향 사이의 각도가, 직각을 포함하는 지정된 범위 내에 포함된 상태를 포함할 수 있다. 상기 예시에서, 포트레이트 모드는, 가속도 센서(152)에 의해 측정되는 중력 가속도의 방향 및 전자 장치(101)의 너비 방향 사이의 각도가, 직각을 포함하는 지정된 범위 내에 포함된 상태를 포함할 수 있다. 일 실시예에서, 복수의 지정된 모드는 상술된 상기 랜드스케이프 모드 및 포트레이트 모드와 구별되는 다른 모드로써, 예를 들어, 외력에 의해 변형된 전자 장치(101)의 형태와 관련된 모드를 더 포함할 수 있다. 예를 들어, 전자 장치(101)는 가속도 센서(152)와 구별되는 다른 센서를 이용하여 전자 장치(101)의 형태를 나타내는 전기적 정보를 측정할 수 있다. 일 실시예에 따른 전자 장치(101)가, 전자 장치(101)의 자세를 측정하거나, 및/또는 전자 장치(101)의 모드를 결정하는 동작은, 도 3a 내지 3b 및/또는 도 4a 내지 4c를 참고하여 후술된다.For example, when the housing and/or the display 130 of the electronic device 101 has a width and a length, the landscape mode determines the direction of the gravitational acceleration measured by the acceleration sensor 152 and the electronic device 101 The angle between the longitudinal directions of may include a state included within a specified range including a right angle. In the above example, the portrait mode may include a state in which the angle between the direction of the gravitational acceleration measured by the acceleration sensor 152 and the width direction of the electronic device 101 is within a specified range including a right angle. . In one embodiment, the plurality of designated modes may further include, for example, a mode related to the shape of the electronic device 101 deformed by an external force as another mode distinguished from the aforementioned landscape mode and portrait mode. there is. For example, the electronic device 101 may measure electrical information representing the shape of the electronic device 101 using another sensor distinguished from the acceleration sensor 152 . An operation of measuring a posture of the electronic device 101 and/or determining a mode of the electronic device 101 by the electronic device 101 according to an embodiment is illustrated in FIGS. 3A to 3B and/or 4A to 4C It is described later with reference to.

일 실시예에 따른 전자 장치(101)는 가속도 센서(152)를 포함하는 센서(150)를 이용하여 식별된 모드에 기반하여 동작할 수 있다. 예를 들어, 전자 장치(101)는 디스플레이(130)에서 출력되는 UI(User Interface)의 방향을 변경할 수 있다. 일 실시예에 따른 전자 장치(101)는, 전자 장치(101)의 모드에 기반하여, n개의 카메라들(140-1, 140-2, ..., 140-n) 중에서 적어도 두 카메라들을 선택할 수 있다. 예를 들어, 전자 장치(101)는 n개의 카메라들(140-1, 140-2, ..., 140-n) 중에서 시차(disparity)(예, 사람의 이격된 두 눈들 사이의 거리에 의해, 두 눈들 각각에 맺히는 상들 사이에서 발생되는 차이인 양안 시차(binocular disparity)에 대응하는 시차)를 가지는 두 개의 카메라들을 선택할 수 있다. 선택된 두 개의 카메라들을 동시에 제어하여, 전자 장치(101)는 시차를 가지는 두 개의 이미지들을 획득할 수 있다. 일 실시예에 따른 전자 장치(101)가 시차를 가지는 두 개의 이미지들을 획득하는 동작은, 도 3a 내지 3b 및/또는 도 5a 내지 5b를 참고하여 후술된다.The electronic device 101 according to an embodiment may operate based on the mode identified using the sensor 150 including the acceleration sensor 152 . For example, the electronic device 101 may change the direction of a user interface (UI) output from the display 130 . The electronic device 101 according to an embodiment selects at least two cameras from n cameras 140-1, 140-2, ..., 140-n based on the mode of the electronic device 101. can For example, the electronic device 101 determines the disparity among the n cameras 140-1, 140-2, ..., 140-n (eg, by the distance between the two separated eyes of a person). , disparity corresponding to binocular disparity, which is a difference between images formed on each of the two eyes), can be selected. By simultaneously controlling the two selected cameras, the electronic device 101 may acquire two images having a parallax. An operation of acquiring two images having a parallax by the electronic device 101 according to an embodiment will be described later with reference to FIGS. 3A to 3B and/or 5A to 5B.

도 1을 참고하면, 일 실시예에 따른 전자 장치(101)의 센서(150)는, 전자 장치(101) 및 전자 장치(101)와 구별되는 외부 객체 사이의 거리를 측정하기 위한 거리 센서(154)를 포함할 수 있다. 상기 외부 객체는, 예를 들어, 카메라(140)의 FOV 내에 포함되어, 카메라(140)로부터 획득된 이미지 내에 포함되는 피사체를 포함할 수 있다. 일 실시예에 따른 전자 장치(101)의 거리 센서(154)는, 레이저 광에 기반하여 전자 장치(101) 및 피사체 사이의 거리를 측정하기 위한 레이저 센서에 대응할 수 있다. 상기 레이저 센서에 의해 측정된 거리는, 카메라(140)에 의한 초점 조절(예, 오토 포커스)을 위해 이용될 수 있다. 일 실시예에 따른 전자 장치(101)의 거리 센서(153)는 2차원으로 배열된 깊이 값들(depth values)을 포함하는 깊이 영상을 생성하는 ToF(Time-of-Flight) 센서에 대응할 수 있다. 상기 ToF 센서는 적외선 다이오드, 및 적외선 광의 세기를 탐지하고, 2 차원 격자 형태로 배치된 복수의 적외선 광 센서들을 포함할 수 있다. 전자 장치(101)는 ToF 센서를 이용하여, 적외선 다이오드에서 방출된 광이 피사체로부터 반사되어 상기 복수의 적외선 광 센서들 중 적어도 하나에 도달하는 시간에 기반하는, 상기 깊이 영상을 획득할 수 있다.Referring to FIG. 1 , a sensor 150 of an electronic device 101 according to an embodiment includes a distance sensor 154 for measuring a distance between the electronic device 101 and an external object distinguished from the electronic device 101 . ) may be included. The external object may include, for example, a subject included in an image obtained from the camera 140 by being included in the FOV of the camera 140 . The distance sensor 154 of the electronic device 101 according to an embodiment may correspond to a laser sensor for measuring a distance between the electronic device 101 and a subject based on laser light. The distance measured by the laser sensor may be used for focus adjustment (eg, auto focus) by the camera 140 . The distance sensor 153 of the electronic device 101 according to an embodiment may correspond to a time-of-flight (ToF) sensor that generates a depth image including two-dimensionally arranged depth values. The ToF sensor may include an infrared diode and a plurality of infrared light sensors that detect the intensity of infrared light and are arranged in a two-dimensional grid. The electronic device 101 may obtain the depth image based on a time at which light emitted from an infrared diode is reflected from a subject and reaches at least one of the plurality of infrared light sensors, using a ToF sensor.

일 실시예에 따른 전자 장치(101)는 거리 센서(154)에 의해 측정된 피사체 및 전자 장치(101) 사이의 거리를 이용하여, 동시에 제어된 두 카메라들로부터 획득된 두 이미지들을 처리할 수 있다. 예를 들어, 전자 장치(101)는 두 이미지들의 구별되는 FOV들 중 적어도 하나를 조절하기 위한 하나 이상의 파라미터들을, 거리 센서(154)에 의해 측정된 상기 거리에 기반하여 획득할 수 있다. 일 실시예에 따른 전자 장치(101)가 거리 센서(154)에 의해 측정된 상기 거리에 기반하여 상기 두 이미지들을 처리하는 일 예는, 도 6a 내지 6c 및/또는 도 8을 참고하여 후술된다.The electronic device 101 according to an embodiment may process two images obtained from two cameras simultaneously controlled by using the distance between the subject and the electronic device 101 measured by the distance sensor 154. . For example, the electronic device 101 may acquire one or more parameters for adjusting at least one of the distinct FOVs of the two images based on the distance measured by the distance sensor 154 . An example of processing the two images based on the distance measured by the distance sensor 154 by the electronic device 101 according to an embodiment will be described later with reference to FIGS. 6A to 6C and/or FIG. 8 .

비록 도시되지 않았지만, 일 실시예에 따른 전자 장치(101)는 정보를 시각화한 형태 외에 다른 형태로 출력하기 위한 출력 수단을 포함할 수 있다. 예를 들어, 전자 장치(101)는 음성 신호(acoustic signal)를 출력하기 위한 스피커를 포함할 수 있다. 예를 들어, 전자 장치(101)는 진동에 기반하는 햅틱 피드백을 제공하기 위한 모터를 포함할 수 있다.Although not shown, the electronic device 101 according to an embodiment may include an output means for outputting information in a form other than a visualized form. For example, the electronic device 101 may include a speaker for outputting an acoustic signal. For example, the electronic device 101 may include a motor for providing haptic feedback based on vibration.

일 실시예에 따른 전자 장치(101)는 시차를 가지는 두 이미지들을 획득하기 위하여, 전자 장치(101)에 포함된 n개의 카메라들(140-1, 140-2, ..., 140-n) 중에서 적어도 두 카메라들을, 사용자로부터 수신된 단일 촬영 입력(single shooting input)에 기반하여 동시에 제어할 수 있다. 일 실시예에 따른 전자 장치(101)가 사용자로부터 촬영 입력을 수신하기 위하여 디스플레이(130) 상에 표시하는 UI의 일 예가 도 2 및/또는 도 8을 참고하여 후술된다. 예를 들어, 전자 장치(101)는 두 카메라들을 동시에 제어하여, 두 카메라들 각각에서 실질적으로 동시에 획득된 두 이미지들을 획득할 수 있다. 전자 장치(101)는 획득된 두 이미지들을 서로 연접하여(by concatenating), 두 이미지들이 교대로 표시되는(alternately displayed) 애니메이션을 제공하기 위한 다른 이미지를 획득할 수 있다. 이하에서, 전자 장치(101)가 두 이미지들을 연접하는 것은, 시간 영역(a time domain) 내에서 상기 두 이미지들이 연속적으로 표시되도록, 두 이미지들을 결합하는 동작을 포함할 수 있다. 일 실시예에 따른 전자 장치(101)가 획득된 두 이미지들을 연접하는 동작은, 도 6a 내지 6c, 도 7 내지 도 8 및/또는 도 9를 참고하여 후술된다.The electronic device 101 according to an embodiment uses n cameras 140-1, 140-2, ..., 140-n included in the electronic device 101 to obtain two images having a parallax. At least two of the cameras may be simultaneously controlled based on a single shooting input received from the user. An example of a UI displayed on the display 130 by the electronic device 101 according to an embodiment to receive a photographing input from a user will be described later with reference to FIGS. 2 and/or 8 . For example, the electronic device 101 may obtain two images obtained substantially simultaneously from each of the two cameras by simultaneously controlling the two cameras. The electronic device 101 may obtain another image for providing animation in which the two images are alternately displayed by concatenating the two acquired images. Hereinafter, combining the two images by the electronic device 101 may include an operation of combining the two images so that the two images are continuously displayed within a time domain. An operation of concatenating two acquired images by the electronic device 101 according to an embodiment will be described later with reference to FIGS. 6A to 6C, 7 to 8 and/or 9 .

상술한 바와 같이, 일 실시예에 따른 전자 장치(101)는 피사체를 공통적으로 포함하는 FOV들을 가지는 복수의 카메라들을 동시에 제어하여, 사용자로부터 촬영 입력을 한 번 수신하는 것에 응답하여, 시차를 가지는 복수의 이미지들을 동시에 획득할 수 있다. 사용자가 전자 장치(101)를 이동하거나, 및 사용자가 복수의 촬영 입력을 수행하는 것과 독립적으로, 전자 장치(101)는 시차를 가지는 복수의 이미지들을 동시에 획득할 수 있다. 일 실시예에 따른 전자 장치(101)는 시차를 가지는 복수의 이미지들을 연접하여, 시차를 가지는 복수의 이미지들이 교대로 표시되는 애니메이션을 생성할 수 있다. 상기 애니메이션은 상기 시차에 의한 복수의 이미지들에 의해 발생되는 입체감(a three-dimensional effect)을, 사용자에게 제공할 수 있다. 상기 애니메이션의 생성에 이용되는 복수의 이미지들이 한 번의 촬영 입력에 의해 획득되므로, 전자 장치(101)는 한 번의 촬영 입력으로 입체감을 사용자에게 제공하는 상기 애니메이션을 제공하기 위한 다른 이미지를 생성할 수 있다.As described above, the electronic device 101 according to an embodiment simultaneously controls a plurality of cameras having FOVs that commonly include a subject, and in response to receiving a photographing input from a user once, a plurality of cameras having a parallax. Images of can be obtained simultaneously. Independently of the user moving the electronic device 101 or performing a plurality of photographing inputs, the electronic device 101 may simultaneously acquire a plurality of images having parallax. The electronic device 101 according to an embodiment may create an animation in which a plurality of images having a parallax are alternately displayed by concatenating a plurality of images having a parallax. The animation may provide a three-dimensional effect generated by the plurality of parallax images to the user. Since the plurality of images used to generate the animation are obtained by one shooting input, the electronic device 101 may generate another image for providing the animation that provides a three-dimensional effect to the user with a single shooting input. .

이하에서는 도 2를 참고하여, 일 실시예에 따른 전자 장치(101)가 상기 입체감을 가지는 애니메이션을 생성하기 위하여 디스플레이(130) 상에 표시하는 UI가 설명된다.Hereinafter, with reference to FIG. 2 , a UI displayed on the display 130 by the electronic device 101 according to an embodiment to generate the animation having the three-dimensional effect will be described.

도 2는 일 실시예에 따른 전자 장치(101)가 표시하는 UI(User Interface)의 일 예를 도시한 도면이다. 도 2의 전자 장치(101)는 도 1의 전자 장치(101)의 일 예에 대응할 수 있다. 도 2를 참고하면, 전자 장치(101)가 디스플레이(예, 도 1의 디스플레이(130)) 상에 표시하는 화면(210)의 일 예가 도시된다. 이하에서, 화면(210)은 디스플레이의 적어도 일부분 내에서 표시되는 UI를 의미할 수 있다. 화면(210)은, 예를 들어, 안드로이드(Android) 운영체제의 액티비티(Activity)를 포함할 수 있다. 도 2의 화면(210)은, 메모리(예, 도 1의 메모리(120)) 내에 저장된 어플리케이션(예, 카메라 어플리케이션)을 실행하는 전자 장치(101)에 의해 표시될 수 있다.2 is a diagram illustrating an example of a user interface (UI) displayed by the electronic device 101 according to an embodiment. The electronic device 101 of FIG. 2 may correspond to an example of the electronic device 101 of FIG. 1 . Referring to FIG. 2 , an example of a screen 210 displayed on a display (eg, the display 130 of FIG. 1 ) by the electronic device 101 is shown. Hereinafter, the screen 210 may refer to a UI displayed within at least a portion of the display. The screen 210 may include, for example, an activity of an Android operating system. The screen 210 of FIG. 2 may be displayed by the electronic device 101 executing an application (eg, a camera application) stored in a memory (eg, the memory 120 of FIG. 1 ).

도 2를 참고하면, 전자 장치(101)는 화면(210) 내에, 전자 장치(101)에 포함된 카메라(예, 도 1의 카메라(140-1))로부터 제공되는 프리뷰 이미지(220)를 표시할 수 있다. 전자 장치(101)가 복수의 카메라들을 포함하는 경우, 전자 장치(101)는 복수의 카메라들 중 어느 한 카메라를 통해 획득되는 복수의 이미지들 중 적어도 일부분에 기반하여, 프리뷰 이미지(220)를 표시할 수 있다. 예를 들어, 프리뷰 이미지(220)의 해상도 및/또는 크기(dimension)는 상기 복수의 이미지들 각각의 해상도 및/또는 크기 미만일 수 있다.Referring to FIG. 2 , the electronic device 101 displays a preview image 220 provided from a camera included in the electronic device 101 (eg, the camera 140-1 of FIG. 1) on a screen 210. can do. When the electronic device 101 includes a plurality of cameras, the electronic device 101 displays a preview image 220 based on at least a portion of a plurality of images acquired through any one of the plurality of cameras. can do. For example, the resolution and/or size of the preview image 220 may be less than the resolution and/or size of each of the plurality of images.

일 실시예에 따른 전자 장치(101)는 화면(210) 내에 프리뷰 이미지(220)를 표시하는 상태에서, 전자 장치(101)에 포함된 카메라와 관련된 서로 다른 기능들을 수행하기 위한 시각적 객체들을 표시할 수 있다. 예를 들어, 전자 장치(101)는 화면(210)의 일부분(230)에, 텍스트 및/또는 아이콘에 기반하여 카메라를 이용하여 획득할 콘텐트의 타입을 나타내는 메뉴를 표시할 수 있다. 도 2를 참고하면, 전자 장치(101)는 카메라를 이용하여 획득 가능한 콘텐트로써, 사진, 비디오 및/또는 입체 사진(Stereoscopy) 각각을 나타내는 텍스트들을, 일부분(230)에 표시할 수 있다. 일부분(230) 내에서 입체 사진에 대응하는 텍스트(235)를 터치 및/또는 클릭하는 사용자 입력을 식별하는 것에 응답하여, 전자 장치(101)는 입체감을 가지는 애니메이션을 생성하기 위한 이미지를 획득하기 위한 상태로 진입할 수 있다. 상기 애니메이션은, 예를 들어, 특정 피사체를 중심으로 수평 방향을 따라 반복적으로 움직이는 흔들림 입체 사진(Wiggle Stereoscopy)을 포함할 수 있다.In a state in which the preview image 220 is displayed on the screen 210, the electronic device 101 according to an embodiment displays visual objects for performing different functions related to a camera included in the electronic device 101. can For example, the electronic device 101 may display a menu indicating the type of content to be acquired using a camera based on text and/or icons on a portion 230 of the screen 210 . Referring to FIG. 2 , the electronic device 101 may display texts representing photos, videos, and/or stereoscopic photos, respectively, on a portion 230 as content obtainable using a camera. In response to identifying a user input of touching and/or clicking text 235 corresponding to a stereoscopic picture within portion 230, the electronic device 101 is configured to obtain an image for generating an animation having a stereoscopic effect. state can be entered. The animation may include, for example, a wiggle stereoscopy that repeatedly moves along a horizontal direction centering on a specific subject.

일 실시예에 따른 전자 장치(101)는 화면(210) 내에서 일부분(230)과 구별되는 일부분(260) 내에, 일부분(230)에서 선택된 콘텐트의 타입과 관련된 하나 이상의 파라미터들을 제어하기 위한 텍스트 및/또는 아이콘을 표시할 수 있다. 입체감을 가지는 애니메이션을 생성하기 위한 이미지를 획득하기 위한 상태에서, 전자 장치(101)는 일부분(230) 내에, 상기 애니메이션의 프레임율을 조절하기 위한 텍스트(예, fps(frames per second))(262), 상기 애니메이션의 주기를 조절하기 위한 텍스트(264), 또는 상기 애니메이션에, 전자 장치(101)의 카메라에 의해 촬영된 하나 이상의 피사체들과 구별되고, 전자 장치(101)에 의해 생성된 그래픽 객체(graphic object)를 추가하기 위한 텍스트(266) 중 적어도 하나를 표시할 수 있다.The electronic device 101 according to an embodiment includes text and text for controlling one or more parameters related to the type of content selected in the portion 230 in a portion 260 that is distinct from the portion 230 in the screen 210. /or an icon may be displayed. In a state for obtaining an image for generating an animation having a three-dimensional effect, the electronic device 101 provides text (eg, fps (frames per second)) 262 for adjusting the frame rate of the animation within the portion 230. ), text 264 for adjusting the cycle of the animation, or a graphic object distinguished from one or more subjects captured by the camera of the electronic device 101 and created by the electronic device 101 in the animation. At least one of the texts 266 for adding (graphic object) may be displayed.

일 실시예에 따른 전자 장치(101)가 화면(210) 내에 표시하는 텍스트 및/또는 아이콘의 방향은, 전자 장치(101)의 자세에 따라 복수의 지정된 모드들 중에서 선택된 모드에 기반하여 결정될 수 있다. 예를 들어, 포트레이트 모드에서, 전자 장치(101)는 화면(210) 내에 표시된 텍스트의 방향을, 도 2와 같이 화면(210)의 너비 방향에 평행한 방향을 따라 표시할 수 있다. 사용자가 전자 장치(101)를 기울임에 따라 상기 포트레이트 모드에서 랜드스케이프 모드로 스위칭되는 경우, 전자 장치(101)는 화면(210) 내에 표시된 텍스트의 방향을, 도 2와 다르게, 화면(210)의 너비 방향에 수직인 방향을 따라 표시할 수 있다. 일 실시예에 따른 전자 장치(101)가 랜드스케이프 모드에서 표시하는 텍스트의 방향은, 도 6a에 도시된 텍스트의 방향을 포함할 수 있다.The direction of the text and/or icon displayed on the screen 210 by the electronic device 101 according to an embodiment may be determined based on a mode selected from among a plurality of designated modes according to the posture of the electronic device 101. . For example, in the portrait mode, the electronic device 101 may display the text displayed on the screen 210 along a direction parallel to the width direction of the screen 210 as shown in FIG. 2 . When the portrait mode is switched from the portrait mode to the landscape mode as the user tilts the electronic device 101, the electronic device 101 changes the direction of the text displayed on the screen 210 to the screen 210 differently from FIG. It can be displayed along the direction perpendicular to the width direction. The direction of the text displayed by the electronic device 101 in the landscape mode according to an embodiment may include the direction of the text shown in FIG. 6A.

일 실시예에 따른 전자 장치(101)는 화면(210) 내에, 촬영 입력을 수신하기 위한 아이콘(240)을 표시할 수 있다. 상기 아이콘(240)을 터치 및/또는 클릭하는 사용자 입력을 식별하는 것에 응답하여, 전자 장치(101)는 하나 이상의 카메라들로부터 이미지를 획득할 수 있다. 이하에서, 촬영 입력은, 일부분(230)에 의해 선택된 타입의 콘텐트를 생성하기 위한 사용자 입력으로, 예를 들어, 아이콘(240)을 터치 및/또는 클릭하는 사용자 입력을 포함할 수 있다. 예를 들어, 입체 사진에 대응하는 텍스트(235)를 터치 및/또는 클릭하는 사용자 입력을 식별한 이후, 촬영 입력을 수신하는 것에 응답하여, 전자 장치(101)는 적어도 두 카메라들을 실질적으로 동시에 제어하여, 상기 적어도 두 카메라들로부터 입체감을 가지는 애니메이션을 재생하기 위한 적어도 두 개의 이미지들을 획득할 수 있다.The electronic device 101 according to an embodiment may display an icon 240 for receiving a photographing input on the screen 210 . In response to identifying a user input of touching and/or clicking the icon 240 , the electronic device 101 may acquire images from one or more cameras. Hereinafter, the photographing input is a user input for generating content of the type selected by the portion 230 , and may include, for example, a user input of touching and/or clicking the icon 240 . For example, after identifying a user input of touching and/or clicking text 235 corresponding to a stereoscopic picture, in response to receiving a photographing input, the electronic device 101 substantially simultaneously controls at least two cameras. Thus, at least two images for reproducing an animation having a three-dimensional effect may be obtained from the at least two cameras.

전자 장치(101)는 획득된 적어도 두 개의 이미지들을 이용하여, 입체감을 가지는 애니메이션을 제공하기 위한 다른 이미지를 생성할 수 있다. 상기 다른 이미지는, 텍스트(262)와 관련된 사용자 입력에 적어도 기반하는 프레임율을 가질 수 있다. 상기 다른 이미지는, 텍스트(264)와 관련된 사용자 입력에 적어도 기반하는 주기를 가질 수 있다. 상기 주기는, 전자 장치(101)가 획득한 두 개의 이미지들을 교차하여 표시하는 시간 구간의 길이에 대응할 수 있다. 상기 다른 이미지는, 텍스트(266)와 관련된 사용자 입력에 적어도 기반하는 그래픽 객체를 더 포함할 수 있다. 입체감을 가지는 애니메이션을 제공하기 위한 상기 다른 이미지는, 예를 들어, GIF(Graphics Interchange Format) 및/또는 MP4(MPEG-4)에 기반하는 포맷의 파일에 대응할 수 있다. 일 실시예에 따른 전자 장치(101)는 화면(210)의 일부분(250) 내에, 전자 장치(101) 내에 저장된 콘텐트(예, 전자 장치(101)의 카메라를 이용하여 촬영된 최신(latest) 콘텐트)에 대응하는 썸네일을 표시할 수 있다. 예를 들어, 전자 장치(101)가 입체감을 가지는 애니메이션을 제공하기 위한 상기 다른 이미지를 생성한 이후, 전자 장치(101)는 일부분(250) 내에 상기 다른 이미지를 나타내는 썸네일을 표시할 수 있다. 예를 들어, 상기 썸네일은 상기 다른 이미지에 의해 나타나는 애니메이션의 일 순간(one moment)의 적어도 일부분을 나타내는 이미지일 수 있다.The electronic device 101 may generate another image for providing animation having a three-dimensional effect by using the obtained at least two images. The other image may have a frame rate based at least on user input related to text 262 . The other image may have a period based at least on user input related to text 264 . The period may correspond to the length of a time interval in which the electronic device 101 crosses and displays the two acquired images. The other image may further include a graphic object based at least on user input related to text 266 . The other image for providing animation having a three-dimensional effect may correspond to a format file based on, for example, GIF (Graphics Interchange Format) and/or MP4 (MPEG-4). The electronic device 101 according to an embodiment includes content stored in the electronic device 101 within a portion 250 of the screen 210 (eg, latest content captured using a camera of the electronic device 101). ) can be displayed. For example, after the electronic device 101 generates the other image for providing animation having a three-dimensional effect, the electronic device 101 may display a thumbnail representing the other image in the portion 250 . For example, the thumbnail may be an image representing at least a portion of one moment of animation represented by the other image.

상술한 바와 같이, 일 실시예에 따른 전자 장치(101)는, 전자 장치(101)에 포함된 복수의 카메라들 중에서 적어도 두 카메라들을 제어하기 위한 화면(210)을 표시할 수 있다. 상기 화면(210)에 기반하여 수행되는 사용자 입력(예, 아이콘(240)과 관련된 촬영 입력)을 수신하는 것에 응답하여, 전자 장치(101)는 상기 적어도 두 카메라들을 이용하여 입체감을 가지는 애니메이션을 생성할 수 있다.As described above, the electronic device 101 according to an embodiment may display a screen 210 for controlling at least two cameras among a plurality of cameras included in the electronic device 101 . In response to receiving a user input based on the screen 210 (eg, a photographing input related to the icon 240), the electronic device 101 generates an animation having a three-dimensional effect using the at least two cameras. can do.

이하에서는 도 3a 내지 3b를 참고하여, 일 실시예에 따른 전자 장치(101)가 복수의 카메라들 중에서 적어도 두 개의 카메라들을 선택하는 동작이 상세히 설명된다.Hereinafter, an operation of selecting at least two cameras from among a plurality of cameras by the electronic device 101 according to an exemplary embodiment will be described in detail with reference to FIGS. 3A and 3B .

도 3a 내지 3b는 일 실시예에 따른 전자 장치(101)가 복수의 카메라들 중에서 적어도 두 개의 카메라들을 선택하는 동작의 일 예를 설명하기 위한 도면이다. 도 3a 내지 3b의 전자 장치(101)는 도 1 내지 도 2의 전자 장치(101)의 일 예에 대응할 수 있다.3A to 3B are diagrams for explaining an example of an operation of selecting at least two cameras from among a plurality of cameras by the electronic device 101 according to an embodiment. The electronic device 101 of FIGS. 3A to 3B may correspond to an example of the electronic device 101 of FIGS. 1 to 2 .

도 3a를 참고하면, 랜드스케이프 모드 내에서의 전자 장치(101)가 피사체(310)를 향하여 배치된 상태(300)가 도시된다. 일 실시예에 따른 전자 장치(101)에 포함된 복수의 카메라들(140-1, 140-2, 140-3) 각각에 포함된 렌즈들이, 디스플레이(예, 도 1의 디스플레이(130))의 적어도 일부분이 외부로 노출된 제1 면과 구별되는 제2 면을 통해 외부로 노출될 수 있다. 일 실시예에 따른 전자 장치(101)에 포함된 거리 센서(154)가, 상기 렌즈들이 외부로 노출된 상기 제2 면을 통해 외부로 노출될 수 있다.Referring to FIG. 3A , a state 300 in which the electronic device 101 is disposed facing a subject 310 in landscape mode is shown. Lenses included in each of the plurality of cameras 140-1, 140-2, and 140-3 included in the electronic device 101 according to an embodiment are used to display (eg, the display 130 of FIG. 1) At least a portion may be exposed to the outside through a second surface distinct from the first surface exposed to the outside. The distance sensor 154 included in the electronic device 101 according to an embodiment may be exposed to the outside through the second surface where the lenses are exposed to the outside.

일 실시예에 따른 전자 장치(101)에 포함된 복수의 카메라들(140-1, 140-2, 140-3)은 서로 구별되는 FOV들을 가질 수 있다. 거리 센서(154)는 상기 FOV들 중 적어도 일부분에 포함된 피사체(310) 및 전자 장치(101) 사이의 거리를 획득할 수 있다. 도 3a를 참고하면, 복수의 카메라들(140-1, 140-2, 140-3)의 FOV들 각각과 관련된 화각들(320-1, 320-2, 320-3)이 도시된다. 예를 들어, 카메라(140-1)는 프리뷰 이미지(예, 도 2의 프리뷰 이미지(220))를 획득하기 위한 복수의 이미지들을 생성하는 카메라로써, 지정된 각도에 대응하는 화각(320-1)을 가질 수 있다. 예를 들어, 카메라(140-2)는 상기 지정된 각도 보다 큰 각도에 대응하는 화각(320-1)을 가질 수 있다. 예를 들어, 카메라(140-1)가 광각(wide-angle) 카메라로 참조되는 경우, 카메라(140-2)는 초광각(ultra-wide-angle) 카메라로 참조될 수 있다. 예를 들어, 카메라(140-3)는 상기 지정된 각도 미만의 각도에 대응하는 화각(320-1)을 가질 수 있다. 예를 들어, 카메라(140-3)는 전자 장치(101)로부터 상대적으로 멀리 있는 피사체를 촬영하기 위한 망원(telephoto) 카메라로 참조될 수 있다. 전자 장치(101)의 상기 제2 면을 통해 외부로 노출되는 카메라들(140-1, 140-2, 140-2)의 타입 및 개수는 도 3a에 도시된 예시에 제한되지 않는다.The plurality of cameras 140-1, 140-2, and 140-3 included in the electronic device 101 according to an embodiment may have distinct FOVs. The distance sensor 154 may obtain a distance between the subject 310 and the electronic device 101 included in at least a portion of the FOVs. Referring to FIG. 3A , view angles 320-1, 320-2, and 320-3 related to respective FOVs of the plurality of cameras 140-1, 140-2, and 140-3 are shown. For example, the camera 140-1 is a camera that generates a plurality of images for acquiring a preview image (eg, the preview image 220 of FIG. 2 ), and sets a view angle 320-1 corresponding to a designated angle. can have For example, the camera 140-2 may have an angle of view 320-1 corresponding to an angle greater than the specified angle. For example, when the camera 140-1 is referred to as a wide-angle camera, the camera 140-2 may be referred to as an ultra-wide-angle camera. For example, the camera 140-3 may have an angle of view 320-1 corresponding to an angle less than the specified angle. For example, the camera 140 - 3 may be referred to as a telephoto camera for photographing a subject relatively far from the electronic device 101 . The type and number of cameras 140-1, 140-2, and 140-2 exposed to the outside through the second surface of the electronic device 101 are not limited to the example shown in FIG. 3A.

도 3a를 참고하면, 화각들(320-1, 320-2, 320-3)에 의해 지시되는 카메라들(140-1, 140-2, 140-3) 각각의 FOV들의 적어도 일부분이 서로 중첩될 수 있다. 카메라들(140-1, 140-2, 140-3)이 전자 장치(101)의 상기 제2 면에서 서로 이격되어 배치됨에 따라, 시차가 상기 FOV들의 중첩된 일부분에서 발생될 수 있다. 도 3a의 상태(300)에서, 직육면체에 대응하는 피사체(312), 피라미드에 대응하는 피사체(314) 및 구에 대응하는 피사체(316)가 카메라들(140-1, 140-2)의 FOV들 전부에 포함될 수 있다. 이 경우, 카메라들(140-1, 140-2) 각각에서 획득된 이미지들이, 서로 다른 각도에서 촬영한 피사체들(312, 314, 316)의 형상들에 대응하는 시각적 객체들을 포함함에 따라, 시차가 상기 이미지들에서 발생될 수 있다. 랜드스케이프 모드에 대응하는 상태(300)에서, 카메라들(140-1, 140-2)이 수평적으로 이격됨에 따라(horizontally separated), 카메라들(140-1, 140-2) 각각에서 획득된 이미지들이 양안 시차와 관련된 시차를 가질 수 있다.Referring to FIG. 3A , at least a portion of the FOVs of the cameras 140-1, 140-2, and 140-3 indicated by the angles of view 320-1, 320-2, and 320-3 overlap each other. can As the cameras 140 - 1 , 140 - 2 and 140 - 3 are spaced apart from each other on the second surface of the electronic device 101 , parallax may occur in overlapping portions of the FOVs. In the state 300 of FIG. 3A, an object 312 corresponding to a rectangular parallelepiped, an object 314 corresponding to a pyramid, and an object 316 corresponding to a sphere are FOVs of cameras 140-1 and 140-2. can be included in all In this case, as the images obtained from the cameras 140-1 and 140-2 include visual objects corresponding to the shapes of the subjects 312, 314, and 316 photographed from different angles, parallax may occur in the images. In the state 300 corresponding to the landscape mode, as the cameras 140-1 and 140-2 are horizontally separated (horizontally separated), the acquired Images may have parallax related to binocular parallax.

일 실시예에 따른 전자 장치(101)는, 전자 장치(101)에 포함된 복수의 카메라들(140-1, 140-2)의 FOV들의 중첩되는 일부분에 배치된 피사체들(312, 134, 316)과 관련된 입체감을 제공하는 애니메이션을 생성할 수 있다. 상기 애니메이션은, 복수의 카메라들(140-1, 140-2)을 동시에 제어하여 획득되고, 복수의 카메라들(140-1, 140-2) 각각으로부터 획득된 두 이미지들이 교차하여 재생되는 애니메이션일 수 있다. 일 실시예에 따른 전자 장치(101)는, 입체감을 가지는 애니메이션의 생성에 이용되는 적어도 두 이미지들을 획득하기 위하여, 복수의 카메라들(140-1, 140-2, 140-3) 중에서 적어도 두 카메라들(예, 카메라들(140-1, 140-2))을 선택할 수 있다. 전자 장치(101)가 적어도 두 카메라들을 선택하는 것은, 전자 장치(101)의 모드에 적어도 기반하는 지정된 조합에 따라 수행될 수 있다. 상기 지정된 조합은, 전자 장치(101)에 포함된 복수의 카메라들(140-1, 140-2, 140-3)의 렌즈들 사이의 거리, 복수의 카메라들(140-1, 140-2, 140-3)의 FOV들 또는 전자 장치(101)의 모드 중 적어도 하나에 기반하여 결정될 수 있다.The electronic device 101 according to an embodiment includes subjects 312, 134, and 316 disposed in overlapping portions of FOVs of the plurality of cameras 140-1 and 140-2 included in the electronic device 101. ), it is possible to create an animation that provides a three-dimensional effect. The animation is obtained by controlling the plurality of cameras 140-1 and 140-2 at the same time, and the two images obtained from each of the plurality of cameras 140-1 and 140-2 are intersected and reproduced. can The electronic device 101 according to an embodiment includes at least two cameras among a plurality of cameras 140-1, 140-2, and 140-3 in order to obtain at least two images used for generating animation having a three-dimensional effect. (eg, cameras 140-1 and 140-2) may be selected. The selection of at least two cameras by the electronic device 101 may be performed according to a specified combination at least based on the mode of the electronic device 101 . The specified combination is the distance between the lenses of the plurality of cameras 140-1, 140-2, and 140-3 included in the electronic device 101, the plurality of cameras 140-1, 140-2, It may be determined based on at least one of the FOVs of 140-3) or the mode of the electronic device 101.

일 실시예에 따른 전자 장치(101)가 복수의 카메라들(140-1, 140-2, 140-3) 중에서 상기 애니메이션의 생성에 이용되는 적어도 두 카메라들을 선택하는 것은, 촬영 입력의 수신 및/또는 전자 장치(101)의 모드를 식별하는 것 중 적어도 하나에 기반하여 수행될 수 있다. 예를 들어, 사용자로부터 촬영 입력을 수신하는 것에 응답하여, 전자 장치(101)는 프리뷰 이미지를 표시하고 있는 카메라(140-1)와 동시에 제어될 다른 카메라를, 복수의 카메라들(140-1, 140-2, 140-3) 중에서 선택할 수 있다. 도 3a를 참고하면, 전자 장치(101)는 복수의 카메라들(140-1, 140-2, 140-3) 중에서 망원 카메라인 카메라(140-3)와 구별되는 두 카메라들(140-1, 140-2)을, 상기 애니메이션의 생성에 이용되는 카메라들로 선택할 수 있다. 일 실시예에 따른 전자 장치(101)는 선택된 두 카메라들(140-1, 140-2)을 이용하여 상기 애니메이션의 생성에 이용될 두 이미지들을 획득할 수 있다. 상기 두 이미지들을 획득하는 것과 실질적으로 동시에, 전자 장치(101)는 거리 센서(154)를 제어하여, 상기 두 이미지들에 포함된 피사체들(312, 314, 316) 중 적어도 하나 및 전자 장치(101) 사이의 거리를 식별할 수 있다. 식별된 거리는 상기 획득된 두 이미지들을 정렬하는데 이용될 수 있다. 일 실시예에 따른 전자 장치(101)가 거리 센서(154)에 의해 식별된 상기 거리를 이용하여 상기 획득된 두 이미지들을 정렬하는 동작은, 도 6a 내지 6c를 참고하여 후술된다.Selecting at least two cameras used for generating the animation from among the plurality of cameras 140-1, 140-2, and 140-3 by the electronic device 101 according to an embodiment may result in reception of a photographing input and/or Alternatively, it may be performed based on at least one of identifying the mode of the electronic device 101 . For example, in response to receiving a photographing input from the user, the electronic device 101 selects a camera 140-1 displaying a preview image and another camera to be controlled at the same time as a plurality of cameras 140-1, 140-2, 140-3) can be selected. Referring to FIG. 3A , the electronic device 101 includes two cameras 140-1, which are distinguished from a camera 140-3, which is a telephoto camera, among a plurality of cameras 140-1, 140-2, and 140-3. 140-2) may be selected as cameras used for generating the animation. The electronic device 101 according to an embodiment may obtain two images to be used for generating the animation using the selected two cameras 140-1 and 140-2. At substantially the same time as acquiring the two images, the electronic device 101 controls the distance sensor 154 to detect at least one of the subjects 312, 314, and 316 included in the two images and the electronic device 101 ) can be identified. The identified distance can be used to align the two acquired images. An operation in which the electronic device 101 according to an embodiment aligns the obtained two images using the distance identified by the distance sensor 154 will be described later with reference to FIGS. 6A to 6C.

도 3b를 참고하면, 포트레이트 모드 내에서의 전자 장치(101)가 피사체(310)를 향하여 배치된 상태(305)가 도시된다. 도 3b를 참고하면, 포트레이트 모드에 대응하는 상태(305)에서, 카메라들(140-1, 140-2, 140-3)이 수직적으로 이격됨에 따라(vertically separated), 카메라들(140-1, 140-2, 140-3) 각각에서 획득된 이미지들이 양안 시차와 구별되는 시차를 가질 수 있다. 일 실시예에 따른 전자 장치(101)는 포트레이트 모드에서, 양안 시차에 대응하는 시차를 가지는 애니메이션을 생성함으로써 상기 애니메이션에 의해 제공되는 입체감을 강화하기 위하여, 사용자에게 포트레이트 모드로부터 랜드스케이프 모드로 전환하기 위한 영상 및/또는 음성을 포함하는 메시지를 출력할 수 있다. 실시예가 이에 제한되는 것은 아니며, 전자 장치(101)는 상태(305)에서, 적어도 두 카메라들(예, 카메라들(140-1, 140-2))을 동시에 제어하여, 입체감을 가지는 애니메이션을 제공하기 위한 두 이미지들을 획득할 수 있다. Referring to FIG. 3B , a state 305 in which the electronic device 101 is disposed facing a subject 310 in portrait mode is shown. Referring to FIG. 3B , in a state 305 corresponding to the portrait mode, as the cameras 140-1, 140-2, and 140-3 are vertically separated, the cameras 140-1, 140-2 and 140-3) may have disparity distinct from binocular disparity. The electronic device 101 according to an embodiment generates an animation having a parallax corresponding to binocular parallax in a portrait mode, so as to enhance a 3D effect provided by the animation, instructing the user to switch from the portrait mode to the landscape mode. A message including video and/or audio may be output. The embodiment is not limited thereto, and the electronic device 101 simultaneously controls at least two cameras (eg, cameras 140-1 and 140-2) in state 305 to provide animation having a three-dimensional effect. Two images can be acquired to do this.

상술한 바와 같이, 일 실시예에 따른 전자 장치(101)는, 입체감을 가지는 애니메이션을 생성하기 위하여, 서로 중첩된 FOV들을 가지는 적어도 두 카메라들(예, 카메라들(140-1, 140-2))을, 상기 애니메이션을 생성하기 위해 요구되는 적어도 두 이미지들을 획득할 카메라로 선택할 수 있다. 전자 장치(101)는 선택된 적어도 두 카메라들을, 단일 촬영 입력에 기반하여 동시에 제어하여, 단일 촬영 입력 만으로 상기 애니메이션을 생성할 수 있다. As described above, the electronic device 101 according to an embodiment includes at least two cameras (eg, cameras 140-1 and 140-2) having FOVs overlapping each other in order to generate animation having a three-dimensional effect. ) as a camera to obtain at least two images required to generate the animation. The electronic device 101 may simultaneously control the selected at least two cameras based on a single photographing input and generate the animation with only a single photographing input.

이하에서는 도 3a 내지 3b와 구별되는 폼 팩터(form factor)를 가지는 전자 장치(101)의 일 실시예에서, 서로 중첩된 FOV들을 가지는 적어도 두 카메라들을 선택하는 동작이, 도 4a 내지 4c 및 도 5a 내지 5b를 참고하여 상세히 설명된다.Hereinafter, in an embodiment of the electronic device 101 having a form factor distinct from that of FIGS. 3A to 3B, an operation of selecting at least two cameras having overlapping FOVs is shown in FIGS. 4A to 4C and 5A. It is explained in detail with reference to 5b.

도 4a 내지 4c는 외력에 의해 변형 가능한(deformable) 전자 장치(101)의 구조를 설명하기 위한 예시적인 도면이다. 도 4a 내지 4c의 전자 장치(101)는 도 1 내지 도 2의 전자 장치(101)의 일 예에 대응할 수 있다.4A to 4C are exemplary diagrams for explaining a structure of an electronic device 101 deformable by an external force. The electronic device 101 of FIGS. 4A to 4C may correspond to an example of the electronic device 101 of FIGS. 1 to 2 .

일 실시예에 따른 전자 장치(101)는 외력에 의해 변형 가능한(deformable) 폼 팩터를 가질 수 있다. 도 4a를 참조하면, 전자 장치(101)는, 폴딩 하우징(예, 도 4c의 폴딩 하우징(465))을 통해 연결된 제1 하우징(410) 및 제2 하우징(420)을 포함할 수 있다. 제1 하우징(410) 및 제2 하우징(420)은, 상기 폴딩 하우징에 포함된 회전축(437)을 중심으로 회전 가능하도록 상기 폴딩 하우징과 결합될 수 있다. 도 4a는, 제1 하우징(410) 및 제2 하우징(420)이 상기 폴딩 하우징에 의해 완전히(fully) 펼쳐진(folded out) 언폴딩 모드에 대응하는 상태(400-1)의 전자 장치(101)를 도시한 도면이다.The electronic device 101 according to an embodiment may have a deformable form factor by an external force. Referring to FIG. 4A , the electronic device 101 may include a first housing 410 and a second housing 420 connected through a folding housing (eg, the folding housing 465 of FIG. 4C ). The first housing 410 and the second housing 420 may be coupled to the folding housing so as to be rotatable about a rotating shaft 437 included in the folding housing. 4A shows the electronic device 101 in a state 400-1 corresponding to an unfolding mode in which the first housing 410 and the second housing 420 are fully folded out by the folding housing. It is a drawing showing

일 실시예에서, 상태(400-1)는 제1 하우징(410)의 제1 면(411)이 향하는 제1 방향(401)이, 제2 하우징(420)의 제1 면(421)이 향하는 제2 방향(402)에 대응하는 상태를 의미할 수 있다. 예를 들면, 상태(400-1) 내에서 제1 방향(401)은, 제2 방향(402)에 평행일 수 있다. 예를 들면, 상태(400-1) 내에서 제1 방향(401)은, 제2 방향(402)과 동일할 수 있다. 일 실시예에서, 상태(400-1) 내에서 제1 하우징(410)의 제1 면(411)은 제2 하우징(420)의 제1 면(421)과 실질적으로 하나의 평면을 형성할 수 있다. 일 실시예에서, 상태(400-1) 내에서 제1 하우징(410)의 제1 면(411) 및 제2 하우징(420)의 제1 면(421) 사이의 각도(403)는 180도(degrees)일 수 있다.In one embodiment, the state 400-1 is such that the first direction 401 toward which the first surface 411 of the first housing 410 faces, the first surface 421 of the second housing 420 faces toward This may mean a state corresponding to the second direction 402 . For example, in the state 400-1, the first direction 401 may be parallel to the second direction 402. For example, in the state 400-1, the first direction 401 may be the same as the second direction 402. In one embodiment, the first face 411 of the first housing 410 may form substantially one plane with the first face 421 of the second housing 420 in state 400-1. there is. In one embodiment, the angle 403 between the first face 411 of the first housing 410 and the first face 421 of the second housing 420 in state 400-1 is 180 degrees ( degrees) can be

일 실시예에 따른 전자 장치(101)는 복수의 하우징들을 가로지르는 플렉서블 디스플레이(430)를 포함할 수 있다. 상기 플렉서블 디스플레이(430)는, 예를 들어, 도 1의 디스플레이(130)의 일 예에 대응할 수 있다. 도 4a를 참고하면, 플렉서블 디스플레이(430)이 제1 하우징(410)의 제1 면(411) 및 제2 하우징(420)의 제1 면(421) 상에 배치될 수 있다. 플렉서블 디스플레이(430)의 표시 영역은, 제1 하우징(410)의 제1 면(411)에 대응하는 제1 표시 영역(431), 제2 하우징(420)의 제1 면(421)에 대응하는 제2 표시 영역(432), 및 제1 표시 영역(431) 및 제2 표시 영역(432) 사이의 제3 표시 영역(433)을 포함할 수 있다. 상기 제3 표시 영역(433)의 형태는 폴딩 하우징에 의한 제1 방향(401) 및 제2 방향(402)의 변화에 의하여 변경될 수 있다.The electronic device 101 according to an embodiment may include a flexible display 430 crossing a plurality of housings. The flexible display 430 may correspond to, for example, an example of the display 130 of FIG. 1 . Referring to FIG. 4A , the flexible display 430 may be disposed on the first surface 411 of the first housing 410 and the first surface 421 of the second housing 420 . The display area of the flexible display 430 includes a first display area 431 corresponding to the first surface 411 of the first housing 410 and a first surface 421 corresponding to the second housing 420. A second display area 432 and a third display area 433 between the first display area 431 and the second display area 432 may be included. The shape of the third display area 433 can be changed by changing the first direction 401 and the second direction 402 by the folding housing.

일 실시예에서, 상태(400-1)는 플렉서블 디스플레이(430)의 전체 표시 영역(entire display area) 모두를 실질적으로 하나의 평면 상에서 제공할 수 있는 상태를 의미할 수 있다. 예를 들어, 상태(400-1)는, 제1 표시 영역(431), 제2 표시 영역(432), 및 제3 표시 영역(433) 모두를 하나의 평면 상에서 제공할 수 있는 상태를 의미할 수 있다. 예를 들면, 상태(400-1) 내에서, 제3 표시 영역(433)은 굴곡진 영역(curved surface)을 포함하지 않을 수 있다. 일 실시예에서, 상기 언폴딩 모드는, 펼침 상태(outspread state 또는 outspreading state) 및/또는 펼침 모드로 참조될 수 있다.In one embodiment, the state 400-1 may refer to a state in which the entire display area of the flexible display 430 may be substantially provided on one plane. For example, the state 400-1 may mean a state in which all of the first display area 431, the second display area 432, and the third display area 433 can be provided on one plane. can For example, in state 400-1, the third display area 433 may not include a curved surface. In one embodiment, the unfolding mode may be referred to as an outspread state or outspreading state and/or an unfolding mode.

도 4b는, 언폴딩 모드인 상태(400-1)에서, 도 4a에 도시된 제1 하우징(410)의 제1 면(411) 및 제2 하우징(420)의 제1 면(421)과 구별되는 전자 장치(101)의 면들을 도시한 도면이다. 도 4b를 참고하면, 제1 하우징(410)의 제2 면(412)은 제1 하우징(410)의 제1 면(411)의 배면(rear surface)에 대응하고, 제2 하우징(420)의 제2 면(422)은 제2 하우징(410)의 제1 면(421)의 배면에 대응한다.FIG. 4B is distinguished from the first surface 411 of the first housing 410 and the first surface 421 of the second housing 420 shown in FIG. 4A in the unfolding mode (400-1). It is a drawing showing the surfaces of the electronic device 101 to be. Referring to FIG. 4B , the second surface 412 of the first housing 410 corresponds to the rear surface of the first surface 411 of the first housing 410, and the surface of the second housing 420 The second surface 422 corresponds to the rear surface of the first surface 421 of the second housing 410 .

도 4b를 참고하면, 일 실시예에 따른 전자 장치(101)는, 제2 하우징(420)의 제2 면(422)을 통해 보여지는 디스플레이(450)를 포함할 수 있다. 상기 디스플레이(450)는, 전자 장치(101)에 의하여 플렉서블 디스플레이(430)와 독립적으로 제어될 수 있다. 일 실시예에 따른 전자 장치(101)는 도 2의 화면(210)을, 디스플레이(450) 및/또는 플렉서블 디스플레이(430) 중 적어도 하나에 표시할 수 있다. 도 4b를 참고하면, 일 실시예에 따른 전자 장치(101)는, 제2 하우징(420)의 제2 면(422)에 배치된 카메라(140-4)를 포함할 수 있다. 상기 카메라(140-4)는 디스플레이(450)의 관통된(perforated) 일부분을 통해 외부로 노출될 수 있다. 일 실시예에 따른 전자 장치(101)는 제1 하우징(410)의 제2 면(412)에 배치된 복수의 카메라들(140-1, 140-2, 140-3) 및 거리 센서(154)를 포함할 수 있다. 상기 복수의 카메라들(140-1, 140-2, 140-3) 및 거리 센서(154)는 도 3a 내지 3b의 복수의 카메라들(140-1, 140-2, 140-3) 및 거리 센서(154) 각각에 대응할 수 있다.Referring to FIG. 4B , the electronic device 101 according to an embodiment may include a display 450 viewed through the second surface 422 of the second housing 420 . The display 450 may be independently controlled from the flexible display 430 by the electronic device 101 . The electronic device 101 according to an embodiment may display the screen 210 of FIG. 2 on at least one of the display 450 and/or the flexible display 430 . Referring to FIG. 4B , the electronic device 101 according to an embodiment may include a camera 140 - 4 disposed on the second surface 422 of the second housing 420 . The camera 140 - 4 may be exposed to the outside through a perforated portion of the display 450 . The electronic device 101 according to an embodiment includes a plurality of cameras 140-1, 140-2, and 140-3 and a distance sensor 154 disposed on the second surface 412 of the first housing 410. can include The plurality of cameras 140-1, 140-2, and 140-3 and the distance sensor 154 are similar to the plurality of cameras 140-1, 140-2, and 140-3 and the distance sensor of FIGS. 3A to 3B. (154) can correspond to each.

도 4b를 참고하면, 언폴딩 모드에 대응하는 상태(400-1)에서, 복수의 카메라들(140-1, 140-2, 140-3, 140-4)이 서로 다른 방향들을 따라 이격되어 배치될 수 있다. 예를 들어, 카메라들(140-1, 140-2, 140-3)이 제1 방향을 따라 이격되어 배치된 경우, 카메라(140-4)는 상기 제1 방향과 실질적으로 수직을 이루는 다른 방향을 따라 카메라들(140-1, 140-2, 140-3)로부터 이격될 수 있다. 일 실시예에 따른 전자 장치(101)는 서로 중첩되는 FOV들을 가지고, 서로 다른 방향들을 따라 이격되어 배치된 복수의 카메라들(140-1, 140-2, 140-3, 140-4)의 위치에 기반하여, 애니메이션을 생성하기 위해 제어될 적어도 두 카메라들을 선택할 수 있다. 일 실시예에 따른 전자 장치(101)가 상태(400-1)에서 적어도 두 카메라들을 선택하는 동작은, 도 5b를 참고하여 후술된다.Referring to FIG. 4B , in a state 400-1 corresponding to the unfolding mode, a plurality of cameras 140-1, 140-2, 140-3, and 140-4 are disposed spaced apart from each other in different directions. It can be. For example, when the cameras 140-1, 140-2, and 140-3 are spaced apart from each other along a first direction, the camera 140-4 is directed toward another direction substantially perpendicular to the first direction. It may be spaced apart from the cameras 140-1, 140-2, and 140-3 along . The electronic device 101 according to an embodiment has FOVs overlapping each other, and positions of a plurality of cameras 140-1, 140-2, 140-3, and 140-4 spaced apart along different directions. Based on , it is possible to select at least two cameras to be controlled in order to create an animation. An operation of the electronic device 101 according to an embodiment of selecting at least two cameras in state 400-1 will be described later with reference to FIG. 5B.

일 실시예에서, 전자 장치(101)는 제1 하우징(410)과 제2 하우징(420)이 폴딩 하우징(465)에 의해 접힌(folded in) 상태를 포함하는 폴딩 모드에서 동작할 수 있다. 도 4c는 폴딩 모드에 포함된 상태들(400-2, 400-3, 400-4) 각각에서의 전자 장치(101)를 도시한 도면이다. 도 4c를 참조하면, 전자 장치(101)는, 상태들(400-2, 400-3, 400-4)을 포함하는 상기 폴딩 모드 내에서 있을 수 있다. 일 실시예에서, 상태들(400-2, 400-3, 400-4)을 포함하는 상기 폴딩 모드는, 제1 하우징(410)의 제1 면(411)이 향하는 제1 방향(401)이 제2 하우징(420)의 제1 면(421)이 향하는 제2 방향(402)과 구별되는 상태를 의미할 수 있다. 예를 들면, 상태(400-2)에서, 제1 방향(401)과 제2 방향(402) 사이의 각도는 45도로, 제1 방향(401)과 제2 방향(402)은 서로 구별되고, 상태(400-3)에서, 제1 방향(401)과 제2 방향(402) 사이의 각도는 90도로, 제1 방향(401)과 제2 방향(402)은 서로 구별되며, 상태(400-4)에서, 제1 방향(401)과 제2 방향(402) 사이의 각도는 실질적으로 180도로, 제1 방향(401)과 제2 방향(402)은 서로 구별될 수 있다. 일 실시예에서, 상기 폴딩 모드 내에서 제1 면(411)과 제1 면(421) 사이의 각도는 0도(degree) 이상 180도(degrees) 미만일 수 있다. 예를 들면, 상태(400-2)에서, 제1 면(411)과 제1 면(421) 사이의 각도(413)는 135도일 수 있고, 상태(400-3)에서, 제1 면(411)과 제1 면(421) 사이의 각도(423)는 90도 일 수 있고, 상태(400-4)에서, 제1 면(411)과 제1 면(421) 사이의 각도(433)는, 실질적으로 0도일 수 있다. 일 실시예에서, 상기 폴딩 모드는, 접힘 상태(folded state) 및/또는 접힘 모드로 참조될 수 있다. In one embodiment, the electronic device 101 may operate in a folding mode including a state in which the first housing 410 and the second housing 420 are folded in by the folding housing 465 . 4C is a diagram illustrating the electronic device 101 in each of the states 400-2, 400-3, and 400-4 included in the folding mode. Referring to FIG. 4C , the electronic device 101 may be in the folding mode including states 400-2, 400-3 and 400-4. In one embodiment, the folding mode including the states 400-2, 400-3 and 400-4 is such that the first direction 401 toward which the first surface 411 of the first housing 410 faces is This may mean a state distinguished from the second direction 402 toward which the first surface 421 of the second housing 420 faces. For example, in state 400-2, the angle between the first direction 401 and the second direction 402 is 45 degrees, the first direction 401 and the second direction 402 are distinguished from each other, In the state 400-3, the angle between the first direction 401 and the second direction 402 is 90 degrees, the first direction 401 and the second direction 402 are distinguished from each other, and the state 400- In 4), the angle between the first direction 401 and the second direction 402 is substantially 180 degrees, and the first direction 401 and the second direction 402 can be distinguished from each other. In one embodiment, the angle between the first surface 411 and the first surface 421 in the folding mode may be greater than or equal to 0 degree and less than 180 degrees. For example, in state 400-2, the angle 413 between first surface 411 and first surface 421 may be 135 degrees, and in state 400-3, first surface 411 The angle 423 between ) and the first surface 421 may be 90 degrees, and in the state 400-4, the angle 433 between the first surface 411 and the first surface 421 is, It may be substantially zero degrees. In one embodiment, the folding mode may be referred to as a folded state and/or a folded mode.

일 실시예에서, 상기 폴딩 모드는, 상기 언폴딩 모드와 달리, 복수의 서브 폴딩 모드들을 포함할 수 있다. 예를 들어, 도 4c를 참조하면, 상기 폴딩 모드는, 폴딩 하우징(465)을 통해 제공되는 회전에 의해 제1 면(411)이 제1 면(421) 상에 실질적으로 중첩되는 완전 폴딩 모드(fully folding)인 상태(400-4) 및 상태(400-4)와 상기 언폴딩 모드(예: 도 4a 내지 4b의 상태(400-1)) 사이의 중간 폴딩 모드인 상태(400-2) 및 상태(400-3)를 포함하는, 상기 복수의 서브 폴딩 모드들을 포함할 수 있다. 예를 들면, 전자 장치(101)는, 폴딩 하우징(465)에 의해 제1 면(411) 및 제1 면(421)이 서로 마주함으로써, 제2 표시 영역(432)의 전체 영역 상에 제1 표시 영역(431)의 전체 영역이 실질적으로 완전히 중첩되는 상태(400-4)를 제공할 수 있다. 예를 들면, 전자 장치(101)는, 제1 방향(401)이 제2 방향(402)에 실질적으로 반대인 상태(400-4)를 제공할 수 있다. 또 다른 예를 들면, 상태(400-4)는 전자 장치(101)를 바라보는 사용자의 시야 안에서 플렉서블 디스플레이(430)가 가려지는 상태를 의미할 수도 있다. 하지만, 이에 제한되지 않는다. In one embodiment, the folding mode, unlike the unfolding mode, may include a plurality of subfolding modes. For example, referring to FIG. 4C , the folding mode is a complete folding mode in which the first surface 411 substantially overlaps the first surface 421 by rotation provided through the folding housing 465 ( fully folding) state 400-4 and state 400-2 which is an intermediate folding mode between the state 400-4 and the unfolding mode (eg, state 400-1 of FIGS. 4A to 4B) and It may include the plurality of subfolding modes, including state 400-3. For example, the first surface 411 and the first surface 421 of the electronic device 101 face each other by the folding housing 465, so that the first surface 411 and the first surface 421 are disposed on the entire area of the second display area 432. A state 400 - 4 in which the entire area of the display area 431 substantially completely overlaps may be provided. For example, the electronic device 101 may provide a state 400 - 4 in which the first direction 401 is substantially opposite to the second direction 402 . As another example, the state 400 - 4 may mean a state in which the flexible display 430 is covered within the user's field of view looking at the electronic device 101 . However, it is not limited thereto.

일 실시예에서, 플렉서블 디스플레이(430)는, 폴딩 하우징(465)을 통해 제공되는 회전에 의해 굽혀질 수 있다. 예를 들면, 플렉서블 디스플레이(430)에서, 제1 표시 영역(431) 및 제2 표시 영역(432)과 달리, 제3 표시 영역(433)은 폴딩 동작에 따라 굽어질 수 있다. 예를 들면, 제3 표시 영역(433)은, 상기 완전 폴딩 모드 내에서 플렉서블 디스플레이(430)의 파손을 방지하기 위해, 만곡하게 굽혀진 상태 내에 있을 수 있다. 상기 완전 폴딩 모드 내에서, 제3 표시 영역(433)이 만곡하게 굽혀지는 것과 달리, 제1 표시 영역(431) 전부는, 제2 표시 영역(432) 전부 상에 완전히 중첩될 수 있다.In one embodiment, the flexible display 430 may be bent by rotation provided through the folding housing 465 . For example, in the flexible display 430, unlike the first display area 431 and the second display area 432, the third display area 433 may be bent according to a folding operation. For example, the third display area 433 may be in a curved state to prevent breakage of the flexible display 430 in the fully folded mode. In the fully folding mode, unlike the third display area 433 being curved, the entirety of the first display area 431 may completely overlap the entirety of the second display area 432 .

일 실시예에 따른 전자 장치(101)는 폴딩 하우징(465) 및/또는 회전축(437)을 중심으로 회전되는 제1 하우징(410) 및 제2 하우징(420) 사이의 각도를 측정하기 위한 센서를 포함할 수 있다. 제1 하우징(410) 및 제2 하우징(420) 사이의 각도에 기반하여, 전자 장치(101)는 폴딩 모드 및 언폴딩 모드 중에서 상기 각도에 대응하는 전자 장치(101)의 상태를 식별할 수 있다. 식별된 전자 장치(101)의 상태에 기반하여, 전자 장치(101)는 플렉서블 디스플레이(430) 및/또는 디스플레이(450) 중 적어도 하나를 선택적으로 활성화 및/또는 비활성화할 수 있다. 식별된 전자 장치(101)의 상태에 기반하여, 전자 장치(101)는 복수의 카메라들(140-1, 140-2, 140-3, 140-4) 중 적어도 두 카메라들을, 시차를 가지는 적어도 두 이미지들을 획득하기 위하여 동시에 제어할 수 있다. 폴딩 모드 및 언폴딩 모드 중에서 선택되는 전자 장치(101)의 상태는, 전자 장치(101)의 자세와 관련된 상태로써, 전자 장치(101)가 상기 적어도 두 카메라들을 선택하기 위해 식별하는 전자 장치(101)의 지정된 모드 중 어느 하나에 대응할 수 있다.The electronic device 101 according to an embodiment includes a sensor for measuring an angle between a first housing 410 and a second housing 420 rotated about a folding housing 465 and/or a rotation shaft 437. can include Based on the angle between the first housing 410 and the second housing 420, the electronic device 101 may identify a state of the electronic device 101 corresponding to the angle between the folding mode and the unfolding mode. . Based on the identified state of the electronic device 101 , the electronic device 101 may selectively activate and/or deactivate at least one of the flexible display 430 and/or the display 450 . Based on the identified state of the electronic device 101, the electronic device 101 selects at least two cameras among the plurality of cameras 140-1, 140-2, 140-3, and 140-4, at least with a parallax. It can control simultaneously to acquire two images. The state of the electronic device 101 selected from the folding mode and the unfolding mode is a state related to the posture of the electronic device 101, and the electronic device 101 identifies the electronic device 101 to select the at least two cameras. ) may correspond to any one of the designated modes.

한편, 도 4a 내지 4c는, 전자 장치(101)의 플렉서블 디스플레이(430)가 하나의 폴딩 표시 영역(예: 제3 표시 영역(433))을 포함하거나 전자 장치(101)가 하나의 폴딩 하우징(예: 폴딩 하우징(465))을 포함하는 예를 도시하고 있으나, 이는 설명의 편의를 위한 것이다. 실시예들에 따라, 전자 장치(101)의 플렉서블 디스플레이(430)는, 복수의 폴딩 표시 영역들을 포함할 수 있다. 예를 들면, 전자 장치(101)의 플렉서블 디스플레이(430)는, 두 개 이상의 폴딩 표시 영역들을 포함하고, 전자 장치(101)는 상기 두 개 이상의 폴딩 영역들을 각각 제공하기 위한 2개 이상의 폴딩 하우징들을 포함할 수 있다.Meanwhile, in FIGS. 4A to 4C , the flexible display 430 of the electronic device 101 includes one folding display area (eg, the third display area 433) or the electronic device 101 includes one folding housing ( Example: Although an example including the folding housing 465) is shown, this is for convenience of description. According to embodiments, the flexible display 430 of the electronic device 101 may include a plurality of folding display areas. For example, the flexible display 430 of the electronic device 101 includes two or more folding display areas, and the electronic device 101 includes two or more folding housings to provide the two or more folding areas, respectively. can include

이하에서는 도 5a 내지 5b를 참고하여, 전자 장치(101)의 자세가 도 4a 내지 4c에서 상술된 폴딩 모드 및 언폴딩 모드 각각에 대응하는 상태에서, 일 실시예에 따른 전자 장치(101)가 복수의 카메라들 중 애니메이션을 생성하기 위해 실질적으로 동시에 제어될 적어도 두 카메라들을 식별하는 동작이 설명된다.Hereinafter, referring to FIGS. 5A to 5B , in a state in which the posture of the electronic device 101 corresponds to the folding mode and the unfolding mode described above in FIGS. 4A to 4C , a plurality of electronic devices 101 according to an embodiment are provided. An operation of identifying at least two cameras to be controlled substantially simultaneously to generate an animation among the cameras of the camera is described.

도 5a 내지 5b는 도 4a 내지 4c의 일 실시예에 따른 전자 장치(101)가 복수의 카메라들(140-1, 140-2, 140-3, 140-4) 중에서 적어도 하나의 카메라를 선택하는 동작의 일 예를 설명하기 위한 도면이다.5A to 5B are diagrams for selecting at least one camera from among a plurality of cameras 140-1, 140-2, 140-3, and 140-4 by the electronic device 101 according to the exemplary embodiment of FIGS. 4A to 4C. It is a drawing for explaining an example of an operation.

도 5a를 참고하면, 랜드스케이프 모드 내에서의 전자 장치(101)가 피사체(310)를 향하여 배치되고, 언폴딩 모드에 대응하는 상태(500)가 도시된다. 상태(500)는, 전자 장치(101)의 제1 하우징(410) 및 제2 하우징(420)들이 실질적으로 평행한 폴딩 모드에 대응할 수 있다. 일 실시예에 따른 전자 장치(101)는, 복수의 지정된 모드들 중 전자 장치(101)의 자세에 대응하는 모드에 기반하여, 촬영 입력에 대응하여 피사체(310)를 촬영할 복수의 카메라들을 식별할 수 있다. 상기 지정된 모드들은, 도 4a 내지 4c의 일 실시예에 따른 전자 장치(101)에서, 랜드스케이프 모드 및 포트레이트 모드뿐만 아니라, 언폴딩 모드 및 폴딩 모드 별로 구분될 수 있다(may differentiated).Referring to FIG. 5A , the electronic device 101 in the landscape mode is disposed facing the subject 310 and a state 500 corresponding to the unfolding mode is shown. State 500 may correspond to a folding mode in which the first housing 410 and the second housing 420 of the electronic device 101 are substantially parallel. The electronic device 101 according to an embodiment may identify a plurality of cameras to photograph the subject 310 in response to a photographing input based on a mode corresponding to the posture of the electronic device 101 among a plurality of designated modes. can In the electronic device 101 according to an embodiment of FIGS. 4A to 4C , the specified modes may be differentiated (may be differentiated) for landscape mode and portrait mode as well as unfolding mode and folding mode.

도 4c 및 도 5a를 참고하면, 상태(500)에 대응하는 상태(400-4) 및 폴딩 모드에 포함된 다른 상태들(400-2, 400-3)에서, 도 4a 내지 4c의 카메라들(140-1, 140-2, 140-3, 140-4) 중 카메라들(140-1, 140-2, 140-3)의 FOV들이 서로 중첩될 수 있다. 이 경우, 도 3a와 유사하게, 일 실시예에 따른 전자 장치(101)는 망원 카메라인 카메라(140-3)와 구별되는 두 카메라들(140-1, 140-2)을, 단일 촬영 입력을 수신하는 것에 응답하여, 동시에 제어할 수 있다. 전자 장치(101)는 두 카메라들(140-1, 140-2)과 함께 거리 센서(154)를 실질적으로 동시에 제어하여, 피사체들(312, 314, 316) 중 어느 한 피사체 및 전자 장치(101) 사이의 거리를 식별할 수 있다. 동시에 제어되는 두 카메라들(140-1, 140-2)에서 획득되고, 피사체(310)와 관련된 시차를 가지는 두 이미지들, 및 거리 센서(154)에 의해 식별된 상기 거리에 기반하여, 전자 장치(101)는 시차를 가지는 애니메이션을 생성할 수 있다.Referring to FIGS. 4C and 5A , in a state 400-4 corresponding to the state 500 and other states 400-2 and 400-3 included in the folding mode, the cameras of FIGS. 4A to 4C ( Among the cameras 140-1, 140-2, 140-3, and 140-4, the FOVs of the cameras 140-1, 140-2, and 140-3 may overlap each other. In this case, similar to FIG. 3A , the electronic device 101 according to an embodiment receives a single photographing input from the two cameras 140-1 and 140-2, which are distinguished from the camera 140-3, which is a telephoto camera. In response to receiving, you can control at the same time. The electronic device 101 substantially simultaneously controls the distance sensor 154 together with the two cameras 140-1 and 140-2, so that any one of the subjects 312, 314, and 316 and the electronic device 101 ) can be identified. Based on the two images having a parallax related to the subject 310 and the distance identified by the distance sensor 154 obtained from the two cameras 140-1 and 140-2 simultaneously controlled, the electronic device (101) may generate an animation having a parallax.

도 5b를 참고하면, 포트레이트 모드 내에서의 전자 장치(101)가 피사체(310)를 향하여 배치되고, 언폴딩 모드에 대응하는 상태(510)가 도시된다. 상태(510)는, 도 4a 내지 4b의 상태(400-1)에 대응하고, 전자 장치(101)의 제1 하우징(410) 및 제2 하우징(420)들이 실질적으로 하나의 평면을 형성하는 언폴딩 모드에 대응할 수 있다. 일 실시예에 따른 전자 장치(101)는 포트레이트 모드 및 상기 언폴딩 모드에 기반하여, 복수의 카메라들(140-1, 140-2, 140-3, 140-4) 중에서 입체감을 제공하기 위한 애니메이션의 생성에 이용될 적어도 두 카메라들을 선택할 수 있다.Referring to FIG. 5B , the electronic device 101 in the portrait mode is disposed facing the subject 310 and a state 510 corresponding to the unfolding mode is shown. The state 510 corresponds to the state 400-1 of FIGS. 4A and 4B, and the first housing 410 and the second housing 420 of the electronic device 101 substantially form one plane. It can correspond to folding mode. Based on the portrait mode and the unfolding mode, the electronic device 101 according to an embodiment performs animation for providing a three-dimensional effect among a plurality of cameras 140-1, 140-2, 140-3, and 140-4. It is possible to select at least two cameras to be used for generation of .

도 5b의 상태(510)에서, 카메라들(140-1, 140-2, 140-3, 140-4) 중 카메라들(140-1, 140-2, 140-3)의 FOV들이 서로 중첩되는 상태(500)와 독립적으로, 전자 장치(101)에 포함된 복수의 카메라들(140-1, 140-2, 140-3, 140-4)의 FOV들이 서로 중첩될 수 있다. 이 경우, 전자 장치(101)는 가장 멀리 이격된 카메라들을, 입체감을 제공하기 위한 애니메이션의 생성에 이용될 카메라들로 선택하여, 카메라들 사이의 거리에 기반하는 시차를 증가시킬 수 있다. 시차가 증가됨에 따라, 전자 장치(101)에서 생성되는 상기 애니메이션의 입체감이 강화될 수 있다.In state 510 of FIG. 5B, the FOVs of the cameras 140-1, 140-2, and 140-3 among the cameras 140-1, 140-2, 140-3, and 140-4 overlap each other. Independently of the state 500, the FOVs of the plurality of cameras 140-1, 140-2, 140-3, and 140-4 included in the electronic device 101 may overlap each other. In this case, the electronic device 101 may increase the parallax based on the distance between the cameras by selecting the farthest apart cameras as cameras to be used for generating an animation for providing a three-dimensional effect. As the parallax increases, the three-dimensional effect of the animation generated by the electronic device 101 may be enhanced.

도 5b를 참고하면, 일 실시예에 따른 전자 장치(101)는 포트레이트 모드 및 언폴딩 모드에 대응하는 상태(510)에서, 복수의 카메라들(140-1, 140-2, 140-3, 140-4) 중에서 프리뷰 이미지의 표시를 위하여 활성화된 카메라(140-1), 및 상기 카메라들(140-2, 140-3, 140-4) 중에서, 상기 프리뷰 이미지에 대한 시차를 가지고, 카메라(140-1)로부터 가장 멀리 배치된 카메라(140-4)를, 입체감을 가지는 애니메이션을 생성하기 위한 두 카메라들로 선택할 수 있다. 예를 들어, 전자 장치(101)는 카메라들(140-1, 140-4)을 실질적으로 동시에 활성화하여, 카메라들(140-1, 140-4)로부터 피사체(310)를 포함하는 이미지들을 획득할 수 있다. 상기 이미지들은, 카메라들(140-1, 140-4)이 피사체(310)를 이격된 시점들(viewpoints)에서 촬영하여 획득된 것으로, 카메라들(140-1, 140-4) 사이의 거리에 따른 시차를 가질 수 있다. 일 실시예에 따른 전자 장치(101)는 시차를 가지는 상기 이미지들을 연접하여, 상기 시차에 따른 입체감을 가지는 애니메이션을 생성할 수 있다.Referring to FIG. 5B , in a state 510 corresponding to a portrait mode and an unfolding mode, the electronic device 101 according to an embodiment includes a plurality of cameras 140-1, 140-2, 140-3, and 140 -4), the camera 140-1 activated for displaying the preview image, and among the cameras 140-2, 140-3, and 140-4, with parallax for the preview image, the camera 140 The camera 140 - 4 disposed farthest from -1) may be selected as two cameras for generating animation having a three-dimensional effect. For example, the electronic device 101 substantially simultaneously activates the cameras 140-1 and 140-4 to acquire images including the subject 310 from the cameras 140-1 and 140-4. can do. The images are acquired by the cameras 140-1 and 140-4 photographing the subject 310 at spaced viewpoints, and the images are obtained at a distance between the cameras 140-1 and 140-4. may have a time lag. The electronic device 101 according to an embodiment may create an animation having a three-dimensional effect according to the parallax by concatenating the images having the parallax.

도 3a 내지 3b 및 도 5a 내지 5b에서 상술한 바와 같이, 일 실시예에 따른 전자 장치(101)는 프리뷰 이미지를 생성하기 위한 카메라(140-1)와 함께 제어될 다른 카메라를, 전자 장치(101)에 포함된 복수의 카메라들 중에서 선택할 수 있다. 예를 들어, 전자 장치(101)는, 포트레이트 모드, 랜드스케이프 모드, 폴딩 모드 또는 언폴딩 모드 중 적어도 하나에 의하여 구별되는 전자 장치(101)의 자세에 기반하여, 카메라(140-1)로부터 획득되는 이미지에 대하여 시차를 가지는 다른 이미지를 획득 가능한 다른 카메라를 선택할 수 있다. 선택된 다른 카메라 및 카메라(140-1)를 단일 촬영 입력에 따라 제어하여, 전자 장치(101)는 시차를 가지는 복수의 이미지들을 획득할 수 있다.As described above with reference to FIGS. 3A to 3B and 5A to 5B , the electronic device 101 according to an embodiment includes a camera 140-1 for generating a preview image and another camera to be controlled, the electronic device 101 ) can be selected from among a plurality of cameras included in For example, the electronic device 101 obtains data obtained from the camera 140-1 based on the posture of the electronic device 101 distinguished by at least one of a portrait mode, a landscape mode, a folding mode, and an unfolding mode. It is possible to select another camera capable of obtaining another image having a parallax with respect to the image to be used. By controlling the selected other camera and the camera 140 - 1 according to a single photographing input, the electronic device 101 may acquire a plurality of images having parallax.

이하에서는 도 6a 내지 6c를 참고하여, 일 실시예에 따른 전자 장치(101)가 시차를 가지는 복수의 이미지들을 처리하는 동작이 상세히 설명된다.Hereinafter, an operation of processing a plurality of images having a parallax by the electronic device 101 according to an exemplary embodiment will be described in detail with reference to FIGS. 6A to 6C .

도 6a 내지 6c는 일 실시예에 따른 전자 장치(101)가 복수의 카메라들 각각을 이용하여 수행하는 동작을 설명하기 위한 예시적인 도면이다. 도 6a 내지 6c의 전자 장치(101)는 도 1 내지 도 2 및/또는 도 3a 내지 3b의 전자 장치(101)에 대응할 수 있다. 이하에서는, 도 3a의 상태(300)에서의 전자 장치(101)의 동작이 설명되지만, 실시예가 이에 제한되는 것은 아니며, 도 4a 내지 4c 및 도 5a 내지 5b의 전자 장치(101)도 후술되는 동작과 유사하게 구동될 수 있다.6A to 6C are exemplary diagrams for explaining an operation performed by the electronic device 101 using each of a plurality of cameras according to an embodiment. The electronic device 101 of FIGS. 6A to 6C may correspond to the electronic device 101 of FIGS. 1 to 2 and/or 3A to 3B. Hereinafter, the operation of the electronic device 101 in the state 300 of FIG. 3A will be described, but the embodiment is not limited thereto, and the electronic device 101 of FIGS. 4A to 4C and 5A to 5B will also be described below. can be driven similarly to

도 6a는, 도 3a의 상태(300) 내에서의 전자 장치(101)가 표시하는 화면(210)이 도시된다. 전자 장치(101)는, 화면(210) 내에, 전자 장치(101)에 포함된 복수의 카메라들 중 제1 카메라(예, 도 3a의 카메라(140-1))에 의해 기반하는 프리뷰 이미지(220)를 표시할 수 있다. 전자 장치(101)가 표시하는 화면(210)은, 예를 들어, 도 2의 화면(210)에 대응할 수 있다. 이하에서, 도 2와 중복되는 설명은 편의상 생략된다.FIG. 6A shows a screen 210 displayed by the electronic device 101 in the state 300 of FIG. 3A. The electronic device 101 displays, within the screen 210, a preview image 220 based on a first camera (eg, the camera 140-1 of FIG. 3A) among a plurality of cameras included in the electronic device 101. ) can be displayed. The screen 210 displayed by the electronic device 101 may correspond to the screen 210 of FIG. 2 , for example. In the following, descriptions overlapping those of FIG. 2 are omitted for convenience.

하나 이상의 피사체들(예, 도 3a의 피사체(310))이 상기 제1 카메라의 FOV(예, 도 3a의 화각(320-1)에 의해 지시되는 FOV)내에 포함됨에 따라, 프리뷰 이미지(220) 내에 상기 하나 이상의 피사체들에 대응하는 하나 이상의 시각적 객체들이 표시될 수 있다. 도 6a를 참고하면, 프리뷰 이미지(220) 내에 표시된 시각적 객체들(612, 614, 616) 각각은, 도 3a의 피사체들(312, 314, 316) 각각에 대응할 수 있다. 아이콘(240)과 관련된 촬영 입력을 수신하는 것에 응답하여, 전자 장치(101)는 상기 제1 카메라, 및 상기 제1 카메라의 FOV에 대하여 시차를 가지는 FOV을 가지는 제2 카메라(예, 도 3a의 카메라(140-2))를 활성화하여, 상기 제1 카메라 및 상기 제2 카메라 각각으로부터, 제1 이미지, 및 상기 제1 이미지에 대하여 시차를 가지는 제2 이미지들을 획득할 수 있다. 전자 장치(101)가 상기 제1 이미지 및 상기 제2 이미지들을 획득하기 위하여, 복수의 카메라들 중에서 적어도 하나의 카메라를 선택하는 동작은, 도 3a 내지 3b에서 상술된 바와 유사하게 수행될 수 있다.As one or more objects (eg, the subject 310 of FIG. 3A) are included in the FOV of the first camera (eg, the FOV indicated by the angle of view 320-1 of FIG. 3A), the preview image 220 One or more visual objects corresponding to the one or more subjects may be displayed in the screen. Referring to FIG. 6A , each of the visual objects 612 , 614 , and 616 displayed in the preview image 220 may correspond to each of the subjects 312 , 314 , and 316 of FIG. 3A . In response to receiving a photographing input related to the icon 240, the electronic device 101 transmits the first camera and a second camera having an FOV having a parallax with respect to the FOV of the first camera (eg, in FIG. 3A ). A first image and second images having a parallax with respect to the first image may be acquired from the first camera and the second camera, respectively, by activating the camera 140 - 2 . In order for the electronic device 101 to acquire the first image and the second images, an operation of selecting at least one camera from among a plurality of cameras may be performed similarly to the above description with reference to FIGS. 3A to 3B .

복수의 카메라들이 서로 다른 FOV들을 가지므로, 일 실시예에 따른 전자 장치(101)는 상기 제1 이미지 및 상기 제2 이미지들 중 적어도 하나를, 입체감을 가지는 애니메이션을 생성하기 위하여 연접하기 이전에, 변경할 수 있다. 상기 제1 이미지 및 상기 제2 이미지들 중 적어도 하나를 변경하는데 이용될 정보를 획득하기 위하여, 일 실시예에 따른 전자 장치(101)는 프리뷰 이미지(220) 내에 포함되는 시각적 가이드(605)를 표시할 수 있다. 상기 시각적 가이드(605)는, 프리뷰 이미지(220)내에 포함되고, 상기 제1 카메라의 FOV 내에 포함된 하나 이상의 피사체들 각각에 대응하는, 하나 이상의 시각적 객체들 중 어느 하나와 중첩될 수 있다. 시각적 가이드(605)의 형태는, 도 6a의 원형의 선분의 형태에 제한되지 않으며, 사각형 및/또는 십자형(cross shape)의 형태를 가질 수 있다.Since the plurality of cameras have different FOVs, the electronic device 101 according to an embodiment, prior to concatenating at least one of the first image and the second image to generate an animation having a three-dimensional effect, can be changed In order to obtain information to be used to change at least one of the first image and the second image, the electronic device 101 according to an embodiment displays a visual guide 605 included in the preview image 220. can do. The visual guide 605 may overlap with any one of one or more visual objects included in the preview image 220 and corresponding to each of one or more subjects included in the FOV of the first camera. The shape of the visual guide 605 is not limited to the shape of a circular line segment in FIG. 6A, and may have a shape of a rectangle and/or a cross shape.

도 6a를 참고하면, 시각적 가이드(605)는, 프리뷰 이미지(220) 내에서, 피라미드에 대응하는 피사체에 대응하는 시각적 객체(614)와 중첩될 수 있다. 전자 장치(101)는 프리뷰 이미지(220)의 중앙에 시각적 가이드(605)를 표시할 수 있다. 상기 시각적 가이드(605)의 프리뷰 이미지(220) 내에서의 위치는 프리뷰 이미지(220) 내에서 수행되는 사용자 입력에 의하여 조절될 수 있다. 전자 장치(101)가 시각적 가이드(605)의 위치를 변경하기 위한 사용자 입력을 식별하는 것에 응답하여 수행하는 동작은 도 8을 참고하여 후술된다.Referring to FIG. 6A , a visual guide 605 may overlap a visual object 614 corresponding to a subject corresponding to a pyramid in a preview image 220 . The electronic device 101 may display a visual guide 605 in the center of the preview image 220 . The position of the visual guide 605 within the preview image 220 may be adjusted by a user input performed within the preview image 220 . An operation performed by the electronic device 101 in response to identifying a user input for changing the location of the visual guide 605 will be described later with reference to FIG. 8 .

일 실시예에 따른 전자 장치(101)는 프리뷰 이미지(220) 내에서의 시각적 가이드(605)의 위치 및/또는 상기 시각적 가이드(605)와 중첩되는 시각적 객체(614)에 기반하여, 상기 제1 이미지 및 상기 제2 이미지들 중 적어도 하나를 변경하는데 이용될 정보를 획득할 수 있다. 상기 정보는, 예를 들어, 시각적 객체(614)에 대응하는 피사체(예, 도 3a의 피사체(314)) 및 전자 장치(101) 사이의 거리를 나타내는 데이터를 포함할 수 있다. 예를 들어, 전자 장치(101)는 도 1 및/또는 도 3a의 거리 센서(154)를 이용하여, 시각적 가이드(605)와 중첩되는 시각적 객체(614)에 대응하는 피사체 및 전자 장치(101) 사이의 거리를 획득할 수 있다. 전자 장치(101)는 상기 거리를, 상기 제1 이미지 및 상기 제2 이미지들을 획득하는 시점과 실질적으로 동시에 획득할 수 있다.The electronic device 101 according to an embodiment, based on the position of the visual guide 605 in the preview image 220 and/or the visual object 614 overlapping the visual guide 605, the first Information to be used to change at least one of an image and the second images may be obtained. The information may include, for example, data indicating a distance between a subject corresponding to the visual object 614 (eg, the subject 314 of FIG. 3A ) and the electronic device 101 . For example, the electronic device 101 uses the distance sensor 154 of FIGS. 1 and/or 3A to determine a subject corresponding to a visual object 614 overlapping the visual guide 605 and the electronic device 101 distance between them can be obtained. The electronic device 101 may acquire the distance at substantially the same time as when the first image and the second images are obtained.

도 6b는, 도 6a의 예시적인 상태에서, 촬영 입력을 수신하는 것에 응답하여, 일 실시예에 따른 전자 장치(101)가 상기 제1 카메라 및 상기 제2 카메라 각각으로부터 획득한 제1 이미지(610) 및 제2 이미지(620)를 도시한 도면이다. 제1 이미지(610)는 도 6a의 프리뷰 이미지(220)에 대응하는 제1 카메라를 이용하여 획득될 수 있다. 제2 이미지(620)는, 상기 제1 카메라에 대하여 시차를 가지는 제2 카메라에 의해 획득될 수 있다. 예를 들어, 상기 제1 카메라 및 상기 제2 카메라 각각은, 도 3a의 광각 카메라에 대응하는 카메라(140-1) 및 초광각 카메라에 대응하는 카메라(140-2)에 대응할 수 있다. 상기 예시에서, 상기 제2 카메라의 FOV가 상기 제1 카메라의 FOV 보다 클 수 있다. 예를 들어, 상기 제1 카메라의 FOV가 상기 제2 카메라의 FOV 내에 포함될 수 있다. FIG. 6B is a first image 610 acquired by the electronic device 101 from each of the first camera and the second camera in response to receiving a photographing input in the exemplary state of FIG. 6A . ) and a second image 620. The first image 610 may be obtained using a first camera corresponding to the preview image 220 of FIG. 6A . The second image 620 may be acquired by a second camera having a parallax with respect to the first camera. For example, each of the first camera and the second camera may correspond to a camera 140-1 corresponding to the wide-angle camera of FIG. 3A and a camera 140-2 corresponding to the ultra-wide-angle camera. In the above example, the FOV of the second camera may be greater than the FOV of the first camera. For example, the FOV of the first camera may be included in the FOV of the second camera.

일 실시예에서, 제1 이미지(610) 및 제2 이미지(620) 각각에 대응하는 제1 카메라 및 제2 카메라의 FOV들의 적어도 일부분들이 서로 중첩됨에 따라, 제1 이미지(610) 및 제2 이미지(620)들 각각은 동일한 피사체에 대응하는 시각적 객체들을 포함할 수 있다. 예를 들어, 제1 이미지(610) 및 제2 이미지(620)를 참고하면, 시각적 객체들(612, 622) 전부는 직육면체에 대응하는 일 피사체(예, 도 3a의 피사체(312))에 대응할 수 있다. 예를 들어, 시각적 객체들(614, 624) 전부는 피라미드에 대응하는 일 피사체(예, 도 3a의 피사체(314))에 대응할 수 있다. 예를 들어, 시각적 객체들(616, 626) 전부는 구에 대응하는 일 피사체(예, 도 3a의 피사체(316))에 대응할 수 있다.In one embodiment, as at least portions of FOVs of the first and second cameras corresponding to the first image 610 and the second image 620 overlap each other, the first image 610 and the second image 610 and the second image 620 overlap each other. Each of the 620 may include visual objects corresponding to the same subject. For example, referring to the first image 610 and the second image 620, all of the visual objects 612 and 622 may correspond to a subject corresponding to a cuboid (eg, the subject 312 of FIG. 3A). can For example, all of the visual objects 614 and 624 may correspond to a subject corresponding to a pyramid (eg, the subject 314 of FIG. 3A ). For example, all of the visual objects 616 and 626 may correspond to a subject corresponding to a sphere (eg, the subject 316 of FIG. 3A ).

일 실시예에서, 상기 제1 카메라 및 상기 제2 카메라가 구별되는 FOV들을 가짐에 따라, 제1 이미지(610) 및 제2 이미지(620) 내에서 동일한 피사체에 대응하는 시각적 객체들이 서로 다른 크기 및 위치를 가질 수 있다. 도 6b를 참고하면, 제1 이미지(610) 및 제2 이미지(620)의 크기가 일치하는 경우, 상기 제1 카메라의 FOV가 상기 제2 카메라의 FOV 내에 포함됨에 따라, 제2 이미지(620)에 포함된 시각적 객체의 크기가, 제1 이미지(610)에 포함되고, 상기 시각적 객체와 동일한 피사체에 대응하는 시각적 객체의 크기 보다 작을 수 있다. 예를 들어, 직육면체에 대응하는 일 피사체(예, 도 3a의 피사체(312))에 대응하는 시각적 객체들(612, 622)을 참고하면, 제1 이미지(610)의 시각적 객체(612)의 크기가 제2 이미지(620)의 시각적 객체(622)의 크기 보다 클 수 있다.In one embodiment, as the first camera and the second camera have distinct FOVs, visual objects corresponding to the same subject in the first image 610 and the second image 620 have different sizes and can have a location. Referring to FIG. 6B , when the sizes of the first image 610 and the second image 620 match, the FOV of the first camera is included in the FOV of the second camera, and thus the second image 620 A size of a visual object included in may be smaller than a size of a visual object included in the first image 610 and corresponding to the same subject as the visual object. For example, referring to the visual objects 612 and 622 corresponding to a subject corresponding to a rectangular parallelepiped (eg, the subject 312 of FIG. 3A ), the size of the visual object 612 of the first image 610 may be larger than the size of the visual object 622 of the second image 620.

일 실시예에서, 상기 제1 카메라의 FOV 및 상기 제2 카메라의 FOV가 시차를 가짐에 따라, 제1 이미지(610) 및 제2 이미지(620) 내에서 동일한 피사체에 대응하는 시각적 객체들은, 서로 다른 시점들에서 본 피사체의 서로 다른 형태들을 나타낼 수 있다. 예를 들어, 직육면체에 대응하는 일 피사체(예, 도 3a의 피사체(312))에 대응하는 시각적 객체들(612, 622)을 참고하면, 제1 이미지(610)의 시각적 객체(612)는 상기 직육면체의 측면들 중 일 면 만을 나타내고, 제2 이미지(620)의 시각적 객체(622)는 상기 직육면체의 측면들 중 두 면을 나타낼 수 있다. 예를 들어, 피라미드에 대응하는 일 피사체(예, 도 3a의 피사체(314))에 대응하는 시각적 객체들(614, 624)을 참고하면, 제1 이미지(610)의 시각적 객체(614)는 상기 피라미드의 측면들 중 세 면을 나타내고, 제2 이미지(620)의 시각적 객체(624)는 상기 피라미드의 측면들 중 두 면을 나타낼 수 있다. 상술한 바와 같이, 제1 이미지(610) 및 제2 이미지(620) 각각에서, 동일한 피사체에 대응하는 시각적 객체들의 형태가 시차에 의해 구별됨에 따라, 제1 이미지(610) 및 제2 이미지(620)에 기반하여 생성된 애니메이션은, 상기 구별되는 시각적 객체들의 형태에 의한 입체감을 제공할 수 있다. In one embodiment, as the FOV of the first camera and the FOV of the second camera have a parallax, visual objects corresponding to the same subject in the first image 610 and the second image 620 are different from each other. Different shapes of an object viewed from different viewpoints may be represented. For example, referring to the visual objects 612 and 622 corresponding to a subject corresponding to a rectangular parallelepiped (eg, the subject 312 of FIG. 3A ), the visual object 612 of the first image 610 is described above. Only one of the side surfaces of the cuboid is shown, and the visual object 622 of the second image 620 may indicate two of the side surfaces of the cuboid. For example, referring to the visual objects 614 and 624 corresponding to a subject corresponding to a pyramid (eg, the subject 314 of FIG. 3A ), the visual object 614 of the first image 610 is described above. Three of the side faces of the pyramid are shown, and the visual object 624 of the second image 620 may represent two of the side faces of the pyramid. As described above, in each of the first image 610 and the second image 620, as the shapes of visual objects corresponding to the same subject are distinguished by parallax, the first image 610 and the second image 620 ) may provide a three-dimensional effect due to the shape of the distinct visual objects.

일 실시예에 따른 전자 장치(101)는 시각적 가이드(605)에 대응하는 피사체에 적어도 기반하여, 제1 이미지(610) 및 제2 이미지(620) 중 적어도 하나를 변경할 수 있다. 예를 들어, 상기 피사체 및 전자 장치(101) 사이의 거리에 기반하여, 전자 장치(101)는 제1 이미지(610) 및 제2 이미지(620) 중 적어도 하나를 변경할 수 있다. 일 실시예에 따른 전자 장치(101)는 제1 이미지(610) 및 제2 이미지(620)의 획득을 위해 이용된 제1 카메라 및 제2 카메라의 FOV와 관련된 정보에 기반하여, 제1 이미지(610) 및 제2 이미지(620) 중 적어도 하나를 변경할 수 있다. 일 실시예에 따른 전자 장치(101)는 프리뷰 이미지(220)에 대응하는 제1 카메라와 구별되는 제2 카메라에 의해 획득된 제2 이미지(620)의 FOV를, 제1 이미지(610)의 FOV에 기반하여 변경할 수 있다. 예를 들어, 전자 장치(101)는 제2 이미지(620)로부터, 제1 이미지(610)의 FOV와 관련된 FOV를 가지는 일부분(628)을 식별할 수 있다.The electronic device 101 according to an embodiment may change at least one of the first image 610 and the second image 620 based on at least a subject corresponding to the visual guide 605 . For example, based on the distance between the subject and the electronic device 101, the electronic device 101 may change at least one of the first image 610 and the second image 620. The electronic device 101 according to an embodiment, based on information related to the FOVs of the first camera and the second camera used to acquire the first image 610 and the second image 620, the first image ( 610) and at least one of the second image 620 may be changed. The electronic device 101 according to an embodiment determines the FOV of the second image 620 obtained by a second camera that is distinguished from the first camera corresponding to the preview image 220, and the FOV of the first image 610. can be changed based on For example, the electronic device 101 may identify a portion 628 having an FOV related to the FOV of the first image 610 from the second image 620 .

일 실시예에서, 제1 이미지(610) 및 제2 이미지(620) 중 적어도 하나를 변경하기 위해 전자 장치(101)에 의하여 이용되는 정보는, 제1 이미지(610) 및 제2 이미지(620)의 획득을 위해 이용된 제1 카메라 및/또는 제2 카메라의 FOV와 관련된 정보로써, 상기 제1 카메라 또는 상기 제2 카메라 중 적어도 하나의 줌 배율(zoom factor)을 포함할 수 있다. 상기 줌 배율은 상기 제1 카메라의 렌즈 또는 상기 제2 카메라의 렌즈 중 적어도 하나와 관련된 파라미터일 수 있다. 예를 들어, 전자 장치(101)는 상기 제1 카메라 또는 상기 제2 카메라 중 적어도 하나의 줌 배율에 기반하여, 제2 이미지(620) 내에서 제1 이미지(610)의 FOV에 대응하는 FOV를 가지는 일부분(628)의 크기를 획득할 수 있다.In one embodiment, the information used by the electronic device 101 to change at least one of the first image 610 and the second image 620 is the first image 610 and the second image 620 As information related to the FOV of the first camera and/or the second camera used for acquisition of , it may include a zoom factor of at least one of the first camera and the second camera. The zoom magnification may be a parameter related to at least one of a lens of the first camera and a lens of the second camera. For example, the electronic device 101 selects an FOV corresponding to the FOV of the first image 610 in the second image 620 based on the zoom magnification of at least one of the first camera and the second camera. The size of the branch portion 628 can be obtained.

일 실시예에서, 제1 이미지(610) 및 제2 이미지(620) 중 적어도 하나를 변경하기 위해 전자 장치(101)에 의하여 이용되는 정보는, 제1 이미지(610) 및 제2 이미지(620)의 획득을 위해 이용된 제1 카메라 및 제2 카메라의 위치들 사이의 차이를 나타내는 정보를 포함할 수 있다. 상기 위치들 사이의 차이는, 상기 제1 카메라 및 상기 제2 카메라 각각의 FOV들의 중심축의 차이를 야기할 수 있다. 예를 들어, 상기 정보는, 상기 제1 카메라 및 상기 제2 카메라가 전자 장치(101) 상에서 지정된 방향(예, 수평 방향 및/또는 수직 방향)을 따라 이격된 거리를 나타낼 수 있다. 예를 들어, 전자 장치(101)는 상기 제1 카메라 및 상기 제2 카메라가 수직 방향(예, 랜드스케이프 모드에서, 전자 장치의 너비 방향)을 따라 이격된 거리에 기반하여, 제2 이미지(620) 내에서 제1 이미지(610)의 FOV에 대응하는 FOV를 가지는 일부분(628)의 위치(예, 상기 수직 방향에 대응하는 y 축에서의 위치)를 식별할 수 있다. In one embodiment, the information used by the electronic device 101 to change at least one of the first image 610 and the second image 620 is the first image 610 and the second image 620 It may include information indicating a difference between the positions of the first camera and the second camera used to acquire . The difference between the positions may cause a difference in central axes of FOVs of the first camera and the second camera, respectively. For example, the information may indicate a distance at which the first camera and the second camera are separated along a designated direction (eg, a horizontal direction and/or a vertical direction) on the electronic device 101 . For example, the electronic device 101 displays a second image 620 based on a distance at which the first camera and the second camera are spaced apart in a vertical direction (eg, a width direction of the electronic device in a landscape mode). ), the position of the portion 628 having the FOV corresponding to the FOV of the first image 610 (eg, the position on the y-axis corresponding to the vertical direction) may be identified.

일 실시예에서, 제1 이미지(610) 및 제2 이미지(620) 중 적어도 하나를 변경하기 위해 전자 장치(101)에 의하여 이용되는 정보는, 시각적 가이드(605)에 대응하는 피사체 및 전자 장치(101) 사이의 거리를 나타내는 정보를 포함할 수 있다. 예를 들어, 전자 장치(101)는 상기 제1 카메라 및 상기 제2 카메라가 수평 방향(예, 포트레이트 모드에서, 전자 장치의 길이 방향)을 따라 이격된 거리, 및 거리 센서(예, 도 3a의 거리 센서(154))를 이용하여 획득된 피사체(예, 도 3a의 피사체(314)) 및 전자 장치(101) 사이의 거리에 기반하여, 제2 이미지(620) 내에서 제1 이미지(610)의 FOV에 대응하는 FOV를 가지는 일부분(628)의 위치(예, 상기 수평 방향에 대응하는 x 축에서의 위치)를 식별할 수 있다. 예를 들어, 피사체 및 전자 장치(101) 사이의 거리가 증가됨에 따라, 일부분(628)의 위치는 제2 이미지(620) 내에서 제1 이미지(610)의 중심축에 대응하는 위치를 향하여 수렴될 수 있다.In one embodiment, the information used by the electronic device 101 to change at least one of the first image 610 and the second image 620 is a subject corresponding to the visual guide 605 and the electronic device ( 101) may include information indicating the distance between them. For example, the electronic device 101 may determine a distance at which the first camera and the second camera are spaced apart in a horizontal direction (eg, in a portrait mode, a longitudinal direction of the electronic device), and a distance sensor (eg, in FIG. 3A ). Based on the distance between the subject (eg, the subject 314 of FIG. 3A ) and the electronic device 101 obtained by using the distance sensor 154, a first image 610 within the second image 620 is generated. The position of the portion 628 having an FOV corresponding to the FOV of (eg, position in the x-axis corresponding to the horizontal direction) can be identified. For example, as the distance between the subject and the electronic device 101 increases, the position of the portion 628 converges toward a position corresponding to the central axis of the first image 610 within the second image 620. It can be.

도 6b를 참고하면, 일 실시예에 따른 전자 장치(101)가 제1 이미지(610) 및 제2 이미지(620)의 획득을 위해 이용된 제1 카메라 및 제2 카메라의 FOV들을 나타내는 정보, 및 시각적 가이드(605)에 의해 지시되는 피사체 및 전자 장치(101) 사이의 거리에 기반하여, 제2 이미지(620) 내에서 식별한 일부분(628)이 도시된다. 상술한 바와 같이, 일부분(628)의 크기는 상기 제1 카메라 및 상기 제2 카메라의 FOV들의 줌 배율과 관련될 수 있다. 제2 이미지(620) 내에서, y 축에서의 일부분(628)의 위치는, y축에 대응하는 수직 방향에서의 상기 제1 카메라 및 상기 제2 카메라 사이의 차이를 나타내는 정보(예, 수직 오프셋(vertical offset))와 관련될 수 있다. 제2 이미지(620) 내에서, x 축에서의 일부분(628)의 위치는, x 축에 대응하는 수평 방향에서의 상기 제1 카메라 및 상기 제2 카메라 사이의 차이를 나타내는 정보(예, 수평 오프셋(horizontal offset))와 관련될 수 있다. 전자 장치(101)는 제2 이미지(620) 내에서 식별된 일부분(628)을 스케일링(scaling)하여, 제1 이미지(610)의 크기를 가지는 다른 이미지를 획득할 수 있다. Referring to FIG. 6B , information indicating FOVs of a first camera and a second camera used by the electronic device 101 to obtain a first image 610 and a second image 620 according to an embodiment, and Based on the distance between the electronic device 101 and the subject indicated by the visual guide 605, the identified portion 628 in the second image 620 is shown. As mentioned above, the size of portion 628 can be related to the zoom factor of the FOVs of the first camera and the second camera. Within the second image 620, the position of the portion 628 in the y axis is information indicative of the difference between the first camera and the second camera in the vertical direction corresponding to the y axis (e.g., vertical offset). (vertical offset)). Within the second image 620, the location of the portion 628 on the x-axis is information indicating the difference between the first camera and the second camera in the horizontal direction corresponding to the x-axis (e.g., horizontal offset). (horizontal offset)). The electronic device 101 may acquire another image having the size of the first image 610 by scaling the identified portion 628 in the second image 620 .

도 6c는, 일 실시예에 따른 전자 장치(101)가 도 6b의 일부분(628)을 스케일링하여 획득한 제3 이미지(630)를 도시한 도면이다. 상술한 바와 같이, 전자 장치(101)는, 프리뷰 이미지(220)의 제공을 위해 이용되는 제1 카메라로부터 획득된 제1 이미지(610)의 FOV와 관련된, 제2 이미지(620)의 일부분(628)을 식별할 수 있다. 전자 장치(101)는 식별된 일부분(628)을, 제1 이미지(610)의 크기(dimension)(예, 폭, 너비 및/또는 종횡비(aspect ratio))를 따라 확대하거나 또는 축소하여, 제1 이미지(610)의 크기와 동일한 크기를 가지는 제3 이미지(630)를 획득할 수 있다. 예를 들어, 제3 이미지(630)의 크기는 제1 이미지(910)의 크기와 일치할 수 있다.6C is a diagram illustrating a third image 630 obtained by scaling a portion 628 of FIG. 6B by the electronic device 101 according to an exemplary embodiment. As described above, the electronic device 101 provides a portion 628 of the second image 620 related to the FOV of the first image 610 obtained from the first camera used to provide the preview image 220 . ) can be identified. The electronic device 101 enlarges or reduces the identified portion 628 according to the size (eg, width, width and/or aspect ratio) of the first image 610, A third image 630 having the same size as that of the image 610 may be acquired. For example, the size of the third image 630 may match the size of the first image 910 .

일 실시예에 따른 전자 장치(101)는 촬영 입력을 수신한 이후, 제3 이미지(630)를 획득하는 것에 응답하여, 전자 장치(101)의 디스플레이 상에 제1 이미지(610) 및 상기 획득된 제3 이미지(630)를 교대로 표시할 수 있다. 예를 들어, 전자 장치(101)는, 도 2의 텍스트(264)에 의해 지시되거나, 또는 텍스트(264)와 관련된 사용자 입력에 의해 조절되는, 특정 주기에 기반하여 제1 이미지(610) 및 제3 이미지(630)를 교대로 표시할 수 있다. 예를 들어, 전자 장치(101)는 제1 이미지(610) 및 제3 이미지(630)로부터 생성할 애니메이션의 프리뷰로써, 제1 이미지(610) 및 제3 이미지(630)를 교대로 표시할 수 있다. 예를 들어, 도 2의 프리뷰 이미지(220) 내에서, 전자 장치(101)는 제1 이미지(610) 및 제3 이미지(630)를 교대로 표시할 수 있다.After receiving a photographing input, the electronic device 101 according to an embodiment displays a first image 610 and the acquired third image 630 on a display of the electronic device 101 in response to acquiring the third image 630 . The third image 630 may be alternately displayed. For example, the electronic device 101 displays the first image 610 and the second image 610 based on a specific period indicated by the text 264 of FIG. 2 or controlled by a user input related to the text 264. 3 images 630 may be alternately displayed. For example, the electronic device 101 may alternately display the first image 610 and the third image 630 as a preview of an animation to be generated from the first image 610 and the third image 630. there is. For example, within the preview image 220 of FIG. 2 , the electronic device 101 may alternately display a first image 610 and a third image 630 .

도 6c를 참고하면, 제3 이미지(630)는 제2 이미지(620)의 일부분(628)에 대응하므로, 제2 이미지(620)에 포함된 시각적 객체들(622, 624, 626)의 적어도 일부분을 포함할 수 있다. 제3 이미지(630) 내에서, 시각적 객체들(622, 624, 626)은, 제1 이미지(610)의 시각적 객체들(612, 614, 616) 각각과 동일한 피사체에 대응할 수 있다. 제3 이미지(630) 내에서, 시각적 객체들(622, 624, 626)의 크기는, 제1 이미지(610)의 시각적 객체들(612, 614, 616) 각각의 크기에 대응할 수 있다. 제3 이미지(630) 내에서, 시각적 객체들(622, 624, 626)의 형태는, 제3 이미지(630)가 제1 이미지(610)에 대하여 시차를 가짐에 따라, 제1 이미지(610)의 시각적 객체들(612, 614, 616)의 형태와 구별될 수 있다.Referring to FIG. 6C , since the third image 630 corresponds to a portion 628 of the second image 620, at least a portion of the visual objects 622, 624, and 626 included in the second image 620 can include In the third image 630 , the visual objects 622 , 624 , and 626 may correspond to the same subject as each of the visual objects 612 , 614 , and 616 of the first image 610 . In the third image 630 , the size of the visual objects 622 , 624 , and 626 may correspond to the respective sizes of the visual objects 612 , 614 , and 616 of the first image 610 . In the third image 630, the shapes of the visual objects 622, 624, and 626 are similar to the first image 610 as the third image 630 has a parallax with respect to the first image 610. It can be distinguished from the shape of the visual objects 612, 614, and 616 of .

일 실시예에 따른 전자 장치(101)가 시각적 가이드(605)에 의해 지시되는 피사체 및 전자 장치(101) 사이의 거리에 따라 제3 이미지(630)를 생성하므로, 제3 이미지(630) 내에서 상기 피사체에 대응하는 시각적 객체(624)의 위치는, 제1 이미지(610) 내에서 상기 피사체에 대응하는 시각적 객체(614)의 위치와 일치할 수 있다. 제3 이미지(630) 내에서의 시각적 객체(624)의 위치 및 제1 이미지(610) 내에서의 시각적 객체(614)의 위치가 서로 일치함에 따라, 제1 이미지(610) 및 제3 이미지(630)는, 시각적 객체들(614, 624)에 대응하는 일 피사체(예, 도 3a의 피라미드에 대응하는 피사체(314))에 포함된 중심축으로부터 동일한 거리를 따라 이격된 두 시점들 각각에서 촬영된 이미지들에 대응할 수 있다. 전자 장치(101)가 제1 이미지(610) 및 제3 이미지(630)를 교대로 표시함에 따라, 전자 장치(101)는 상기 일 피사체를 중심으로 형성된 호를 따라 상기 일 피사체를 촬영한 것과 같은 효과(예, 아크 샷(arc shot))를 제공할 수 있다. 제3 이미지(630)가 제1 이미지(610)에 대하여 시차를 가짐에 따라, 전자 장치(101)는 제1 이미지(610) 및 제3 이미지(630)를 교대로 표시하여 입체감을 제공할 수 있다.Since the electronic device 101 according to an embodiment generates the third image 630 according to the distance between the subject indicated by the visual guide 605 and the electronic device 101, within the third image 630 A position of the visual object 624 corresponding to the subject may coincide with a position of the visual object 614 corresponding to the subject in the first image 610 . As the position of the visual object 624 in the third image 630 and the position of the visual object 614 in the first image 610 coincide with each other, the first image 610 and the third image ( 630) is photographed at two viewpoints spaced apart along the same distance from the central axis included in one subject corresponding to the visual objects 614 and 624 (eg, the subject 314 corresponding to the pyramid of FIG. 3A). You can respond to images that have been As the electronic device 101 alternately displays the first image 610 and the third image 630, the electronic device 101 follows an arc formed around the subject as if the subject was photographed. effects (eg, arc shot) can be provided. As the third image 630 has a parallax with respect to the first image 610, the electronic device 101 may display the first image 610 and the third image 630 alternately to provide a three-dimensional effect. there is.

일 실시예에 따른 전자 장치(101)는 제1 이미지(610) 및 제3 이미지(630)를 교대로 표시하면서, 제1 이미지(610) 및 제3 이미지(630) 중 적어도 하나를 조정(예, 미세 조정(fine tuning))하기 위한 기능을, 사용자에게 제공할 수 있다. 예를 들어, 전자 장치(101)는 일부분(628)을 식별하기 위해 이용한 정보(예, 상기 줌 배율, 수직 오프셋 및/또는 수평 오프셋)를 조절하기 위한 UI를, 제1 이미지(610) 및 제3 이미지(630)가 교대로 표시되는 디스플레이의 일부분과 함께 표시할 수 있다. 예를 들어, 전자 장치(101)는 제2 이미지(620) 내에서 일부분(628)의 위치 및/또는 크기를, 드래그 및/또는 핀치-투-줌과 같은 제스쳐에 기반하여 조절하기 위한 UI를 표시할 수 있다. 상기 UI에 의해 조절되는 상기 정보에 기반하여, 전자 장치(101)는 제2 이미지(620) 내에서 일부분(628)의 크기 및/또는 위치를 조절할 수 있다. 조절된 크기 및/또는 조절된 위치를 가지는 일부분(628)을 스케일링하여, 전자 장치(101)는 제3 이미지(630)의 표시를 변경할 수 있다. 일 실시예에 따른 전자 장치(101)는 애니메이션의 생성을 위한 사용자 입력을 수신하는 것에 응답하여, 제1 이미지(610) 및 제3 이미지(630)를 연접하여 애니메이션을 제공하기 위한 다른 이미지를 생성할 수 있다.The electronic device 101 according to an embodiment adjusts at least one of the first image 610 and the third image 630 while alternately displaying the first image 610 and the third image 630 (eg , a function for fine tuning) may be provided to the user. For example, the electronic device 101 provides a UI for adjusting information (eg, the zoom factor, vertical offset, and/or horizontal offset) used to identify the portion 628 in the first image 610 and the second image 610 . 3 images 630 can be displayed along with a portion of the display that is displayed alternately. For example, the electronic device 101 provides a UI for adjusting the position and/or size of the portion 628 in the second image 620 based on a gesture such as drag and/or pinch-to-zoom. can be displayed Based on the information controlled by the UI, the electronic device 101 may adjust the size and/or position of the portion 628 within the second image 620 . By scaling the portion 628 having the adjusted size and/or adjusted position, the electronic device 101 may change the display of the third image 630 . In response to receiving a user input for generating an animation, the electronic device 101 according to an embodiment creates another image for providing animation by concatenating the first image 610 and the third image 630. can do.

상술한 바와 같이, 일 실시예에 따른 전자 장치(101)는 단일 촬영 입력을 따라 제1 카메라 및 제2 카메라 전부를 제어하여, 제1 카메라 및 제2 카메라 각각으로부터 제1 이미지(예, 도 6b 및/또는 6c의 제1 이미지(610)) 및 제2 이미지(620)를 획득할 수 있다. 상기 제1 카메라는 도 6a의 프리뷰 이미지(220)를 제공하는 제1 카메라에 대응할 수 있고, 상기 제2 카메라는 상기 제1 카메라에 대하여 시차를 가지는 제2 카메라에 대응할 수 있다. 전자 장치(101)가 상기 제1 이미지(610), 및 상기 제2 이미지(620)로부터 획득된 제3 이미지(630)를 교대로 재생하는 애니메이션을 재생함에 따라, 전자 장치(101)는 애니메이션을 시청하는 사용자에게, 상기 시차에 의해 야기되는 입체감을 제공할 수 있다. 상기 애니메이션의 재생에 의해 제공되는 입체감은, 렌티큘러 디스플레이 및/또는 사용자의 두 눈들 각각에 구별되는 이미지를 제공하는 3차원 디스플레이와 독립적으로 제공될 수 있다. 전자 장치(101)가 단일 촬영 입력 만으로 입체감을 제공하는 애니메이션을 생성하므로, 사용자는 움직이는 피사체를 대상으로 상기 애니메이션을 보다 용이하게 획득할 수 있다.As described above, the electronic device 101 according to an embodiment controls all of the first camera and the second camera according to a single photographing input to obtain a first image (eg, FIG. 6B ) from each of the first camera and the second camera. and/or the first image 610 of 6c) and the second image 620 may be obtained. The first camera may correspond to the first camera providing the preview image 220 of FIG. 6A, and the second camera may correspond to a second camera having a parallax with respect to the first camera. As the electronic device 101 reproduces an animation that alternately reproduces the first image 610 and the third image 630 acquired from the second image 620, the electronic device 101 displays the animation. It is possible to provide a three-dimensional effect caused by the parallax to a viewing user. The 3D effect provided by reproducing the animation may be provided independently of the lenticular display and/or the 3D display providing distinct images to each of the user's eyes. Since the electronic device 101 generates an animation providing a three-dimensional effect with only a single photographing input, the user can more easily obtain the animation for a moving subject.

이하에서는 도 7을 참고하여, 일 실시예에 따른 전자 장치(101)가 FOV 내에 배치된 피사체와 독립적인 시각적 객체를, 제1 이미지(610) 및 제3 이미지(630)에 기반하는 상기 애니메이션의 프리뷰를 표시하는 상태에서 추가하는 동작이 상세히 설명된다.Hereinafter, with reference to FIG. 7 , the electronic device 101 according to an embodiment provides a visual object independent of a subject disposed within the FOV of the animation based on the first image 610 and the third image 630. An operation of adding in a state of displaying a preview will be described in detail.

도 7은 일 실시예에 따른 전자 장치가 복수의 카메라들 각각으로부터 획득한 복수의 이미지들(610, 630) 각각에 하나 이상의 시각적 객체들(712, 714, 722, 724)을 결합하는 동작을 설명하기 위한 예시적인 도면이다. 도 7의 전자 장치는 도 1 내지 도 2, 도 3a 내지 3b의 전자 장치(101) 및/또는 도 6a 내지 6c의 전자 장치에 대응할 수 있다. 이하에서는, 전자 장치가 도 3a의 상태(300)에서 피사체(310)를 촬영하여 도 6c의 제1 이미지(610) 및 제3 이미지(630)를 획득한 상태에서, 전자 장치가 상기 피사체(310)와 독립적인 시각적 객체를, 제1 이미지(610) 및 제3 이미지(630)에 결합하는 동작이 설명된다. 예를 들어, 도 2의 텍스트(266)와 관련된 사용자 입력을 수신하는 것에 응답하여, 전자 장치는 상기 피사체(310)와 독립적인 시각적 객체를, 제1 이미지(610) 및 제3 이미지(630)에 추가할 수 있다.7 illustrates an operation of combining one or more visual objects 712, 714, 722, and 724 with each of a plurality of images 610 and 630 acquired from each of a plurality of cameras by an electronic device according to an embodiment. It is an exemplary drawing for The electronic device of FIG. 7 may correspond to the electronic device 101 of FIGS. 1 to 2 and 3A to 3B and/or the electronic device of FIGS. 6A to 6C. Hereinafter, in a state in which the electronic device acquires the first image 610 and the third image 630 of FIG. 6C by photographing the subject 310 in the state 300 of FIG. 3A, the electronic device captures the subject 310. ) and an operation of combining independent visual objects to the first image 610 and the third image 630 will be described. For example, in response to receiving a user input related to the text 266 of FIG. 2 , the electronic device creates a visual object independent of the subject 310 as a first image 610 and a third image 630 . can be added to

일 실시예에 따른 전자 장치가 제1 이미지(610) 및 제3 이미지(630)에 추가하는 시각적 객체는, 제1 이미지(610) 및 제3 이미지(630)에 의해 촬영된 피사체와 독립적인 그래픽 객체로써, 사용자에 의해 입력된 텍스트 및/또는 사용자에 의해 선택된 이미지 및/또는 아이콘을 포함할 수 있다. 도 7을 참고하면, 전자 장치는 STT(speech-to-text) 및/또는 전자 장치의 디스플레이의 적어도 일부분에 표시되는 소프트 키보드를 통하여 사용자로부터 입력된 텍스트를, 시각적 객체들(712, 714)을 이용하여 제1 이미지(610) 및 제3 이미지(630) 각각에 추가할 수 있다. 도 7을 참고하면, 전자 장치는 사용자에 의해 선택된 이미지(예, 화살표 모양의 이미지)를, 시각적 객체들(722, 724)을 이용하여 제1 이미지(610) 및 제3 이미지(630) 각각에 추가할 수 있다. A visual object added to the first image 610 and the third image 630 by the electronic device according to an embodiment is a graphic independent of a subject captured by the first image 610 and the third image 630. As objects, text input by the user and/or images and/or icons selected by the user may be included. Referring to FIG. 7 , the electronic device converts text input from a user through speech-to-text (STT) and/or a soft keyboard displayed on at least a portion of a display of the electronic device to visual objects 712 and 714. It can be added to each of the first image 610 and the third image 630 by using. Referring to FIG. 7 , the electronic device displays an image (eg, an arrow-shaped image) selected by a user as a first image 610 and a third image 630 using visual objects 722 and 724 , respectively. can be added

일 실시예에 따른 전자 장치는, 제1 이미지(610) 및 제3 이미지(630) 각각에 추가되고, 그래픽 객체에 대응하는 시각적 객체들의 형태를, 시차에 기반하여 변경할 수 있다. 상기 시차는 사용자에 의해 조절될 수 있다. 도 7을 참고하면, 시각적 객체들(712, 714)은 사용자에 의해 조절된 시차에 따라, 제1 이미지(610) 및 제3 이미지(630) 각각에서 구별되는 형태를 가질 수 있다. 유사하게, 시각적 객체들(722, 724)은 제1 이미지(610) 및 제3 이미지(630) 각각에서, 사용자에 의해 조절된 시차에 따라 상이한 형태 및 위치를 가질 수 있다. 예를 들어, 전자 장치는 제1 이미지(610)에 결합된 시각적 객체(722)를 스케일링 및/또는 틸팅하여, 제3 이미지(630)에 결합될 시각적 객체(724)를 획득할 수 있다. 전자 장치는 획득된 시각적 객체(724)를, 제3 이미지(630)에 결합할 수 있다.The electronic device according to an embodiment may change the shape of visual objects that are added to each of the first image 610 and the third image 630 and correspond to the graphic object based on parallax. The time difference may be adjusted by the user. Referring to FIG. 7 , visual objects 712 and 714 may have distinct shapes in each of the first image 610 and the third image 630 according to the parallax adjusted by the user. Similarly, the visual objects 722 and 724 may have different shapes and positions in each of the first image 610 and the third image 630 according to the parallax adjusted by the user. For example, the electronic device may acquire the visual object 724 to be combined with the third image 630 by scaling and/or tilting the visual object 722 combined with the first image 610 . The electronic device may combine the obtained visual object 724 with the third image 630 .

일 실시예에 따른 전자 장치가 그래픽 객체에 대응하는 시각적 객체들(712, 714, 722, 724)을 제1 이미지(610) 및 제3 이미지(630)에 결합하는 것은, 제1 이미지(610) 및 제3 이미지(630) 각각에 오버레이된 레이어에 기반하여 수행될 수 있다. 예를 들어, 제1 이미지(610) 및 제3 이미지(630)로부터 생성할 애니메이션의 프리뷰를 표시하는 상태에서, 전자 장치는 상기 레이어 상에 시각적 객체들(712, 714, 722, 724) 중 적어도 하나를 렌더링할 수 있다. 제1 이미지(610) 및 제3 이미지(630) 각각에 오버레이된 레이어를 이용하여, 전자 장치는 그래픽 객체에 대응하는 시각적 객체를 추가, 삭제 및/또는 변경하는 하나 이상의 사용자 입력에 대응할 수 있다(may respond to). 상기 애니메이션을 저장하기 위한 사용자 입력을 수신하는 것에 응답하여, 전자 장치는 오버레이된 레이어에 포함된 하나 이상의 시각적 객체들(예, 제1 이미지(610) 및 제3 이미지(630) 각각에 오버레이된 레이어에 포함된 시각적 객체들(712, 714, 722, 724))을, 제1 이미지(610) 및 제3 이미지(630) 각각에 추가할 수 있다. 전자 장치는 시각적 객체들(712, 714, 722, 724) 각각이 추가된 제1 이미지(610) 및 제3 이미지(630)를 연접하여, 애니메이션을 제공하기 위한 다른 이미지를 획득할 수 있다. Combining visual objects 712 , 714 , 722 , and 724 corresponding to graphic objects to the first image 610 and the third image 630 by the electronic device according to an embodiment, the first image 610 And it may be performed based on a layer overlaid on each of the third images 630 . For example, in a state of displaying a preview of an animation to be generated from the first image 610 and the third image 630, the electronic device displays at least one of the visual objects 712, 714, 722, and 724 on the layer. You can render one. Using layers overlaid on each of the first image 610 and the third image 630, the electronic device may respond to one or more user inputs for adding, deleting, and/or changing visual objects corresponding to graphic objects ( may respond to). In response to receiving a user input for saving the animation, the electronic device provides one or more visual objects included in the overlaid layer (eg, a layer overlaid on each of the first image 610 and the third image 630). The visual objects 712 , 714 , 722 , and 724 included in may be added to the first image 610 and the third image 630 , respectively. The electronic device may obtain another image for providing animation by concatenating the first image 610 and the third image 630 to which the visual objects 712 , 714 , 722 , and 724 are respectively added.

상술한 바와 같이, 일 실시예에 따른 전자 장치는 입체감을 제공하기 위한 애니메이션 내에, 그래픽 객체에 기반하는 하나 이상의 시각적 객체들을 결합할 수 있다. 그래픽 객체에 기반하는 하나 이상의 시각적 객체들은, 상기 애니메이션에 포함된 복수의 이미지들 각각에서 시차에 따라 구별되는 형태 및/또는 위치를 가질 수 있다. 이하에서는 도 8을 참고하여, 일 실시예에 따른 전자 장치가 복수의 피사체들 중에서 전자 장치로부터 이격된 거리를 측정할 일 피사체를 선택하는 동작이 설명된다.As described above, the electronic device according to an embodiment may combine one or more visual objects based on graphic objects into an animation to provide a three-dimensional effect. One or more visual objects based on the graphic object may have a shape and/or position distinguished according to a parallax in each of a plurality of images included in the animation. Hereinafter, referring to FIG. 8 , an operation of an electronic device according to an embodiment of selecting a subject from among a plurality of subjects to measure a distance away from the electronic device will be described.

도 8은 일 실시예에 따른 전자 장치(101)가 복수의 피사체들 중 어느 한 피사체를 선택하는 사용자 입력에 기반하여 수행하는 동작을 설명하기 위한 예시적인 도면이다. 도 8의 전자 장치(101)는 도 1 내지 도 2, 도 3a 내지 3b의 전자 장치(101), 도 6a 내지 6c 및/또는 도 7의 전자 장치에 대응할 수 있다. 이하에서는, 전자 장치가 도 3a의 상태(300) 및/또는 도 6a의 상태에서의 전자 장치(101)의 동작이 설명되지만, 실시예가 이에 제한되는 것은 아니며, 도 4a 내지 4c 및 도 5a 내지 5b의 전자 장치(101)도 후술되는 동작과 유사하게 구동될 수 있다.8 is an exemplary diagram for explaining an operation performed by the electronic device 101 based on a user input for selecting one of a plurality of subjects according to an embodiment. The electronic device 101 of FIG. 8 may correspond to the electronic device 101 of FIGS. 1 to 2 and 3A to 3B , and the electronic device of FIGS. 6A to 6C and/or 7 . Hereinafter, the operation of the electronic device 101 in the state 300 of FIG. 3A and/or the state of FIG. 6A will be described, but the embodiment is not limited thereto, and FIGS. 4A to 4C and 5A to 5B The electronic device 101 of may also be driven similarly to the operation described below.

일 실시예에 따른 전자 장치(101)는 프리뷰 이미지(220) 내에서 사용자 입력에 의해 조절 가능한 위치를 가지는 시각적 가이드(605)를 표시할 수 있다. 도 8을 참고하면, 시각적 가이드(605)는 프리뷰 이미지(220) 내에서 일 피사체(예, 도 3a의 피라미드에 대응하는 피사체(314))에 대응하는 시각적 객체(614)의 적어도 일부분과 중첩되어 표시될 수 있다. 아이콘(240)에 기반하는 촬영 입력을 수신하는 것에 응답하여, 전자 장치(101)는 제1 이미지(610) 및 제2 이미지(620)를 획득할 수 있다. 시각적 가이드(605)가 시각적 객체(614)의 적어도 일부분과 중첩된 상태에서, 도 6a 내지 6c에서 설명한 바와 유사하게, 전자 장치(101)는 시각적 객체(614)에 의해 지시되는 일 피사체 및 전자 장치(101) 사이의 거리에 기반하여, 제2 이미지(620) 내에서 일부분(628)을 추출할 수 있다. 추출된 일부분(628)에 기반하여, 전자 장치(101)는 도 6c의 제3 이미지(630)를 획득할 수 있다. 이하에서, 도 3a, 도 6a 내지 6c와 중복되는 설명은 생략된다.The electronic device 101 according to an embodiment may display a visual guide 605 having a position adjustable by a user input within the preview image 220 . Referring to FIG. 8 , the visual guide 605 overlaps at least a portion of a visual object 614 corresponding to one subject (eg, the subject 314 corresponding to the pyramid of FIG. 3A ) in the preview image 220. can be displayed In response to receiving a photographing input based on the icon 240 , the electronic device 101 may obtain a first image 610 and a second image 620 . In a state where the visual guide 605 overlaps at least a portion of the visual object 614, similarly to FIGS. 6A to 6C, the electronic device 101 is directed to one subject and the electronic device indicated by the visual object 614. Based on the distance between 101 , a portion 628 may be extracted from the second image 620 . Based on the extracted portion 628, the electronic device 101 may acquire the third image 630 of FIG. 6C. Hereinafter, descriptions overlapping those of FIGS. 3A and 6A to 6C are omitted.

일 실시예에서, 복수의 피사체들 각각에 대응하는 시각적 객체들(612, 614, 616)이 프리뷰 이미지(220) 내에 표시된 상태에서, 사용자는 시각적 가이드(605)를 이용하여, 전자 장치(101)에서 생성될 애니메이션에 포함된 이미지들 내에서 고정된 위치를 가질 피사체를 선택할 수 있다. 시각적 가이드(605)의 위치는, 전자 장치(101)가 프리뷰 이미지(220) 내에서 수행되는 클릭, 터치 및/또는 드래그 제스쳐를 수신하는 것에 응답하여 변경될 수 있다. 예를 들어, 궤적(820)과 같이 시각적 가이드(605) 상에서 시작되고, 위치(810)에서 종료되는 드래그 제스쳐를 수신하는 것에 응답하여, 전자 장치(101)는 시각적 가이드(605)의 위치를, 위치(810)로 변경할 수 있다.In an embodiment, in a state in which visual objects 612, 614, and 616 corresponding to each of the plurality of subjects are displayed in the preview image 220, the user uses the visual guide 605 to view the electronic device 101. In the images included in the animation to be created, a subject having a fixed position may be selected. The position of the visual guide 605 may change in response to the electronic device 101 receiving a click, touch, and/or drag gesture performed within the preview image 220 . For example, in response to receiving a drag gesture that starts on the visual guide 605, such as the trajectory 820, and ends at the location 810, the electronic device 101 determines the location of the visual guide 605, position 810.

시각적 가이드(605)의 위치가 위치(810)로 변경된 상태에서, 아이콘(240)에 기반하는 촬영 입력을 수신하는 것에 응답하여, 전자 장치(101)는 위치(810)에 배치된 시각적 객체(612)에 대응하는 일 피사체(예, 도 3a의 직육면체에 대응하는 피사체(312)) 및 전자 장치(101) 사이의 거리를 식별할 수 있다. 거리 센서(예, 도 1 및/또는 도 3a의 거리 센서(154))가 레이저 센서에 대응하는 일 예에서, 전자 장치(101)는 레이저 센서를 이용하여 시각적 객체(612)에 대응하는 상기 일 피사체를 향하여 레이저 광을 방출하고, 상기 일 피사체로부터 반사되는 레이저 광에 기반하여, 상기 일 피사체 및 전자 장치(101) 사이의 거리를 획득할 수 있다. 거리 센서가 ToF 센서에 대응하는 일 예에서, 전자 장치(101)는 프리뷰 이미지(220)와 관련된 제1 카메라의 FOV와 적어도 일부분 중첩되는 FOV를 가지는 깊이 영상을 획득할 수 있다. 상기 깊이 영상 내에서, 위치(810)에 대응하는 깊이 값을 식별하는 것에 응답하여, 전자 장치(101)는 시각적 객체(612)에 대응하는 일 피사체 및 전자 장치(101) 사이의 거리를 식별할 수 있다.In a state where the position of the visual guide 605 is changed to the position 810, in response to receiving a photographing input based on the icon 240, the electronic device 101 displays a visual object 612 disposed at the position 810. A distance between a subject corresponding to ) (eg, the subject 312 corresponding to the rectangular parallelepiped of FIG. 3A ) and the electronic device 101 may be identified. In one example in which a distance sensor (eg, distance sensor 154 of FIGS. 1 and/or 3A ) corresponds to a laser sensor, electronic device 101 may use a laser sensor to correspond to the object 612 . Laser light may be emitted toward a subject, and a distance between the subject and the electronic device 101 may be obtained based on the laser light reflected from the subject. In an example in which the distance sensor corresponds to the ToF sensor, the electronic device 101 may obtain a depth image having an FOV overlapping at least partially with the FOV of the first camera associated with the preview image 220 . In response to identifying a depth value corresponding to a location 810 in the depth image, the electronic device 101 may identify a distance between the electronic device 101 and a subject corresponding to the visual object 612. can

일 실시예에 따른 전자 장치(101)는 위치(810)로 이동된 시각적 가이드에 의해 지시되는 피사체 및 전자 장치(101) 사이의 거리, 및 제1 이미지(610) 및 제2 이미지(620)들의 FOV들 사이의 차이에 기반하여, 제2 이미지(620)로부터 제1 이미지(610)와 교대로 표시될 제3 이미지(840)를 획득할 수 있다. 도 8을 참고하면, 전자 장치(101)가 위치(810)로 이동된 시각적 가이드에 의해 지시되는 피사체 및 전자 장치(101) 사이의 거리에 기반하여 제2 이미지(620) 내에서 선택한 일부분(830)이 도시된다. 상기 일부분(830)의 크기는 제1 이미지(610) 및 제2 이미지(620)들의 FOV들 각각의 크기의 비율과 관련될 수 있다. 상기 일부분(830)의 y 축에서의 위치는, 제1 이미지(610) 및 제2 이미지(620)들의 FOV들의 상기 y 축에 대응하는 방향(예, 수직 방향) 내에서의 차이와 관련될 수 있다. 상기 일부분(830)의 x 축에서의 위치는 상기 FOV들의 상기 x 축에 대응하는 방향(예, 수평 방향) 내에서의 차이 및 위치(810)로 이동된 시각적 객체에 의해 지시되는 피사체 및 전자 장치(101) 사이의 거리와 관련될 수 있다.The electronic device 101 according to an embodiment relates to a distance between a subject indicated by the visual guide moved to the position 810 and the electronic device 101, and the distance between the first image 610 and the second image 620. Based on the difference between the FOVs, a third image 840 to be displayed alternately with the first image 610 may be obtained from the second image 620 . Referring to FIG. 8 , a portion 830 selected within the second image 620 based on the distance between the electronic device 101 and a subject indicated by the visual guide to which the electronic device 101 has moved to a position 810 ) is shown. The size of the portion 830 may be related to a ratio of sizes of FOVs of the first image 610 and the second image 620 . The position of the portion 830 on the y-axis may be related to the difference in the FOVs of the first image 610 and the second image 620 in a direction corresponding to the y-axis (e.g., a vertical direction). there is. The position of the portion 830 in the x-axis is a subject and an electronic device indicated by a visual object moved to a position 810 and a difference in the direction (eg, horizontal direction) of the FOVs corresponding to the x-axis. (101) can be related to the distance between.

도 8을 참고하면, 위치(810)로 이동된 시각적 가이드에 의하여 결정된 일부분(830)과 함께, 도 6b의 일부분(628)이 함께 도시된다. 일부분들(628, 830)을 참고하면, 전자 장치(101)는 시각적 가이드(605)의 위치의 변경에 따라, 제2 이미지(620) 내에서 구별되는 일부분들(628, 830)을 선택할 수 있다. 도 8을 참고하면, 일 실시예에 따른 전자 장치가 일부분(830)을 스케일링하여 획득한 제3 이미지(840)가 도시된다. 제3 이미지(840)는 제1 이미지(610)와 교대로 표시되어, 입체감을 제공하는 애니메이션을 형성할 수 있다. 제1 이미지(610) 및 제3 이미지(840)를 참고하면, 위치(810)에 의해 지시되는 일 피사체에 대응하는 시각적 객체(622)의 제3 이미지(840) 내에서의 위치는, 제1 이미지(610) 내에서 상기 일 피사체에 대응하는 시각적 객체(612)의 위치와 실질적으로 일치할 수 있다. 제1 이미지(610) 및 제3 이미지(840) 내에서 시각적 객체들(612, 622)의 위치가 실질적으로 일치한 상태에서, 전자 장치(101)가 제1 이미지(610) 및 제3 이미지(840)를 교대로 표시함에 따라, 전자 장치(101)는 시각적 객체들(612, 622)에 대응하는 상기 일 피사체를 중심으로 형성된 호를 따라 상기 일 피사체를 촬영한 것과 같은 효과를 제공할 수 있다.Referring to FIG. 8 , portion 628 of FIG. 6B is shown together with portion 830 determined by the visual guide moved to position 810 . Referring to the portions 628 and 830, the electronic device 101 may select distinct portions 628 and 830 within the second image 620 according to a change in the position of the visual guide 605. . Referring to FIG. 8 , a third image 840 obtained by scaling a portion 830 by an electronic device according to an exemplary embodiment is shown. The third image 840 may be alternately displayed with the first image 610 to form an animation providing a three-dimensional effect. Referring to the first image 610 and the third image 840, the position of the visual object 622 corresponding to the subject indicated by the position 810 in the third image 840 is A location of the visual object 612 corresponding to the subject in the image 610 may be substantially coincident with that of the object. In a state in which the positions of the visual objects 612 and 622 are substantially identical in the first image 610 and the third image 840, the electronic device 101 displays the first image 610 and the third image ( 840), the electronic device 101 may provide the same effect as if the subject was photographed along an arc formed around the subject corresponding to the visual objects 612 and 622. .

상술한 바와 같이, 프리뷰 이미지(220) 내에 복수의 피사체들에 대응하는 시각적 객체들(612, 614, 616)이 표시된 상태에서, 일 실시예에 따른 전자 장치(101)는 시각적 가이드(605)와 관련된 사용자 입력에 의해 선택된 일 피사체 및 전자 장치(101) 사이의 거리를 식별할 수 있다. 식별된 거리는, 상기 일 피사체를 중심으로 형성된 호에 포함된 구별되는 시점들 상에서의 이미지들(예, 제1 이미지(610) 및 제3 이미지(840))을 획득하는데 이용될 수 있다. 전자 장치(101)는 획득된 이미지들을 연접하여, 입체감을 가지는 다른 이미지를 획득할 수 있다.As described above, in a state in which the visual objects 612, 614, and 616 corresponding to the plurality of subjects are displayed in the preview image 220, the electronic device 101 according to an embodiment displays the visual guide 605 and A distance between a subject selected by a related user input and the electronic device 101 may be identified. The identified distance may be used to acquire images (eg, the first image 610 and the third image 840) on distinct viewpoints included in an arc formed around the one subject. The electronic device 101 may obtain another image having a three-dimensional effect by concatenating the obtained images.

이하에서는, 도 9a 내지 9b를 참고하여, 일 실시예에 따른 전자 장치(101)가 복수의 카메라들에 기반하여 획득한 복수의 이미지들(예, 제1 이미지(610) 및 제3 이미지(840))에 기반하는 애니메이션을 생성하는 상태에서, 시간 영역에서 상기 복수의 이미지들 사이에 배치될 하나 이상의 다른 이미지들을 획득하는 동작이 설명된다.Hereinafter, with reference to FIGS. 9A and 9B , a plurality of images (eg, a first image 610 and a third image 840 acquired by the electronic device 101 according to an embodiment based on a plurality of cameras) )), an operation of acquiring one or more other images to be disposed between the plurality of images in the time domain is described.

도 9a 내지 9b는 일 실시예에 따른 전자 장치가 복수의 카메라들 각각으로부터 획득한 복수의 이미지들을 보간하는 동작을 설명하기 위한 예시적인 도면이다. 도 9a 내지 9b의 전자 장치는 도 1 내지 도 2, 도 3a 내지 3b의 전자 장치(101), 도 6a 내지 6c의 전자 장치에 대응할 수 있다. 이하에서는, 도 6c의 제1 이미지(610) 및 제3 이미지(630)를 획득한 상태에서, 일 실시예에 따른 전자 장치가, 제1 이미지(610) 및 제3 이미지(630)에 기반하는 애니메이션 내에서, 시간 영역에서 제1 이미지(610) 및 제3 이미지(630) 사이에 표시될 하나 이상의 다른 이미지들을 획득하는 동작이 설명된다. 비록 도 6c의 제1 이미지(610) 및 제3 이미지(630)를 획득한 상태에서의 전자 장치의 동작이 설명되지만, 실시예가 이에 제한되는 것은 아니며, 도 8의 전자 장치(101)도 후술되는 동작에 따라 애니메이션을 생성할 수 있다.9A and 9B are exemplary diagrams for explaining an operation of interpolating a plurality of images acquired from each of a plurality of cameras by an electronic device according to an embodiment. The electronic device of FIGS. 9A to 9B may correspond to the electronic device 101 of FIGS. 1 to 2 and 3A to 3B , and the electronic device of FIGS. 6A to 6C . Hereinafter, in a state in which the first image 610 and the third image 630 of FIG. 6C are acquired, the electronic device according to an embodiment is based on the first image 610 and the third image 630. Within the animation, the operation of obtaining one or more other images to be displayed between the first image 610 and the third image 630 in the time domain is described. Although the operation of the electronic device in the state in which the first image 610 and the third image 630 of FIG. 6C are acquired is described, the embodiment is not limited thereto, and the electronic device 101 of FIG. 8 will also be described later. You can create animations based on your actions.

도 9a를 참고하면, 일 실시예에 따른 전자 장치가, 제1 이미지(610) 및 제3 이미지(630)로부터 주기(930)를 따라 제공되는 애니메이션을 생성하기 위하여, 제1 이미지(610) 및 제3 이미지(630) 각각에 적용할 가중치를 나타내는 그래프들(910, 920)이 도시된다. 상기 주기(930)는, 예를 들어, 도 2의 텍스트(264)와 관련된 사용자 입력에 의해 조정될 수 있다. 도 9a를 참고하면, 전자 장치(101)가 제1 이미지(610) 및 제3 이미지(630)를 연접하여 획득하는 애니메이션은, 주기(930)를 따라, 제1 이미지(610) 및 제3 이미지(630)를 포함하는 복수의 이미지들이 교대로 재생되는 애니메이션일 수 있다. 일 실시예에 따른 전자 장치(101)는 그래프들(910, 920)에 의해 지시되는 가중치들에 따라 제1 이미지(610) 및 제3 이미지(630)를 보간하여, 제1 이미지(610) 및 제3 이미지(630) 사이에 표시되도록, 시간 축에서 제1 이미지(610) 및 제3 이미지(630) 사이에 배치되는 하나 이상의 이미지들을 획득할 수 있다. 전자 장치(101)가 제1 이미지(610) 및 제3 이미지(630)를 보간하여 획득하는 상기 하나 이상의 이미지들의 개수는, 예를 들어, 도 2의 텍스트(262)와 관련된 사용자 입력에 의해 조정된 프레임율과 관련될 수 있다.Referring to FIG. 9A , in order to generate an animation provided along a cycle 930 from a first image 610 and a third image 630, an electronic device according to an embodiment, a first image 610 and Graphs 910 and 920 showing weights to be applied to each of the third images 630 are shown. The period 930 may be adjusted by user input associated with text 264 of FIG. 2 , for example. Referring to FIG. 9A , an animation obtained by concatenating a first image 610 and a third image 630 by the electronic device 101 is a first image 610 and a third image along a cycle 930. It may be an animation in which a plurality of images including 630 are alternately reproduced. The electronic device 101 according to an embodiment interpolates the first image 610 and the third image 630 according to the weights indicated by the graphs 910 and 920 to obtain the first image 610 and One or more images disposed between the first image 610 and the third image 630 on the time axis may be obtained to be displayed between the third image 630 . The number of the one or more images obtained by interpolating the first image 610 and the third image 630 by the electronic device 101 is adjusted by, for example, a user input related to the text 262 of FIG. 2 . may be related to the frame rate.

도 9a를 참고하면, 그래프(910)는 제1 이미지(610)에 적용될 제1 가중치를 나타낸다. 그래프(920)는 제3 이미지(630)에 적용될 제2 가중치를 나타낸다. 일 실시예에 따른 전자 장치(101)는 주기(930) 내 복수의 시점들 각각에 대응하는 복수의 이미지들을, 그래프(910)에 의해 나타나는 제1 가중치가 적용된 제1 이미지(610) 및 그래프(920)에 의해 나타나는 제2 가중치가 적용된 제3 이미지(630)를 결합하여 획득할 수 있다. 제1 가중치가 적용된 제1 이미지(610) 및 제2 가중치가 적용된 제3 이미지(630)를 결합하는 것은 크로스 페이딩(Cross Fading)에 기반하여 수행될 수 있다. 예를 들어, 제1 가중치 및 제2 가중치들은, 제1 이미지(610) 및 제3 이미지(630) 각각에 포함된 복수의 픽셀들에 적용될 수 있다. 전자 장치(101)는, 획득된 복수의 이미지들을, 주기(930)를 따라 교대로 재생되는 애니메이션을 나타내는 이미지로써, 전자 장치(101) 내에 저장할 수 있다. 상기 복수의 시점들은 시간 축에서, 예를 들어, 도 2의 텍스트(262)와 관련된 사용자 입력에 의해 조정된 프레임율에 기반하는 시간 간격을 따라 이격될 수 있다. 예를 들어, 주기(930)의 길이(duration)가 2초에 대응하고, 프레임율이 50 fps에 대응하는 경우, 전자 장치(101)는 시간 축에서 0.02 초 간격을 따라 그래프들(910, 920) 각각에 대응하는 제1 가중치 및 제2 가중치를 샘플링한 값을 이용하여 제1 이미지(610) 및 제3 이미지(630)를 결합하여 획득된 100 개의 이미지들을, 주기(930)를 따라 교대로 재생되는 애니메이션을 나타내는 이미지로써 획득할 수 있다.Referring to FIG. 9A , a graph 910 represents a first weight to be applied to a first image 610 . A graph 920 represents a second weight to be applied to the third image 630 . The electronic device 101 according to an embodiment converts a plurality of images corresponding to each of a plurality of viewpoints within a period 930 into a first image 610 to which a first weight represented by the graph 910 is applied and a graph ( The third image 630 to which the second weight indicated by 920 is applied may be combined and obtained. Combining the first image 610 to which the first weight is applied and the third image 630 to which the second weight is applied may be performed based on cross fading. For example, the first weight and the second weight may be applied to a plurality of pixels included in each of the first image 610 and the third image 630 . The electronic device 101 may store the obtained plurality of images in the electronic device 101 as images representing animations alternately reproduced along the cycle 930 . The plurality of viewpoints may be spaced apart along the time axis along a time interval based on a frame rate adjusted by a user input related to text 262 of FIG. 2 , for example. For example, when the duration of the period 930 corresponds to 2 seconds and the frame rate corresponds to 50 fps, the electronic device 101 graphs 910 and 920 along the 0.02 second interval on the time axis. ) 100 images obtained by combining the first image 610 and the third image 630 using the values obtained by sampling the first weight and the second weight corresponding to each, alternately along a period 930 It can be obtained as an image representing the animation being played.

예를 들어, 주기(930) 내 시점 t0에서, 그래프(910)에 의해 나타나는 제1 가중치가 1이고, 그래프(920)에 의해 나타나는 제2 가중치가 0에 대응하므로, 시점 t0에서 재생될 이미지는 제1 이미지(610)에 대응할 수 있다. 시점 t0 및 시점 t1 사이의 시간 구간 내에서, 상기 제1 가중치가 점진적으로 감소되고, 상기 제2 가중치가 점진적으로 증가됨에 따라, 전자 장치(101)는 상기 시간 구간 내에서 제1 이미지(610)로부터 제3 이미지(630)로 전환되는 애니메이션을 나타내는 하나 이상의 이미지들을 획득할 수 있다. 시점 t1에서, 그래프(910)에 의해 나타나는 제1 가중치가 0이고, 그래프(920)에 의해 나타나는 제2 가중치가 1에 대응하므로, 시점 t1에서 재생될 이미지는 제3 이미지(630)에 대응할 수 있다. 시점 t1 및 시점 t2 사이의 시간 구간 내에서, 상기 제2 가중치가 점진적으로 감소되고, 상기 제1 가중치가 점진적으로 증가됨에 따라, 전자 장치(101)는 상기 시간 구간 내에서 제3 이미지(630)로부터 제1 이미지(610)로 전환되는 애니메이션을 나타내는 하나 이상의 이미지들을 획득할 수 있다. 시점 t2에서, 그래프(910)에 의해 나타나는 제1 가중치가 1이고, 그래프(920)에 의해 나타나는 제2 가중치가 0에 대응하므로, 시점 t2에서 재생될 이미지는, 시점 t0와 유사하게, 제1 이미지(610)에 대응할 수 있다. 상기 예시에서, 전자 장치(101)는 제1 이미지(610) 및 제3 이미지(630) 사이에서 순환되는 복수의 이미지들을 획득할 수 있다.For example, at time t0 in the period 930, since the first weight represented by the graph 910 is 1 and the second weight represented by the graph 920 corresponds to 0, the image to be reproduced at time t0 is It may correspond to the first image 610 . Within the time interval between time points t0 and time points t1, as the first weight is gradually decreased and the second weight is gradually increased, the electronic device 101 displays the first image 610 within the time interval. One or more images representing an animation that is switched from to the third image 630 may be obtained. At time t1, since the first weight represented by the graph 910 is 0 and the second weight represented by the graph 920 corresponds to 1, the image to be reproduced at time t1 may correspond to the third image 630. there is. Within the time interval between time points t1 and time points t2, as the second weight is gradually decreased and the first weight is gradually increased, the electronic device 101 generates a third image 630 within the time interval. One or more images representing an animation transitioning from to the first image 610 may be obtained. At time t2, since the first weight represented by the graph 910 is 1 and the second weight represented by the graph 920 corresponds to 0, the image to be reproduced at time t2, similarly to time t0, is the first It may correspond to image 610 . In the above example, the electronic device 101 may obtain a plurality of images cycled between the first image 610 and the third image 630 .

도 9b를 참고하면, 일 실시예에 따른 전자 장치가 제1 이미지(610) 및 제3 이미지(630) 각각에 포함된 복수의 픽셀들(912, 914, 922, 924)의 움직임에 기반하는 보간(예, 움직임 보간(Motion Interpolation))을 수행하여, 애니메이션에 포함되고, 시간 축에서 제1 이미지(610) 및 제3 이미지(630) 사이에 표시될, 하나 이상의 이미지들을 획득하는 일 예가 도시된다. 도 9b를 참고하면, 전자 장치는 제1 이미지(610)의 픽셀들 및 제3 이미지(630)의 픽셀들을 비교하여, 제1 이미지(610)의 픽셀들 및 제3 이미지(630)의 픽셀들 사이의 대응 관계를 획득할 수 있다. 예를 들어, 전자 장치는 제1 이미지(610)의 픽셀(912) 및 제3 이미지(630)의 픽셀(914)이 서로 대응함을 식별할 수 있다. 예를 들어, 전자 장치는 제1 이미지(610)의 픽셀(922) 및 제3 이미지(630)의 픽셀(924)이 서로 대응함을 식별할 수 있다. Referring to FIG. 9B , an electronic device performs interpolation based on motion of a plurality of pixels 912, 914, 922, and 924 included in each of a first image 610 and a third image 630 according to an embodiment. An example of obtaining one or more images to be included in an animation by performing (eg, motion interpolation) and to be displayed between the first image 610 and the third image 630 on the time axis is shown. . Referring to FIG. 9B , the electronic device compares the pixels of the first image 610 and the pixels of the third image 630 to compare the pixels of the first image 610 and the pixels of the third image 630. A correspondence between them can be obtained. For example, the electronic device may identify that the pixels 912 of the first image 610 and the pixels 914 of the third image 630 correspond to each other. For example, the electronic device may identify that the pixels 922 of the first image 610 and the pixels 924 of the third image 630 correspond to each other.

일 실시예에 따른 전자 장치는 상기 대응 관계에 의해 지시되는 제1 이미지(610) 및 제3 이미지(630) 각각의 픽셀들의 위치 관계에 기반하여, 제1 이미지(610) 및 제3 이미지(630) 사이에 표시될 하나 이상의 이미지들을 획득할 수 있다. 예를 들어, 전자 장치는 제1 이미지(610)에서의 픽셀(922)을, 제1 이미지(610)에서의 픽셀(922)의 제1 위치로부터 제3 이미지(630)에서의 픽셀(924)의 제2 위치로 점진적으로 이동하여, 상기 하나 이상의 이미지들을 획득할 수 있다. 유사하게, 전자 장치는 제1 이미지(610)의 픽셀(912)을, 프레임율 및 주기를 따라, 제3 이미지(630)에서의 픽셀(914)의 제2 위치를 향하여 이동하여, 상기 하나 이상의 이미지들을 획득할 수 있다.The electronic device according to an embodiment generates a first image 610 and a third image 630 based on a positional relationship between pixels of the first image 610 and the third image 630 indicated by the corresponding relationship. ) can obtain one or more images to be displayed between. For example, the electronic device converts the pixel 922 in the first image 610 to the pixel 924 in the third image 630 from the first position of the pixel 922 in the first image 610. The one or more images may be acquired by gradually moving to the second position of the . Similarly, the electronic device may move the pixel 912 of the first image 610, along the frame rate and period, towards the second location of the pixel 914 in the third image 630, such that the one or more images can be obtained.

비록 도시되지 않았지만, 도 7에서 상술된 바와 같이, 그래픽 객체(예, 도 7의 시각적 객체들(712, 714, 722, 724)에 대응하는 그래픽 객체들)가 제1 이미지(610) 및 제3 이미지(630) 각각에 결합된 경우에서도, 전자 장치는 도 9a 내지 9b에서 상술된 동작에 기반하여 제1 이미지(610) 및 제3 이미지(630)를 보간할 수 있다. 전자 장치가 제1 이미지(610), 제3 이미지(630) 및 제1 이미지(610) 및 제3 이미지(630)를 보간하여 획득한 하나 이상의 이미지들을 연접하여 애니메이션을 획득함에 따라, 상기 애니메이션은 제1 이미지(610) 및 제3 이미지(630)에 의해 나타나는 피사체의 위치 및/또는 크기의 변화를 보다 부드럽게 표현할 수 있다.Although not shown, as described above in FIG. 7 , graphic objects (eg, graphic objects corresponding to the visual objects 712 , 714 , 722 , and 724 of FIG. 7 ) are the first image 610 and the third image 610 . Even when combined with each image 630, the electronic device may interpolate the first image 610 and the third image 630 based on the operation described above in FIGS. 9A to 9B. As the electronic device obtains an animation by concatenating the first image 610, the third image 630, and one or more images obtained by interpolating the first image 610 and the third image 630, the animation A change in the position and/or size of the subject represented by the first image 610 and the third image 630 may be expressed more smoothly.

이하에서는 도 10 내지 도 13을 참고하여, 일 실시예에 따른 전자 장치의 동작이 상세히 설명된다.Hereinafter, an operation of an electronic device according to an exemplary embodiment will be described in detail with reference to FIGS. 10 to 13 .

도 10은 일 실시예에 따른 전자 장치의 동작을 설명하기 위한 흐름도이다. 도 10의 전자 장치는 도 1 내지 도 2의 전자 장치(101)에 대응할 수 있다. 예를 들어, 도 10의 동작들 중 적어도 하나는 도 1의 전자 장치(101) 및/또는 전자 장치(101)의 프로세서(110)에 의해 수행될 수 있다. 10 is a flowchart illustrating an operation of an electronic device according to an exemplary embodiment. The electronic device of FIG. 10 may correspond to the electronic device 101 of FIGS. 1 and 2 . For example, at least one of the operations of FIG. 10 may be performed by the electronic device 101 of FIG. 1 and/or the processor 110 of the electronic device 101 .

도 10을 참고하면, 동작(1010)에서, 일 실시예에 따른 전자 장치는, 제1 카메라를 이용하여, 디스플레이 상에 프리뷰 이미지를 표시할 수 있다. 전자 장치는, 지정된 어플리케이션을 실행하기 위한 사용자 입력을 식별하는 것에 응답하여, 동작(1010)의 프리뷰 이미지를 표시하는 것을 개시할 수 있다(may initiate). 예를 들어, 전자 장치는 상기 제1 카메라를 포함하는 복수의 카메라들(예, 도 1의 n 개의 카메라들(140-1, 140-2, ..., 140-n))을 포함할 수 있다. 복수의 카메라들의 FOV들은, 적어도 일부 중첩되거나, 또는 서로 구별될 수 있다. 상기 제1 카메라는 도 3a 내지 3b 및/또는 도 5a 내지 5b의 카메라(140-1)에 대응할 수 있다. 상기 프리뷰 이미지는 도 2, 도 6a 및/또는 도 8의 프리뷰 이미지(220)에 대응할 수 있다. 일 실시예에 따른 전자 장치는 제1 카메라를 통해 획득되는 복수의 이미지들 중 적어도 일부분에 기반하여, 디스플레이 상에 프리뷰 이미지를 표시할 수 있다. 상기 복수의 이미지들 각각은, 상기 제1 카메라의 FOV 내에 포함된 하나 이상의 피사체들(예, 도 3a의 피사체(310))에 대응하는 하나 이상의 제1 시각적 객체들(예, 도 6a의 시각적 객체들(612, 614, 616))을 포함할 수 있다.Referring to FIG. 10 , in operation 1010, the electronic device according to an embodiment may display a preview image on a display using a first camera. The electronic device may initiate displaying a preview image of operation 1010 in response to identifying a user input for executing a designated application. For example, the electronic device may include a plurality of cameras including the first camera (eg, n cameras 140-1, 140-2, ..., 140-n in FIG. 1). there is. The FOVs of the plurality of cameras may overlap at least partially or be distinguished from each other. The first camera may correspond to the camera 140-1 of FIGS. 3A to 3B and/or 5A to 5B. The preview image may correspond to the preview image 220 of FIGS. 2 , 6A and/or 8 . An electronic device according to an embodiment may display a preview image on a display based on at least a portion of a plurality of images acquired through a first camera. Each of the plurality of images includes one or more first visual objects (eg, a visual object of FIG. 6A ) corresponding to one or more subjects (eg, the subject 310 of FIG. 3A ) included in the FOV of the first camera. s (612, 614, 616)).

동작(1010)의 프리뷰 이미지를 표시하는 동안, 동작(1020)에서, 일 실시예에 따른 전자 장치는 촬영 입력을 수신하였는지 여부를 판단할 수 있다. 상기 촬영 입력은, 예를 들어, 도 2의 아이콘(240)을 클릭 및/또는 터치하는 사용자 입력을 포함할 수 있다. 촬영 입력을 수신하기 이전에(1020-아니오), 전자 장치는 동작(1010)에 기반하여 프리뷰 이미지를 표시하는 것을 유지할 수 있다. 일 실시예에서, 상기 촬영 입력은 전자 장치(101)의 하우징의 적어도 일부분을 통해 외부로 노출된 버튼을 누르는 사용자 입력을 포함할 수 있다.While displaying the preview image in operation 1010, in operation 1020, the electronic device according to an embodiment may determine whether a photographing input has been received. The photographing input may include, for example, a user input of clicking and/or touching the icon 240 of FIG. 2 . Before receiving a photographing input (1020 - No), the electronic device may maintain displaying a preview image based on operation 1010. In one embodiment, the photographing input may include a user input of pressing a button exposed to the outside through at least a portion of the housing of the electronic device 101 .

촬영 입력을 수신하는 것에 응답하여(1020-예), 동작(1030)에서, 일 실시예에 따른 전자 장치는 제1 카메라를 이용하여 제1 이미지를 획득할 수 있다. 상기 제1 이미지는, 동작(1010)의 프리뷰 이미지에 대응하는 FOV을 가질 수 있다. 상기 제1 이미지는, 예를 들어, 도 6a 내지 6c의 제1 이미지(610)에 대응할 수 있다. 상기 제1 이미지는 제1 카메라의 FOV 내에 포함된 하나 이상의 피사체들에 대응하는 하나 이상의 제1 시각적 객체들을 포함할 수 있다.In response to receiving a photographing input (1020-Yes), in operation 1030, the electronic device according to an embodiment may acquire a first image by using a first camera. The first image may have a FOV corresponding to the preview image of operation 1010 . The first image may correspond to, for example, the first image 610 of FIGS. 6A to 6C . The first image may include one or more first visual objects corresponding to one or more subjects included in the FOV of the first camera.

도 10을 참고하면, 동작(1040)에서, 일 실시예에 따른 전자 장치는 상기 제1 카메라와 구별되는 제2 카메라를 이용하여 제2 이미지를 획득할 수 있다. 상기 제2 카메라는, 전자 장치에 포함된 복수의 카메라들 중에서 상기 제1 카메라에 대하여 시차를 가지는 카메라에 대응할 수 있다. 예를 들어, 상기 제2 카메라는 도 3a 내지 3b 및/또는 도 5a의 카메라(140-2) 및/또는 도 5b의 카메라(140-4)에 대응할 수 있다. 일 실시예에 따른 전자 장치는, 촬영 입력을 수신하는 것에 응답하여, 상기 복수의 카메라들 중에서, 상기 하나 이상의 피사체들을 포함하고, 제1 카메라의 FOV에 대하여 시차를 가지는 FOV를 가지는 제2 카메라를 식별할 수 있다. 제1 카메라의 FOV에 대하여 시차를 가지는 FOV를 가지는 제2 카메라를 식별하는 것에 응답하여, 전자 장치는 제2 카메라를 통해 상기 하나 이상의 피사체들에 대응하는 하나 이상의 제2 시각적 객체들을 포함하는 제2 이미지를 획득할 수 있다. 제2 카메라의 FOV가 제1 카메라의 FOV에 대하여 시차를 가짐에 따라, 제2 이미지에 포함된 제2 시각적 객체들 및 제1 이미지에 포함된 제1 시각적 객체들은, 일 피사체를 구별되는 시점들에서 촬영한 형태를 가질 수 있다.Referring to FIG. 10 , in operation 1040, the electronic device according to an embodiment may obtain a second image using a second camera distinct from the first camera. The second camera may correspond to a camera having a parallax with respect to the first camera among a plurality of cameras included in the electronic device. For example, the second camera may correspond to the camera 140-2 of FIGS. 3A to 3B and/or 5A and/or the camera 140-4 of FIG. 5B. An electronic device according to an embodiment, in response to receiving a photographing input, selects a second camera, among the plurality of cameras, that includes the one or more subjects and has an FOV that is parallax with respect to the FOV of the first camera. can be identified. In response to identifying a second camera having an FOV having a parallax with respect to the FOV of the first camera, the electronic device generates a second camera including one or more second visual objects corresponding to the one or more subjects through the second camera. image can be obtained. As the FOV of the second camera has a parallax with respect to the FOV of the first camera, the second visual objects included in the second image and the first visual objects included in the first image are viewpoints that distinguish one subject. It can have a form photographed in

도 10의 동작들(1030, 1040)을 참고하면, 동작(1020)의 촬영 입력을 수신하는 것에 응답하여, 전자 장치는 제1 카메라 및 제2 카메라 전부를 제어하여, 제1 이미지 및 제2 이미지 전부를 획득할 수 있다. 예를 들어, 전자 장치는 동작들(1030, 1040)을 실질적으로 동시에 수행할 수 있다. 전자 장치가 동작들(1030, 1040)을 수행하는 순서는, 도 10에 도시된 일 실시예에 제한되지 않을 수 있다.Referring to operations 1030 and 1040 of FIG. 10 , in response to receiving a photographing input of operation 1020, the electronic device controls both the first camera and the second camera to obtain a first image and a second image. all can be obtained. For example, the electronic device may perform operations 1030 and 1040 substantially simultaneously. The order in which the electronic device performs the operations 1030 and 1040 may not be limited to the embodiment shown in FIG. 10 .

도 10을 참고하면, 동작(1050)에서, 일 실시예에 따른 전자 장치는, 제1 카메라 및/또는 제1 이미지 내 피사체와 관련된 정보에 따라 제2 이미지를 변환하여, 제3 이미지를 획득할 수 있다. 예를 들어, 도 6a 내지 6c 및/또는 도 8에서 상술된 바와 유사하게, 전자 장치는 제2 이미지를 변환하여 제3 이미지(예, 도 6c의 제3 이미지(630) 및/또는 도 8의 제3 이미지(830))를 획득할 수 있다. 예를 들어, 상기 정보는, 도 6a 내지 6c의 줌 배율, 수직 오프셋 또는 수평 오프셋 중 적어도 하나를 포함할 수 있다. 일 실시예에 따른 전자 장치는 동작(1040)의 제2 이미지로부터 변환되고, 동작(1030)의 제1 이미지에 포함된 하나 이상의 제1 시각적 객체들의 크기에 대응하는 크기를 가지는 하나 이상의 제2 시각적 객체들을 포함하는 제3 이미지를 획득할 수 있다.Referring to FIG. 10 , in operation 1050, the electronic device according to an embodiment obtains a third image by converting a second image according to information related to a first camera and/or a subject in the first image. can For example, similarly to FIGS. 6A to 6C and/or FIG. 8 , the electronic device converts the second image to a third image (eg, the third image 630 in FIG. 6C and/or the third image 630 in FIG. 8 ). A third image 830) may be obtained. For example, the information may include at least one of the zoom magnification, vertical offset, and horizontal offset of FIGS. 6A to 6C. According to an embodiment, the electronic device converts the second image in operation 1040 and has one or more second visual objects having a size corresponding to the size of one or more first visual objects included in the first image in operation 1030. A third image including objects may be obtained.

일 실시예에 따른 전자 장치는 상기 제1 이미지 내 피사체와 관련된 정보로써, 전자 장치에 포함된 센서(예, 도 1의 거리 센서(154))를 이용하여, 전자 장치 및 상기 피사체 사이의 거리를 식별할 수 있다. 전자 장치는, 식별된 거리에 기반하여 상기 제2 이미지를 변환하여, 상기 제3 이미지를 획득할 수 있다. 예를 들어, 전자 장치는 식별된 거리, 동작(1030)의 제1 이미지와 관련된 제1 카메라의 줌 배율(zoom factor), 또는 상기 제1 카메라의 FOV 및 상기 제2 카메라의 FOV 사이의 위치 관계를 나타내는 데이터 중 적어도 하나에 기반하여, 상기 제2 이미지를 변환할 수 있다.The electronic device according to an embodiment determines the distance between the electronic device and the subject using a sensor (eg, the distance sensor 154 of FIG. 1 ) included in the electronic device as information related to the subject in the first image. can be identified. The electronic device may acquire the third image by converting the second image based on the identified distance. For example, the electronic device may determine the identified distance, a zoom factor of the first camera associated with the first image of operation 1030, or a positional relationship between the FOV of the first camera and the FOV of the second camera. The second image may be converted based on at least one of data representing .

도 10을 참고하면, 동작(1060)에서, 일 실시예에 따른 전자 장치는, 동작(1030)의 제1 이미지 및 동작(1050)의 제3 이미지에 기반하는 애니메이션을 제공하기 위한 제4 이미지를 획득할 수 있다. 예를 들어, 전자 장치는 동작(1030)의 제1 이미지를 표시한 후 동작(1050)의 제3 이미지를 표시함으로써, 하나 이상의 피사체들에 대한 애니메이션을 제공하기 위한 제4 이미지를 획득할 수 있다. 예를 들어, 전자 장치는 동작(1030)의 제1 이미지 및 동작(1050)의 제3 이미지를 서로 연접함으로써, 하나 이상의 피사체들에 대한 애니메이션을 제공하기 위한 제4 이미지를 획득할 수 있다. 일 실시예에 따른 전자 장치는 제1 이미지에 대하여 시차를 가지는 제2 이미지를 변환하여 획득된 제3 이미지를, 제1 이미지와 연접함으로써, 하나 이상의 피사체들에 대한 시차를 가지는 애니메이션을 제공하기 위한 상기 제4 이미지를 획득할 수 있다. 상기 제4 이미지는, 동작(1030)의 제1 이미지, 동작(1050)의 제3 이미지 및 상기 제1 이미지 및 상기 제3 이미지를 보간하여 획득된 하나 이상의 제5 이미지들의 시퀀스를 포함할 수 있다. 예를 들어, 제4 이미지를 표시하는 전자 장치는, 상기 제1 이미지, 상기 제3 이미지 및 상기 하나 이상의 제5 이미지들을, 상기 시퀀스에 기반하여 순차적으로 표시할 수 있다. 전자 장치가 상기 하나 이상의 제5 이미지들을 획득하는 것은, 도 9a 내지 9b에서 상술된 바와 유사하게 수행될 수 있다. 상기 제4 이미지는, 예를 들어, 하나 이상의 피사체들 중 일 피사체를 중심으로 수평 방향을 따라 반복적으로 움직이는 애니메이션을 나타내는 흔들림 입체 사진(Wiggle Stereoscopy)에 대응할 수 있다.Referring to FIG. 10 , in operation 1060, the electronic device according to an embodiment generates a fourth image for providing animation based on the first image of operation 1030 and the third image of operation 1050. can be obtained For example, the electronic device may acquire a fourth image for providing animation for one or more subjects by displaying a third image of operation 1050 after displaying the first image of operation 1030. . For example, the electronic device may acquire a fourth image for providing animation for one or more subjects by connecting the first image of operation 1030 and the third image of operation 1050 to each other. An electronic device according to an embodiment is configured to provide an animation having a parallax for one or more subjects by concatenating a third image obtained by converting a second image having a parallax with respect to the first image and adjoining the first image. The fourth image may be obtained. The fourth image may include a first image of operation 1030, a third image of operation 1050, and a sequence of one or more fifth images obtained by interpolating the first image and the third image. . For example, the electronic device displaying the fourth image may sequentially display the first image, the third image, and the one or more fifth images based on the sequence. Acquiring the one or more fifth images by the electronic device may be performed similarly to the above-described method with reference to FIGS. 9A to 9B . The fourth image may correspond to, for example, a wiggle stereoscopy representing an animation that repeatedly moves in a horizontal direction centering on one of one or more subjects.

이하에서는, 도 11을 참고하여, 일 실시예에 따른 전자 장치가 동작(1040)의 제2 카메라를 식별하는 동작이 상세히 설명된다.Hereinafter, referring to FIG. 11 , an operation of identifying a second camera in operation 1040 by an electronic device according to an exemplary embodiment will be described in detail.

도 11은 일 실시예에 따른 전자 장치가 복수의 카메라들 중에서 적어도 하나 이상의 카메라를 선택하는 동작을 설명하기 위한 흐름도이다. 도 11의 전자 장치는 도 1 내지 도 2의 전자 장치(101)에 대응할 수 있다. 도 11의 동작들 중 적어도 하나는 도 1의 전자 장치(101) 및/또는 전자 장치(101)의 프로세서(110)에 의해 수행될 수 있다. 도 11의 동작들은 도 10의 동작들 중 적어도 하나(예, 동작(1040))와 관련될 수 있다. 도 11의 동작들은 도 3a 내지 3b 및/또는 도 5a 내지 5b에서 상술된 전자 장치(101)의 동작들과 관련될 수 있다.11 is a flowchart illustrating an operation of selecting at least one camera from among a plurality of cameras by an electronic device according to an exemplary embodiment. The electronic device of FIG. 11 may correspond to the electronic device 101 of FIGS. 1 and 2 . At least one of the operations of FIG. 11 may be performed by the electronic device 101 of FIG. 1 and/or the processor 110 of the electronic device 101 . The operations of FIG. 11 may relate to at least one of the operations of FIG. 10 (eg, operation 1040). The operations of FIG. 11 may be related to the operations of the electronic device 101 described above with reference to FIGS. 3A to 3B and/or 5A to 5B.

도 11을 참고하면, 동작(1110)에서, 일 실시예에 따른 전자 장치는, 전자 장치에 포함된 복수의 카메라들 중에서, 프리뷰 이미지를 표시하기 위해 이용되는 제1 카메라에 대하여 시차를 가지는 제2 카메라를 식별할 수 있다. 예를 들어, 전자 장치는 도 10의 동작(1020)의 촬영 입력을 수신하는 것에 응답하여, 복수의 카메라들 중 프리뷰 이미지를 제공하는 제1 카메라와 구별되는 하나 이상의 카메라들 중에서, 상기 프리뷰 이미지 및/또는 상기 제1 카메라에 의해 획득되는 제1 이미지에 대하여 시차를 가지는 이미지를 획득할 수 있는 위치에 배치된 제2 카메라를 식별할 수 있다. 상기 시차는, 사람의 양안 시차와 관련될 수 있다. 일 실시예에 따른 전자 장치가 동작(1110)을 수행하는 시점은, 촬영 입력을 수신하는 것과 독립적일 수 있다. 예를 들어, 전자 장치는 사용자에 의한 전자 장치의 기울임(예, 틸팅(tilting))을 식별하는 것에 응답하여, 동작(1110)을 수행할 수 있다.Referring to FIG. 11 , in operation 1110, the electronic device according to an embodiment, among a plurality of cameras included in the electronic device, a second camera having a parallax with respect to a first camera used to display a preview image. The camera can be identified. For example, in response to receiving a photographing input of operation 1020 of FIG. 10 , the electronic device selects the preview image and the /or a second camera disposed at a position capable of obtaining an image having a parallax with respect to the first image obtained by the first camera may be identified. The parallax may be related to human binocular parallax. A timing at which the electronic device performs operation 1110 according to an embodiment may be independent of receiving a photographing input. For example, the electronic device may perform operation 1110 in response to identifying tilt (eg, tilting) of the electronic device by the user.

일 실시예에 따른 전자 장치는, 전자 장치의 자세에 적어도 기반하여, 복수의 카메라들 중에서 도 10의 동작(1020)의 촬영 입력에 의하여 제어될 복수의 카메라들을 선택할 수 있다. 전자 장치에 의해 선택되는 복수의 카메라들은, 프리뷰 이미지를 제공하는 제1 카메라를 포함할 수 있다. 예를 들어, 전자 장치는 랜드스케이프 모드, 포트레이트 모드, 언폴딩 모드 또는 폴딩 모드 중 적어도 하나에 기반하여 나타나는 전자 장치의 자세에 기반하여, 단일 촬영 입력에 의하여 제어될 복수의 카메라들을 선택할 수 있다.The electronic device according to an embodiment may select a plurality of cameras to be controlled by the photographing input of operation 1020 of FIG. 10 from among the plurality of cameras based at least on the posture of the electronic device. The plurality of cameras selected by the electronic device may include a first camera providing a preview image. For example, the electronic device may select a plurality of cameras to be controlled by a single photographing input based on a posture of the electronic device that appears based on at least one of landscape mode, portrait mode, unfolding mode, and folding mode.

도 11을 참고하면, 동작(1120)에서, 일 실시예에 따른 전자 장치는 동작(1110)에 의해 식별된 제2 카메라를 이용하여 제2 이미지를 획득할 수 있다. 일 실시예에 따른 전자 장치는 도 10의 동작(1040)과 유사하게 동작(1120)을 수행할 수 있다. 예를 들어, 도 10의 동작(1020)의 촬영 입력을 수신하는 것에 응답하여, 전자 장치는 프리뷰 이미지를 제공하는 제1 카메라를 통해 제1 이미지를 획득함과 실질적으로 동시에, 동작(1110)에 의하여 식별된 제2 카메라를 통해 제2 이미지를 획득할 수 있다. Referring to FIG. 11 , in operation 1120, the electronic device according to an embodiment may obtain a second image using the second camera identified in operation 1110. An electronic device according to an embodiment may perform operation 1120 similar to operation 1040 of FIG. 10 . For example, in response to receiving a photographing input in operation 1020 of FIG. 10 , the electronic device obtains a first image through a first camera providing a preview image and substantially simultaneously, in operation 1110 A second image may be acquired through the second camera identified by

상술한 바와 같이, 일 실시예에 따른 전자 장치는 단일 촬영 입력을 수신하는 것에 응답하여, 시차를 가지는 적어도 두 카메라들을 동시에 제어하여, 시차를 가짐에 따라 입체감을 가지는 적어도 두 이미지들을 획득할 수 있다. 전자 장치는 획득된 적어도 두 이미지들에 기반하여, 입체감을 가지는 애니메이션을 제공하기 위한 이미지를 획득할 수 있다. 이하에서는 도 12를 참고하여, 전자 장치가 피사체 및 전자 장치 사이의 거리를 측정하기 위한 센서를 이용하여 수행하는 동작이 상세히 설명된다.As described above, in response to receiving a single photographing input, the electronic device according to an embodiment may simultaneously control at least two cameras having parallax to acquire at least two images having a 3D effect according to the parallax. . The electronic device may obtain an image for providing animation having a three-dimensional effect based on the obtained at least two images. Hereinafter, an operation performed by an electronic device using a sensor for measuring a distance between a subject and the electronic device will be described in detail with reference to FIG. 12 .

도 12는 일 실시예에 따른 전자 장치가 피사체 및 전자 장치 사이의 거리에 기반하여 수행하는 동작을 설명하기 위한 흐름도이다. 도 12의 전자 장치는 도 1 내지 도 2의 전자 장치(101)에 대응할 수 있다. 예를 들어, 도 12의 동작들 중 적어도 하나는 도 1의 전자 장치(101) 및/또는 전자 장치(101)의 프로세서(110)에 의해 수행될 수 있다. 도 12의 동작들은 도 10 내지 도 11의 동작들 중 적어도 하나와 관련될 수 있다. 도 12의 동작들은 도 8에서 상술된 전자 장치(101)의 동작과 관련될 수 있다.12 is a flowchart illustrating an operation performed by an electronic device based on a distance between a subject and the electronic device according to an exemplary embodiment. The electronic device of FIG. 12 may correspond to the electronic device 101 of FIGS. 1 and 2 . For example, at least one of the operations of FIG. 12 may be performed by the electronic device 101 of FIG. 1 and/or the processor 110 of the electronic device 101 . The operations of FIG. 12 may be related to at least one of the operations of FIGS. 10 to 11 . The operations of FIG. 12 may be related to the operation of the electronic device 101 described above with reference to FIG. 8 .

도 12를 참고하면, 동작(1210)에서, 일 실시예에 따른 전자 장치는 제1 카메라를 이용하여, 디스플레이 상에 프리뷰 이미지 및 프리뷰 이미지 상에 중첩되는 시각적 가이드를 표시할 수 있다. 상기 시각적 가이드는, 예를 들어, 도 6a 및/또는 도 8의 시각적 가이드(605)를 포함할 수 있다. 예를 들어, 전자 장치는 프리뷰 이미지를 표시하는 동안, 상기 제1 카메라의 FOV 내에 포함된 피사체에 대응하는 프리뷰 이미지 내 시각적 객체 상에 중첩되는 시각적 가이드를 표시할 수 있다. 시각적 가이드는, 도 8에서 상술된 바와 같이, 촬영 입력을 수행하기 이전에, 사용자에 의해 프리뷰 이미지 내에서 이동 가능할 수 있다. 시각적 가이드는, 상기 제1 카메라와 구별되는 제2 카메라에서 획득될 제2 이미지의 변환과 관련된 사용자 입력을 수신하기 위하여, 촬영 입력을 수신하기 이전에 프리뷰 이미지 상에 표시될 수 있다. 시각적 가이드는, 예를 들어, 프리뷰 이미지 내에 복수의 피사체들 각각에 대응하는 복수의 시각적 객체들이 표시된 상태에서, 복수의 피사체들 중 상기 제1 시각적 객체를 포커싱하기 위한 사용자 입력을 수신하는 것에 응답하여, 제1 시각적 객체 상에 중첩되도록 표시될 수 있다.Referring to FIG. 12 , in operation 1210, the electronic device according to an embodiment may use a first camera to display a preview image and a visual guide overlapping the preview image on the display. The visual guide may include, for example, the visual guide 605 of FIGS. 6A and/or 8 . For example, while displaying the preview image, the electronic device may display a visual guide overlapping a visual object in the preview image corresponding to a subject included in the FOV of the first camera. As described in detail with reference to FIG. 8 , the visual guide may be movable within the preview image by the user prior to performing a photographing input. A visual guide may be displayed on a preview image before receiving a photographing input in order to receive a user input related to conversion of a second image to be acquired by a second camera that is distinguished from the first camera. The visual guide may, for example, respond to receiving a user input for focusing a first visual object among a plurality of subjects in a state in which a plurality of visual objects corresponding to each of a plurality of subjects are displayed in a preview image. , may be displayed to overlap on the first visual object.

도 12를 참고하면, 동작(1220)에서, 일 실시예에 따른 전자 장치는 촬영 입력을 수신하였는지 여부를 판단할 수 있다. 예를 들어, 전자 장치는 도 10의 동작(1020)과 유사하게 동작(1220)을 수행할 수 있다. 촬영 입력을 수신하는 것에 응답하여(1220-예), 동작(1230)에서, 일 실시예에 따른 전자 장치는 제1 카메라를 이용하여 제1 이미지를 획득할 수 있다. 예를 들어, 전자 장치는 도 10의 동작(1030)과 유사하게 동작(1230)을 수행할 수 있다. Referring to FIG. 12 , in operation 1220, the electronic device according to an embodiment may determine whether a photographing input has been received. For example, the electronic device may perform operation 1220 similar to operation 1020 of FIG. 10 . In response to receiving a photographing input (1220-Yes), in operation 1230, the electronic device according to an embodiment may acquire a first image by using a first camera. For example, the electronic device may perform operation 1230 similar to operation 1030 of FIG. 10 .

도 12를 참고하면, 동작(1240)에서, 일 실시예에 따른 전자 장치는 센서를 이용하여, 프리뷰 이미지 내에서 시각적 가이드와 중첩된 시각적 객체에 대응하는 피사체 및 전자 장치 사이의 거리를 획득할 수 있다. 예를 들어, 동작(1230)의 촬영 입력을 수신하는 것에 응답하여, 전자 장치는 센서(예, 도 1, 도 3a 및/또는 도 5a 내지 5b의 거리 센서(154))를 이용하여 시각적 가이드에 의해 지시되는 일 피사체 및 전자 장치 사이의 거리를 식별할 수 있다.Referring to FIG. 12 , in operation 1240, the electronic device according to an embodiment may obtain a distance between a subject corresponding to a visual object overlapped with a visual guide in a preview image and the electronic device using a sensor. there is. For example, in response to receiving the photographing input of operation 1230, the electronic device uses a sensor (e.g., distance sensor 154 of FIGS. 1, 3A and/or 5A-5B) to provide a visual guide. It is possible to identify a distance between a subject indicated by the electronic device and the electronic device.

도 12를 참고하면, 동작(1250)에서, 일 실시예에 따른 전자 장치는 제2 카메라를 이용하여 제2 이미지를 획득할 수 있다. 예를 들어, 전자 장치는 도 10의 동작(1040)과 유사하게 동작(1250)을 수행할 수 있다. 일 실시예에 따른 전자 장치가 동작들(1230, 1240, 1250)을 수행하는 것은, 도 12에 도시된 순서에 제한되지 않으며, 예를 들어, 전자 장치는 동작들(1230, 1240, 1250)을 실질적으로 동시에 수행할 수 있다.Referring to FIG. 12 , in operation 1250, the electronic device according to an embodiment may acquire a second image using a second camera. For example, the electronic device may perform operation 1250 similar to operation 1040 of FIG. 10 . Performing the operations 1230, 1240, and 1250 by the electronic device according to an embodiment is not limited to the order shown in FIG. 12, and for example, the electronic device performs the operations 1230, 1240, and 1250. It can be done practically simultaneously.

도 12를 참고하면, 동작(1260)에서, 일 실시예에 따른 전자 장치는, 동작(1240)에 의하여 획득된 피사체 및 전자 장치 사이의 거리에 따라, 동작(1250)의 제2 이미지를 변환하여, 제3 이미지를 획득할 수 있다. 예를 들어, 피사체 및 전자 장치 사이의 거리에 기반하여, 전자 장치는 제2 이미지 내 일부분(예, 도 6c의 일부분(628) 및/또는 도 8의 일부분(830))을 식별할 수 있다. 전자 장치는 식별된 일부분을, 동작(1230)의 제1 이미지의 크기에 대응하는 크기로 스케일링하여, 상기 제3 이미지를 획득할 수 있다.Referring to FIG. 12 , in operation 1260, the electronic device according to an embodiment converts the second image of operation 1250 according to the distance between the subject and the electronic device obtained in operation 1240. , a third image may be obtained. For example, based on the distance between the subject and the electronic device, the electronic device may identify a portion (eg, portion 628 of FIG. 6C and/or portion 830 of FIG. 8 ) in the second image. The electronic device may acquire the third image by scaling the identified portion to a size corresponding to the size of the first image in operation 1230.

도 12를 참고하면, 동작(1270)에서, 일 실시예에 따른 전자 장치는 제1 이미지 및 제3 이미지에 기반하는 애니메이션을 제공하기 위한 제4 이미지를 획득할 수 있다. 예를 들어, 전자 장치는 도 10의 동작(1060)과 유사하게 동작(1270)을 수행할 수 있다. 일 실시예에 따른 전자 장치가 동작(1240)에 기반하여 획득된 피사체 및 전자 장치 사이의 거리에 기반하여 상기 제4 이미지를 획득함에 따라, 상기 제4 이미지는 동작(1210)의 시각적 가이드에 의해 지시되는 피사체를 중심으로 형성된 호를 따라 상기 피사체를 촬영한 애니메이션을 나타낼 수 있다.Referring to FIG. 12 , in operation 1270, the electronic device according to an embodiment may obtain a fourth image for providing animation based on the first image and the third image. For example, the electronic device may perform operation 1270 similar to operation 1060 of FIG. 10 . As the electronic device according to an embodiment acquires the fourth image based on the distance between the subject and the electronic device obtained in operation 1240, the fourth image is displayed by a visual guide in operation 1210. An animation in which the subject is photographed may be displayed along an arc formed around the indicated subject.

도 13은 일 실시예에 따른 전자 장치가 복수의 이미지들 각각에 시차를 가지는 하나 이상의 시각적 객체들을 결합하는 동작을 설명하기 위한 흐름도이다. 도 13의 전자 장치는 도 1 내지 도 2의 전자 장치(101)에 대응할 수 있다. 예를 들어, 도 13의 동작들 중 적어도 하나는 도 1의 전자 장치(101) 및/또는 전자 장치(101)의 프로세서(110)에 의해 수행될 수 있다. 도 13의 동작들은 도 10 내지 도 12의 동작들 중 적어도 하나와 관련될 수 있다. 도 13의 동작들은 도 7에서 상술된 전자 장치(101)의 동작과 관련될 수 있다.13 is a flowchart illustrating an operation of combining one or more visual objects having a parallax with each of a plurality of images by an electronic device according to an exemplary embodiment. The electronic device of FIG. 13 may correspond to the electronic device 101 of FIGS. 1 and 2 . For example, at least one of the operations of FIG. 13 may be performed by the electronic device 101 of FIG. 1 and/or the processor 110 of the electronic device 101 . The operations of FIG. 13 may be related to at least one of the operations of FIGS. 10 to 12 . The operations of FIG. 13 may be related to the operations of the electronic device 101 described above with reference to FIG. 7 .

도 13을 참고하면, 동작(1310)에서, 일 실시예에 따른 전자 장치는 일 실시예에 따른 전자 장치는 제1 카메라를 이용하여, 디스플레이 상에 프리뷰 이미지 및 프리뷰 이미지 상에 중첩되는 시각적 가이드를 표시할 수 있다. 예를 들어, 전자 장치는 도 10의 동작(1010) 및/또는 도 12의 동작(1210)과 유사하게, 동작(1310)을 수행할 수 있다.Referring to FIG. 13 , in operation 1310, the electronic device according to an embodiment uses a first camera to display a preview image and a visual guide superimposed on the preview image on the display. can be displayed For example, the electronic device may perform operation 1310 similar to operation 1010 of FIG. 10 and/or operation 1210 of FIG. 12 .

도 13을 참고하면, 동작(1320)에서, 일 실시예에 따른 전자 장치는 일 실시예에 따른 전자 장치는 촬영 입력을 수신하였는지 여부를 판단할 수 있다. 예를 들어, 전자 장치는 도 10의 동작(1020) 및/또는 도 12의 동작(1220)과 유사하게 동작(1320)을 수행할 수 있다. 촬영 입력을 수신하는 것에 응답하여(1320-예), 동작(1330)에서, 일 실시예에 따른 전자 장치는 제1 카메라를 이용하여 제1 이미지를 획득할 수 있다. 예를 들어, 전자 장치는 도 10의 동작(1030)및/또는 도 12의 동작(1230)과 유사하게 동작(1330)을 수행할 수 있다. 도 13을 참고하면, 동작(1340)에서, 일 실시예에 따른 전자 장치는 일 실시예에 따른 전자 장치는 제2 카메라를 이용하여 제2 이미지를 획득할 수 있다. 예를 들어, 전자 장치는 도 10의 동작(1040) 및/또는 도 13의 동작(1250)과 유사하게 동작(1340)을 수행할 수 있다. 일 실시예에 따른 전자 장치가 동작들(1330, 1340)을 수행하는 것은, 도 13에 도시된 순서에 제한되지 않으며, 예를 들어, 전자 장치는 동작들(1330, 1340)을 실질적으로 동시에 수행할 수 있다. 비록 도시되지 않았지만, 전자 장치는, 동작(1240)과 유사하게, 센서를 이용하여 피사체 및 전자 장치 사이의 거리를 획득할 수 있다.Referring to FIG. 13 , in operation 1320, the electronic device according to an embodiment may determine whether or not a photographing input has been received. For example, the electronic device may perform operation 1320 similar to operation 1020 of FIG. 10 and/or operation 1220 of FIG. 12 . In response to receiving a photographing input (1320-Yes), in operation 1330, the electronic device according to an embodiment may acquire a first image by using a first camera. For example, the electronic device may perform operation 1330 similar to operation 1030 of FIG. 10 and/or operation 1230 of FIG. 12 . Referring to FIG. 13 , in operation 1340, the electronic device according to an embodiment may acquire a second image by using a second camera. For example, the electronic device may perform operation 1340 similar to operation 1040 of FIG. 10 and/or operation 1250 of FIG. 13 . Performing the operations 1330 and 1340 by the electronic device according to an embodiment is not limited to the order shown in FIG. 13 , and for example, the electronic device performs the operations 1330 and 1340 substantially simultaneously. can do. Although not shown, similar to operation 1240, the electronic device may obtain a distance between the subject and the electronic device using a sensor.

도 13을 참고하면, 동작(1350)에서, 일 실시예에 따른 전자 장치는 일 실시예에 따른 전자 장치는, 제1 카메라 및/또는 제1 이미지 내 피사체와 관련된 정보에 따라 제2 이미지를 변환하여, 제3 이미지를 획득할 수 있다. 상기 정보는, 예를 들어, 전자 장치에 포함된 거리 센서(예, 도 1의 거리 센서(154))에 의해 획득된 깊이 영상(예, ToF 이미지) 및/또는 초점을 조절하기 위해 거리 센서로부터 방출된 레이저 광이 피사체에 의하여 반사된 거리를 포함할 수 있다. 예를 들어, 전자 장치는 도 10의 동작(1050) 및/또는 도 12의 동작(1260)과 유사하게 동작(1350)을 수행할 수 있다.Referring to FIG. 13 , in operation 1350, the electronic device according to an embodiment converts a second image according to information related to a first camera and/or a subject in the first image. Thus, a third image may be obtained. The information may be, for example, a depth image (eg, ToF image) obtained by a distance sensor included in the electronic device (eg, distance sensor 154 of FIG. 1 ) and/or from a distance sensor to adjust focus. The distance at which the emitted laser light is reflected by the subject may be included. For example, the electronic device may perform operation 1350 similar to operation 1050 of FIG. 10 and/or operation 1260 of FIG. 12 .

도 13을 참고하면, 동작(1360)에서, 일 실시예에 따른 전자 장치는 제1 이미지 및 제3 이미지에 기반하는 애니메이션 내에 추가될 하나 이상의 시각적 객체들을 획득할 수 있다. 상기 하나 이상의 시각적 객체들은 동작들(1330, 1340)의 제1 카메라 및 제2 카메라의 FOV들에 포함된 피사체와 독립적일 수 있다. 상기 하나 이상의 시각적 객체들은, 예를 들어, 도 2의 텍스트(266)와 관련된 사용자 입력에 의해 추가된 그래픽 객체를 포함할 수 있다.Referring to FIG. 13 , in operation 1360, the electronic device according to an embodiment may obtain one or more visual objects to be added to an animation based on the first image and the third image. The one or more visual objects may be independent of a subject included in FOVs of the first camera and the second camera of the operations 1330 and 1340 . The one or more visual objects may include, for example, a graphic object added by a user input related to the text 266 of FIG. 2 .

도 13을 참고하면, 동작(1370)에서, 일 실시예에 따른 전자 장치는 획득된 하나 이상의 시각적 객체들을, 하나 이상의 시각적 객체들 각각에 대응하는 시차에 따라 제1 이미지 및 제3 이미지에 결합할 수 있다. 예를 들어, 전자 장치는 도 7에서 상술된 바와 유사하게 동작(1370)을 수행할 수 있다. 일 실시예에서, 동작(1330)의 제1 이미지를 획득하는 것에 응답하여, 전자 장치는 제1 이미지에 포함된 제1 시각적 객체와 구별되는 제2 시각적 객체(예, 도 7의 시각적 객체들(712, 722))를, 제1 이미지에 결합할 수 있다. 일 실시예에서, 동작(1370)의 제3 이미지를 획득하는 것에 응답하여, 전자 장치는 제3 이미지에 포함된 제3 시각적 객체와 구별되고, 상기 제2 시각적 객체에 대하여 시차를 갖도록 상기 제2 시각적 객체를 변환하여 획득된, 제4 시각적 객체(예, 도 7의 시각적 객체들(714, 724))를, 제3 이미지에 결합할 수 있다.Referring to FIG. 13 , in operation 1370, the electronic device according to an embodiment may combine one or more acquired visual objects with a first image and a third image according to a disparity corresponding to each of the one or more visual objects. can For example, the electronic device may perform operation 1370 similar to that described above in FIG. 7 . In one embodiment, in response to obtaining the first image of operation 1330, the electronic device provides a second visual object that is distinct from the first visual object included in the first image (e.g., the visual objects in FIG. 7). 712 and 722)) may be combined with the first image. In one embodiment, in response to obtaining the third image of operation 1370, the electronic device distinguishes the second visual object included in the third image and has a parallax with respect to the second visual object. The fourth visual object (eg, the visual objects 714 and 724 of FIG. 7 ) obtained by converting the visual object may be combined with the third image.

도 13을 참고하면, 동작(1380)에서, 일 실시예에 따른 전자 장치는 제1 이미지 및 제3 이미지에 기반하는 애니메이션을 제공하기 위한 제4 이미지를 획득할 수 있다. 예를 들어, 전자 장치는 도 10의 동작(1060) 및/또는 도 12의 동작(1270)과 유사하게 동작(1380)을 수행할 수 있다. 전자 장치가 동작(1380)에 기반하여 획득하는 상기 제4 이미지는, 동작들(1330, 1360)의 제1 이미지 및 제3 이미지에 공통적으로 포함된 하나 이상의 피사체들과 관련된 애니메이션을 나타낼 수 있다.Referring to FIG. 13 , in operation 1380, the electronic device according to an embodiment may obtain a fourth image for providing animation based on the first image and the third image. For example, the electronic device may perform operation 1380 similar to operation 1060 of FIG. 10 and/or operation 1270 of FIG. 12 . The fourth image acquired by the electronic device based on the operation 1380 may represent an animation related to one or more subjects commonly included in the first and third images of the operations 1330 and 1360 .

상술한 바와 같이, 일 실시예에 따른 전자 장치는 한 번의 촬영 입력에 대응하여 복수의 카메라들을 동시에 제어할 수 있다. 전자 장치가 동시에 제어하는 복수의 카메라들의 조합은, 상기 조합에 의해 획득된 복수의 이미지들이 시차(disparity)를 갖도록, 전자 장치의 자세에 따라 구별될 수 있다. 일 실시예에 따른 전자 장치는 획득된 복수의 이미지들 중 적어도 하나를 변경하여, 시차에 의한 입체감을 제공하기 위한 애니메이션을 획득할 수 있다. 상기 애니메이션은, 3차원 디스플레이 및/또는 편광 디스플레이와 독립적으로 사용자에게 표시될 수 있다.As described above, the electronic device according to an embodiment may simultaneously control a plurality of cameras in response to a single photographing input. A combination of a plurality of cameras simultaneously controlled by the electronic device may be distinguished according to a posture of the electronic device so that a plurality of images obtained by the combination have a disparity. The electronic device according to an embodiment may change at least one of a plurality of acquired images to obtain an animation for providing a 3D effect due to parallax. The animation may be displayed to the user independently of the 3D display and/or the polarization display.

상술한 바와 같은, 일 실시예에 따른 전자 장치(electronic device)는, 디스플레이, 제1 카메라 및 상기 제1 카메라의 제1 FOV(Field-of-View)와 구별되는 제2 FOV를 가지는 제2 카메라를 포함하는 복수의 카메라들, 메모리 및 상기 디스플레이, 상기 복수의 카메라들 및 상기 메모리와 작동적으로 결합된 프로세서를 포함하고, 상기 메모리는 하나 이상의 인스트럭션들을 저장하고, 상기 하나 이상의 인스트럭션들은, 상기 프로세서에 의해 실행될 시에, 상기 프로세서가, 상기 제1 카메라를 통해 획득되는 복수의 이미지들 중 적어도 일부분에 기반하여, 상기 디스플레이 상에 프리뷰 이미지를 표시하고, 상기 복수의 이미지들 각각은, 상기 제1 FOV 내에 포함된 피사체에 대응하는 제1 시각적 객체를 포함하고, 상기 프리뷰 이미지를 표시하는 동안, 촬영 입력(shooting input)을 수신하고, 상기 촬영 입력을 수신하는 것에 응답하여, 상기 제1 카메라를 통해 상기 제1 시각적 객체를 포함하는 제1 이미지를 획득하고, 상기 제2 카메라를 통해 상기 피사체에 대응하는 제2 시각적 객체를 포함하는 제2 이미지를 획득하고, 상기 제2 이미지로부터 변환되고, 상기 제1 시각적 객체의 크기에 대응하는 크기를 가지는 상기 제2 시각적 객체를 포함하는 제3 이미지를 획득하고, 및 상기 제1 이미지를 표시한 후 상기 제3 이미지를 표시함으로써, 상기 피사체에 대한 애니메이션을 제공하기 위한 제4 이미지를 획득하는 것을 야기할 수 있다. As described above, an electronic device according to an embodiment includes a display, a first camera, and a second camera having a second FOV (Field-of-View) distinct from a first field-of-view (FOV) of the first camera. a plurality of cameras including a memory and the display, a processor operatively coupled to the plurality of cameras and the memory, the memory storing one or more instructions, the one or more instructions comprising: the processor When executed by, the processor displays a preview image on the display based on at least a portion of a plurality of images acquired through the first camera, and each of the plurality of images, the first It includes a first visual object corresponding to a subject included in the FOV, receives a shooting input while displaying the preview image, and in response to receiving the shooting input, through the first camera. A first image including the first visual object is obtained, a second image including a second visual object corresponding to the subject is acquired through the second camera, converted from the second image, and 1 Obtaining a third image including the second visual object having a size corresponding to the size of the visual object, and displaying the third image after displaying the first image, thereby providing animation for the subject. It may cause obtaining a fourth image for

예를 들어, 상기 전자 장치는, 센서를 더 포함하고, 상기 하나 이상의 인스트럭션들은, 상기 프로세서에 의해 실행될 시에, 상기 프로세서가, 상기 촬영 입력을 수신하는 것에 응답하여, 상기 센서를 이용하여 상기 전자 장치 및 상기 피사체 사이의 거리를 식별하고, 및 상기 식별된 거리에 기반하여 상기 제2 이미지를 변환하여, 상기 제3 이미지를 획득하는 것을 야기할 수 있다. For example, the electronic device further includes a sensor, and when the one or more instructions are executed by the processor, the processor, in response to receiving the photographing input, uses the sensor to perform the electronic device. identifying a distance between the device and the subject, and transforming the second image based on the identified distance, resulting in acquiring the third image.

예를 들어, 상기 하나 이상의 인스트럭션들은, 상기 프로세서에 의해 실행될 시에, 상기 프로세서가, 상기 피사체를 포함하는 복수의 피사체들이 상기 제1 FOV 내에 포함된 상태에서, 상기 프리뷰 이미지 내에 상기 복수의 피사체들 각각에 대응하는 복수의 시각적 객체들을 표시하고, 상기 프리뷰 이미지 내에서, 상기 복수의 시각적 객체들 중 상기 제1 시각적 객체를 포커싱하기 위한 사용자 입력을 수신하는 것에 응답하여, 상기 제1 시각적 객체 상에 중첩되는(superimposed on) 시각적 가이드(visual guide)를 표시하고, 및 상기 사용자 입력을 수신한 이후 상기 촬영 입력을 수신하는 것에 응답하여, 상기 센서를 이용하여 상기 시각적 가이드에 의해 지시되는 상기 피사체 및 상기 전자 장치 사이의 상기 거리를 식별하는 것을 야기할 수 있다. For example, the one or more instructions, when executed by the processor, cause the processor to select the plurality of subjects in the preview image in a state in which the plurality of subjects including the subject are included in the first FOV. Displaying a plurality of visual objects corresponding to each, and in response to receiving a user input for focusing the first visual object among the plurality of visual objects in the preview image, on the first visual object Displaying a superimposed on visual guide, and in response to receiving the photographing input after receiving the user input, the subject indicated by the visual guide and the subject using the sensor It may cause identifying the distance between the electronic devices.

예를 들어, 상기 하나 이상의 인스트럭션들은, 상기 프로세서에 의해 실행될 시에, 상기 프로세서가, 상기 센서를 이용하여 식별된 상기 전자 장치 및 상기 피사체 사이의 거리, 상기 제1 이미지와 관련된 상기 제1 카메라의 줌 배율(zoom factor), 또는 상기 제1 FOV 및 상기 제2 FOV 사이의 위치 관계를 나타내는 데이터 중 적어도 하나에 기반하여, 상기 제2 이미지를 변환하는 것을 야기할 수 있다. For example, the one or more instructions, when executed by the processor, may cause the processor to determine a distance between the subject and the electronic device identified using the sensor, the first camera associated with the first image. Based on at least one of a zoom factor or data indicating a positional relationship between the first FOV and the second FOV, the second image may be converted.

예를 들어, 상기 복수의 카메라들은, 상기 제1 FOV 및 상기 제2 FOV와 구별되는 제3 FOV를 가지는 제3 카메라를 더 포함하고, 상기 하나 이상의 인스트럭션들은, 상기 프로세서에 의해 실행될 시에, 상기 프로세서가, 상기 촬영 입력을 수신하는 것에 응답하여, 상기 제2 카메라 및 상기 제3 카메라 중에서, 상기 제1 이미지에 대하여 시차(disparity)를 가지는 이미지를 획득할 수 있는 위치에 배치된 상기 제2 카메라를, 상기 제4 이미지를 획득하기 위한 카메라로 식별하고, 및 상기 촬영 입력을 수신하는 것에 응답하여, 상기 제1 카메라를 통해 상기 제1 이미지를 획득하고, 상기 식별된 제2 카메라를 통해 상기 제2 이미지를 획득하는 것을 야기할 수 있다. For example, the plurality of cameras further include a third camera having a third FOV distinct from the first FOV and the second FOV, and the one or more instructions, when executed by the processor, The second camera disposed in a position where a processor can obtain an image having a disparity with respect to the first image, among the second camera and the third camera, in response to receiving the photographing input. is identified as a camera for acquiring the fourth image, and in response to receiving the photographing input, the first image is acquired through the first camera, and the first image is acquired through the identified second camera. 2 may cause the image to be acquired.

예를 들어, 상기 하나 이상의 인스트럭션들은, 상기 프로세서에 의해 실행될 시에, 상기 프로세서가, 상기 제1 이미지에 대하여 시차를 가지는 상기 제2 이미지를 변환하여 획득된 상기 제3 이미지를, 시간 영역 내에서(in a time domain) 상기 제1 이미지와 연접함으로써, 상기 피사체에 대한 시차를 가지는 상기 애니메이션을 제공하기 위한 상기 제4 이미지를 획득하는 것을 야기할 수 있다. For example, when the one or more instructions are executed by the processor, the processor converts the third image obtained by transforming the second image having a parallax with respect to the first image in the time domain. Concatenation with the first image (in a time domain) may result in obtaining the fourth image for providing the animation with a parallax for the subject.

예를 들어, 상기 하나 이상의 인스트럭션들은, 상기 프로세서에 의해 실행될 시에, 상기 프로세서가, 상기 제1 이미지를 획득하는 것에 응답하여, 상기 제1 시각적 객체 및 상기 제2 시각적 객체와 구별되는 제3 시각적 객체를, 상기 제1 이미지에 결합하고, 및 상기 제2 이미지를 획득하는 것에 응답하여, 상기 제3 시각적 객체에 대한 시차를 가지는 상기 애니메이션을 제공하도록 상기 제3 시각적 객체를 변환하여 획득된, 제4 시각적 객체를 상기 제2 이미지에 결합하는 것을 야기할 수 있다. For example, the one or more instructions, when executed by the processor, in response to the processor acquiring the first image, provide a third visual object distinct from the first visual object and the second visual object. Obtained by combining an object with the first image, and in response to obtaining the second image, transforming the third visual object to provide the animation having a parallax for the third visual object. 4 may cause binding of a visual object to the second image.

예를 들어, 상기 하나 이상의 인스트럭션들은, 상기 프로세서에 의해 실행될 시에, 상기 프로세서가, 상기 제1 이미지 및 상기 제3 이미지를 획득하는 것에 응답하여, 상기 제1 이미지 및 상기 제3 이미지의 보간에 기반하여, 상기 제1 이미지 및 상기 제3 이미지 사이의 하나 이상의 제5 이미지들을 획득하고, 및 시간 영역 내에서, 상기 제1 이미지, 상기 제3 이미지, 및 상기 하나 이상의 제5 이미지들을 연접하여, 상기 제4 이미지를 획득하는 것을 야기할 수 있다. For example, the one or more instructions, when executed by the processor, cause the processor, in response to obtaining the first image and the third image, to interpolate the first image and the third image. Based on, obtaining one or more fifth images between the first image and the third image, and concatenating the first image, the third image, and the one or more fifth images in the time domain, may cause obtaining the fourth image.

상술한 바와 같은, 일 실시예에 따른 전자 장치의 방법은, 상기 전자 장치의 복수의 카메라들 중 제1 카메라를 통해 획득되는 복수의 이미지들 중 적어도 일부분에 기반하여, 상기 전자 장치의 디스플레이 상에 프리뷰 이미지를 표시하는 동작, 상기 복수의 이미지들 각각은, 상기 제1 카메라의 제1 FOV(Field-Of-View) 내에 포함된 피사체에 대응하는 제1 시각적 객체를 포함하고, 상기 프리뷰 이미지를 표시하는 동안, 촬영 입력을 수신하는 동작, 상기 촬영 입력을 수신하는 것에 응답하여, 상기 제1 카메라를 통해 상기 제1 시각적 객체를 포함하는 제1 이미지를 획득하는 동작, 상기 촬영 입력을 수신하는 것에 응답하여, 상기 제1 카메라와 구별되는 상기 복수의 카메라들 중 제2 카메라를 통해 상기 피사체에 대응하는 제2 시각적 객체를 포함하는 제2 이미지를 획득하는 동작, 상기 제2 이미지로부터 변환되고, 상기 제1 시각적 객체의 크기에 대응하는 크기를 가지는 제2 시각적 객체를 포함하는 제3 이미지를 획득하는 동작 및 상기 제1 이미지를 표시한 후 상기 제3 이미지를 표시함으로써, 상기 피사체에 대한 애니메이션을 제공하기 위한 제4 이미지를 획득하는 동작을 포함할 수 있다. As described above, the method of the electronic device according to an embodiment, based on at least a portion of a plurality of images acquired through a first camera among a plurality of cameras of the electronic device, on the display of the electronic device Displaying a preview image, each of the plurality of images including a first visual object corresponding to a subject included in a first field-of-view (FOV) of the first camera, and displaying the preview image receiving a photographing input, obtaining a first image including the first visual object through the first camera in response to receiving the photographing input, and responding to receiving the photographing input. Thus, an operation of obtaining a second image including a second visual object corresponding to the subject through a second camera among the plurality of cameras distinguished from the first camera, converted from the second image, and the second image 1 Obtaining a third image including a second visual object having a size corresponding to the size of the visual object and displaying the third image after displaying the first image, thereby providing animation for the subject It may include an operation of obtaining a fourth image for.

예를 들어, 상기 촬영 입력을 수신하는 것에 응답하여, 상기 전자 장치의 센서를 이용하여 상기 전자 장치 및 상기 피사체 사이의 거리를 식별하는 동작을 더 포함하고, 상기 제3 이미지를 획득하는 동작은, 상기 식별된 거리에 기반하여 상기 제2 이미지를 변환하여, 상기 제3 이미지를 획득하는 동작을 더 포함할 수 있다. For example, in response to receiving the photographing input, further comprising identifying a distance between the electronic device and the subject using a sensor of the electronic device, and acquiring the third image, The method may further include obtaining the third image by transforming the second image based on the identified distance.

예를 들어, 상기 프리뷰 이미지를 표시하는 동작은, 상기 피사체를 포함하는 복수의 피사체들이 상기 제1 FOV 내에 포함된 상태에서, 상기 프리뷰 이미지 내에 상기 복수의 피사체들 각각에 대응하고, 상기 제1 시각적 객체를 포함하는 복수의 시각적 객체들을 표시하는 동작, 및 상기 프리뷰 이미지 내에서, 상기 복수의 피사체들 중 상기 제1 시각적 객체를 포커싱하기 위한 사용자 입력을 수신하는 것에 응답하여, 상기 제1 시각적 객체 상에 중첩되는 시각적 가이드를 표시하는 동작을 더 포함하고, 상기 거리를 식별하는 동작은, 상기 촬영 입력을 수신하는 것에 응답하여, 상기 센서를 이용하여 상기 시각적 가이드에 의해 지시되는 상기 피사체 및 상기 전자 장치 사이의 거리를 식별하는 동작을 더 포함할 수 있다. For example, the operation of displaying the preview image corresponds to each of the plurality of subjects in the preview image in a state in which the plurality of subjects including the subject are included in the first FOV, and the first visual In response to displaying a plurality of visual objects including an object and receiving a user input for focusing the first visual object among the plurality of subjects in the preview image, An operation of displaying a visual guide overlapping the distance, wherein the operation of identifying the distance includes, in response to receiving the photographing input, the subject indicated by the visual guide and the electronic device using the sensor. An operation of identifying a distance between the two may be further included.

예를 들어, 상기 촬영 입력을 수신하는 것에 응답하여, 상기 복수의 카메라들 중에서, 상기 제1 이미지에 대하여 시차를 가지는 이미지를 획득할 수 있는 위치에 배치된 상기 제2 카메라를, 상기 제4 이미지를 획득하기 위한 카메라로 식별하는 동작을 더 포함할 수 있다. For example, in response to receiving the photographing input, among the plurality of cameras, the second camera disposed in a position capable of obtaining an image having a parallax with respect to the first image may be set to the fourth image. It may further include an operation of identifying as a camera for obtaining .

예를 들어, 상기 제4 이미지를 획득하는 동작은, 상기 제1 이미지에 대하여 시차를 가지는 상기 제2 이미지를 변환하여 획득된 상기 제3 이미지를, 시간 영역 내에서 상기 제1 이미지와 연접함으로써, 상기 피사체에 대한 시차를 가지는 상기 애니메이션을 제공하기 위한 상기 제4 이미지를 획득하는 동작을 더 포함할 수 있다. For example, the obtaining of the fourth image may include concatenating the third image obtained by converting the second image having a parallax with respect to the first image with the first image in the time domain, The method may further include acquiring the fourth image for providing the animation having a parallax for the subject.

예를 들어, 상기 제1 이미지를 획득하는 것에 응답하여, 상기 제1 시각적 객체 및 상기 제2 시각적 객체와 구별되는 제3 시각적 객체를, 상기 제1 이미지에 결합하는 동작, 및 상기 제2 이미지를 획득하는 것에 응답하여, 상기 제3 시각적 객체에 대한 시차를 가지는 상기 애니메이션을 제공하도록 상기 제3 시각적 객체를 변환하여 획득된, 제4 시각적 객체를 상기 제2 이미지에 결합하는 동작을 더 포함할 수 있다. For example, in response to obtaining the first image, combining a third visual object distinct from the first visual object and the second visual object with the first image, and performing the second image In response to obtaining, the method may further include combining a fourth visual object obtained by transforming the third visual object with the second image to provide the animation having a parallax with respect to the third visual object. there is.

예를 들어, 상기 제1 이미지 및 상기 제3 이미지를 획득하는 것에 응답하여, 상기 제1 이미지 및 상기 제3 이미지의 보간에 기반하여, 상기 제1 이미지 및 상기 제3 이미지 사이의 하나 이상의 제5 이미지들을 획득하는 동작을 더 포함하고, 상기 제4 이미지를 획득하는 동작은, 시간 영역 내에서, 상기 제1 이미지, 상기 제3 이미지 및 상기 하나 이상의 제5 이미지들을 연접하여, 상기 제4 이미지를 획득하는 동작을 더 포함할 수 있다. For example, in response to obtaining the first image and the third image, based on interpolation of the first image and the third image, one or more fifth images between the first image and the third image. Further comprising obtaining images, wherein the obtaining of the fourth image comprises concatenating the first image, the third image, and the one or more fifth images in a time domain to obtain the fourth image. An acquiring operation may be further included.

상술한 바와 같은, 일 실시예에 따른 전자 장치(electronic device)는, 디스플레이, 서로 다른 FOV들(Field-of-Views)을 가지는 복수의 카메라들, 메모리 및 상기 디스플레이, 상기 복수의 카메라들 및 상기 메모리와 작동적으로 결합된 프로세서를 포함하고, 상기 메모리는 하나 이상의 인스트럭션들을 저장하고, 상기 하나 이상의 인스트럭션들은, 상기 프로세서에 의해 실행될 시에, 상기 프로세서가, 상기 복수의 카메라들 중 제1 카메라를 이용하여 상기 디스플레이 상에 프리뷰 이미지를 표시하고, 상기 프리뷰 이미지는, 상기 제1 카메라가 향하는 제1 FOV 내에 포함된 피사체에 대응하는 제1 시각적 객체를 포함하고, 상기 프리뷰 이미지를 표시하는 동안, 상기 제1 카메라와 관련된 촬영 입력(shooting input)을 수신하고, 상기 촬영 입력을 수신하는 것에 응답하여, 상기 복수의 카메라들 중에서, 상기 피사체를 포함하고, 상기 제1 카메라의 제1 FOV에 대하여 시차를 가지는 제2 FOV를 가지는 제2 카메라를 식별하고, 및 상기 제2 카메라를 식별하는 것에 응답하여, 상기 제1 카메라를 통해 상기 제1 시각적 객체를 포함하는 제1 이미지를 획득하고, 상기 식별된 제2 카메라를 통해 상기 피사체에 대응하는 제2 시각적 객체를 포함하는 제2 이미지를 획득하는 것을 야기할 수 있다. As described above, an electronic device according to an embodiment includes a display, a plurality of cameras having different FOVs (Field-of-Views), a memory and the display, the plurality of cameras, and the a processor operably coupled with a memory, the memory storing one or more instructions, the one or more instructions, when executed by the processor, causing the processor to: A preview image is displayed on the display using a preview image, the preview image includes a first visual object corresponding to a subject included in a first FOV toward which the first camera is directed, and while displaying the preview image, the A shooting input related to a first camera is received, and in response to receiving the shooting input, a parallax is determined with respect to a first FOV of the first camera including the subject among the plurality of cameras. identify a second camera having a second FOV, and in response to identifying the second camera, obtain a first image including the first visual object through the first camera; 2 may result in acquiring a second image including a second visual object corresponding to the subject through the camera.

예를 들어, 상기 전자 장치는, 센서를 더 포함하고, 상기 하나 이상의 인스트럭션들은, 상기 프로세서에 의해 실행될 시에, 상기 프로세서가, 상기 촬영 입력을 수신하는 것에 응답하여, 상기 센서를 이용하여, 상기 피사체 및 상기 전자 장치 사이의 거리를 획득하고, 상기 제1 이미지, 상기 제2 이미지 및 상기 거리를 획득하는 것에 응답하여, 상기 거리에 기반하여 상기 제2 이미지를 변환하여, 상기 제1 이미지 내에서의 상기 제1 시각적 객체의 크기와 관련된 크기를 가지는 상기 제2 시각적 객체를 포함하는, 제3 이미지를 획득하고, 및 시간 영역 내에서, 상기 제1 이미지 및 상기 제3 이미지를 서로 연접함으로써 상기 피사체에 대한 애니메이션을 제공하기 위한 제4 이미지를 획득하는 것을 야기할 수 있다. For example, the electronic device may further include a sensor, and when the one or more instructions are executed by the processor, the processor, in response to receiving the photographing input, uses the sensor to perform the Obtaining a distance between a subject and the electronic device, and in response to obtaining the first image, the second image, and the distance, converting the second image based on the distance, so that within the first image Obtaining a third image, including the second visual object having a size related to the size of the first visual object of, and connecting the first image and the third image to each other in the time domain to obtain the subject may result in obtaining a fourth image for providing an animation for .

예를 들어, 상기 하나 이상의 인스트럭션들은, 상기 프로세서에 의해 실행될 시에, 상기 프로세서가, 상기 제1 이미지를 획득하는 것에 응답하여, 상기 제1 시각적 객체 및 상기 제2 시각적 객체와 구별되는 제3 시각적 객체를, 상기 제1 이미지에 결합하고, 및 상기 제2 이미지를 획득하는 것에 응답하여, 상기 제3 시각적 객체에 대한 시차를 가지는 상기 애니메이션을 제공하도록 상기 제3 시각적 객체를 변환하여 획득된, 제4 시각적 객체를 상기 제2 이미지에 결합하는 것을 야기할 수 있다. For example, the one or more instructions, when executed by the processor, in response to the processor acquiring the first image, provide a third visual object distinct from the first visual object and the second visual object. Obtained by combining an object with the first image, and in response to obtaining the second image, transforming the third visual object to provide the animation having a parallax for the third visual object. 4 may cause binding of a visual object to the second image.

예를 들어, 상기 하나 이상의 인스트럭션들은, 상기 프로세서에 의해 실행될 시에, 상기 프로세서가, 상기 프리뷰 이미지를 표시하는 동안, 상기 피사체에 대응하는 상기 제1 시각적 객체 상에 중첩되고, 상기 제3 이미지의 획득을 위한 제2 이미지의 변환과 관련된 사용자 입력을 수신하기 위한 시각적 가이드를 표시하는 것을 야기할 수 있다. For example, the one or more instructions, when executed by the processor, are superimposed on the first visual object corresponding to the subject while displaying the preview image, and the third image may cause display of a visual guide for receiving user input related to transformation of the second image for acquisition.

예를 들어, 상기 하나 이상의 인스트럭션들은, 상기 프로세서에 의해 실행될 시에, 상기 프로세서가, 상기 제1 이미지 및 상기 제3 이미지를 획득하는 것에 응답하여, 상기 제1 이미지 및 상기 제3 이미지의 보간에 기반하여, 상기 제1 이미지 및 상기 제3 이미지 사이의 하나 이상의 제5 이미지들을 획득하고, 및 시간 영역 내에서, 상기 제1 이미지, 상기 제3 이미지, 및 상기 하나 이상의 제5 이미지들을 연접하여, 상기 제4 이미지를 획득하는 것을 야기할 수 있다. For example, the one or more instructions, when executed by the processor, cause the processor, in response to obtaining the first image and the third image, to interpolate the first image and the third image. Based on, obtaining one or more fifth images between the first image and the third image, and concatenating the first image, the third image, and the one or more fifth images in the time domain, may cause obtaining the fourth image.

상술한 바와 같은, 일 실시예에 따른 전자 장치의 방법은, 전자 장치에 포함된 복수의 카메라들 중 제1 카메라를 이용하여 전자 장치의 디스플레이 상에 프리뷰 이미지를 표시하는 동작, 상기 프리뷰 이미지는, 상기 제1 카메라가 향하는 제1 FOV 내에 포함된 피사체에 대응하는 제1 시각적 객체를 포함하고, 상기 프리뷰 이미지를 표시하는 동안, 상기 제1 카메라와 관련된 촬영 입력을 수신하는 동작, 상기 촬영 입력을 수신하는 것에 응답하여, 상기 복수의 카메라들 중에서, 상기 피사체를 포함하고, 상기 제1 카메라의 FOV에 대하여 시차를 가지는 제2 FOV를 가지는 제2 카메라를 식별하는 동작, 및 상기 제2 카메라를 식별하는 것에 응답하여, 상기 제1 카메라를 통해 상기 제1 시각적 객체를 포함하는 제1 이미지를 획득하고, 상기 식별된 제2 카메라를 통해 상기 피사체에 대응하는 제2 시각적 객체를 포함하는 제2 이미지를 획득하는 동작을 포함할 수 있다.As described above, the method of the electronic device according to an embodiment includes an operation of displaying a preview image on a display of the electronic device using a first camera among a plurality of cameras included in the electronic device, the preview image, An operation of including a first visual object corresponding to a subject included in a first FOV toward which the first camera is directed and receiving a photographing input related to the first camera while displaying the preview image; receiving the photographing input In response to doing, identifying a second camera among the plurality of cameras, including the subject, and having a second FOV having a parallax with respect to the FOV of the first camera, and identifying the second camera In response to this, a first image including the first visual object is acquired through the first camera, and a second image including a second visual object corresponding to the subject is obtained through the identified second camera. action may be included.

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 어플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The devices described above may be implemented as hardware components, software components, and/or a combination of hardware components and software components. For example, devices and components described in the embodiments include a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate array (FPGA), and a programmable PLU (programmable logic unit). logic unit), microprocessor, or any other device capable of executing and responding to instructions. The processing device may run an operating system (OS) and one or more software applications running on the operating system. A processing device may also access, store, manipulate, process, and generate data in response to execution of software. For convenience of understanding, there are cases in which one processing device is used, but those skilled in the art will understand that the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that it can include. For example, a processing device may include a plurality of processors or a processor and a controller. Other processing configurations are also possible, such as parallel processors.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 컴퓨터 저장 매체 또는 장치에 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may include a computer program, code, instructions, or a combination of one or more of the foregoing, which configures a processing device to operate as desired or processes independently or collectively. The device can be commanded. The software and/or data may be embodied in any tangible machine, component, physical device, computer storage medium or device to be interpreted by or to provide instructions or data to a processing device. there is. Software may be distributed on networked computer systems and stored or executed in a distributed manner. Software and data may be stored on one or more computer readable media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 이때, 매체는 컴퓨터로 실행 가능한 프로그램을 계속 저장하거나, 실행 또는 다운로드를 위해 임시 저장하는 것일 수도 있다. 또한, 매체는 단일 또는 수 개의 하드웨어가 결합된 형태의 다양한 기록수단 또는 저장수단일 수 있는데, 어떤 컴퓨터 시스템에 직접 접속되는 매체에 한정되지 않고, 네트워크 상에 분산 존재하는 것일 수도 있다. 매체의 예시로는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등을 포함하여 프로그램 명령어가 저장되도록 구성된 것이 있을 수 있다. 또한, 다른 매체의 예시로, 어플리케이션을 유통하는 앱 스토어나 기타 다양한 소프트웨어를 공급 내지 유통하는 사이트, 서버 등에서 관리하는 기록매체 내지 저장매체도 들 수 있다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer readable medium. In this case, the medium may continuously store a program executable by a computer or temporarily store the program for execution or download. In addition, the medium may be various recording means or storage means in the form of a single or combined hardware, but is not limited to a medium directly connected to a certain computer system, and may be distributed on a network. Examples of the medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical recording media such as CD-ROM and DVD, magneto-optical media such as floptical disks, and ROM, RAM, flash memory, etc. configured to store program instructions. In addition, examples of other media include recording media or storage media managed by an app store that distributes applications, a site that supplies or distributes various other software, and a server.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with limited examples and drawings, those skilled in the art can make various modifications and variations from the above description. For example, the described techniques may be performed in an order different from the method described, and/or components of the described system, structure, device, circuit, etc. may be combined or combined in a different form than the method described, or other components may be used. Or even if it is replaced or substituted by equivalents, appropriate results can be achieved.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다. Therefore, other implementations, other embodiments, and equivalents of the claims are within the scope of the following claims.

Claims (20)

전자 장치(electronic device)에 있어서,
디스플레이;
제1 카메라 및 상기 제1 카메라의 제1 FOV(Field-of-View)와 구별되는 제2 FOV를 가지는 제2 카메라를 포함하는 복수의 카메라들;
메모리; 및
상기 디스플레이, 상기 복수의 카메라들 및 상기 메모리와 작동적으로 결합된 프로세서를 포함하고,
상기 메모리는 하나 이상의 인스트럭션들을 저장하고, 상기 하나 이상의 인스트럭션들은, 상기 프로세서에 의해 실행될 시에, 상기 프로세서가,
상기 제1 카메라를 통해 획득되는 복수의 이미지들 중 적어도 일부분에 기반하여, 상기 디스플레이 상에 프리뷰 이미지를 표시하고, 상기 복수의 이미지들 각각은, 상기 제1 FOV 내에 포함된 피사체에 대응하는 제1 시각적 객체를 포함함;
상기 프리뷰 이미지를 표시하는 동안, 촬영 입력(shooting input)을 수신하고;
상기 촬영 입력을 수신하는 것에 응답하여, 상기 제1 카메라를 통해 상기 제1 시각적 객체를 포함하는 제1 이미지를 획득하고, 상기 제2 카메라를 통해 상기 피사체에 대응하는 제2 시각적 객체를 포함하는 제2 이미지를 획득하고;
상기 제2 이미지로부터 변환되고, 상기 제1 시각적 객체의 크기에 대응하는 크기를 가지는 상기 제2 시각적 객체를 포함하는 제3 이미지를 획득하고; 및
상기 제1 이미지를 표시한 후 상기 제3 이미지를 표시함으로써, 상기 피사체에 대한 애니메이션을 제공하기 위한 제4 이미지를 획득하는 것을 야기하는 전자 장치.
In an electronic device,
display;
a plurality of cameras including a first camera and a second camera having a second FOV different from a first field-of-view (FOV) of the first camera;
Memory; and
a processor operatively coupled with the display, the plurality of cameras, and the memory;
The memory stores one or more instructions, and the one or more instructions, when executed by the processor, cause the processor to:
A preview image is displayed on the display based on at least a portion of a plurality of images acquired through the first camera, and each of the plurality of images corresponds to a first subject included in the first FOV. contain visual objects;
receiving a shooting input while displaying the preview image;
In response to receiving the photographing input, a first image including the first visual object is obtained through the first camera, and a second image including a second visual object corresponding to the subject is acquired through the second camera. acquire 2 images;
obtaining a third image including the second visual object converted from the second image and having a size corresponding to the size of the first visual object; and
Displaying the third image after displaying the first image causes obtaining a fourth image for providing animation for the subject.
제1항에 있어서,
상기 전자 장치는, 센서를 더 포함하고,
상기 하나 이상의 인스트럭션들은, 상기 프로세서에 의해 실행될 시에, 상기 프로세서가,
상기 촬영 입력을 수신하는 것에 응답하여, 상기 센서를 이용하여 상기 전자 장치 및 상기 피사체 사이의 거리를 식별하고; 및
상기 식별된 거리에 기반하여 상기 제2 이미지를 변환하여, 상기 제3 이미지를 획득하는 것을 야기하는 전자 장치.
According to claim 1,
The electronic device further includes a sensor,
The one or more instructions, when executed by the processor, cause the processor to:
identifying a distance between the electronic device and the subject using the sensor in response to receiving the photographing input; and
Transforming the second image based on the identified distance, resulting in obtaining the third image.
제2항에 있어서,
상기 하나 이상의 인스트럭션들은, 상기 프로세서에 의해 실행될 시에, 상기 프로세서가,
상기 피사체를 포함하는 복수의 피사체들이 상기 제1 FOV 내에 포함된 상태에서, 상기 프리뷰 이미지 내에 상기 복수의 피사체들 각각에 대응하는 복수의 시각적 객체들을 표시하고;
상기 프리뷰 이미지 내에서, 상기 복수의 시각적 객체들 중 상기 제1 시각적 객체를 포커싱하기 위한 사용자 입력을 수신하는 것에 응답하여, 상기 제1 시각적 객체 상에 중첩되는(superimposed on) 시각적 가이드(visual guide)를 표시하고; 및
상기 사용자 입력을 수신한 이후 상기 촬영 입력을 수신하는 것에 응답하여, 상기 센서를 이용하여 상기 시각적 가이드에 의해 지시되는 상기 피사체 및 상기 전자 장치 사이의 상기 거리를 식별하는 것을 야기하는 전자 장치.
According to claim 2,
The one or more instructions, when executed by the processor, cause the processor to:
displaying a plurality of visual objects corresponding to each of the plurality of subjects in the preview image in a state in which a plurality of subjects including the subject are included in the first FOV;
In the preview image, a visual guide superimposed on the first visual object in response to receiving a user input for focusing the first visual object among the plurality of visual objects display; and
and in response to receiving the photographing input after receiving the user input, causing identification of the distance between the electronic device and the subject indicated by the visual guide using the sensor.
제2항에 있어서,
상기 하나 이상의 인스트럭션들은, 상기 프로세서에 의해 실행될 시에, 상기 프로세서가,
상기 센서를 이용하여 식별된 상기 전자 장치 및 상기 피사체 사이의 거리, 상기 제1 이미지와 관련된 상기 제1 카메라의 줌 배율(zoom factor), 또는 상기 제1 FOV 및 상기 제2 FOV 사이의 위치 관계를 나타내는 데이터 중 적어도 하나에 기반하여, 상기 제2 이미지를 변환하는 것을 야기하는 전자 장치.
According to claim 2,
The one or more instructions, when executed by the processor, cause the processor to:
The distance between the electronic device and the subject identified using the sensor, a zoom factor of the first camera related to the first image, or a positional relationship between the first FOV and the second FOV An electronic device that causes the second image to be converted based on at least one of the indicated data.
제1항에 있어서,
상기 복수의 카메라들은,
상기 제1 FOV 및 상기 제2 FOV와 구별되는 제3 FOV를 가지는 제3 카메라를 더 포함하고,
상기 하나 이상의 인스트럭션들은, 상기 프로세서에 의해 실행될 시에, 상기 프로세서가,
상기 촬영 입력을 수신하는 것에 응답하여, 상기 제2 카메라 및 상기 제3 카메라 중에서, 상기 제1 이미지에 대하여 시차(disparity)를 가지는 이미지를 획득할 수 있는 위치에 배치된 상기 제2 카메라를, 상기 제4 이미지를 획득하기 위한 카메라로 식별하고; 및
상기 촬영 입력을 수신하는 것에 응답하여, 상기 제1 카메라를 통해 상기 제1 이미지를 획득하고, 상기 식별된 제2 카메라를 통해 상기 제2 이미지를 획득하는 것을 야기하는 전자 장치.
According to claim 1,
The plurality of cameras,
A third camera having a third FOV distinct from the first FOV and the second FOV,
The one or more instructions, when executed by the processor, cause the processor to:
In response to receiving the photographing input, among the second camera and the third camera, the second camera disposed in a position capable of acquiring an image having a disparity with respect to the first image, identify as a camera for obtaining a fourth image; and
The electronic device causing, in response to receiving the photographing input, to acquire the first image through the first camera and acquire the second image through the identified second camera.
제5항에 있어서,
상기 하나 이상의 인스트럭션들은, 상기 프로세서에 의해 실행될 시에, 상기 프로세서가,
상기 제1 이미지에 대하여 시차를 가지는 상기 제2 이미지를 변환하여 획득된 상기 제3 이미지를, 시간 영역 내에서(in a time domain) 상기 제1 이미지와 연접함으로써, 상기 피사체에 대한 시차를 가지는 상기 애니메이션을 제공하기 위한 상기 제4 이미지를 획득하는 것을 야기하는 전자 장치.
According to claim 5,
The one or more instructions, when executed by the processor, cause the processor to:
By concatenating the third image obtained by converting the second image having a parallax with respect to the first image with the first image in a time domain, the image having a parallax with respect to the subject An electronic device that causes acquiring the fourth image for providing animation.
제1항에 있어서,
상기 하나 이상의 인스트럭션들은, 상기 프로세서에 의해 실행될 시에, 상기 프로세서가,
상기 제1 이미지를 획득하는 것에 응답하여, 상기 제1 시각적 객체 및 상기 제2 시각적 객체와 구별되는 제3 시각적 객체를, 상기 제1 이미지에 결합하고; 및
상기 제2 이미지를 획득하는 것에 응답하여, 상기 제3 시각적 객체에 대한 시차를 가지는 상기 애니메이션을 제공하도록 상기 제3 시각적 객체를 변환하여 획득된, 제4 시각적 객체를 상기 제2 이미지에 결합하는 것을 야기하는 전자 장치.
According to claim 1,
The one or more instructions, when executed by the processor, cause the processor to:
in response to acquiring the first image, combining a third visual object distinct from the first visual object and the second visual object to the first image; and
In response to acquiring the second image, combining a fourth visual object obtained by transforming the third visual object to the second image to provide the animation having a parallax for the third visual object. electronic device that causes it.
제1항에 있어서,
상기 하나 이상의 인스트럭션들은, 상기 프로세서에 의해 실행될 시에, 상기 프로세서가,
상기 제1 이미지 및 상기 제3 이미지를 획득하는 것에 응답하여, 상기 제1 이미지 및 상기 제3 이미지의 보간에 기반하여, 상기 제1 이미지 및 상기 제3 이미지 사이의 하나 이상의 제5 이미지들을 획득하고; 및
시간 영역 내에서, 상기 제1 이미지, 상기 제3 이미지, 및 상기 하나 이상의 제5 이미지들을 연접하여, 상기 제4 이미지를 획득하는 것을 야기하는 전자 장치.
According to claim 1,
The one or more instructions, when executed by the processor, cause the processor to:
in response to obtaining the first image and the third image, obtain one or more fifth images between the first image and the third image based on interpolation of the first image and the third image; ; and
and concatenating the first image, the third image, and the one or more fifth images within the time domain to obtain the fourth image.
전자 장치의 방법에 있어서,
상기 전자 장치의 복수의 카메라들 중 제1 카메라를 통해 획득되는 복수의 이미지들 중 적어도 일부분에 기반하여, 상기 전자 장치의 디스플레이 상에 프리뷰 이미지를 표시하는 동작, 상기 복수의 이미지들 각각은, 상기 제1 카메라의 제1 FOV(Field-Of-View) 내에 포함된 피사체에 대응하는 제1 시각적 객체를 포함함;
상기 프리뷰 이미지를 표시하는 동안, 촬영 입력을 수신하는 동작;
상기 촬영 입력을 수신하는 것에 응답하여, 상기 제1 카메라를 통해 상기 제1 시각적 객체를 포함하는 제1 이미지를 획득하는 동작;
상기 촬영 입력을 수신하는 것에 응답하여, 상기 제1 카메라와 구별되는 상기 복수의 카메라들 중 제2 카메라를 통해 상기 피사체에 대응하는 제2 시각적 객체를 포함하는 제2 이미지를 획득하는 동작;
상기 제2 이미지로부터 변환되고, 상기 제1 시각적 객체의 크기에 대응하는 크기를 가지는 제2 시각적 객체를 포함하는 제3 이미지를 획득하는 동작; 및
상기 제1 이미지를 표시한 후 상기 제3 이미지를 표시함으로써, 상기 피사체에 대한 애니메이션을 제공하기 위한 제4 이미지를 획득하는 동작을 포함하는 방법.
In the method of electronic device,
Displaying a preview image on a display of the electronic device based on at least a portion of a plurality of images acquired through a first camera among a plurality of cameras of the electronic device, each of the plurality of images, including a first visual object corresponding to a subject included in a first field-of-view (FOV) of the first camera;
receiving a photographing input while displaying the preview image;
obtaining a first image including the first visual object through the first camera in response to receiving the photographing input;
obtaining a second image including a second visual object corresponding to the subject through a second camera among the plurality of cameras distinguished from the first camera in response to receiving the photographing input;
obtaining a third image that is converted from the second image and includes a second visual object having a size corresponding to the size of the first visual object; and
and obtaining a fourth image for providing animation for the subject by displaying the third image after displaying the first image.
제9항에 있어서,
상기 촬영 입력을 수신하는 것에 응답하여, 상기 전자 장치의 센서를 이용하여 상기 전자 장치 및 상기 피사체 사이의 거리를 식별하는 동작을 더 포함하고,
상기 제3 이미지를 획득하는 동작은,
상기 식별된 거리에 기반하여 상기 제2 이미지를 변환하여, 상기 제3 이미지를 획득하는 동작을 더 포함하는 방법.
According to claim 9,
In response to receiving the photographing input, further comprising identifying a distance between the electronic device and the subject using a sensor of the electronic device;
The operation of obtaining the third image,
The method further comprising obtaining the third image by converting the second image based on the identified distance.
제9항에 있어서,
상기 프리뷰 이미지를 표시하는 동작은,
상기 피사체를 포함하는 복수의 피사체들이 상기 제1 FOV 내에 포함된 상태에서, 상기 프리뷰 이미지 내에 상기 복수의 피사체들 각각에 대응하고, 상기 제1 시각적 객체를 포함하는 복수의 시각적 객체들을 표시하는 동작; 및
상기 프리뷰 이미지 내에서, 상기 복수의 피사체들 중 상기 제1 시각적 객체를 포커싱하기 위한 사용자 입력을 수신하는 것에 응답하여, 상기 제1 시각적 객체 상에 중첩되는 시각적 가이드를 표시하는 동작을 더 포함하고,
상기 거리를 식별하는 동작은,
상기 촬영 입력을 수신하는 것에 응답하여, 상기 센서를 이용하여 상기 시각적 가이드에 의해 지시되는 상기 피사체 및 상기 전자 장치 사이의 거리를 식별하는 동작을 더 포함하는 방법.
According to claim 9,
The operation of displaying the preview image,
displaying a plurality of visual objects corresponding to each of the plurality of subjects in the preview image and including the first visual object in a state in which a plurality of subjects including the subject are included in the first FOV; and
In response to receiving a user input for focusing the first visual object among the plurality of subjects in the preview image, displaying a visual guide overlapping the first visual object;
The operation of identifying the distance,
In response to receiving the photographing input, the method may further include identifying a distance between the electronic device and the subject indicated by the visual guide using the sensor.
제9항에 있어서,
상기 촬영 입력을 수신하는 것에 응답하여, 상기 복수의 카메라들 중에서, 상기 제1 이미지에 대하여 시차를 가지는 이미지를 획득할 수 있는 위치에 배치된 상기 제2 카메라를, 상기 제4 이미지를 획득하기 위한 카메라로 식별하는 동작을 더 포함하는 방법.
According to claim 9,
In response to receiving the photographing input, among the plurality of cameras, the second camera disposed in a position capable of acquiring an image having a parallax with respect to the first image is configured to acquire the fourth image. A method further comprising an action identified by a camera.
제12항에 있어서,
상기 제4 이미지를 획득하는 동작은,
상기 제1 이미지에 대하여 시차를 가지는 상기 제2 이미지를 변환하여 획득된 상기 제3 이미지를, 시간 영역 내에서 상기 제1 이미지와 연접함으로써, 상기 피사체에 대한 시차를 가지는 상기 애니메이션을 제공하기 위한 상기 제4 이미지를 획득하는 동작을 더 포함하는 방법.
According to claim 12,
The operation of acquiring the fourth image,
The third image obtained by converting the second image having a parallax with respect to the first image is connected to the first image in a time domain to provide the animation having a parallax with respect to the subject. The method further comprising acquiring a fourth image.
제9항에 있어서,
상기 제1 이미지를 획득하는 것에 응답하여, 상기 제1 시각적 객체 및 상기 제2 시각적 객체와 구별되는 제3 시각적 객체를, 상기 제1 이미지에 결합하는 동작; 및
상기 제2 이미지를 획득하는 것에 응답하여, 상기 제3 시각적 객체에 대한 시차를 가지는 상기 애니메이션을 제공하도록 상기 제3 시각적 객체를 변환하여 획득된, 제4 시각적 객체를 상기 제2 이미지에 결합하는 동작을 더 포함하는 방법.
According to claim 9,
combining a third visual object distinct from the first visual object and the second visual object with the first image in response to obtaining the first image; and
In response to acquiring the second image, combining a fourth visual object obtained by transforming the third visual object with the second image to provide the animation having a parallax for the third visual object. How to include more.
제9항에 있어서,
상기 제1 이미지 및 상기 제3 이미지를 획득하는 것에 응답하여, 상기 제1 이미지 및 상기 제3 이미지의 보간에 기반하여, 상기 제1 이미지 및 상기 제3 이미지 사이의 하나 이상의 제5 이미지들을 획득하는 동작을 더 포함하고,
상기 제4 이미지를 획득하는 동작은,
시간 영역 내에서, 상기 제1 이미지, 상기 제3 이미지 및 상기 하나 이상의 제5 이미지들을 연접하여, 상기 제4 이미지를 획득하는 동작을 더 포함하는 방법.
According to claim 9,
In response to obtaining the first image and the third image, obtaining one or more fifth images between the first image and the third image based on interpolation of the first image and the third image. more action,
The operation of acquiring the fourth image,
and obtaining the fourth image by concatenating the first image, the third image, and the one or more fifth images in the time domain.
전자 장치(electronic device)에 있어서,
디스플레이;
서로 다른 FOV들(Field-of-Views)을 가지는 복수의 카메라들;
메모리; 및
상기 디스플레이, 상기 복수의 카메라들 및 상기 메모리와 작동적으로 결합된 프로세서를 포함하고,
상기 메모리는 하나 이상의 인스트럭션들을 저장하고, 상기 하나 이상의 인스트럭션들은, 상기 프로세서에 의해 실행될 시에, 상기 프로세서가,
상기 복수의 카메라들 중 제1 카메라를 이용하여 상기 디스플레이 상에 프리뷰 이미지를 표시하고, 상기 프리뷰 이미지는, 상기 제1 카메라가 향하는 제1 FOV 내에 포함된 피사체에 대응하는 제1 시각적 객체를 포함함;
상기 프리뷰 이미지를 표시하는 동안, 상기 제1 카메라와 관련된 촬영 입력(shooting input)을 수신하고;
상기 촬영 입력을 수신하는 것에 응답하여, 상기 복수의 카메라들 중에서, 상기 피사체를 포함하고, 상기 제1 카메라의 제1 FOV에 대하여 시차를 가지는 제2 FOV를 가지는 제2 카메라를 식별하고; 및
상기 제2 카메라를 식별하는 것에 응답하여, 상기 제1 카메라를 통해 상기 제1 시각적 객체를 포함하는 제1 이미지를 획득하고, 상기 식별된 제2 카메라를 통해 상기 피사체에 대응하는 제2 시각적 객체를 포함하는 제2 이미지를 획득하는 것을 야기하는 전자 장치.
In an electronic device,
display;
A plurality of cameras having different FOVs (Field-of-Views);
Memory; and
a processor operatively coupled with the display, the plurality of cameras, and the memory;
The memory stores one or more instructions, and the one or more instructions, when executed by the processor, cause the processor to:
Displaying a preview image on the display using a first camera among the plurality of cameras, wherein the preview image includes a first visual object corresponding to a subject included in a first FOV directed by the first camera ;
receive a shooting input related to the first camera while displaying the preview image;
In response to receiving the photographing input, identify a second camera including the subject and having a second FOV having a parallax with respect to the first FOV of the first camera, among the plurality of cameras; and
In response to identifying the second camera, a first image including the first visual object is obtained through the first camera, and a second visual object corresponding to the subject is obtained through the identified second camera. An electronic device that causes acquiring a second image comprising:
제16항에 있어서,
상기 전자 장치는, 센서를 더 포함하고,
상기 하나 이상의 인스트럭션들은, 상기 프로세서에 의해 실행될 시에, 상기 프로세서가,
상기 촬영 입력을 수신하는 것에 응답하여, 상기 센서를 이용하여, 상기 피사체 및 상기 전자 장치 사이의 거리를 획득하고,
상기 제1 이미지, 상기 제2 이미지 및 상기 거리를 획득하는 것에 응답하여, 상기 거리에 기반하여 상기 제2 이미지를 변환하여, 상기 제1 이미지 내에서의 상기 제1 시각적 객체의 크기와 관련된 크기를 가지는 상기 제2 시각적 객체를 포함하는, 제3 이미지를 획득하고; 및
시간 영역 내에서, 상기 제1 이미지 및 상기 제3 이미지를 서로 연접함으로써 상기 피사체에 대한 애니메이션을 제공하기 위한 제4 이미지를 획득하는 것을 야기하는 전자 장치.
According to claim 16,
The electronic device further includes a sensor,
The one or more instructions, when executed by the processor, cause the processor to:
In response to receiving the photographing input, obtain a distance between the subject and the electronic device using the sensor;
In response to obtaining the first image, the second image and the distance, transform the second image based on the distance to obtain a size related to the size of the first visual object in the first image. obtains a third image, the branch including the second visual object; and
and concatenating the first image and the third image with each other within the time domain to cause obtaining a fourth image for providing animation for the subject.
제17항에 있어서,
상기 하나 이상의 인스트럭션들은, 상기 프로세서에 의해 실행될 시에, 상기 프로세서가,
상기 제1 이미지를 획득하는 것에 응답하여, 상기 제1 시각적 객체 및 상기 제2 시각적 객체와 구별되는 제3 시각적 객체를, 상기 제1 이미지에 결합하고; 및
상기 제2 이미지를 획득하는 것에 응답하여, 상기 제3 시각적 객체에 대한 시차를 가지는 상기 애니메이션을 제공하도록 상기 제3 시각적 객체를 변환하여 획득된, 제4 시각적 객체를 상기 제2 이미지에 결합하는 것을 야기하는 전자 장치.
According to claim 17,
The one or more instructions, when executed by the processor, cause the processor to:
in response to acquiring the first image, combining a third visual object distinct from the first visual object and the second visual object to the first image; and
In response to acquiring the second image, combining a fourth visual object obtained by transforming the third visual object to the second image to provide the animation having a parallax for the third visual object. electronic device that causes it.
제17항에 있어서,
상기 하나 이상의 인스트럭션들은, 상기 프로세서에 의해 실행될 시에, 상기 프로세서가,
상기 프리뷰 이미지를 표시하는 동안, 상기 피사체에 대응하는 상기 제1 시각적 객체 상에 중첩되고, 상기 제3 이미지의 획득을 위한 제2 이미지의 변환과 관련된 사용자 입력을 수신하기 위한 시각적 가이드를 표시하는 것을 야기하는 전자 장치.
According to claim 17,
The one or more instructions, when executed by the processor, cause the processor to:
While displaying the preview image, displaying a visual guide superimposed on the first visual object corresponding to the subject and receiving a user input related to conversion of a second image for obtaining the third image. electronic device that causes it.
제17항에 있어서,
상기 하나 이상의 인스트럭션들은, 상기 프로세서에 의해 실행될 시에, 상기 프로세서가,
상기 제1 이미지 및 상기 제3 이미지를 획득하는 것에 응답하여, 상기 제1 이미지 및 상기 제3 이미지의 보간에 기반하여, 상기 제1 이미지 및 상기 제3 이미지 사이의 하나 이상의 제5 이미지들을 획득하고; 및
시간 영역 내에서, 상기 제1 이미지, 상기 제3 이미지, 및 상기 하나 이상의 제5 이미지들을 연접하여, 상기 제4 이미지를 획득하는 것을 야기하는 전자 장치.
According to claim 17,
The one or more instructions, when executed by the processor, cause the processor to:
in response to obtaining the first image and the third image, obtain one or more fifth images between the first image and the third image based on interpolation of the first image and the third image; ; and
and concatenating the first image, the third image, and the one or more fifth images within the time domain to obtain the fourth image.
KR1020210129297A 2021-09-13 2021-09-29 Electronic device for generating stereoscopy based on images obtained from multiple cameras and method thereof KR20230039466A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/KR2022/010179 WO2023038264A1 (en) 2021-09-13 2022-07-13 Electronic device for generating three-dimensional photo based on images acquired from plurality of cameras, and method therefor

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020210121695 2021-09-13
KR20210121695 2021-09-13

Publications (1)

Publication Number Publication Date
KR20230039466A true KR20230039466A (en) 2023-03-21

Family

ID=85801002

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210129297A KR20230039466A (en) 2021-09-13 2021-09-29 Electronic device for generating stereoscopy based on images obtained from multiple cameras and method thereof

Country Status (1)

Country Link
KR (1) KR20230039466A (en)

Similar Documents

Publication Publication Date Title
CN107636534B (en) Method and system for image processing
US8762846B2 (en) Method and system for adaptive viewport for a mobile device based on viewing angle
RU2623201C2 (en) Mobile display device
KR102348504B1 (en) Method for reducing parallax of a plurality of cameras and electronic device supporting the same
KR102146858B1 (en) Photographing apparatus and method for making a video
JP2011090400A (en) Image display device, method, and program
JP6576536B2 (en) Information processing device
JP2015149634A (en) Image display device and method
US11044398B2 (en) Panoramic light field capture, processing, and display
JP7392105B2 (en) Methods, systems, and media for rendering immersive video content using foveated meshes
CN111385470B (en) Electronic device, control method of electronic device, and computer-readable medium
JP7378243B2 (en) Image generation device, image display device, and image processing method
JP5253300B2 (en) Display control device, display device control method, program, and storage medium
JP2020004325A (en) Image processing device, image processing method, and program
WO2017118662A1 (en) Spherical virtual reality camera
CN111095348A (en) Transparent display based on camera
WO2020166376A1 (en) Image processing device, image processing method, and program
KR20230039466A (en) Electronic device for generating stereoscopy based on images obtained from multiple cameras and method thereof
KR102132406B1 (en) Display apparatus and control method thereof
KR20150010070A (en) Method and apparatus for dispalying images on portable terminal
JP6601392B2 (en) Display control apparatus, display control method, and program
JP2012141753A5 (en)
WO2023038264A1 (en) Electronic device for generating three-dimensional photo based on images acquired from plurality of cameras, and method therefor
JP2020108112A (en) Electronic apparatus and method for controlling the same
JP7358938B2 (en) Communication terminal, image communication system, display method, and program