KR20230039466A - Electronic device for generating stereoscopy based on images obtained from multiple cameras and method thereof - Google Patents
Electronic device for generating stereoscopy based on images obtained from multiple cameras and method thereof Download PDFInfo
- Publication number
- KR20230039466A KR20230039466A KR1020210129297A KR20210129297A KR20230039466A KR 20230039466 A KR20230039466 A KR 20230039466A KR 1020210129297 A KR1020210129297 A KR 1020210129297A KR 20210129297 A KR20210129297 A KR 20210129297A KR 20230039466 A KR20230039466 A KR 20230039466A
- Authority
- KR
- South Korea
- Prior art keywords
- image
- electronic device
- camera
- visual object
- subject
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 25
- 230000000007 visual effect Effects 0.000 claims abstract description 260
- 230000004044 response Effects 0.000 claims abstract description 95
- 230000001131 transforming effect Effects 0.000 claims description 10
- 230000009471 action Effects 0.000 claims description 4
- 238000006243 chemical reaction Methods 0.000 claims description 2
- 230000000694 effects Effects 0.000 abstract description 42
- 238000010586 diagram Methods 0.000 description 19
- 238000012545 processing Methods 0.000 description 16
- 230000008859 change Effects 0.000 description 14
- 230000001133 acceleration Effects 0.000 description 10
- 230000006870 function Effects 0.000 description 4
- 230000014509 gene expression Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 210000000887 face Anatomy 0.000 description 3
- 230000003247 decreasing effect Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000003213 activating effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 238000005562 fading Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 230000010287 polarization Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/02—Constructional features of telephone sets
- H04M1/0202—Portable telephone sets, e.g. cordless phones, mobile phones or bar type handsets
- H04M1/026—Details of the structure or mounting of specific components
- H04M1/0264—Details of the structure or mounting of specific components for a camera module assembly
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/243—Image signal generators using stereoscopic image cameras using three or more 2D image sensors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/57—Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/631—Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
- H04N23/632—Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
Abstract
Description
아래의 설명들은 복수의 카메라들로부터 획득된 이미지들에 기반하는 입체 사진을 생성하는 전자 장치 및 그 방법에 관한 것이다. The descriptions below relate to an electronic device and method for generating a stereoscopic picture based on images obtained from a plurality of cameras.
최근 전자 기술의 발전에 따라, 전자 장치에 의해 수행되는 기능이 증가하고 있다. 예를 들어, 사용자가 다양한 타입들의 멀티미디어 콘텐트를 생성하는 것을 지원하기 위하여, 전자 장치에 포함된 카메라의 개수 및 카메라의 성능이 개선되고 있다. 예를 들어, 서로 다른 거리의 피사체를 용이하게 촬영하기 위하여, 전자 장치는 서로 다른 FOV들(Field-Of-Views)을 가지는 복수의 카메라들을 포함할 수 있다.BACKGROUND OF THE INVENTION With the recent development of electronic technology, functions performed by electronic devices are increasing. For example, in order to support users to create various types of multimedia content, the number and performance of cameras included in electronic devices are being improved. For example, in order to easily photograph subjects at different distances, an electronic device may include a plurality of cameras having different FOVs (Field-Of-Views).
사용자가 전자 장치에 포함된 복수의 카메라들을 제어하여, 입체 사진을 획득하기 위한 방안이 요구될 수 있다.A method for obtaining a 3D picture by a user controlling a plurality of cameras included in an electronic device may be required.
입체감을 제공하도록 설계된 하드웨어 컴포넌트(예, 3차원 디스플레이)와 독립적으로, 전자 장치가 사용자에게 입체감을 가지는 멀티미디어 콘텐트를 재생하기 위한 방안이 요구될 수 있다.A method for an electronic device to reproduce multimedia content having a three-dimensional effect to a user independently of a hardware component (eg, a 3D display) designed to provide a three-dimensional effect may be required.
본 문서에서 이루고자 하는 기술적 과제는 상술한 기술적 과제로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다. The technical problem to be achieved in this document is not limited to the above-mentioned technical problem, and other technical problems not mentioned will be clearly understood by those skilled in the art from the description below. .
일 실시예(an embodiment)에 따른 전자 장치(electronic device)는, 디스플레이, 제1 카메라 및 상기 제1 카메라의 제1 FOV(Field-of-View)와 구별되는 제2 FOV를 가지는 제2 카메라를 포함하는 복수의 카메라들, 메모리 및 상기 디스플레이, 상기 복수의 카메라들 및 상기 메모리와 작동적으로 결합된 프로세서를 포함하고, 상기 메모리는 하나 이상의 인스트럭션들을 저장하고, 상기 하나 이상의 인스트럭션들은, 상기 프로세서에 의해 실행될 시에, 상기 프로세서가, 상기 제1 카메라를 통해 획득되는 복수의 이미지들 중 적어도 일부분에 기반하여, 상기 디스플레이 상에 프리뷰 이미지를 표시하고, 상기 복수의 이미지들 각각은, 상기 제1 FOV 내에 포함된 피사체에 대응하는 제1 시각적 객체를 포함하고, 상기 프리뷰 이미지를 표시하는 동안, 촬영 입력(shooting input)을 수신하고, 상기 촬영 입력을 수신하는 것에 응답하여, 상기 제1 카메라를 통해 상기 제1 시각적 객체를 포함하는 제1 이미지를 획득하고, 상기 제2 카메라를 통해 상기 피사체에 대응하는 제2 시각적 객체를 포함하는 제2 이미지를 획득하고, 상기 제2 이미지로부터 변환되고, 상기 제1 시각적 객체의 크기에 대응하는 크기를 가지는 상기 제2 시각적 객체를 포함하는 제3 이미지를 획득하고, 및 상기 제1 이미지를 표시한 후 상기 제3 이미지를 표시함으로써, 상기 피사체에 대한 애니메이션을 제공하기 위한 제4 이미지를 획득할 수 있다.An electronic device according to an embodiment includes a display, a first camera, and a second camera having a second FOV that is distinct from a first field-of-view (FOV) of the first camera. a plurality of cameras comprising: a memory and the display; a processor operatively coupled to the plurality of cameras and the memory, the memory storing one or more instructions, the one or more instructions to the processor; When executed by the processor, the processor displays a preview image on the display based on at least a portion of a plurality of images acquired through the first camera, each of the plurality of images, the first FOV It includes a first visual object corresponding to a subject included in the image, receives a shooting input while displaying the preview image, and receives the shooting input through the first camera in response to receiving the shooting input. A first image including a first visual object is acquired, a second image including a second visual object corresponding to the subject is acquired through the second camera, converted from the second image, and Obtaining a third image including the second visual object having a size corresponding to the size of the visual object, and displaying the third image after displaying the first image, thereby providing animation for the subject It is possible to obtain a fourth image for
일 실시예에 따른 전자 장치의 방법은, 상기 전자 장치의 복수의 카메라들 중 제1 카메라를 통해 획득되는 복수의 이미지들 중 적어도 일부분에 기반하여, 상기 전자 장치의 디스플레이 상에 프리뷰 이미지를 표시하는 동작, 상기 복수의 이미지들 각각은, 상기 제1 카메라의 제1 FOV(Field-Of-View) 내에 포함된 피사체에 대응하는 제1 시각적 객체를 포함하고, 상기 프리뷰 이미지를 표시하는 동안, 촬영 입력을 수신하는 동작, 상기 촬영 입력을 수신하는 것에 응답하여, 상기 제1 카메라를 통해 상기 제1 시각적 객체를 포함하는 제1 이미지를 획득하는 동작, 상기 촬영 입력을 수신하는 것에 응답하여, 상기 제1 카메라와 구별되는 상기 복수의 카메라들 중 제2 카메라를 통해 상기 피사체에 대응하는 제2 시각적 객체를 포함하는 제2 이미지를 획득하는 동작, 상기 제2 이미지로부터 변환되고, 상기 제1 시각적 객체의 크기에 대응하는 크기를 가지는 제2 시각적 객체를 포함하는 제3 이미지를 획득하는 동작 및 상기 제1 이미지를 표시한 후 상기 제3 이미지를 표시함으로써, 상기 피사체에 대한 애니메이션을 제공하기 위한 제4 이미지를 획득하는 동작을 포함할 수 있다. A method of an electronic device according to an embodiment includes displaying a preview image on a display of the electronic device based on at least a portion of a plurality of images obtained through a first camera among a plurality of cameras of the electronic device. Operation, each of the plurality of images includes a first visual object corresponding to a subject included in a first field-of-view (FOV) of the first camera, and while displaying the preview image, a shooting input In response to receiving the photographing input, obtaining a first image including the first visual object through the first camera, in response to receiving the photographing input, the first image Obtaining a second image including a second visual object corresponding to the subject through a second camera among the plurality of cameras distinguished from the camera, converted from the second image, and the size of the first visual object Obtaining a third image including a second visual object having a size corresponding to , and displaying the third image after displaying the first image, thereby providing a fourth image for providing animation for the subject. It may include an operation to acquire.
일 실시예에 따른 전자 장치(electronic device)는, 디스플레이, 서로 다른 FOV들(Field-of-Views)을 가지는 복수의 카메라들, 메모리 및 상기 디스플레이, 상기 복수의 카메라들 및 상기 메모리와 작동적으로 결합된 프로세서를 포함하고, 상기 메모리는 하나 이상의 인스트럭션들을 저장하고, 상기 하나 이상의 인스트럭션들은, 상기 프로세서에 의해 실행될 시에, 상기 프로세서가, 상기 복수의 카메라들 중 제1 카메라를 이용하여 상기 디스플레이 상에 프리뷰 이미지를 표시하고, 상기 프리뷰 이미지는, 상기 제1 카메라가 향하는 제1 FOV 내에 포함된 피사체에 대응하는 제1 시각적 객체를 포함하고, 상기 프리뷰 이미지를 표시하는 동안, 상기 제1 카메라와 관련된 촬영 입력(shooting input)을 수신하고, 상기 촬영 입력을 수신하는 것에 응답하여, 상기 복수의 카메라들 중에서, 상기 피사체를 포함하고, 상기 제1 카메라의 제1 FOV에 대하여 시차를 가지는 제2 FOV를 가지는 제2 카메라를 식별하고, 및 상기 제2 카메라를 식별하는 것에 응답하여, 상기 제1 카메라를 통해 상기 제1 시각적 객체를 포함하는 제1 이미지를 획득하고, 상기 식별된 제2 카메라를 통해 상기 피사체에 대응하는 제2 시각적 객체를 포함하는 제2 이미지를 획득하는 것을 야기할 수 있다. An electronic device according to an embodiment includes a display, a plurality of cameras having different FOVs (Field-of-Views), a memory, and the display, the plurality of cameras, and the memory and operatively a coupled processor, wherein the memory stores one or more instructions, which, when executed by the processor, causes the processor to: A preview image is displayed on , the preview image includes a first visual object corresponding to a subject included in a first FOV toward which the first camera is directed, and while displaying the preview image, the preview image includes a first visual object related to the first camera. A shooting input is received, and in response to receiving the shooting input, among the plurality of cameras, a second FOV including the subject and having a parallax with respect to the first FOV of the first camera is selected. identifies a second camera, and in response to identifying the second camera, acquires a first image including the first visual object through the first camera, and obtains the first image through the identified second camera. It may cause obtaining a second image including a second visual object corresponding to the subject.
일 실시예에 따른 전자 장치의 방법은, 전자 장치에 포함된 복수의 카메라들 중 제1 카메라를 이용하여 전자 장치의 디스플레이 상에 프리뷰 이미지를 표시하는 동작, 상기 프리뷰 이미지는, 상기 제1 카메라가 향하는 제1 FOV 내에 포함된 피사체에 대응하는 제1 시각적 객체를 포함하고, 상기 프리뷰 이미지를 표시하는 동안, 상기 제1 카메라와 관련된 촬영 입력을 수신하는 동작, 상기 촬영 입력을 수신하는 것에 응답하여, 상기 복수의 카메라들 중에서, 상기 피사체를 포함하고, 상기 제1 카메라의 FOV에 대하여 시차를 가지는 제2 FOV를 가지는 제2 카메라를 식별하는 동작, 및 상기 제2 카메라를 식별하는 것에 응답하여, 상기 제1 카메라를 통해 상기 제1 시각적 객체를 포함하는 제1 이미지를 획득하고, 상기 식별된 제2 카메라를 통해 상기 피사체에 대응하는 제2 시각적 객체를 포함하는 제2 이미지를 획득하는 동작을 포함할 수 있다.A method of an electronic device according to an embodiment includes an operation of displaying a preview image on a display of the electronic device using a first camera among a plurality of cameras included in the electronic device, wherein the preview image is displayed by the first camera An operation of including a first visual object corresponding to a subject included in a first FOV toward which the user is directed and receiving a photographing input related to the first camera while displaying the preview image; in response to receiving the photographing input, identifying a second camera among the plurality of cameras, including the subject, and having a second FOV having a parallax with respect to the FOV of the first camera; and in response to identifying the second camera, Acquiring a first image including the first visual object through a first camera, and obtaining a second image including a second visual object corresponding to the subject through the identified second camera. can
일 실시예에 따른 전자 장치는, 단일 촬영 입력만으로 입체 사진을 생성할 수 있다. An electronic device according to an embodiment may generate a 3D picture with only a single photographing input.
일 실시예에 따른 전자 장치가 생성하는 입체 사진은, 입체감을 제공하도록 설계된 하드웨어 컴포넌트와 독립적으로, 사용자에게 입체감을 제공할 수 있다.A 3D picture generated by an electronic device according to an embodiment may provide a 3D effect to a user independently of a hardware component designed to provide a 3D effect.
본 개시에서 얻을 수 있는 효과는 상술한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다. Effects obtainable in the present disclosure are not limited to the above-mentioned effects, and other effects not mentioned will be clearly understood by those skilled in the art from the description below.
도 1은 일 실시예에 따른 전자 장치의 블록도이다.
도 2는 일 실시예에 따른 전자 장치가 표시하는 UI(User Interface)의 일 예를 도시한 도면이다.
도 3a 내지 3b는 일 실시예에 따른 전자 장치가 복수의 카메라들 중에서 적어도 두 개의 카메라들을 선택하는 동작의 일 예를 설명하기 위한 도면이다.
도 4a 내지 4c는 외력에 의해 변형 가능한(deformable) 전자 장치의 구조를 설명하기 위한 예시적인 도면이다.
도 5a 내지 5b는 도 4a 내지 4c의 일 실시예에 따른 전자 장치가 복수의 카메라들 중에서 적어도 하나의 카메라를 선택하는 동작의 일 예를 설명하기 위한 도면이다.
도 6a 내지 6c는 일 실시예에 따른 전자 장치가 복수의 카메라들 각각을 이용하여 수행하는 동작을 설명하기 위한 예시적인 도면이다.
도 7은 일 실시예에 따른 전자 장치가 복수의 카메라들 각각으로부터 획득한 복수의 이미지들 각각에 하나 이상의 시각적 객체들을 결합하는 동작을 설명하기 위한 예시적인 도면이다.
도 8은 일 실시예에 따른 전자 장치가 복수의 피사체들 중 어느 한 피사체를 선택하는 사용자 입력에 기반하여 수행하는 동작을 설명하기 위한 예시적인 도면이다.
도 9a 내지 9b는 일 실시예에 따른 전자 장치가 복수의 카메라들 각각으로부터 획득한 복수의 이미지들을 보간하는 동작을 설명하기 위한 예시적인 도면이다.
도 10은 일 실시예에 따른 전자 장치의 동작을 설명하기 위한 흐름도이다.
도 11은 일 실시예에 따른 전자 장치가 복수의 카메라들 중에서 적어도 하나 이상의 카메라를 선택하는 동작을 설명하기 위한 흐름도이다.
도 12는 일 실시예에 따른 전자 장치가 피사체 및 전자 장치 사이의 거리에 기반하여 수행하는 동작을 설명하기 위한 흐름도이다.
도 13은 일 실시예에 따른 전자 장치가 복수의 이미지들 각각에 시차를 가지는 하나 이상의 시각적 객체들을 결합하는 동작을 설명하기 위한 흐름도이다.1 is a block diagram of an electronic device according to an exemplary embodiment.
2 is a diagram illustrating an example of a user interface (UI) displayed by an electronic device according to an exemplary embodiment.
3A to 3B are diagrams for explaining an example of an operation of selecting at least two cameras from among a plurality of cameras by an electronic device according to an embodiment.
4A to 4C are exemplary diagrams for explaining the structure of an electronic device deformable by an external force.
5A to 5B are diagrams for explaining an example of an operation of selecting at least one camera from among a plurality of cameras by the electronic device according to the embodiments of FIGS. 4A to 4C .
6A to 6C are exemplary diagrams for explaining an operation performed by an electronic device using each of a plurality of cameras according to an embodiment.
7 is an exemplary diagram for explaining an operation of combining one or more visual objects with each of a plurality of images acquired from each of a plurality of cameras by an electronic device according to an embodiment.
8 is an exemplary diagram for explaining an operation performed by an electronic device based on a user input for selecting one of a plurality of subjects according to an exemplary embodiment.
9A and 9B are exemplary diagrams for explaining an operation of interpolating a plurality of images acquired from each of a plurality of cameras by an electronic device according to an embodiment.
10 is a flowchart illustrating an operation of an electronic device according to an exemplary embodiment.
11 is a flowchart illustrating an operation of selecting at least one camera from among a plurality of cameras by an electronic device according to an exemplary embodiment.
12 is a flowchart illustrating an operation performed by an electronic device based on a distance between a subject and the electronic device according to an exemplary embodiment.
13 is a flowchart illustrating an operation of combining one or more visual objects having a parallax with each of a plurality of images by an electronic device according to an exemplary embodiment.
이하, 본 문서의 다양한 실시예들이 첨부된 도면을 참조하여 설명된다.Hereinafter, various embodiments of this document will be described with reference to the accompanying drawings.
본 문서의 다양한 실시 예들 및 이에 사용된 용어들은 본 문서에 기재된 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 해당 실시 예의 다양한 변경, 균등물, 및/또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및/또는 B 중 적어도 하나", "A, B 또는 C" 또는 "A, B 및/또는 C 중 적어도 하나" 등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", "첫째" 또는 "둘째" 등의 표현들은 해당 구성요소들을, 순서 또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에 "(기능적으로 또는 통신적으로) 연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제 3 구성요소)를 통하여 연결될 수 있다.Various embodiments of this document and terms used therein are not intended to limit the technology described in this document to a specific embodiment, and should be understood to include various modifications, equivalents, and/or substitutes of the embodiments. In connection with the description of the drawings, like reference numerals may be used for like elements. Singular expressions may include plural expressions unless the context clearly indicates otherwise. In this document, expressions such as "A or B", "at least one of A and/or B", "A, B or C" or "at least one of A, B and/or C" refer to all of the items listed together. Possible combinations may be included. Expressions such as "first", "second", "first" or "second" may modify the elements in any order or importance, and are used only to distinguish one element from another. The components are not limited. When a (e.g., first) element is referred to as being "(functionally or communicatively) coupled to" or "connected to" another (e.g., second) element, that element refers to the other (e.g., second) element. It may be directly connected to the component or connected through another component (eg, a third component).
본 문서에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구성된 유닛을 포함하며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로 등의 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 모듈은 ASIC(application-specific integrated circuit)으로 구성될 수 있다.The term "module" used in this document includes a unit composed of hardware, software, or firmware, and may be used interchangeably with terms such as logic, logic block, component, or circuit, for example. A module may be an integral part or a minimum unit or part thereof that performs one or more functions. For example, the module may be composed of an application-specific integrated circuit (ASIC).
도 1은 일 실시예에 따른 전자 장치(101)의 블록도이다. 일 실시예에 따른 전자 장치(101)는 프로세서(110), 메모리(120), 디스플레이(130), 카메라(140) 또는 센서(150) 중 적어도 하나를 포함할 수 있다. 프로세서(110), 메모리(120), 디스플레이(130), 카메라(140) 및 센서(150)는 통신 버스(a communication bus)와 같은 전자 소자(electronical component)에 의해 서로 전기적으로 및/또는 작동적으로 연결될 수 있다(electronically and/or operably coupled with each other). 전자 장치(101)에 포함된 하드웨어 컴포넌트의 타입 및/또는 개수는 도 1에 도시된 바에 제한되지 않는다. 예를 들어, 전자 장치(101)는 도 1에 도시된 하드웨어 컴포넌트 중 일부만 포함할 수 있다. 일 실시예에 따른 전자 장치(101)는 사용자에 의해 소유되는(be owned by) 단말일 수 있다. 단말은, 예를 들어, 랩톱 및 데스크톱과 같은 개인용 컴퓨터(Personal Computer, PC), 스마트폰(smartphone), 스마트패드(smartpad), 태블릿 PC(Personal Computer), 스마트워치(smartwatch) 및 HMD(Head-Mounted Device)와 같은 스마트액세서리를 포함할 수 있다.1 is a block diagram of an
일 실시예에 따른 전자 장치(101)의 프로세서(110)는 하나 이상의 인스트럭션에 기반하여 데이터를 처리하기 위한 하드웨어 컴포넌트를 포함할 수 있다. 데이터를 처리하기 위한 하드웨어 컴포넌트는, 예를 들어, ALU(Arithmetic and Logic Unit), FPGA(Field Programmable Gate Array) 및/또는 CPU(Central Processing Unit)를 포함할 수 있다. 프로세서(110)의 개수는 하나 이상일 수 있다. 예를 들어, 프로세서(110)는 듀얼 코어(dual core), 쿼드 코어(quad core) 또는 헥사 코어(hexa core)와 같은 멀티-코어 프로세서의 구조를 가질 수 있다.The processor 110 of the
일 실시예에 따른 전자 장치(101)의 메모리(120)는 프로세서(110)에 입력 및/또는 출력되는 데이터 및/또는 인스트럭션을 저장하기 위한 하드웨어 컴포넌트를 포함할 수 있다. 메모리(120)는, 예를 들어, RAM(Random-Access Memory)와 같은 휘발성 메모리(Volatile Memory) 및/또는 ROM(Read-Only Memory)와 같은 비휘발성 메모리(Non-Volatile Memory)를 포함할 수 있다. 휘발성 메모리는, 예를 들어, DRAM(Dynamic RAM), SRAM(Static RAM), Cache RAM, PSRAM (Pseudo SRAM) 중 적어도 하나를 포함할 수 있다. 비휘발성 메모리는, 예를 들어, PROM(Programmable ROM), EPROM (Erasable PROM), EEPROM (Electrically Erasable PROM), 플래시 메모리, 하드디스크, 컴팩트 디스크, eMMC(Embedded Multi Media Card) 중 적어도 하나를 포함할 수 있다.The memory 120 of the
일 실시예에 따른 전자 장치(101)의 메모리(120) 내에서, 프로세서(110)가 데이터에 수행할 동작을 나타내는 인스트럭션이 하나 이상 저장될 수 있다. 인스트럭션의 집합은, 펌웨어, 운영 체제, 프로세스, 루틴, 서브-루틴 및/또는 어플리케이션으로 참조될 수 있다. 예를 들어, 전자 장치(101)의 프로세서(110)는 어플리케이션 형태로 배포된 복수의 인스트럭션의 집합(set of a plurality of instructions)을 실행하여, 후술되는 전자 장치의 동작(예, 도 10 내지 도 13의 동작들 중 적어도 하나)을 수행할 수 있다.One or more instructions indicating an operation to be performed on data by the processor 110 may be stored in the memory 120 of the
일 실시예에 따른 전자 장치(101)의 디스플레이(130)는 사용자에게 시각화된 정보(예를 들어, 도 2, 도 6a 및/또는 도 8의 화면들 중 적어도 하나)를 출력할 수 있다. 상기 시각화된 정보는, 예를 들어, 전자 장치(101)의 프로세서(110)에 의해 실행되고 있는 어플리케이션에 의해 생성될 수 있다. 예를 들어, 디스플레이(130)는, 프로세서(110)에 포함되거나, 또는 프로세서(110)와 독립적으로 전자 장치(101) 내에 배치된 GPU(Graphic Processing Unit)와 같은 컨트롤러에 의해 제어되어, 사용자에게 시각화된 정보(visualized information)를 출력할 수 있다. 디스플레이(130)는 FPD(Flat Panel Display) 및/또는 전자 종이(electronic paper)를 포함할 수 있다. 상기 FPD는 LCD(Liquid Crystal Display), PDP(Plasma Display Panel) 및/또는 하나 이상의 LED(Light Emitting Diode)를 포함할 수 있다. 상기 LED는 OLED(Organic LED)를 포함할 수 있다.The display 130 of the
일 실시예에 따른 전자 장치(101)의 카메라(140)는 빛의 색상 및/또는 밝기를 나타내는 전기 신호를 생성하는 광 센서(예, CCD(Charged Coupled Device) 센서, CMOS(Complementary Metal Oxide Semiconductor) 센서)를 하나 이상 포함할 수 있다. 카메라(140)에 포함된 복수의 광 센서는 2차원 격자(2 dimensional array)의 형태로 배치될 수 있다. 카메라(140)는 복수의 광 센서 각각의 전기 신호를 실질적으로 동시에 획득하여, 2차원 격자의 광 센서들에 도달한 빛에 대응하고, 2차원으로 배열된 복수의 픽셀들을 포함하는 이미지를 생성할 수 있다. 예를 들어, 카메라(140)를 이용하여 캡쳐한 사진 데이터는 카메라(140)로부터 획득한 하나의 이미지를 의미할 수 있다. 예를 들어, 카메라(140)를 이용하여 캡쳐한 비디오 데이터는 카메라(140)로부터 지정된 프레임율(frame rate)을 따라 획득한 복수의 이미지들의 시퀀스(sequence)를 의미할 수 있다. 일 실시예에 따른 전자 장치(101)는, 카메라(140)가 빛을 수신하는 방향을 향하여 배치되고, 상기 방향으로 빛을 출력하기 위한 플래시 라이트를 더 포함할 수 있다.The camera 140 of the
일 실시예에 따른 전자 장치(101)에 포함된 카메라(140)의 수는 하나 이상일 수 있다. 도 1을 참고하면, 전자 장치(101)는 n개의 카메라들(140-1, 140-2, ..., 140-n)을 포함할 수 있다. n개의 카메라들(140-1, 140-2, ..., 140-n)은, 전자 장치(101) 내에서 독립적인 방향 및/또는 FOV(Field-of-View, FOV)를 가질 수 있다. 상기 FOV는, 카메라(140)의 렌즈가 빛을 수신 가능한 화각(view angle)에 기반하여 형성되는 영역으로, 카메라(140)에서 생성된 이미지에 대응하는 영역에 대응할 수 있다. 일 실시예에 따른 전자 장치(101)는 n개의 카메라들(140-1, 140-2, ..., 140-n) 중에서, 적어도 일부분이 서로 중첩된 FOV들을 가지는 적어도 두 카메라들을 실질적으로 동시에(substantially simultaneously) 제어하여, 상기 적어도 두 카메라들로부터 적어도 두 개의 이미지들을 획득할 수 있다. n개의 카메라들(140-1, 140-2, ..., 140-n)이 전자 장치(101)에 배치되는 일 실시예는 도 3a 내지 3b, 도 4a 내지 4c, 도 5a 내지 5b를 참고하여 후술된다.The number of cameras 140 included in the
일 실시예에 따른 전자 장치(101)의 센서(150)는 전자 장치(101)와 관련된 비-전기적 정보(non-electronic information)로부터 프로세서(110) 및/또는 메모리(120)에 의해 처리될 수 있는 전기적 정보를 생성할 수 있다. 센서(150)에 의하여 생성된 상기 전기적 정보는, 메모리(120)에 저장되거나, 프로세서(110)에 의해 처리되거나, 및/또는 전자 장치(101)와 구별되는 다른 전자 장치로 송신될 수 있다. 예를 들어, 센서(150)는 전자 장치(101)의 지리적 위치(geographic location)를 탐지하기 위한 GPS(Global Positioning System) 센서, 주변광(ambient light)의 밝기를 측정하는 조도 센서를 포함할 수 있다.The sensor 150 of the
도 1을 참고하면, 일 실시예에 따른 전자 장치(101)의 센서(150)는 전자 장치(101)의 물리적인 움직임을 측정하기 위한 가속도 센서(152)를 포함할 수 있다. 상기 가속도 센서(152)는 서로 수직을 이루는 복수의 지정된 축들(예, x 축, y 축, z 축) 각각에서 측정된 중력 가속도의 크기를 나타내는 전기적 정보를 출력할 수 있다. 일 실시예에 따른 전자 장치(101)의 프로세서(110)는, 가속도 센서(152)로부터 출력되는 전기적 정보에 기반하여, 물리적인 공간 내에서의 전자 장치(101)의 자세(posture)를 측정할 수 있다. 전자 장치(101)가 측정하는 상기 자세는, 센서(152)에 의해 측정되는 전자 장치(101)의 방향(orientation) 및/또는 전자 장치(101)의 형태(예, 도 4a 내지 4c에서 후술될 외력에 의해 변형되는 전자 장치(101)의 형태)를 나타낼 수 있다. 전자 장치(101)의 형태는, 예를 들어, 홀 센서에 의해 측정될 수 있다. 전자 장치(101)는 측정된 자세에 기반하여, 전자 장치(101)의 모드를 결정할 수 있다. 예를 들어, 전자 장치(101)는 복수의 지정된 모드들로써, 랜드스케이프 모드(landscape mode) 및 포트레이트 모드(portrait mode)를 포함하는 지정된 모드들 중에서, 전자 장치(101)의 자세에 대응하는 모드를 식별할 수 있다.Referring to FIG. 1 , the sensor 150 of the
예를 들어, 전자 장치(101)의 하우징 및/또는 디스플레이(130)가 너비 및 길이를 가지는 경우, 랜드스케이프 모드는, 가속도 센서(152)에 의해 측정되는 중력 가속도의 방향 및 전자 장치(101)의 길이 방향 사이의 각도가, 직각을 포함하는 지정된 범위 내에 포함된 상태를 포함할 수 있다. 상기 예시에서, 포트레이트 모드는, 가속도 센서(152)에 의해 측정되는 중력 가속도의 방향 및 전자 장치(101)의 너비 방향 사이의 각도가, 직각을 포함하는 지정된 범위 내에 포함된 상태를 포함할 수 있다. 일 실시예에서, 복수의 지정된 모드는 상술된 상기 랜드스케이프 모드 및 포트레이트 모드와 구별되는 다른 모드로써, 예를 들어, 외력에 의해 변형된 전자 장치(101)의 형태와 관련된 모드를 더 포함할 수 있다. 예를 들어, 전자 장치(101)는 가속도 센서(152)와 구별되는 다른 센서를 이용하여 전자 장치(101)의 형태를 나타내는 전기적 정보를 측정할 수 있다. 일 실시예에 따른 전자 장치(101)가, 전자 장치(101)의 자세를 측정하거나, 및/또는 전자 장치(101)의 모드를 결정하는 동작은, 도 3a 내지 3b 및/또는 도 4a 내지 4c를 참고하여 후술된다.For example, when the housing and/or the display 130 of the
일 실시예에 따른 전자 장치(101)는 가속도 센서(152)를 포함하는 센서(150)를 이용하여 식별된 모드에 기반하여 동작할 수 있다. 예를 들어, 전자 장치(101)는 디스플레이(130)에서 출력되는 UI(User Interface)의 방향을 변경할 수 있다. 일 실시예에 따른 전자 장치(101)는, 전자 장치(101)의 모드에 기반하여, n개의 카메라들(140-1, 140-2, ..., 140-n) 중에서 적어도 두 카메라들을 선택할 수 있다. 예를 들어, 전자 장치(101)는 n개의 카메라들(140-1, 140-2, ..., 140-n) 중에서 시차(disparity)(예, 사람의 이격된 두 눈들 사이의 거리에 의해, 두 눈들 각각에 맺히는 상들 사이에서 발생되는 차이인 양안 시차(binocular disparity)에 대응하는 시차)를 가지는 두 개의 카메라들을 선택할 수 있다. 선택된 두 개의 카메라들을 동시에 제어하여, 전자 장치(101)는 시차를 가지는 두 개의 이미지들을 획득할 수 있다. 일 실시예에 따른 전자 장치(101)가 시차를 가지는 두 개의 이미지들을 획득하는 동작은, 도 3a 내지 3b 및/또는 도 5a 내지 5b를 참고하여 후술된다.The
도 1을 참고하면, 일 실시예에 따른 전자 장치(101)의 센서(150)는, 전자 장치(101) 및 전자 장치(101)와 구별되는 외부 객체 사이의 거리를 측정하기 위한 거리 센서(154)를 포함할 수 있다. 상기 외부 객체는, 예를 들어, 카메라(140)의 FOV 내에 포함되어, 카메라(140)로부터 획득된 이미지 내에 포함되는 피사체를 포함할 수 있다. 일 실시예에 따른 전자 장치(101)의 거리 센서(154)는, 레이저 광에 기반하여 전자 장치(101) 및 피사체 사이의 거리를 측정하기 위한 레이저 센서에 대응할 수 있다. 상기 레이저 센서에 의해 측정된 거리는, 카메라(140)에 의한 초점 조절(예, 오토 포커스)을 위해 이용될 수 있다. 일 실시예에 따른 전자 장치(101)의 거리 센서(153)는 2차원으로 배열된 깊이 값들(depth values)을 포함하는 깊이 영상을 생성하는 ToF(Time-of-Flight) 센서에 대응할 수 있다. 상기 ToF 센서는 적외선 다이오드, 및 적외선 광의 세기를 탐지하고, 2 차원 격자 형태로 배치된 복수의 적외선 광 센서들을 포함할 수 있다. 전자 장치(101)는 ToF 센서를 이용하여, 적외선 다이오드에서 방출된 광이 피사체로부터 반사되어 상기 복수의 적외선 광 센서들 중 적어도 하나에 도달하는 시간에 기반하는, 상기 깊이 영상을 획득할 수 있다.Referring to FIG. 1 , a sensor 150 of an
일 실시예에 따른 전자 장치(101)는 거리 센서(154)에 의해 측정된 피사체 및 전자 장치(101) 사이의 거리를 이용하여, 동시에 제어된 두 카메라들로부터 획득된 두 이미지들을 처리할 수 있다. 예를 들어, 전자 장치(101)는 두 이미지들의 구별되는 FOV들 중 적어도 하나를 조절하기 위한 하나 이상의 파라미터들을, 거리 센서(154)에 의해 측정된 상기 거리에 기반하여 획득할 수 있다. 일 실시예에 따른 전자 장치(101)가 거리 센서(154)에 의해 측정된 상기 거리에 기반하여 상기 두 이미지들을 처리하는 일 예는, 도 6a 내지 6c 및/또는 도 8을 참고하여 후술된다.The
비록 도시되지 않았지만, 일 실시예에 따른 전자 장치(101)는 정보를 시각화한 형태 외에 다른 형태로 출력하기 위한 출력 수단을 포함할 수 있다. 예를 들어, 전자 장치(101)는 음성 신호(acoustic signal)를 출력하기 위한 스피커를 포함할 수 있다. 예를 들어, 전자 장치(101)는 진동에 기반하는 햅틱 피드백을 제공하기 위한 모터를 포함할 수 있다.Although not shown, the
일 실시예에 따른 전자 장치(101)는 시차를 가지는 두 이미지들을 획득하기 위하여, 전자 장치(101)에 포함된 n개의 카메라들(140-1, 140-2, ..., 140-n) 중에서 적어도 두 카메라들을, 사용자로부터 수신된 단일 촬영 입력(single shooting input)에 기반하여 동시에 제어할 수 있다. 일 실시예에 따른 전자 장치(101)가 사용자로부터 촬영 입력을 수신하기 위하여 디스플레이(130) 상에 표시하는 UI의 일 예가 도 2 및/또는 도 8을 참고하여 후술된다. 예를 들어, 전자 장치(101)는 두 카메라들을 동시에 제어하여, 두 카메라들 각각에서 실질적으로 동시에 획득된 두 이미지들을 획득할 수 있다. 전자 장치(101)는 획득된 두 이미지들을 서로 연접하여(by concatenating), 두 이미지들이 교대로 표시되는(alternately displayed) 애니메이션을 제공하기 위한 다른 이미지를 획득할 수 있다. 이하에서, 전자 장치(101)가 두 이미지들을 연접하는 것은, 시간 영역(a time domain) 내에서 상기 두 이미지들이 연속적으로 표시되도록, 두 이미지들을 결합하는 동작을 포함할 수 있다. 일 실시예에 따른 전자 장치(101)가 획득된 두 이미지들을 연접하는 동작은, 도 6a 내지 6c, 도 7 내지 도 8 및/또는 도 9를 참고하여 후술된다.The
상술한 바와 같이, 일 실시예에 따른 전자 장치(101)는 피사체를 공통적으로 포함하는 FOV들을 가지는 복수의 카메라들을 동시에 제어하여, 사용자로부터 촬영 입력을 한 번 수신하는 것에 응답하여, 시차를 가지는 복수의 이미지들을 동시에 획득할 수 있다. 사용자가 전자 장치(101)를 이동하거나, 및 사용자가 복수의 촬영 입력을 수행하는 것과 독립적으로, 전자 장치(101)는 시차를 가지는 복수의 이미지들을 동시에 획득할 수 있다. 일 실시예에 따른 전자 장치(101)는 시차를 가지는 복수의 이미지들을 연접하여, 시차를 가지는 복수의 이미지들이 교대로 표시되는 애니메이션을 생성할 수 있다. 상기 애니메이션은 상기 시차에 의한 복수의 이미지들에 의해 발생되는 입체감(a three-dimensional effect)을, 사용자에게 제공할 수 있다. 상기 애니메이션의 생성에 이용되는 복수의 이미지들이 한 번의 촬영 입력에 의해 획득되므로, 전자 장치(101)는 한 번의 촬영 입력으로 입체감을 사용자에게 제공하는 상기 애니메이션을 제공하기 위한 다른 이미지를 생성할 수 있다.As described above, the
이하에서는 도 2를 참고하여, 일 실시예에 따른 전자 장치(101)가 상기 입체감을 가지는 애니메이션을 생성하기 위하여 디스플레이(130) 상에 표시하는 UI가 설명된다.Hereinafter, with reference to FIG. 2 , a UI displayed on the display 130 by the
도 2는 일 실시예에 따른 전자 장치(101)가 표시하는 UI(User Interface)의 일 예를 도시한 도면이다. 도 2의 전자 장치(101)는 도 1의 전자 장치(101)의 일 예에 대응할 수 있다. 도 2를 참고하면, 전자 장치(101)가 디스플레이(예, 도 1의 디스플레이(130)) 상에 표시하는 화면(210)의 일 예가 도시된다. 이하에서, 화면(210)은 디스플레이의 적어도 일부분 내에서 표시되는 UI를 의미할 수 있다. 화면(210)은, 예를 들어, 안드로이드(Android) 운영체제의 액티비티(Activity)를 포함할 수 있다. 도 2의 화면(210)은, 메모리(예, 도 1의 메모리(120)) 내에 저장된 어플리케이션(예, 카메라 어플리케이션)을 실행하는 전자 장치(101)에 의해 표시될 수 있다.2 is a diagram illustrating an example of a user interface (UI) displayed by the
도 2를 참고하면, 전자 장치(101)는 화면(210) 내에, 전자 장치(101)에 포함된 카메라(예, 도 1의 카메라(140-1))로부터 제공되는 프리뷰 이미지(220)를 표시할 수 있다. 전자 장치(101)가 복수의 카메라들을 포함하는 경우, 전자 장치(101)는 복수의 카메라들 중 어느 한 카메라를 통해 획득되는 복수의 이미지들 중 적어도 일부분에 기반하여, 프리뷰 이미지(220)를 표시할 수 있다. 예를 들어, 프리뷰 이미지(220)의 해상도 및/또는 크기(dimension)는 상기 복수의 이미지들 각각의 해상도 및/또는 크기 미만일 수 있다.Referring to FIG. 2 , the
일 실시예에 따른 전자 장치(101)는 화면(210) 내에 프리뷰 이미지(220)를 표시하는 상태에서, 전자 장치(101)에 포함된 카메라와 관련된 서로 다른 기능들을 수행하기 위한 시각적 객체들을 표시할 수 있다. 예를 들어, 전자 장치(101)는 화면(210)의 일부분(230)에, 텍스트 및/또는 아이콘에 기반하여 카메라를 이용하여 획득할 콘텐트의 타입을 나타내는 메뉴를 표시할 수 있다. 도 2를 참고하면, 전자 장치(101)는 카메라를 이용하여 획득 가능한 콘텐트로써, 사진, 비디오 및/또는 입체 사진(Stereoscopy) 각각을 나타내는 텍스트들을, 일부분(230)에 표시할 수 있다. 일부분(230) 내에서 입체 사진에 대응하는 텍스트(235)를 터치 및/또는 클릭하는 사용자 입력을 식별하는 것에 응답하여, 전자 장치(101)는 입체감을 가지는 애니메이션을 생성하기 위한 이미지를 획득하기 위한 상태로 진입할 수 있다. 상기 애니메이션은, 예를 들어, 특정 피사체를 중심으로 수평 방향을 따라 반복적으로 움직이는 흔들림 입체 사진(Wiggle Stereoscopy)을 포함할 수 있다.In a state in which the
일 실시예에 따른 전자 장치(101)는 화면(210) 내에서 일부분(230)과 구별되는 일부분(260) 내에, 일부분(230)에서 선택된 콘텐트의 타입과 관련된 하나 이상의 파라미터들을 제어하기 위한 텍스트 및/또는 아이콘을 표시할 수 있다. 입체감을 가지는 애니메이션을 생성하기 위한 이미지를 획득하기 위한 상태에서, 전자 장치(101)는 일부분(230) 내에, 상기 애니메이션의 프레임율을 조절하기 위한 텍스트(예, fps(frames per second))(262), 상기 애니메이션의 주기를 조절하기 위한 텍스트(264), 또는 상기 애니메이션에, 전자 장치(101)의 카메라에 의해 촬영된 하나 이상의 피사체들과 구별되고, 전자 장치(101)에 의해 생성된 그래픽 객체(graphic object)를 추가하기 위한 텍스트(266) 중 적어도 하나를 표시할 수 있다.The
일 실시예에 따른 전자 장치(101)가 화면(210) 내에 표시하는 텍스트 및/또는 아이콘의 방향은, 전자 장치(101)의 자세에 따라 복수의 지정된 모드들 중에서 선택된 모드에 기반하여 결정될 수 있다. 예를 들어, 포트레이트 모드에서, 전자 장치(101)는 화면(210) 내에 표시된 텍스트의 방향을, 도 2와 같이 화면(210)의 너비 방향에 평행한 방향을 따라 표시할 수 있다. 사용자가 전자 장치(101)를 기울임에 따라 상기 포트레이트 모드에서 랜드스케이프 모드로 스위칭되는 경우, 전자 장치(101)는 화면(210) 내에 표시된 텍스트의 방향을, 도 2와 다르게, 화면(210)의 너비 방향에 수직인 방향을 따라 표시할 수 있다. 일 실시예에 따른 전자 장치(101)가 랜드스케이프 모드에서 표시하는 텍스트의 방향은, 도 6a에 도시된 텍스트의 방향을 포함할 수 있다.The direction of the text and/or icon displayed on the
일 실시예에 따른 전자 장치(101)는 화면(210) 내에, 촬영 입력을 수신하기 위한 아이콘(240)을 표시할 수 있다. 상기 아이콘(240)을 터치 및/또는 클릭하는 사용자 입력을 식별하는 것에 응답하여, 전자 장치(101)는 하나 이상의 카메라들로부터 이미지를 획득할 수 있다. 이하에서, 촬영 입력은, 일부분(230)에 의해 선택된 타입의 콘텐트를 생성하기 위한 사용자 입력으로, 예를 들어, 아이콘(240)을 터치 및/또는 클릭하는 사용자 입력을 포함할 수 있다. 예를 들어, 입체 사진에 대응하는 텍스트(235)를 터치 및/또는 클릭하는 사용자 입력을 식별한 이후, 촬영 입력을 수신하는 것에 응답하여, 전자 장치(101)는 적어도 두 카메라들을 실질적으로 동시에 제어하여, 상기 적어도 두 카메라들로부터 입체감을 가지는 애니메이션을 재생하기 위한 적어도 두 개의 이미지들을 획득할 수 있다.The
전자 장치(101)는 획득된 적어도 두 개의 이미지들을 이용하여, 입체감을 가지는 애니메이션을 제공하기 위한 다른 이미지를 생성할 수 있다. 상기 다른 이미지는, 텍스트(262)와 관련된 사용자 입력에 적어도 기반하는 프레임율을 가질 수 있다. 상기 다른 이미지는, 텍스트(264)와 관련된 사용자 입력에 적어도 기반하는 주기를 가질 수 있다. 상기 주기는, 전자 장치(101)가 획득한 두 개의 이미지들을 교차하여 표시하는 시간 구간의 길이에 대응할 수 있다. 상기 다른 이미지는, 텍스트(266)와 관련된 사용자 입력에 적어도 기반하는 그래픽 객체를 더 포함할 수 있다. 입체감을 가지는 애니메이션을 제공하기 위한 상기 다른 이미지는, 예를 들어, GIF(Graphics Interchange Format) 및/또는 MP4(MPEG-4)에 기반하는 포맷의 파일에 대응할 수 있다. 일 실시예에 따른 전자 장치(101)는 화면(210)의 일부분(250) 내에, 전자 장치(101) 내에 저장된 콘텐트(예, 전자 장치(101)의 카메라를 이용하여 촬영된 최신(latest) 콘텐트)에 대응하는 썸네일을 표시할 수 있다. 예를 들어, 전자 장치(101)가 입체감을 가지는 애니메이션을 제공하기 위한 상기 다른 이미지를 생성한 이후, 전자 장치(101)는 일부분(250) 내에 상기 다른 이미지를 나타내는 썸네일을 표시할 수 있다. 예를 들어, 상기 썸네일은 상기 다른 이미지에 의해 나타나는 애니메이션의 일 순간(one moment)의 적어도 일부분을 나타내는 이미지일 수 있다.The
상술한 바와 같이, 일 실시예에 따른 전자 장치(101)는, 전자 장치(101)에 포함된 복수의 카메라들 중에서 적어도 두 카메라들을 제어하기 위한 화면(210)을 표시할 수 있다. 상기 화면(210)에 기반하여 수행되는 사용자 입력(예, 아이콘(240)과 관련된 촬영 입력)을 수신하는 것에 응답하여, 전자 장치(101)는 상기 적어도 두 카메라들을 이용하여 입체감을 가지는 애니메이션을 생성할 수 있다.As described above, the
이하에서는 도 3a 내지 3b를 참고하여, 일 실시예에 따른 전자 장치(101)가 복수의 카메라들 중에서 적어도 두 개의 카메라들을 선택하는 동작이 상세히 설명된다.Hereinafter, an operation of selecting at least two cameras from among a plurality of cameras by the
도 3a 내지 3b는 일 실시예에 따른 전자 장치(101)가 복수의 카메라들 중에서 적어도 두 개의 카메라들을 선택하는 동작의 일 예를 설명하기 위한 도면이다. 도 3a 내지 3b의 전자 장치(101)는 도 1 내지 도 2의 전자 장치(101)의 일 예에 대응할 수 있다.3A to 3B are diagrams for explaining an example of an operation of selecting at least two cameras from among a plurality of cameras by the
도 3a를 참고하면, 랜드스케이프 모드 내에서의 전자 장치(101)가 피사체(310)를 향하여 배치된 상태(300)가 도시된다. 일 실시예에 따른 전자 장치(101)에 포함된 복수의 카메라들(140-1, 140-2, 140-3) 각각에 포함된 렌즈들이, 디스플레이(예, 도 1의 디스플레이(130))의 적어도 일부분이 외부로 노출된 제1 면과 구별되는 제2 면을 통해 외부로 노출될 수 있다. 일 실시예에 따른 전자 장치(101)에 포함된 거리 센서(154)가, 상기 렌즈들이 외부로 노출된 상기 제2 면을 통해 외부로 노출될 수 있다.Referring to FIG. 3A , a
일 실시예에 따른 전자 장치(101)에 포함된 복수의 카메라들(140-1, 140-2, 140-3)은 서로 구별되는 FOV들을 가질 수 있다. 거리 센서(154)는 상기 FOV들 중 적어도 일부분에 포함된 피사체(310) 및 전자 장치(101) 사이의 거리를 획득할 수 있다. 도 3a를 참고하면, 복수의 카메라들(140-1, 140-2, 140-3)의 FOV들 각각과 관련된 화각들(320-1, 320-2, 320-3)이 도시된다. 예를 들어, 카메라(140-1)는 프리뷰 이미지(예, 도 2의 프리뷰 이미지(220))를 획득하기 위한 복수의 이미지들을 생성하는 카메라로써, 지정된 각도에 대응하는 화각(320-1)을 가질 수 있다. 예를 들어, 카메라(140-2)는 상기 지정된 각도 보다 큰 각도에 대응하는 화각(320-1)을 가질 수 있다. 예를 들어, 카메라(140-1)가 광각(wide-angle) 카메라로 참조되는 경우, 카메라(140-2)는 초광각(ultra-wide-angle) 카메라로 참조될 수 있다. 예를 들어, 카메라(140-3)는 상기 지정된 각도 미만의 각도에 대응하는 화각(320-1)을 가질 수 있다. 예를 들어, 카메라(140-3)는 전자 장치(101)로부터 상대적으로 멀리 있는 피사체를 촬영하기 위한 망원(telephoto) 카메라로 참조될 수 있다. 전자 장치(101)의 상기 제2 면을 통해 외부로 노출되는 카메라들(140-1, 140-2, 140-2)의 타입 및 개수는 도 3a에 도시된 예시에 제한되지 않는다.The plurality of cameras 140-1, 140-2, and 140-3 included in the
도 3a를 참고하면, 화각들(320-1, 320-2, 320-3)에 의해 지시되는 카메라들(140-1, 140-2, 140-3) 각각의 FOV들의 적어도 일부분이 서로 중첩될 수 있다. 카메라들(140-1, 140-2, 140-3)이 전자 장치(101)의 상기 제2 면에서 서로 이격되어 배치됨에 따라, 시차가 상기 FOV들의 중첩된 일부분에서 발생될 수 있다. 도 3a의 상태(300)에서, 직육면체에 대응하는 피사체(312), 피라미드에 대응하는 피사체(314) 및 구에 대응하는 피사체(316)가 카메라들(140-1, 140-2)의 FOV들 전부에 포함될 수 있다. 이 경우, 카메라들(140-1, 140-2) 각각에서 획득된 이미지들이, 서로 다른 각도에서 촬영한 피사체들(312, 314, 316)의 형상들에 대응하는 시각적 객체들을 포함함에 따라, 시차가 상기 이미지들에서 발생될 수 있다. 랜드스케이프 모드에 대응하는 상태(300)에서, 카메라들(140-1, 140-2)이 수평적으로 이격됨에 따라(horizontally separated), 카메라들(140-1, 140-2) 각각에서 획득된 이미지들이 양안 시차와 관련된 시차를 가질 수 있다.Referring to FIG. 3A , at least a portion of the FOVs of the cameras 140-1, 140-2, and 140-3 indicated by the angles of view 320-1, 320-2, and 320-3 overlap each other. can As the cameras 140 - 1 , 140 - 2 and 140 - 3 are spaced apart from each other on the second surface of the
일 실시예에 따른 전자 장치(101)는, 전자 장치(101)에 포함된 복수의 카메라들(140-1, 140-2)의 FOV들의 중첩되는 일부분에 배치된 피사체들(312, 134, 316)과 관련된 입체감을 제공하는 애니메이션을 생성할 수 있다. 상기 애니메이션은, 복수의 카메라들(140-1, 140-2)을 동시에 제어하여 획득되고, 복수의 카메라들(140-1, 140-2) 각각으로부터 획득된 두 이미지들이 교차하여 재생되는 애니메이션일 수 있다. 일 실시예에 따른 전자 장치(101)는, 입체감을 가지는 애니메이션의 생성에 이용되는 적어도 두 이미지들을 획득하기 위하여, 복수의 카메라들(140-1, 140-2, 140-3) 중에서 적어도 두 카메라들(예, 카메라들(140-1, 140-2))을 선택할 수 있다. 전자 장치(101)가 적어도 두 카메라들을 선택하는 것은, 전자 장치(101)의 모드에 적어도 기반하는 지정된 조합에 따라 수행될 수 있다. 상기 지정된 조합은, 전자 장치(101)에 포함된 복수의 카메라들(140-1, 140-2, 140-3)의 렌즈들 사이의 거리, 복수의 카메라들(140-1, 140-2, 140-3)의 FOV들 또는 전자 장치(101)의 모드 중 적어도 하나에 기반하여 결정될 수 있다.The
일 실시예에 따른 전자 장치(101)가 복수의 카메라들(140-1, 140-2, 140-3) 중에서 상기 애니메이션의 생성에 이용되는 적어도 두 카메라들을 선택하는 것은, 촬영 입력의 수신 및/또는 전자 장치(101)의 모드를 식별하는 것 중 적어도 하나에 기반하여 수행될 수 있다. 예를 들어, 사용자로부터 촬영 입력을 수신하는 것에 응답하여, 전자 장치(101)는 프리뷰 이미지를 표시하고 있는 카메라(140-1)와 동시에 제어될 다른 카메라를, 복수의 카메라들(140-1, 140-2, 140-3) 중에서 선택할 수 있다. 도 3a를 참고하면, 전자 장치(101)는 복수의 카메라들(140-1, 140-2, 140-3) 중에서 망원 카메라인 카메라(140-3)와 구별되는 두 카메라들(140-1, 140-2)을, 상기 애니메이션의 생성에 이용되는 카메라들로 선택할 수 있다. 일 실시예에 따른 전자 장치(101)는 선택된 두 카메라들(140-1, 140-2)을 이용하여 상기 애니메이션의 생성에 이용될 두 이미지들을 획득할 수 있다. 상기 두 이미지들을 획득하는 것과 실질적으로 동시에, 전자 장치(101)는 거리 센서(154)를 제어하여, 상기 두 이미지들에 포함된 피사체들(312, 314, 316) 중 적어도 하나 및 전자 장치(101) 사이의 거리를 식별할 수 있다. 식별된 거리는 상기 획득된 두 이미지들을 정렬하는데 이용될 수 있다. 일 실시예에 따른 전자 장치(101)가 거리 센서(154)에 의해 식별된 상기 거리를 이용하여 상기 획득된 두 이미지들을 정렬하는 동작은, 도 6a 내지 6c를 참고하여 후술된다.Selecting at least two cameras used for generating the animation from among the plurality of cameras 140-1, 140-2, and 140-3 by the
도 3b를 참고하면, 포트레이트 모드 내에서의 전자 장치(101)가 피사체(310)를 향하여 배치된 상태(305)가 도시된다. 도 3b를 참고하면, 포트레이트 모드에 대응하는 상태(305)에서, 카메라들(140-1, 140-2, 140-3)이 수직적으로 이격됨에 따라(vertically separated), 카메라들(140-1, 140-2, 140-3) 각각에서 획득된 이미지들이 양안 시차와 구별되는 시차를 가질 수 있다. 일 실시예에 따른 전자 장치(101)는 포트레이트 모드에서, 양안 시차에 대응하는 시차를 가지는 애니메이션을 생성함으로써 상기 애니메이션에 의해 제공되는 입체감을 강화하기 위하여, 사용자에게 포트레이트 모드로부터 랜드스케이프 모드로 전환하기 위한 영상 및/또는 음성을 포함하는 메시지를 출력할 수 있다. 실시예가 이에 제한되는 것은 아니며, 전자 장치(101)는 상태(305)에서, 적어도 두 카메라들(예, 카메라들(140-1, 140-2))을 동시에 제어하여, 입체감을 가지는 애니메이션을 제공하기 위한 두 이미지들을 획득할 수 있다. Referring to FIG. 3B , a
상술한 바와 같이, 일 실시예에 따른 전자 장치(101)는, 입체감을 가지는 애니메이션을 생성하기 위하여, 서로 중첩된 FOV들을 가지는 적어도 두 카메라들(예, 카메라들(140-1, 140-2))을, 상기 애니메이션을 생성하기 위해 요구되는 적어도 두 이미지들을 획득할 카메라로 선택할 수 있다. 전자 장치(101)는 선택된 적어도 두 카메라들을, 단일 촬영 입력에 기반하여 동시에 제어하여, 단일 촬영 입력 만으로 상기 애니메이션을 생성할 수 있다. As described above, the
이하에서는 도 3a 내지 3b와 구별되는 폼 팩터(form factor)를 가지는 전자 장치(101)의 일 실시예에서, 서로 중첩된 FOV들을 가지는 적어도 두 카메라들을 선택하는 동작이, 도 4a 내지 4c 및 도 5a 내지 5b를 참고하여 상세히 설명된다.Hereinafter, in an embodiment of the
도 4a 내지 4c는 외력에 의해 변형 가능한(deformable) 전자 장치(101)의 구조를 설명하기 위한 예시적인 도면이다. 도 4a 내지 4c의 전자 장치(101)는 도 1 내지 도 2의 전자 장치(101)의 일 예에 대응할 수 있다.4A to 4C are exemplary diagrams for explaining a structure of an
일 실시예에 따른 전자 장치(101)는 외력에 의해 변형 가능한(deformable) 폼 팩터를 가질 수 있다. 도 4a를 참조하면, 전자 장치(101)는, 폴딩 하우징(예, 도 4c의 폴딩 하우징(465))을 통해 연결된 제1 하우징(410) 및 제2 하우징(420)을 포함할 수 있다. 제1 하우징(410) 및 제2 하우징(420)은, 상기 폴딩 하우징에 포함된 회전축(437)을 중심으로 회전 가능하도록 상기 폴딩 하우징과 결합될 수 있다. 도 4a는, 제1 하우징(410) 및 제2 하우징(420)이 상기 폴딩 하우징에 의해 완전히(fully) 펼쳐진(folded out) 언폴딩 모드에 대응하는 상태(400-1)의 전자 장치(101)를 도시한 도면이다.The
일 실시예에서, 상태(400-1)는 제1 하우징(410)의 제1 면(411)이 향하는 제1 방향(401)이, 제2 하우징(420)의 제1 면(421)이 향하는 제2 방향(402)에 대응하는 상태를 의미할 수 있다. 예를 들면, 상태(400-1) 내에서 제1 방향(401)은, 제2 방향(402)에 평행일 수 있다. 예를 들면, 상태(400-1) 내에서 제1 방향(401)은, 제2 방향(402)과 동일할 수 있다. 일 실시예에서, 상태(400-1) 내에서 제1 하우징(410)의 제1 면(411)은 제2 하우징(420)의 제1 면(421)과 실질적으로 하나의 평면을 형성할 수 있다. 일 실시예에서, 상태(400-1) 내에서 제1 하우징(410)의 제1 면(411) 및 제2 하우징(420)의 제1 면(421) 사이의 각도(403)는 180도(degrees)일 수 있다.In one embodiment, the state 400-1 is such that the
일 실시예에 따른 전자 장치(101)는 복수의 하우징들을 가로지르는 플렉서블 디스플레이(430)를 포함할 수 있다. 상기 플렉서블 디스플레이(430)는, 예를 들어, 도 1의 디스플레이(130)의 일 예에 대응할 수 있다. 도 4a를 참고하면, 플렉서블 디스플레이(430)이 제1 하우징(410)의 제1 면(411) 및 제2 하우징(420)의 제1 면(421) 상에 배치될 수 있다. 플렉서블 디스플레이(430)의 표시 영역은, 제1 하우징(410)의 제1 면(411)에 대응하는 제1 표시 영역(431), 제2 하우징(420)의 제1 면(421)에 대응하는 제2 표시 영역(432), 및 제1 표시 영역(431) 및 제2 표시 영역(432) 사이의 제3 표시 영역(433)을 포함할 수 있다. 상기 제3 표시 영역(433)의 형태는 폴딩 하우징에 의한 제1 방향(401) 및 제2 방향(402)의 변화에 의하여 변경될 수 있다.The
일 실시예에서, 상태(400-1)는 플렉서블 디스플레이(430)의 전체 표시 영역(entire display area) 모두를 실질적으로 하나의 평면 상에서 제공할 수 있는 상태를 의미할 수 있다. 예를 들어, 상태(400-1)는, 제1 표시 영역(431), 제2 표시 영역(432), 및 제3 표시 영역(433) 모두를 하나의 평면 상에서 제공할 수 있는 상태를 의미할 수 있다. 예를 들면, 상태(400-1) 내에서, 제3 표시 영역(433)은 굴곡진 영역(curved surface)을 포함하지 않을 수 있다. 일 실시예에서, 상기 언폴딩 모드는, 펼침 상태(outspread state 또는 outspreading state) 및/또는 펼침 모드로 참조될 수 있다.In one embodiment, the state 400-1 may refer to a state in which the entire display area of the
도 4b는, 언폴딩 모드인 상태(400-1)에서, 도 4a에 도시된 제1 하우징(410)의 제1 면(411) 및 제2 하우징(420)의 제1 면(421)과 구별되는 전자 장치(101)의 면들을 도시한 도면이다. 도 4b를 참고하면, 제1 하우징(410)의 제2 면(412)은 제1 하우징(410)의 제1 면(411)의 배면(rear surface)에 대응하고, 제2 하우징(420)의 제2 면(422)은 제2 하우징(410)의 제1 면(421)의 배면에 대응한다.FIG. 4B is distinguished from the
도 4b를 참고하면, 일 실시예에 따른 전자 장치(101)는, 제2 하우징(420)의 제2 면(422)을 통해 보여지는 디스플레이(450)를 포함할 수 있다. 상기 디스플레이(450)는, 전자 장치(101)에 의하여 플렉서블 디스플레이(430)와 독립적으로 제어될 수 있다. 일 실시예에 따른 전자 장치(101)는 도 2의 화면(210)을, 디스플레이(450) 및/또는 플렉서블 디스플레이(430) 중 적어도 하나에 표시할 수 있다. 도 4b를 참고하면, 일 실시예에 따른 전자 장치(101)는, 제2 하우징(420)의 제2 면(422)에 배치된 카메라(140-4)를 포함할 수 있다. 상기 카메라(140-4)는 디스플레이(450)의 관통된(perforated) 일부분을 통해 외부로 노출될 수 있다. 일 실시예에 따른 전자 장치(101)는 제1 하우징(410)의 제2 면(412)에 배치된 복수의 카메라들(140-1, 140-2, 140-3) 및 거리 센서(154)를 포함할 수 있다. 상기 복수의 카메라들(140-1, 140-2, 140-3) 및 거리 센서(154)는 도 3a 내지 3b의 복수의 카메라들(140-1, 140-2, 140-3) 및 거리 센서(154) 각각에 대응할 수 있다.Referring to FIG. 4B , the
도 4b를 참고하면, 언폴딩 모드에 대응하는 상태(400-1)에서, 복수의 카메라들(140-1, 140-2, 140-3, 140-4)이 서로 다른 방향들을 따라 이격되어 배치될 수 있다. 예를 들어, 카메라들(140-1, 140-2, 140-3)이 제1 방향을 따라 이격되어 배치된 경우, 카메라(140-4)는 상기 제1 방향과 실질적으로 수직을 이루는 다른 방향을 따라 카메라들(140-1, 140-2, 140-3)로부터 이격될 수 있다. 일 실시예에 따른 전자 장치(101)는 서로 중첩되는 FOV들을 가지고, 서로 다른 방향들을 따라 이격되어 배치된 복수의 카메라들(140-1, 140-2, 140-3, 140-4)의 위치에 기반하여, 애니메이션을 생성하기 위해 제어될 적어도 두 카메라들을 선택할 수 있다. 일 실시예에 따른 전자 장치(101)가 상태(400-1)에서 적어도 두 카메라들을 선택하는 동작은, 도 5b를 참고하여 후술된다.Referring to FIG. 4B , in a state 400-1 corresponding to the unfolding mode, a plurality of cameras 140-1, 140-2, 140-3, and 140-4 are disposed spaced apart from each other in different directions. It can be. For example, when the cameras 140-1, 140-2, and 140-3 are spaced apart from each other along a first direction, the camera 140-4 is directed toward another direction substantially perpendicular to the first direction. It may be spaced apart from the cameras 140-1, 140-2, and 140-3 along . The
일 실시예에서, 전자 장치(101)는 제1 하우징(410)과 제2 하우징(420)이 폴딩 하우징(465)에 의해 접힌(folded in) 상태를 포함하는 폴딩 모드에서 동작할 수 있다. 도 4c는 폴딩 모드에 포함된 상태들(400-2, 400-3, 400-4) 각각에서의 전자 장치(101)를 도시한 도면이다. 도 4c를 참조하면, 전자 장치(101)는, 상태들(400-2, 400-3, 400-4)을 포함하는 상기 폴딩 모드 내에서 있을 수 있다. 일 실시예에서, 상태들(400-2, 400-3, 400-4)을 포함하는 상기 폴딩 모드는, 제1 하우징(410)의 제1 면(411)이 향하는 제1 방향(401)이 제2 하우징(420)의 제1 면(421)이 향하는 제2 방향(402)과 구별되는 상태를 의미할 수 있다. 예를 들면, 상태(400-2)에서, 제1 방향(401)과 제2 방향(402) 사이의 각도는 45도로, 제1 방향(401)과 제2 방향(402)은 서로 구별되고, 상태(400-3)에서, 제1 방향(401)과 제2 방향(402) 사이의 각도는 90도로, 제1 방향(401)과 제2 방향(402)은 서로 구별되며, 상태(400-4)에서, 제1 방향(401)과 제2 방향(402) 사이의 각도는 실질적으로 180도로, 제1 방향(401)과 제2 방향(402)은 서로 구별될 수 있다. 일 실시예에서, 상기 폴딩 모드 내에서 제1 면(411)과 제1 면(421) 사이의 각도는 0도(degree) 이상 180도(degrees) 미만일 수 있다. 예를 들면, 상태(400-2)에서, 제1 면(411)과 제1 면(421) 사이의 각도(413)는 135도일 수 있고, 상태(400-3)에서, 제1 면(411)과 제1 면(421) 사이의 각도(423)는 90도 일 수 있고, 상태(400-4)에서, 제1 면(411)과 제1 면(421) 사이의 각도(433)는, 실질적으로 0도일 수 있다. 일 실시예에서, 상기 폴딩 모드는, 접힘 상태(folded state) 및/또는 접힘 모드로 참조될 수 있다. In one embodiment, the
일 실시예에서, 상기 폴딩 모드는, 상기 언폴딩 모드와 달리, 복수의 서브 폴딩 모드들을 포함할 수 있다. 예를 들어, 도 4c를 참조하면, 상기 폴딩 모드는, 폴딩 하우징(465)을 통해 제공되는 회전에 의해 제1 면(411)이 제1 면(421) 상에 실질적으로 중첩되는 완전 폴딩 모드(fully folding)인 상태(400-4) 및 상태(400-4)와 상기 언폴딩 모드(예: 도 4a 내지 4b의 상태(400-1)) 사이의 중간 폴딩 모드인 상태(400-2) 및 상태(400-3)를 포함하는, 상기 복수의 서브 폴딩 모드들을 포함할 수 있다. 예를 들면, 전자 장치(101)는, 폴딩 하우징(465)에 의해 제1 면(411) 및 제1 면(421)이 서로 마주함으로써, 제2 표시 영역(432)의 전체 영역 상에 제1 표시 영역(431)의 전체 영역이 실질적으로 완전히 중첩되는 상태(400-4)를 제공할 수 있다. 예를 들면, 전자 장치(101)는, 제1 방향(401)이 제2 방향(402)에 실질적으로 반대인 상태(400-4)를 제공할 수 있다. 또 다른 예를 들면, 상태(400-4)는 전자 장치(101)를 바라보는 사용자의 시야 안에서 플렉서블 디스플레이(430)가 가려지는 상태를 의미할 수도 있다. 하지만, 이에 제한되지 않는다. In one embodiment, the folding mode, unlike the unfolding mode, may include a plurality of subfolding modes. For example, referring to FIG. 4C , the folding mode is a complete folding mode in which the
일 실시예에서, 플렉서블 디스플레이(430)는, 폴딩 하우징(465)을 통해 제공되는 회전에 의해 굽혀질 수 있다. 예를 들면, 플렉서블 디스플레이(430)에서, 제1 표시 영역(431) 및 제2 표시 영역(432)과 달리, 제3 표시 영역(433)은 폴딩 동작에 따라 굽어질 수 있다. 예를 들면, 제3 표시 영역(433)은, 상기 완전 폴딩 모드 내에서 플렉서블 디스플레이(430)의 파손을 방지하기 위해, 만곡하게 굽혀진 상태 내에 있을 수 있다. 상기 완전 폴딩 모드 내에서, 제3 표시 영역(433)이 만곡하게 굽혀지는 것과 달리, 제1 표시 영역(431) 전부는, 제2 표시 영역(432) 전부 상에 완전히 중첩될 수 있다.In one embodiment, the
일 실시예에 따른 전자 장치(101)는 폴딩 하우징(465) 및/또는 회전축(437)을 중심으로 회전되는 제1 하우징(410) 및 제2 하우징(420) 사이의 각도를 측정하기 위한 센서를 포함할 수 있다. 제1 하우징(410) 및 제2 하우징(420) 사이의 각도에 기반하여, 전자 장치(101)는 폴딩 모드 및 언폴딩 모드 중에서 상기 각도에 대응하는 전자 장치(101)의 상태를 식별할 수 있다. 식별된 전자 장치(101)의 상태에 기반하여, 전자 장치(101)는 플렉서블 디스플레이(430) 및/또는 디스플레이(450) 중 적어도 하나를 선택적으로 활성화 및/또는 비활성화할 수 있다. 식별된 전자 장치(101)의 상태에 기반하여, 전자 장치(101)는 복수의 카메라들(140-1, 140-2, 140-3, 140-4) 중 적어도 두 카메라들을, 시차를 가지는 적어도 두 이미지들을 획득하기 위하여 동시에 제어할 수 있다. 폴딩 모드 및 언폴딩 모드 중에서 선택되는 전자 장치(101)의 상태는, 전자 장치(101)의 자세와 관련된 상태로써, 전자 장치(101)가 상기 적어도 두 카메라들을 선택하기 위해 식별하는 전자 장치(101)의 지정된 모드 중 어느 하나에 대응할 수 있다.The
한편, 도 4a 내지 4c는, 전자 장치(101)의 플렉서블 디스플레이(430)가 하나의 폴딩 표시 영역(예: 제3 표시 영역(433))을 포함하거나 전자 장치(101)가 하나의 폴딩 하우징(예: 폴딩 하우징(465))을 포함하는 예를 도시하고 있으나, 이는 설명의 편의를 위한 것이다. 실시예들에 따라, 전자 장치(101)의 플렉서블 디스플레이(430)는, 복수의 폴딩 표시 영역들을 포함할 수 있다. 예를 들면, 전자 장치(101)의 플렉서블 디스플레이(430)는, 두 개 이상의 폴딩 표시 영역들을 포함하고, 전자 장치(101)는 상기 두 개 이상의 폴딩 영역들을 각각 제공하기 위한 2개 이상의 폴딩 하우징들을 포함할 수 있다.Meanwhile, in FIGS. 4A to 4C , the
이하에서는 도 5a 내지 5b를 참고하여, 전자 장치(101)의 자세가 도 4a 내지 4c에서 상술된 폴딩 모드 및 언폴딩 모드 각각에 대응하는 상태에서, 일 실시예에 따른 전자 장치(101)가 복수의 카메라들 중 애니메이션을 생성하기 위해 실질적으로 동시에 제어될 적어도 두 카메라들을 식별하는 동작이 설명된다.Hereinafter, referring to FIGS. 5A to 5B , in a state in which the posture of the
도 5a 내지 5b는 도 4a 내지 4c의 일 실시예에 따른 전자 장치(101)가 복수의 카메라들(140-1, 140-2, 140-3, 140-4) 중에서 적어도 하나의 카메라를 선택하는 동작의 일 예를 설명하기 위한 도면이다.5A to 5B are diagrams for selecting at least one camera from among a plurality of cameras 140-1, 140-2, 140-3, and 140-4 by the
도 5a를 참고하면, 랜드스케이프 모드 내에서의 전자 장치(101)가 피사체(310)를 향하여 배치되고, 언폴딩 모드에 대응하는 상태(500)가 도시된다. 상태(500)는, 전자 장치(101)의 제1 하우징(410) 및 제2 하우징(420)들이 실질적으로 평행한 폴딩 모드에 대응할 수 있다. 일 실시예에 따른 전자 장치(101)는, 복수의 지정된 모드들 중 전자 장치(101)의 자세에 대응하는 모드에 기반하여, 촬영 입력에 대응하여 피사체(310)를 촬영할 복수의 카메라들을 식별할 수 있다. 상기 지정된 모드들은, 도 4a 내지 4c의 일 실시예에 따른 전자 장치(101)에서, 랜드스케이프 모드 및 포트레이트 모드뿐만 아니라, 언폴딩 모드 및 폴딩 모드 별로 구분될 수 있다(may differentiated).Referring to FIG. 5A , the
도 4c 및 도 5a를 참고하면, 상태(500)에 대응하는 상태(400-4) 및 폴딩 모드에 포함된 다른 상태들(400-2, 400-3)에서, 도 4a 내지 4c의 카메라들(140-1, 140-2, 140-3, 140-4) 중 카메라들(140-1, 140-2, 140-3)의 FOV들이 서로 중첩될 수 있다. 이 경우, 도 3a와 유사하게, 일 실시예에 따른 전자 장치(101)는 망원 카메라인 카메라(140-3)와 구별되는 두 카메라들(140-1, 140-2)을, 단일 촬영 입력을 수신하는 것에 응답하여, 동시에 제어할 수 있다. 전자 장치(101)는 두 카메라들(140-1, 140-2)과 함께 거리 센서(154)를 실질적으로 동시에 제어하여, 피사체들(312, 314, 316) 중 어느 한 피사체 및 전자 장치(101) 사이의 거리를 식별할 수 있다. 동시에 제어되는 두 카메라들(140-1, 140-2)에서 획득되고, 피사체(310)와 관련된 시차를 가지는 두 이미지들, 및 거리 센서(154)에 의해 식별된 상기 거리에 기반하여, 전자 장치(101)는 시차를 가지는 애니메이션을 생성할 수 있다.Referring to FIGS. 4C and 5A , in a state 400-4 corresponding to the
도 5b를 참고하면, 포트레이트 모드 내에서의 전자 장치(101)가 피사체(310)를 향하여 배치되고, 언폴딩 모드에 대응하는 상태(510)가 도시된다. 상태(510)는, 도 4a 내지 4b의 상태(400-1)에 대응하고, 전자 장치(101)의 제1 하우징(410) 및 제2 하우징(420)들이 실질적으로 하나의 평면을 형성하는 언폴딩 모드에 대응할 수 있다. 일 실시예에 따른 전자 장치(101)는 포트레이트 모드 및 상기 언폴딩 모드에 기반하여, 복수의 카메라들(140-1, 140-2, 140-3, 140-4) 중에서 입체감을 제공하기 위한 애니메이션의 생성에 이용될 적어도 두 카메라들을 선택할 수 있다.Referring to FIG. 5B , the
도 5b의 상태(510)에서, 카메라들(140-1, 140-2, 140-3, 140-4) 중 카메라들(140-1, 140-2, 140-3)의 FOV들이 서로 중첩되는 상태(500)와 독립적으로, 전자 장치(101)에 포함된 복수의 카메라들(140-1, 140-2, 140-3, 140-4)의 FOV들이 서로 중첩될 수 있다. 이 경우, 전자 장치(101)는 가장 멀리 이격된 카메라들을, 입체감을 제공하기 위한 애니메이션의 생성에 이용될 카메라들로 선택하여, 카메라들 사이의 거리에 기반하는 시차를 증가시킬 수 있다. 시차가 증가됨에 따라, 전자 장치(101)에서 생성되는 상기 애니메이션의 입체감이 강화될 수 있다.In
도 5b를 참고하면, 일 실시예에 따른 전자 장치(101)는 포트레이트 모드 및 언폴딩 모드에 대응하는 상태(510)에서, 복수의 카메라들(140-1, 140-2, 140-3, 140-4) 중에서 프리뷰 이미지의 표시를 위하여 활성화된 카메라(140-1), 및 상기 카메라들(140-2, 140-3, 140-4) 중에서, 상기 프리뷰 이미지에 대한 시차를 가지고, 카메라(140-1)로부터 가장 멀리 배치된 카메라(140-4)를, 입체감을 가지는 애니메이션을 생성하기 위한 두 카메라들로 선택할 수 있다. 예를 들어, 전자 장치(101)는 카메라들(140-1, 140-4)을 실질적으로 동시에 활성화하여, 카메라들(140-1, 140-4)로부터 피사체(310)를 포함하는 이미지들을 획득할 수 있다. 상기 이미지들은, 카메라들(140-1, 140-4)이 피사체(310)를 이격된 시점들(viewpoints)에서 촬영하여 획득된 것으로, 카메라들(140-1, 140-4) 사이의 거리에 따른 시차를 가질 수 있다. 일 실시예에 따른 전자 장치(101)는 시차를 가지는 상기 이미지들을 연접하여, 상기 시차에 따른 입체감을 가지는 애니메이션을 생성할 수 있다.Referring to FIG. 5B , in a
도 3a 내지 3b 및 도 5a 내지 5b에서 상술한 바와 같이, 일 실시예에 따른 전자 장치(101)는 프리뷰 이미지를 생성하기 위한 카메라(140-1)와 함께 제어될 다른 카메라를, 전자 장치(101)에 포함된 복수의 카메라들 중에서 선택할 수 있다. 예를 들어, 전자 장치(101)는, 포트레이트 모드, 랜드스케이프 모드, 폴딩 모드 또는 언폴딩 모드 중 적어도 하나에 의하여 구별되는 전자 장치(101)의 자세에 기반하여, 카메라(140-1)로부터 획득되는 이미지에 대하여 시차를 가지는 다른 이미지를 획득 가능한 다른 카메라를 선택할 수 있다. 선택된 다른 카메라 및 카메라(140-1)를 단일 촬영 입력에 따라 제어하여, 전자 장치(101)는 시차를 가지는 복수의 이미지들을 획득할 수 있다.As described above with reference to FIGS. 3A to 3B and 5A to 5B , the
이하에서는 도 6a 내지 6c를 참고하여, 일 실시예에 따른 전자 장치(101)가 시차를 가지는 복수의 이미지들을 처리하는 동작이 상세히 설명된다.Hereinafter, an operation of processing a plurality of images having a parallax by the
도 6a 내지 6c는 일 실시예에 따른 전자 장치(101)가 복수의 카메라들 각각을 이용하여 수행하는 동작을 설명하기 위한 예시적인 도면이다. 도 6a 내지 6c의 전자 장치(101)는 도 1 내지 도 2 및/또는 도 3a 내지 3b의 전자 장치(101)에 대응할 수 있다. 이하에서는, 도 3a의 상태(300)에서의 전자 장치(101)의 동작이 설명되지만, 실시예가 이에 제한되는 것은 아니며, 도 4a 내지 4c 및 도 5a 내지 5b의 전자 장치(101)도 후술되는 동작과 유사하게 구동될 수 있다.6A to 6C are exemplary diagrams for explaining an operation performed by the
도 6a는, 도 3a의 상태(300) 내에서의 전자 장치(101)가 표시하는 화면(210)이 도시된다. 전자 장치(101)는, 화면(210) 내에, 전자 장치(101)에 포함된 복수의 카메라들 중 제1 카메라(예, 도 3a의 카메라(140-1))에 의해 기반하는 프리뷰 이미지(220)를 표시할 수 있다. 전자 장치(101)가 표시하는 화면(210)은, 예를 들어, 도 2의 화면(210)에 대응할 수 있다. 이하에서, 도 2와 중복되는 설명은 편의상 생략된다.FIG. 6A shows a
하나 이상의 피사체들(예, 도 3a의 피사체(310))이 상기 제1 카메라의 FOV(예, 도 3a의 화각(320-1)에 의해 지시되는 FOV)내에 포함됨에 따라, 프리뷰 이미지(220) 내에 상기 하나 이상의 피사체들에 대응하는 하나 이상의 시각적 객체들이 표시될 수 있다. 도 6a를 참고하면, 프리뷰 이미지(220) 내에 표시된 시각적 객체들(612, 614, 616) 각각은, 도 3a의 피사체들(312, 314, 316) 각각에 대응할 수 있다. 아이콘(240)과 관련된 촬영 입력을 수신하는 것에 응답하여, 전자 장치(101)는 상기 제1 카메라, 및 상기 제1 카메라의 FOV에 대하여 시차를 가지는 FOV을 가지는 제2 카메라(예, 도 3a의 카메라(140-2))를 활성화하여, 상기 제1 카메라 및 상기 제2 카메라 각각으로부터, 제1 이미지, 및 상기 제1 이미지에 대하여 시차를 가지는 제2 이미지들을 획득할 수 있다. 전자 장치(101)가 상기 제1 이미지 및 상기 제2 이미지들을 획득하기 위하여, 복수의 카메라들 중에서 적어도 하나의 카메라를 선택하는 동작은, 도 3a 내지 3b에서 상술된 바와 유사하게 수행될 수 있다.As one or more objects (eg, the subject 310 of FIG. 3A) are included in the FOV of the first camera (eg, the FOV indicated by the angle of view 320-1 of FIG. 3A), the
복수의 카메라들이 서로 다른 FOV들을 가지므로, 일 실시예에 따른 전자 장치(101)는 상기 제1 이미지 및 상기 제2 이미지들 중 적어도 하나를, 입체감을 가지는 애니메이션을 생성하기 위하여 연접하기 이전에, 변경할 수 있다. 상기 제1 이미지 및 상기 제2 이미지들 중 적어도 하나를 변경하는데 이용될 정보를 획득하기 위하여, 일 실시예에 따른 전자 장치(101)는 프리뷰 이미지(220) 내에 포함되는 시각적 가이드(605)를 표시할 수 있다. 상기 시각적 가이드(605)는, 프리뷰 이미지(220)내에 포함되고, 상기 제1 카메라의 FOV 내에 포함된 하나 이상의 피사체들 각각에 대응하는, 하나 이상의 시각적 객체들 중 어느 하나와 중첩될 수 있다. 시각적 가이드(605)의 형태는, 도 6a의 원형의 선분의 형태에 제한되지 않으며, 사각형 및/또는 십자형(cross shape)의 형태를 가질 수 있다.Since the plurality of cameras have different FOVs, the
도 6a를 참고하면, 시각적 가이드(605)는, 프리뷰 이미지(220) 내에서, 피라미드에 대응하는 피사체에 대응하는 시각적 객체(614)와 중첩될 수 있다. 전자 장치(101)는 프리뷰 이미지(220)의 중앙에 시각적 가이드(605)를 표시할 수 있다. 상기 시각적 가이드(605)의 프리뷰 이미지(220) 내에서의 위치는 프리뷰 이미지(220) 내에서 수행되는 사용자 입력에 의하여 조절될 수 있다. 전자 장치(101)가 시각적 가이드(605)의 위치를 변경하기 위한 사용자 입력을 식별하는 것에 응답하여 수행하는 동작은 도 8을 참고하여 후술된다.Referring to FIG. 6A , a
일 실시예에 따른 전자 장치(101)는 프리뷰 이미지(220) 내에서의 시각적 가이드(605)의 위치 및/또는 상기 시각적 가이드(605)와 중첩되는 시각적 객체(614)에 기반하여, 상기 제1 이미지 및 상기 제2 이미지들 중 적어도 하나를 변경하는데 이용될 정보를 획득할 수 있다. 상기 정보는, 예를 들어, 시각적 객체(614)에 대응하는 피사체(예, 도 3a의 피사체(314)) 및 전자 장치(101) 사이의 거리를 나타내는 데이터를 포함할 수 있다. 예를 들어, 전자 장치(101)는 도 1 및/또는 도 3a의 거리 센서(154)를 이용하여, 시각적 가이드(605)와 중첩되는 시각적 객체(614)에 대응하는 피사체 및 전자 장치(101) 사이의 거리를 획득할 수 있다. 전자 장치(101)는 상기 거리를, 상기 제1 이미지 및 상기 제2 이미지들을 획득하는 시점과 실질적으로 동시에 획득할 수 있다.The
도 6b는, 도 6a의 예시적인 상태에서, 촬영 입력을 수신하는 것에 응답하여, 일 실시예에 따른 전자 장치(101)가 상기 제1 카메라 및 상기 제2 카메라 각각으로부터 획득한 제1 이미지(610) 및 제2 이미지(620)를 도시한 도면이다. 제1 이미지(610)는 도 6a의 프리뷰 이미지(220)에 대응하는 제1 카메라를 이용하여 획득될 수 있다. 제2 이미지(620)는, 상기 제1 카메라에 대하여 시차를 가지는 제2 카메라에 의해 획득될 수 있다. 예를 들어, 상기 제1 카메라 및 상기 제2 카메라 각각은, 도 3a의 광각 카메라에 대응하는 카메라(140-1) 및 초광각 카메라에 대응하는 카메라(140-2)에 대응할 수 있다. 상기 예시에서, 상기 제2 카메라의 FOV가 상기 제1 카메라의 FOV 보다 클 수 있다. 예를 들어, 상기 제1 카메라의 FOV가 상기 제2 카메라의 FOV 내에 포함될 수 있다. FIG. 6B is a
일 실시예에서, 제1 이미지(610) 및 제2 이미지(620) 각각에 대응하는 제1 카메라 및 제2 카메라의 FOV들의 적어도 일부분들이 서로 중첩됨에 따라, 제1 이미지(610) 및 제2 이미지(620)들 각각은 동일한 피사체에 대응하는 시각적 객체들을 포함할 수 있다. 예를 들어, 제1 이미지(610) 및 제2 이미지(620)를 참고하면, 시각적 객체들(612, 622) 전부는 직육면체에 대응하는 일 피사체(예, 도 3a의 피사체(312))에 대응할 수 있다. 예를 들어, 시각적 객체들(614, 624) 전부는 피라미드에 대응하는 일 피사체(예, 도 3a의 피사체(314))에 대응할 수 있다. 예를 들어, 시각적 객체들(616, 626) 전부는 구에 대응하는 일 피사체(예, 도 3a의 피사체(316))에 대응할 수 있다.In one embodiment, as at least portions of FOVs of the first and second cameras corresponding to the
일 실시예에서, 상기 제1 카메라 및 상기 제2 카메라가 구별되는 FOV들을 가짐에 따라, 제1 이미지(610) 및 제2 이미지(620) 내에서 동일한 피사체에 대응하는 시각적 객체들이 서로 다른 크기 및 위치를 가질 수 있다. 도 6b를 참고하면, 제1 이미지(610) 및 제2 이미지(620)의 크기가 일치하는 경우, 상기 제1 카메라의 FOV가 상기 제2 카메라의 FOV 내에 포함됨에 따라, 제2 이미지(620)에 포함된 시각적 객체의 크기가, 제1 이미지(610)에 포함되고, 상기 시각적 객체와 동일한 피사체에 대응하는 시각적 객체의 크기 보다 작을 수 있다. 예를 들어, 직육면체에 대응하는 일 피사체(예, 도 3a의 피사체(312))에 대응하는 시각적 객체들(612, 622)을 참고하면, 제1 이미지(610)의 시각적 객체(612)의 크기가 제2 이미지(620)의 시각적 객체(622)의 크기 보다 클 수 있다.In one embodiment, as the first camera and the second camera have distinct FOVs, visual objects corresponding to the same subject in the
일 실시예에서, 상기 제1 카메라의 FOV 및 상기 제2 카메라의 FOV가 시차를 가짐에 따라, 제1 이미지(610) 및 제2 이미지(620) 내에서 동일한 피사체에 대응하는 시각적 객체들은, 서로 다른 시점들에서 본 피사체의 서로 다른 형태들을 나타낼 수 있다. 예를 들어, 직육면체에 대응하는 일 피사체(예, 도 3a의 피사체(312))에 대응하는 시각적 객체들(612, 622)을 참고하면, 제1 이미지(610)의 시각적 객체(612)는 상기 직육면체의 측면들 중 일 면 만을 나타내고, 제2 이미지(620)의 시각적 객체(622)는 상기 직육면체의 측면들 중 두 면을 나타낼 수 있다. 예를 들어, 피라미드에 대응하는 일 피사체(예, 도 3a의 피사체(314))에 대응하는 시각적 객체들(614, 624)을 참고하면, 제1 이미지(610)의 시각적 객체(614)는 상기 피라미드의 측면들 중 세 면을 나타내고, 제2 이미지(620)의 시각적 객체(624)는 상기 피라미드의 측면들 중 두 면을 나타낼 수 있다. 상술한 바와 같이, 제1 이미지(610) 및 제2 이미지(620) 각각에서, 동일한 피사체에 대응하는 시각적 객체들의 형태가 시차에 의해 구별됨에 따라, 제1 이미지(610) 및 제2 이미지(620)에 기반하여 생성된 애니메이션은, 상기 구별되는 시각적 객체들의 형태에 의한 입체감을 제공할 수 있다. In one embodiment, as the FOV of the first camera and the FOV of the second camera have a parallax, visual objects corresponding to the same subject in the
일 실시예에 따른 전자 장치(101)는 시각적 가이드(605)에 대응하는 피사체에 적어도 기반하여, 제1 이미지(610) 및 제2 이미지(620) 중 적어도 하나를 변경할 수 있다. 예를 들어, 상기 피사체 및 전자 장치(101) 사이의 거리에 기반하여, 전자 장치(101)는 제1 이미지(610) 및 제2 이미지(620) 중 적어도 하나를 변경할 수 있다. 일 실시예에 따른 전자 장치(101)는 제1 이미지(610) 및 제2 이미지(620)의 획득을 위해 이용된 제1 카메라 및 제2 카메라의 FOV와 관련된 정보에 기반하여, 제1 이미지(610) 및 제2 이미지(620) 중 적어도 하나를 변경할 수 있다. 일 실시예에 따른 전자 장치(101)는 프리뷰 이미지(220)에 대응하는 제1 카메라와 구별되는 제2 카메라에 의해 획득된 제2 이미지(620)의 FOV를, 제1 이미지(610)의 FOV에 기반하여 변경할 수 있다. 예를 들어, 전자 장치(101)는 제2 이미지(620)로부터, 제1 이미지(610)의 FOV와 관련된 FOV를 가지는 일부분(628)을 식별할 수 있다.The
일 실시예에서, 제1 이미지(610) 및 제2 이미지(620) 중 적어도 하나를 변경하기 위해 전자 장치(101)에 의하여 이용되는 정보는, 제1 이미지(610) 및 제2 이미지(620)의 획득을 위해 이용된 제1 카메라 및/또는 제2 카메라의 FOV와 관련된 정보로써, 상기 제1 카메라 또는 상기 제2 카메라 중 적어도 하나의 줌 배율(zoom factor)을 포함할 수 있다. 상기 줌 배율은 상기 제1 카메라의 렌즈 또는 상기 제2 카메라의 렌즈 중 적어도 하나와 관련된 파라미터일 수 있다. 예를 들어, 전자 장치(101)는 상기 제1 카메라 또는 상기 제2 카메라 중 적어도 하나의 줌 배율에 기반하여, 제2 이미지(620) 내에서 제1 이미지(610)의 FOV에 대응하는 FOV를 가지는 일부분(628)의 크기를 획득할 수 있다.In one embodiment, the information used by the
일 실시예에서, 제1 이미지(610) 및 제2 이미지(620) 중 적어도 하나를 변경하기 위해 전자 장치(101)에 의하여 이용되는 정보는, 제1 이미지(610) 및 제2 이미지(620)의 획득을 위해 이용된 제1 카메라 및 제2 카메라의 위치들 사이의 차이를 나타내는 정보를 포함할 수 있다. 상기 위치들 사이의 차이는, 상기 제1 카메라 및 상기 제2 카메라 각각의 FOV들의 중심축의 차이를 야기할 수 있다. 예를 들어, 상기 정보는, 상기 제1 카메라 및 상기 제2 카메라가 전자 장치(101) 상에서 지정된 방향(예, 수평 방향 및/또는 수직 방향)을 따라 이격된 거리를 나타낼 수 있다. 예를 들어, 전자 장치(101)는 상기 제1 카메라 및 상기 제2 카메라가 수직 방향(예, 랜드스케이프 모드에서, 전자 장치의 너비 방향)을 따라 이격된 거리에 기반하여, 제2 이미지(620) 내에서 제1 이미지(610)의 FOV에 대응하는 FOV를 가지는 일부분(628)의 위치(예, 상기 수직 방향에 대응하는 y 축에서의 위치)를 식별할 수 있다. In one embodiment, the information used by the
일 실시예에서, 제1 이미지(610) 및 제2 이미지(620) 중 적어도 하나를 변경하기 위해 전자 장치(101)에 의하여 이용되는 정보는, 시각적 가이드(605)에 대응하는 피사체 및 전자 장치(101) 사이의 거리를 나타내는 정보를 포함할 수 있다. 예를 들어, 전자 장치(101)는 상기 제1 카메라 및 상기 제2 카메라가 수평 방향(예, 포트레이트 모드에서, 전자 장치의 길이 방향)을 따라 이격된 거리, 및 거리 센서(예, 도 3a의 거리 센서(154))를 이용하여 획득된 피사체(예, 도 3a의 피사체(314)) 및 전자 장치(101) 사이의 거리에 기반하여, 제2 이미지(620) 내에서 제1 이미지(610)의 FOV에 대응하는 FOV를 가지는 일부분(628)의 위치(예, 상기 수평 방향에 대응하는 x 축에서의 위치)를 식별할 수 있다. 예를 들어, 피사체 및 전자 장치(101) 사이의 거리가 증가됨에 따라, 일부분(628)의 위치는 제2 이미지(620) 내에서 제1 이미지(610)의 중심축에 대응하는 위치를 향하여 수렴될 수 있다.In one embodiment, the information used by the
도 6b를 참고하면, 일 실시예에 따른 전자 장치(101)가 제1 이미지(610) 및 제2 이미지(620)의 획득을 위해 이용된 제1 카메라 및 제2 카메라의 FOV들을 나타내는 정보, 및 시각적 가이드(605)에 의해 지시되는 피사체 및 전자 장치(101) 사이의 거리에 기반하여, 제2 이미지(620) 내에서 식별한 일부분(628)이 도시된다. 상술한 바와 같이, 일부분(628)의 크기는 상기 제1 카메라 및 상기 제2 카메라의 FOV들의 줌 배율과 관련될 수 있다. 제2 이미지(620) 내에서, y 축에서의 일부분(628)의 위치는, y축에 대응하는 수직 방향에서의 상기 제1 카메라 및 상기 제2 카메라 사이의 차이를 나타내는 정보(예, 수직 오프셋(vertical offset))와 관련될 수 있다. 제2 이미지(620) 내에서, x 축에서의 일부분(628)의 위치는, x 축에 대응하는 수평 방향에서의 상기 제1 카메라 및 상기 제2 카메라 사이의 차이를 나타내는 정보(예, 수평 오프셋(horizontal offset))와 관련될 수 있다. 전자 장치(101)는 제2 이미지(620) 내에서 식별된 일부분(628)을 스케일링(scaling)하여, 제1 이미지(610)의 크기를 가지는 다른 이미지를 획득할 수 있다. Referring to FIG. 6B , information indicating FOVs of a first camera and a second camera used by the
도 6c는, 일 실시예에 따른 전자 장치(101)가 도 6b의 일부분(628)을 스케일링하여 획득한 제3 이미지(630)를 도시한 도면이다. 상술한 바와 같이, 전자 장치(101)는, 프리뷰 이미지(220)의 제공을 위해 이용되는 제1 카메라로부터 획득된 제1 이미지(610)의 FOV와 관련된, 제2 이미지(620)의 일부분(628)을 식별할 수 있다. 전자 장치(101)는 식별된 일부분(628)을, 제1 이미지(610)의 크기(dimension)(예, 폭, 너비 및/또는 종횡비(aspect ratio))를 따라 확대하거나 또는 축소하여, 제1 이미지(610)의 크기와 동일한 크기를 가지는 제3 이미지(630)를 획득할 수 있다. 예를 들어, 제3 이미지(630)의 크기는 제1 이미지(910)의 크기와 일치할 수 있다.6C is a diagram illustrating a
일 실시예에 따른 전자 장치(101)는 촬영 입력을 수신한 이후, 제3 이미지(630)를 획득하는 것에 응답하여, 전자 장치(101)의 디스플레이 상에 제1 이미지(610) 및 상기 획득된 제3 이미지(630)를 교대로 표시할 수 있다. 예를 들어, 전자 장치(101)는, 도 2의 텍스트(264)에 의해 지시되거나, 또는 텍스트(264)와 관련된 사용자 입력에 의해 조절되는, 특정 주기에 기반하여 제1 이미지(610) 및 제3 이미지(630)를 교대로 표시할 수 있다. 예를 들어, 전자 장치(101)는 제1 이미지(610) 및 제3 이미지(630)로부터 생성할 애니메이션의 프리뷰로써, 제1 이미지(610) 및 제3 이미지(630)를 교대로 표시할 수 있다. 예를 들어, 도 2의 프리뷰 이미지(220) 내에서, 전자 장치(101)는 제1 이미지(610) 및 제3 이미지(630)를 교대로 표시할 수 있다.After receiving a photographing input, the
도 6c를 참고하면, 제3 이미지(630)는 제2 이미지(620)의 일부분(628)에 대응하므로, 제2 이미지(620)에 포함된 시각적 객체들(622, 624, 626)의 적어도 일부분을 포함할 수 있다. 제3 이미지(630) 내에서, 시각적 객체들(622, 624, 626)은, 제1 이미지(610)의 시각적 객체들(612, 614, 616) 각각과 동일한 피사체에 대응할 수 있다. 제3 이미지(630) 내에서, 시각적 객체들(622, 624, 626)의 크기는, 제1 이미지(610)의 시각적 객체들(612, 614, 616) 각각의 크기에 대응할 수 있다. 제3 이미지(630) 내에서, 시각적 객체들(622, 624, 626)의 형태는, 제3 이미지(630)가 제1 이미지(610)에 대하여 시차를 가짐에 따라, 제1 이미지(610)의 시각적 객체들(612, 614, 616)의 형태와 구별될 수 있다.Referring to FIG. 6C , since the
일 실시예에 따른 전자 장치(101)가 시각적 가이드(605)에 의해 지시되는 피사체 및 전자 장치(101) 사이의 거리에 따라 제3 이미지(630)를 생성하므로, 제3 이미지(630) 내에서 상기 피사체에 대응하는 시각적 객체(624)의 위치는, 제1 이미지(610) 내에서 상기 피사체에 대응하는 시각적 객체(614)의 위치와 일치할 수 있다. 제3 이미지(630) 내에서의 시각적 객체(624)의 위치 및 제1 이미지(610) 내에서의 시각적 객체(614)의 위치가 서로 일치함에 따라, 제1 이미지(610) 및 제3 이미지(630)는, 시각적 객체들(614, 624)에 대응하는 일 피사체(예, 도 3a의 피라미드에 대응하는 피사체(314))에 포함된 중심축으로부터 동일한 거리를 따라 이격된 두 시점들 각각에서 촬영된 이미지들에 대응할 수 있다. 전자 장치(101)가 제1 이미지(610) 및 제3 이미지(630)를 교대로 표시함에 따라, 전자 장치(101)는 상기 일 피사체를 중심으로 형성된 호를 따라 상기 일 피사체를 촬영한 것과 같은 효과(예, 아크 샷(arc shot))를 제공할 수 있다. 제3 이미지(630)가 제1 이미지(610)에 대하여 시차를 가짐에 따라, 전자 장치(101)는 제1 이미지(610) 및 제3 이미지(630)를 교대로 표시하여 입체감을 제공할 수 있다.Since the
일 실시예에 따른 전자 장치(101)는 제1 이미지(610) 및 제3 이미지(630)를 교대로 표시하면서, 제1 이미지(610) 및 제3 이미지(630) 중 적어도 하나를 조정(예, 미세 조정(fine tuning))하기 위한 기능을, 사용자에게 제공할 수 있다. 예를 들어, 전자 장치(101)는 일부분(628)을 식별하기 위해 이용한 정보(예, 상기 줌 배율, 수직 오프셋 및/또는 수평 오프셋)를 조절하기 위한 UI를, 제1 이미지(610) 및 제3 이미지(630)가 교대로 표시되는 디스플레이의 일부분과 함께 표시할 수 있다. 예를 들어, 전자 장치(101)는 제2 이미지(620) 내에서 일부분(628)의 위치 및/또는 크기를, 드래그 및/또는 핀치-투-줌과 같은 제스쳐에 기반하여 조절하기 위한 UI를 표시할 수 있다. 상기 UI에 의해 조절되는 상기 정보에 기반하여, 전자 장치(101)는 제2 이미지(620) 내에서 일부분(628)의 크기 및/또는 위치를 조절할 수 있다. 조절된 크기 및/또는 조절된 위치를 가지는 일부분(628)을 스케일링하여, 전자 장치(101)는 제3 이미지(630)의 표시를 변경할 수 있다. 일 실시예에 따른 전자 장치(101)는 애니메이션의 생성을 위한 사용자 입력을 수신하는 것에 응답하여, 제1 이미지(610) 및 제3 이미지(630)를 연접하여 애니메이션을 제공하기 위한 다른 이미지를 생성할 수 있다.The
상술한 바와 같이, 일 실시예에 따른 전자 장치(101)는 단일 촬영 입력을 따라 제1 카메라 및 제2 카메라 전부를 제어하여, 제1 카메라 및 제2 카메라 각각으로부터 제1 이미지(예, 도 6b 및/또는 6c의 제1 이미지(610)) 및 제2 이미지(620)를 획득할 수 있다. 상기 제1 카메라는 도 6a의 프리뷰 이미지(220)를 제공하는 제1 카메라에 대응할 수 있고, 상기 제2 카메라는 상기 제1 카메라에 대하여 시차를 가지는 제2 카메라에 대응할 수 있다. 전자 장치(101)가 상기 제1 이미지(610), 및 상기 제2 이미지(620)로부터 획득된 제3 이미지(630)를 교대로 재생하는 애니메이션을 재생함에 따라, 전자 장치(101)는 애니메이션을 시청하는 사용자에게, 상기 시차에 의해 야기되는 입체감을 제공할 수 있다. 상기 애니메이션의 재생에 의해 제공되는 입체감은, 렌티큘러 디스플레이 및/또는 사용자의 두 눈들 각각에 구별되는 이미지를 제공하는 3차원 디스플레이와 독립적으로 제공될 수 있다. 전자 장치(101)가 단일 촬영 입력 만으로 입체감을 제공하는 애니메이션을 생성하므로, 사용자는 움직이는 피사체를 대상으로 상기 애니메이션을 보다 용이하게 획득할 수 있다.As described above, the
이하에서는 도 7을 참고하여, 일 실시예에 따른 전자 장치(101)가 FOV 내에 배치된 피사체와 독립적인 시각적 객체를, 제1 이미지(610) 및 제3 이미지(630)에 기반하는 상기 애니메이션의 프리뷰를 표시하는 상태에서 추가하는 동작이 상세히 설명된다.Hereinafter, with reference to FIG. 7 , the
도 7은 일 실시예에 따른 전자 장치가 복수의 카메라들 각각으로부터 획득한 복수의 이미지들(610, 630) 각각에 하나 이상의 시각적 객체들(712, 714, 722, 724)을 결합하는 동작을 설명하기 위한 예시적인 도면이다. 도 7의 전자 장치는 도 1 내지 도 2, 도 3a 내지 3b의 전자 장치(101) 및/또는 도 6a 내지 6c의 전자 장치에 대응할 수 있다. 이하에서는, 전자 장치가 도 3a의 상태(300)에서 피사체(310)를 촬영하여 도 6c의 제1 이미지(610) 및 제3 이미지(630)를 획득한 상태에서, 전자 장치가 상기 피사체(310)와 독립적인 시각적 객체를, 제1 이미지(610) 및 제3 이미지(630)에 결합하는 동작이 설명된다. 예를 들어, 도 2의 텍스트(266)와 관련된 사용자 입력을 수신하는 것에 응답하여, 전자 장치는 상기 피사체(310)와 독립적인 시각적 객체를, 제1 이미지(610) 및 제3 이미지(630)에 추가할 수 있다.7 illustrates an operation of combining one or more
일 실시예에 따른 전자 장치가 제1 이미지(610) 및 제3 이미지(630)에 추가하는 시각적 객체는, 제1 이미지(610) 및 제3 이미지(630)에 의해 촬영된 피사체와 독립적인 그래픽 객체로써, 사용자에 의해 입력된 텍스트 및/또는 사용자에 의해 선택된 이미지 및/또는 아이콘을 포함할 수 있다. 도 7을 참고하면, 전자 장치는 STT(speech-to-text) 및/또는 전자 장치의 디스플레이의 적어도 일부분에 표시되는 소프트 키보드를 통하여 사용자로부터 입력된 텍스트를, 시각적 객체들(712, 714)을 이용하여 제1 이미지(610) 및 제3 이미지(630) 각각에 추가할 수 있다. 도 7을 참고하면, 전자 장치는 사용자에 의해 선택된 이미지(예, 화살표 모양의 이미지)를, 시각적 객체들(722, 724)을 이용하여 제1 이미지(610) 및 제3 이미지(630) 각각에 추가할 수 있다. A visual object added to the
일 실시예에 따른 전자 장치는, 제1 이미지(610) 및 제3 이미지(630) 각각에 추가되고, 그래픽 객체에 대응하는 시각적 객체들의 형태를, 시차에 기반하여 변경할 수 있다. 상기 시차는 사용자에 의해 조절될 수 있다. 도 7을 참고하면, 시각적 객체들(712, 714)은 사용자에 의해 조절된 시차에 따라, 제1 이미지(610) 및 제3 이미지(630) 각각에서 구별되는 형태를 가질 수 있다. 유사하게, 시각적 객체들(722, 724)은 제1 이미지(610) 및 제3 이미지(630) 각각에서, 사용자에 의해 조절된 시차에 따라 상이한 형태 및 위치를 가질 수 있다. 예를 들어, 전자 장치는 제1 이미지(610)에 결합된 시각적 객체(722)를 스케일링 및/또는 틸팅하여, 제3 이미지(630)에 결합될 시각적 객체(724)를 획득할 수 있다. 전자 장치는 획득된 시각적 객체(724)를, 제3 이미지(630)에 결합할 수 있다.The electronic device according to an embodiment may change the shape of visual objects that are added to each of the
일 실시예에 따른 전자 장치가 그래픽 객체에 대응하는 시각적 객체들(712, 714, 722, 724)을 제1 이미지(610) 및 제3 이미지(630)에 결합하는 것은, 제1 이미지(610) 및 제3 이미지(630) 각각에 오버레이된 레이어에 기반하여 수행될 수 있다. 예를 들어, 제1 이미지(610) 및 제3 이미지(630)로부터 생성할 애니메이션의 프리뷰를 표시하는 상태에서, 전자 장치는 상기 레이어 상에 시각적 객체들(712, 714, 722, 724) 중 적어도 하나를 렌더링할 수 있다. 제1 이미지(610) 및 제3 이미지(630) 각각에 오버레이된 레이어를 이용하여, 전자 장치는 그래픽 객체에 대응하는 시각적 객체를 추가, 삭제 및/또는 변경하는 하나 이상의 사용자 입력에 대응할 수 있다(may respond to). 상기 애니메이션을 저장하기 위한 사용자 입력을 수신하는 것에 응답하여, 전자 장치는 오버레이된 레이어에 포함된 하나 이상의 시각적 객체들(예, 제1 이미지(610) 및 제3 이미지(630) 각각에 오버레이된 레이어에 포함된 시각적 객체들(712, 714, 722, 724))을, 제1 이미지(610) 및 제3 이미지(630) 각각에 추가할 수 있다. 전자 장치는 시각적 객체들(712, 714, 722, 724) 각각이 추가된 제1 이미지(610) 및 제3 이미지(630)를 연접하여, 애니메이션을 제공하기 위한 다른 이미지를 획득할 수 있다. Combining
상술한 바와 같이, 일 실시예에 따른 전자 장치는 입체감을 제공하기 위한 애니메이션 내에, 그래픽 객체에 기반하는 하나 이상의 시각적 객체들을 결합할 수 있다. 그래픽 객체에 기반하는 하나 이상의 시각적 객체들은, 상기 애니메이션에 포함된 복수의 이미지들 각각에서 시차에 따라 구별되는 형태 및/또는 위치를 가질 수 있다. 이하에서는 도 8을 참고하여, 일 실시예에 따른 전자 장치가 복수의 피사체들 중에서 전자 장치로부터 이격된 거리를 측정할 일 피사체를 선택하는 동작이 설명된다.As described above, the electronic device according to an embodiment may combine one or more visual objects based on graphic objects into an animation to provide a three-dimensional effect. One or more visual objects based on the graphic object may have a shape and/or position distinguished according to a parallax in each of a plurality of images included in the animation. Hereinafter, referring to FIG. 8 , an operation of an electronic device according to an embodiment of selecting a subject from among a plurality of subjects to measure a distance away from the electronic device will be described.
도 8은 일 실시예에 따른 전자 장치(101)가 복수의 피사체들 중 어느 한 피사체를 선택하는 사용자 입력에 기반하여 수행하는 동작을 설명하기 위한 예시적인 도면이다. 도 8의 전자 장치(101)는 도 1 내지 도 2, 도 3a 내지 3b의 전자 장치(101), 도 6a 내지 6c 및/또는 도 7의 전자 장치에 대응할 수 있다. 이하에서는, 전자 장치가 도 3a의 상태(300) 및/또는 도 6a의 상태에서의 전자 장치(101)의 동작이 설명되지만, 실시예가 이에 제한되는 것은 아니며, 도 4a 내지 4c 및 도 5a 내지 5b의 전자 장치(101)도 후술되는 동작과 유사하게 구동될 수 있다.8 is an exemplary diagram for explaining an operation performed by the
일 실시예에 따른 전자 장치(101)는 프리뷰 이미지(220) 내에서 사용자 입력에 의해 조절 가능한 위치를 가지는 시각적 가이드(605)를 표시할 수 있다. 도 8을 참고하면, 시각적 가이드(605)는 프리뷰 이미지(220) 내에서 일 피사체(예, 도 3a의 피라미드에 대응하는 피사체(314))에 대응하는 시각적 객체(614)의 적어도 일부분과 중첩되어 표시될 수 있다. 아이콘(240)에 기반하는 촬영 입력을 수신하는 것에 응답하여, 전자 장치(101)는 제1 이미지(610) 및 제2 이미지(620)를 획득할 수 있다. 시각적 가이드(605)가 시각적 객체(614)의 적어도 일부분과 중첩된 상태에서, 도 6a 내지 6c에서 설명한 바와 유사하게, 전자 장치(101)는 시각적 객체(614)에 의해 지시되는 일 피사체 및 전자 장치(101) 사이의 거리에 기반하여, 제2 이미지(620) 내에서 일부분(628)을 추출할 수 있다. 추출된 일부분(628)에 기반하여, 전자 장치(101)는 도 6c의 제3 이미지(630)를 획득할 수 있다. 이하에서, 도 3a, 도 6a 내지 6c와 중복되는 설명은 생략된다.The
일 실시예에서, 복수의 피사체들 각각에 대응하는 시각적 객체들(612, 614, 616)이 프리뷰 이미지(220) 내에 표시된 상태에서, 사용자는 시각적 가이드(605)를 이용하여, 전자 장치(101)에서 생성될 애니메이션에 포함된 이미지들 내에서 고정된 위치를 가질 피사체를 선택할 수 있다. 시각적 가이드(605)의 위치는, 전자 장치(101)가 프리뷰 이미지(220) 내에서 수행되는 클릭, 터치 및/또는 드래그 제스쳐를 수신하는 것에 응답하여 변경될 수 있다. 예를 들어, 궤적(820)과 같이 시각적 가이드(605) 상에서 시작되고, 위치(810)에서 종료되는 드래그 제스쳐를 수신하는 것에 응답하여, 전자 장치(101)는 시각적 가이드(605)의 위치를, 위치(810)로 변경할 수 있다.In an embodiment, in a state in which
시각적 가이드(605)의 위치가 위치(810)로 변경된 상태에서, 아이콘(240)에 기반하는 촬영 입력을 수신하는 것에 응답하여, 전자 장치(101)는 위치(810)에 배치된 시각적 객체(612)에 대응하는 일 피사체(예, 도 3a의 직육면체에 대응하는 피사체(312)) 및 전자 장치(101) 사이의 거리를 식별할 수 있다. 거리 센서(예, 도 1 및/또는 도 3a의 거리 센서(154))가 레이저 센서에 대응하는 일 예에서, 전자 장치(101)는 레이저 센서를 이용하여 시각적 객체(612)에 대응하는 상기 일 피사체를 향하여 레이저 광을 방출하고, 상기 일 피사체로부터 반사되는 레이저 광에 기반하여, 상기 일 피사체 및 전자 장치(101) 사이의 거리를 획득할 수 있다. 거리 센서가 ToF 센서에 대응하는 일 예에서, 전자 장치(101)는 프리뷰 이미지(220)와 관련된 제1 카메라의 FOV와 적어도 일부분 중첩되는 FOV를 가지는 깊이 영상을 획득할 수 있다. 상기 깊이 영상 내에서, 위치(810)에 대응하는 깊이 값을 식별하는 것에 응답하여, 전자 장치(101)는 시각적 객체(612)에 대응하는 일 피사체 및 전자 장치(101) 사이의 거리를 식별할 수 있다.In a state where the position of the
일 실시예에 따른 전자 장치(101)는 위치(810)로 이동된 시각적 가이드에 의해 지시되는 피사체 및 전자 장치(101) 사이의 거리, 및 제1 이미지(610) 및 제2 이미지(620)들의 FOV들 사이의 차이에 기반하여, 제2 이미지(620)로부터 제1 이미지(610)와 교대로 표시될 제3 이미지(840)를 획득할 수 있다. 도 8을 참고하면, 전자 장치(101)가 위치(810)로 이동된 시각적 가이드에 의해 지시되는 피사체 및 전자 장치(101) 사이의 거리에 기반하여 제2 이미지(620) 내에서 선택한 일부분(830)이 도시된다. 상기 일부분(830)의 크기는 제1 이미지(610) 및 제2 이미지(620)들의 FOV들 각각의 크기의 비율과 관련될 수 있다. 상기 일부분(830)의 y 축에서의 위치는, 제1 이미지(610) 및 제2 이미지(620)들의 FOV들의 상기 y 축에 대응하는 방향(예, 수직 방향) 내에서의 차이와 관련될 수 있다. 상기 일부분(830)의 x 축에서의 위치는 상기 FOV들의 상기 x 축에 대응하는 방향(예, 수평 방향) 내에서의 차이 및 위치(810)로 이동된 시각적 객체에 의해 지시되는 피사체 및 전자 장치(101) 사이의 거리와 관련될 수 있다.The
도 8을 참고하면, 위치(810)로 이동된 시각적 가이드에 의하여 결정된 일부분(830)과 함께, 도 6b의 일부분(628)이 함께 도시된다. 일부분들(628, 830)을 참고하면, 전자 장치(101)는 시각적 가이드(605)의 위치의 변경에 따라, 제2 이미지(620) 내에서 구별되는 일부분들(628, 830)을 선택할 수 있다. 도 8을 참고하면, 일 실시예에 따른 전자 장치가 일부분(830)을 스케일링하여 획득한 제3 이미지(840)가 도시된다. 제3 이미지(840)는 제1 이미지(610)와 교대로 표시되어, 입체감을 제공하는 애니메이션을 형성할 수 있다. 제1 이미지(610) 및 제3 이미지(840)를 참고하면, 위치(810)에 의해 지시되는 일 피사체에 대응하는 시각적 객체(622)의 제3 이미지(840) 내에서의 위치는, 제1 이미지(610) 내에서 상기 일 피사체에 대응하는 시각적 객체(612)의 위치와 실질적으로 일치할 수 있다. 제1 이미지(610) 및 제3 이미지(840) 내에서 시각적 객체들(612, 622)의 위치가 실질적으로 일치한 상태에서, 전자 장치(101)가 제1 이미지(610) 및 제3 이미지(840)를 교대로 표시함에 따라, 전자 장치(101)는 시각적 객체들(612, 622)에 대응하는 상기 일 피사체를 중심으로 형성된 호를 따라 상기 일 피사체를 촬영한 것과 같은 효과를 제공할 수 있다.Referring to FIG. 8 ,
상술한 바와 같이, 프리뷰 이미지(220) 내에 복수의 피사체들에 대응하는 시각적 객체들(612, 614, 616)이 표시된 상태에서, 일 실시예에 따른 전자 장치(101)는 시각적 가이드(605)와 관련된 사용자 입력에 의해 선택된 일 피사체 및 전자 장치(101) 사이의 거리를 식별할 수 있다. 식별된 거리는, 상기 일 피사체를 중심으로 형성된 호에 포함된 구별되는 시점들 상에서의 이미지들(예, 제1 이미지(610) 및 제3 이미지(840))을 획득하는데 이용될 수 있다. 전자 장치(101)는 획득된 이미지들을 연접하여, 입체감을 가지는 다른 이미지를 획득할 수 있다.As described above, in a state in which the
이하에서는, 도 9a 내지 9b를 참고하여, 일 실시예에 따른 전자 장치(101)가 복수의 카메라들에 기반하여 획득한 복수의 이미지들(예, 제1 이미지(610) 및 제3 이미지(840))에 기반하는 애니메이션을 생성하는 상태에서, 시간 영역에서 상기 복수의 이미지들 사이에 배치될 하나 이상의 다른 이미지들을 획득하는 동작이 설명된다.Hereinafter, with reference to FIGS. 9A and 9B , a plurality of images (eg, a
도 9a 내지 9b는 일 실시예에 따른 전자 장치가 복수의 카메라들 각각으로부터 획득한 복수의 이미지들을 보간하는 동작을 설명하기 위한 예시적인 도면이다. 도 9a 내지 9b의 전자 장치는 도 1 내지 도 2, 도 3a 내지 3b의 전자 장치(101), 도 6a 내지 6c의 전자 장치에 대응할 수 있다. 이하에서는, 도 6c의 제1 이미지(610) 및 제3 이미지(630)를 획득한 상태에서, 일 실시예에 따른 전자 장치가, 제1 이미지(610) 및 제3 이미지(630)에 기반하는 애니메이션 내에서, 시간 영역에서 제1 이미지(610) 및 제3 이미지(630) 사이에 표시될 하나 이상의 다른 이미지들을 획득하는 동작이 설명된다. 비록 도 6c의 제1 이미지(610) 및 제3 이미지(630)를 획득한 상태에서의 전자 장치의 동작이 설명되지만, 실시예가 이에 제한되는 것은 아니며, 도 8의 전자 장치(101)도 후술되는 동작에 따라 애니메이션을 생성할 수 있다.9A and 9B are exemplary diagrams for explaining an operation of interpolating a plurality of images acquired from each of a plurality of cameras by an electronic device according to an embodiment. The electronic device of FIGS. 9A to 9B may correspond to the
도 9a를 참고하면, 일 실시예에 따른 전자 장치가, 제1 이미지(610) 및 제3 이미지(630)로부터 주기(930)를 따라 제공되는 애니메이션을 생성하기 위하여, 제1 이미지(610) 및 제3 이미지(630) 각각에 적용할 가중치를 나타내는 그래프들(910, 920)이 도시된다. 상기 주기(930)는, 예를 들어, 도 2의 텍스트(264)와 관련된 사용자 입력에 의해 조정될 수 있다. 도 9a를 참고하면, 전자 장치(101)가 제1 이미지(610) 및 제3 이미지(630)를 연접하여 획득하는 애니메이션은, 주기(930)를 따라, 제1 이미지(610) 및 제3 이미지(630)를 포함하는 복수의 이미지들이 교대로 재생되는 애니메이션일 수 있다. 일 실시예에 따른 전자 장치(101)는 그래프들(910, 920)에 의해 지시되는 가중치들에 따라 제1 이미지(610) 및 제3 이미지(630)를 보간하여, 제1 이미지(610) 및 제3 이미지(630) 사이에 표시되도록, 시간 축에서 제1 이미지(610) 및 제3 이미지(630) 사이에 배치되는 하나 이상의 이미지들을 획득할 수 있다. 전자 장치(101)가 제1 이미지(610) 및 제3 이미지(630)를 보간하여 획득하는 상기 하나 이상의 이미지들의 개수는, 예를 들어, 도 2의 텍스트(262)와 관련된 사용자 입력에 의해 조정된 프레임율과 관련될 수 있다.Referring to FIG. 9A , in order to generate an animation provided along a
도 9a를 참고하면, 그래프(910)는 제1 이미지(610)에 적용될 제1 가중치를 나타낸다. 그래프(920)는 제3 이미지(630)에 적용될 제2 가중치를 나타낸다. 일 실시예에 따른 전자 장치(101)는 주기(930) 내 복수의 시점들 각각에 대응하는 복수의 이미지들을, 그래프(910)에 의해 나타나는 제1 가중치가 적용된 제1 이미지(610) 및 그래프(920)에 의해 나타나는 제2 가중치가 적용된 제3 이미지(630)를 결합하여 획득할 수 있다. 제1 가중치가 적용된 제1 이미지(610) 및 제2 가중치가 적용된 제3 이미지(630)를 결합하는 것은 크로스 페이딩(Cross Fading)에 기반하여 수행될 수 있다. 예를 들어, 제1 가중치 및 제2 가중치들은, 제1 이미지(610) 및 제3 이미지(630) 각각에 포함된 복수의 픽셀들에 적용될 수 있다. 전자 장치(101)는, 획득된 복수의 이미지들을, 주기(930)를 따라 교대로 재생되는 애니메이션을 나타내는 이미지로써, 전자 장치(101) 내에 저장할 수 있다. 상기 복수의 시점들은 시간 축에서, 예를 들어, 도 2의 텍스트(262)와 관련된 사용자 입력에 의해 조정된 프레임율에 기반하는 시간 간격을 따라 이격될 수 있다. 예를 들어, 주기(930)의 길이(duration)가 2초에 대응하고, 프레임율이 50 fps에 대응하는 경우, 전자 장치(101)는 시간 축에서 0.02 초 간격을 따라 그래프들(910, 920) 각각에 대응하는 제1 가중치 및 제2 가중치를 샘플링한 값을 이용하여 제1 이미지(610) 및 제3 이미지(630)를 결합하여 획득된 100 개의 이미지들을, 주기(930)를 따라 교대로 재생되는 애니메이션을 나타내는 이미지로써 획득할 수 있다.Referring to FIG. 9A , a
예를 들어, 주기(930) 내 시점 t0에서, 그래프(910)에 의해 나타나는 제1 가중치가 1이고, 그래프(920)에 의해 나타나는 제2 가중치가 0에 대응하므로, 시점 t0에서 재생될 이미지는 제1 이미지(610)에 대응할 수 있다. 시점 t0 및 시점 t1 사이의 시간 구간 내에서, 상기 제1 가중치가 점진적으로 감소되고, 상기 제2 가중치가 점진적으로 증가됨에 따라, 전자 장치(101)는 상기 시간 구간 내에서 제1 이미지(610)로부터 제3 이미지(630)로 전환되는 애니메이션을 나타내는 하나 이상의 이미지들을 획득할 수 있다. 시점 t1에서, 그래프(910)에 의해 나타나는 제1 가중치가 0이고, 그래프(920)에 의해 나타나는 제2 가중치가 1에 대응하므로, 시점 t1에서 재생될 이미지는 제3 이미지(630)에 대응할 수 있다. 시점 t1 및 시점 t2 사이의 시간 구간 내에서, 상기 제2 가중치가 점진적으로 감소되고, 상기 제1 가중치가 점진적으로 증가됨에 따라, 전자 장치(101)는 상기 시간 구간 내에서 제3 이미지(630)로부터 제1 이미지(610)로 전환되는 애니메이션을 나타내는 하나 이상의 이미지들을 획득할 수 있다. 시점 t2에서, 그래프(910)에 의해 나타나는 제1 가중치가 1이고, 그래프(920)에 의해 나타나는 제2 가중치가 0에 대응하므로, 시점 t2에서 재생될 이미지는, 시점 t0와 유사하게, 제1 이미지(610)에 대응할 수 있다. 상기 예시에서, 전자 장치(101)는 제1 이미지(610) 및 제3 이미지(630) 사이에서 순환되는 복수의 이미지들을 획득할 수 있다.For example, at time t0 in the
도 9b를 참고하면, 일 실시예에 따른 전자 장치가 제1 이미지(610) 및 제3 이미지(630) 각각에 포함된 복수의 픽셀들(912, 914, 922, 924)의 움직임에 기반하는 보간(예, 움직임 보간(Motion Interpolation))을 수행하여, 애니메이션에 포함되고, 시간 축에서 제1 이미지(610) 및 제3 이미지(630) 사이에 표시될, 하나 이상의 이미지들을 획득하는 일 예가 도시된다. 도 9b를 참고하면, 전자 장치는 제1 이미지(610)의 픽셀들 및 제3 이미지(630)의 픽셀들을 비교하여, 제1 이미지(610)의 픽셀들 및 제3 이미지(630)의 픽셀들 사이의 대응 관계를 획득할 수 있다. 예를 들어, 전자 장치는 제1 이미지(610)의 픽셀(912) 및 제3 이미지(630)의 픽셀(914)이 서로 대응함을 식별할 수 있다. 예를 들어, 전자 장치는 제1 이미지(610)의 픽셀(922) 및 제3 이미지(630)의 픽셀(924)이 서로 대응함을 식별할 수 있다. Referring to FIG. 9B , an electronic device performs interpolation based on motion of a plurality of
일 실시예에 따른 전자 장치는 상기 대응 관계에 의해 지시되는 제1 이미지(610) 및 제3 이미지(630) 각각의 픽셀들의 위치 관계에 기반하여, 제1 이미지(610) 및 제3 이미지(630) 사이에 표시될 하나 이상의 이미지들을 획득할 수 있다. 예를 들어, 전자 장치는 제1 이미지(610)에서의 픽셀(922)을, 제1 이미지(610)에서의 픽셀(922)의 제1 위치로부터 제3 이미지(630)에서의 픽셀(924)의 제2 위치로 점진적으로 이동하여, 상기 하나 이상의 이미지들을 획득할 수 있다. 유사하게, 전자 장치는 제1 이미지(610)의 픽셀(912)을, 프레임율 및 주기를 따라, 제3 이미지(630)에서의 픽셀(914)의 제2 위치를 향하여 이동하여, 상기 하나 이상의 이미지들을 획득할 수 있다.The electronic device according to an embodiment generates a
비록 도시되지 않았지만, 도 7에서 상술된 바와 같이, 그래픽 객체(예, 도 7의 시각적 객체들(712, 714, 722, 724)에 대응하는 그래픽 객체들)가 제1 이미지(610) 및 제3 이미지(630) 각각에 결합된 경우에서도, 전자 장치는 도 9a 내지 9b에서 상술된 동작에 기반하여 제1 이미지(610) 및 제3 이미지(630)를 보간할 수 있다. 전자 장치가 제1 이미지(610), 제3 이미지(630) 및 제1 이미지(610) 및 제3 이미지(630)를 보간하여 획득한 하나 이상의 이미지들을 연접하여 애니메이션을 획득함에 따라, 상기 애니메이션은 제1 이미지(610) 및 제3 이미지(630)에 의해 나타나는 피사체의 위치 및/또는 크기의 변화를 보다 부드럽게 표현할 수 있다.Although not shown, as described above in FIG. 7 , graphic objects (eg, graphic objects corresponding to the
이하에서는 도 10 내지 도 13을 참고하여, 일 실시예에 따른 전자 장치의 동작이 상세히 설명된다.Hereinafter, an operation of an electronic device according to an exemplary embodiment will be described in detail with reference to FIGS. 10 to 13 .
도 10은 일 실시예에 따른 전자 장치의 동작을 설명하기 위한 흐름도이다. 도 10의 전자 장치는 도 1 내지 도 2의 전자 장치(101)에 대응할 수 있다. 예를 들어, 도 10의 동작들 중 적어도 하나는 도 1의 전자 장치(101) 및/또는 전자 장치(101)의 프로세서(110)에 의해 수행될 수 있다. 10 is a flowchart illustrating an operation of an electronic device according to an exemplary embodiment. The electronic device of FIG. 10 may correspond to the
도 10을 참고하면, 동작(1010)에서, 일 실시예에 따른 전자 장치는, 제1 카메라를 이용하여, 디스플레이 상에 프리뷰 이미지를 표시할 수 있다. 전자 장치는, 지정된 어플리케이션을 실행하기 위한 사용자 입력을 식별하는 것에 응답하여, 동작(1010)의 프리뷰 이미지를 표시하는 것을 개시할 수 있다(may initiate). 예를 들어, 전자 장치는 상기 제1 카메라를 포함하는 복수의 카메라들(예, 도 1의 n 개의 카메라들(140-1, 140-2, ..., 140-n))을 포함할 수 있다. 복수의 카메라들의 FOV들은, 적어도 일부 중첩되거나, 또는 서로 구별될 수 있다. 상기 제1 카메라는 도 3a 내지 3b 및/또는 도 5a 내지 5b의 카메라(140-1)에 대응할 수 있다. 상기 프리뷰 이미지는 도 2, 도 6a 및/또는 도 8의 프리뷰 이미지(220)에 대응할 수 있다. 일 실시예에 따른 전자 장치는 제1 카메라를 통해 획득되는 복수의 이미지들 중 적어도 일부분에 기반하여, 디스플레이 상에 프리뷰 이미지를 표시할 수 있다. 상기 복수의 이미지들 각각은, 상기 제1 카메라의 FOV 내에 포함된 하나 이상의 피사체들(예, 도 3a의 피사체(310))에 대응하는 하나 이상의 제1 시각적 객체들(예, 도 6a의 시각적 객체들(612, 614, 616))을 포함할 수 있다.Referring to FIG. 10 , in
동작(1010)의 프리뷰 이미지를 표시하는 동안, 동작(1020)에서, 일 실시예에 따른 전자 장치는 촬영 입력을 수신하였는지 여부를 판단할 수 있다. 상기 촬영 입력은, 예를 들어, 도 2의 아이콘(240)을 클릭 및/또는 터치하는 사용자 입력을 포함할 수 있다. 촬영 입력을 수신하기 이전에(1020-아니오), 전자 장치는 동작(1010)에 기반하여 프리뷰 이미지를 표시하는 것을 유지할 수 있다. 일 실시예에서, 상기 촬영 입력은 전자 장치(101)의 하우징의 적어도 일부분을 통해 외부로 노출된 버튼을 누르는 사용자 입력을 포함할 수 있다.While displaying the preview image in
촬영 입력을 수신하는 것에 응답하여(1020-예), 동작(1030)에서, 일 실시예에 따른 전자 장치는 제1 카메라를 이용하여 제1 이미지를 획득할 수 있다. 상기 제1 이미지는, 동작(1010)의 프리뷰 이미지에 대응하는 FOV을 가질 수 있다. 상기 제1 이미지는, 예를 들어, 도 6a 내지 6c의 제1 이미지(610)에 대응할 수 있다. 상기 제1 이미지는 제1 카메라의 FOV 내에 포함된 하나 이상의 피사체들에 대응하는 하나 이상의 제1 시각적 객체들을 포함할 수 있다.In response to receiving a photographing input (1020-Yes), in
도 10을 참고하면, 동작(1040)에서, 일 실시예에 따른 전자 장치는 상기 제1 카메라와 구별되는 제2 카메라를 이용하여 제2 이미지를 획득할 수 있다. 상기 제2 카메라는, 전자 장치에 포함된 복수의 카메라들 중에서 상기 제1 카메라에 대하여 시차를 가지는 카메라에 대응할 수 있다. 예를 들어, 상기 제2 카메라는 도 3a 내지 3b 및/또는 도 5a의 카메라(140-2) 및/또는 도 5b의 카메라(140-4)에 대응할 수 있다. 일 실시예에 따른 전자 장치는, 촬영 입력을 수신하는 것에 응답하여, 상기 복수의 카메라들 중에서, 상기 하나 이상의 피사체들을 포함하고, 제1 카메라의 FOV에 대하여 시차를 가지는 FOV를 가지는 제2 카메라를 식별할 수 있다. 제1 카메라의 FOV에 대하여 시차를 가지는 FOV를 가지는 제2 카메라를 식별하는 것에 응답하여, 전자 장치는 제2 카메라를 통해 상기 하나 이상의 피사체들에 대응하는 하나 이상의 제2 시각적 객체들을 포함하는 제2 이미지를 획득할 수 있다. 제2 카메라의 FOV가 제1 카메라의 FOV에 대하여 시차를 가짐에 따라, 제2 이미지에 포함된 제2 시각적 객체들 및 제1 이미지에 포함된 제1 시각적 객체들은, 일 피사체를 구별되는 시점들에서 촬영한 형태를 가질 수 있다.Referring to FIG. 10 , in
도 10의 동작들(1030, 1040)을 참고하면, 동작(1020)의 촬영 입력을 수신하는 것에 응답하여, 전자 장치는 제1 카메라 및 제2 카메라 전부를 제어하여, 제1 이미지 및 제2 이미지 전부를 획득할 수 있다. 예를 들어, 전자 장치는 동작들(1030, 1040)을 실질적으로 동시에 수행할 수 있다. 전자 장치가 동작들(1030, 1040)을 수행하는 순서는, 도 10에 도시된 일 실시예에 제한되지 않을 수 있다.Referring to
도 10을 참고하면, 동작(1050)에서, 일 실시예에 따른 전자 장치는, 제1 카메라 및/또는 제1 이미지 내 피사체와 관련된 정보에 따라 제2 이미지를 변환하여, 제3 이미지를 획득할 수 있다. 예를 들어, 도 6a 내지 6c 및/또는 도 8에서 상술된 바와 유사하게, 전자 장치는 제2 이미지를 변환하여 제3 이미지(예, 도 6c의 제3 이미지(630) 및/또는 도 8의 제3 이미지(830))를 획득할 수 있다. 예를 들어, 상기 정보는, 도 6a 내지 6c의 줌 배율, 수직 오프셋 또는 수평 오프셋 중 적어도 하나를 포함할 수 있다. 일 실시예에 따른 전자 장치는 동작(1040)의 제2 이미지로부터 변환되고, 동작(1030)의 제1 이미지에 포함된 하나 이상의 제1 시각적 객체들의 크기에 대응하는 크기를 가지는 하나 이상의 제2 시각적 객체들을 포함하는 제3 이미지를 획득할 수 있다.Referring to FIG. 10 , in
일 실시예에 따른 전자 장치는 상기 제1 이미지 내 피사체와 관련된 정보로써, 전자 장치에 포함된 센서(예, 도 1의 거리 센서(154))를 이용하여, 전자 장치 및 상기 피사체 사이의 거리를 식별할 수 있다. 전자 장치는, 식별된 거리에 기반하여 상기 제2 이미지를 변환하여, 상기 제3 이미지를 획득할 수 있다. 예를 들어, 전자 장치는 식별된 거리, 동작(1030)의 제1 이미지와 관련된 제1 카메라의 줌 배율(zoom factor), 또는 상기 제1 카메라의 FOV 및 상기 제2 카메라의 FOV 사이의 위치 관계를 나타내는 데이터 중 적어도 하나에 기반하여, 상기 제2 이미지를 변환할 수 있다.The electronic device according to an embodiment determines the distance between the electronic device and the subject using a sensor (eg, the
도 10을 참고하면, 동작(1060)에서, 일 실시예에 따른 전자 장치는, 동작(1030)의 제1 이미지 및 동작(1050)의 제3 이미지에 기반하는 애니메이션을 제공하기 위한 제4 이미지를 획득할 수 있다. 예를 들어, 전자 장치는 동작(1030)의 제1 이미지를 표시한 후 동작(1050)의 제3 이미지를 표시함으로써, 하나 이상의 피사체들에 대한 애니메이션을 제공하기 위한 제4 이미지를 획득할 수 있다. 예를 들어, 전자 장치는 동작(1030)의 제1 이미지 및 동작(1050)의 제3 이미지를 서로 연접함으로써, 하나 이상의 피사체들에 대한 애니메이션을 제공하기 위한 제4 이미지를 획득할 수 있다. 일 실시예에 따른 전자 장치는 제1 이미지에 대하여 시차를 가지는 제2 이미지를 변환하여 획득된 제3 이미지를, 제1 이미지와 연접함으로써, 하나 이상의 피사체들에 대한 시차를 가지는 애니메이션을 제공하기 위한 상기 제4 이미지를 획득할 수 있다. 상기 제4 이미지는, 동작(1030)의 제1 이미지, 동작(1050)의 제3 이미지 및 상기 제1 이미지 및 상기 제3 이미지를 보간하여 획득된 하나 이상의 제5 이미지들의 시퀀스를 포함할 수 있다. 예를 들어, 제4 이미지를 표시하는 전자 장치는, 상기 제1 이미지, 상기 제3 이미지 및 상기 하나 이상의 제5 이미지들을, 상기 시퀀스에 기반하여 순차적으로 표시할 수 있다. 전자 장치가 상기 하나 이상의 제5 이미지들을 획득하는 것은, 도 9a 내지 9b에서 상술된 바와 유사하게 수행될 수 있다. 상기 제4 이미지는, 예를 들어, 하나 이상의 피사체들 중 일 피사체를 중심으로 수평 방향을 따라 반복적으로 움직이는 애니메이션을 나타내는 흔들림 입체 사진(Wiggle Stereoscopy)에 대응할 수 있다.Referring to FIG. 10 , in
이하에서는, 도 11을 참고하여, 일 실시예에 따른 전자 장치가 동작(1040)의 제2 카메라를 식별하는 동작이 상세히 설명된다.Hereinafter, referring to FIG. 11 , an operation of identifying a second camera in
도 11은 일 실시예에 따른 전자 장치가 복수의 카메라들 중에서 적어도 하나 이상의 카메라를 선택하는 동작을 설명하기 위한 흐름도이다. 도 11의 전자 장치는 도 1 내지 도 2의 전자 장치(101)에 대응할 수 있다. 도 11의 동작들 중 적어도 하나는 도 1의 전자 장치(101) 및/또는 전자 장치(101)의 프로세서(110)에 의해 수행될 수 있다. 도 11의 동작들은 도 10의 동작들 중 적어도 하나(예, 동작(1040))와 관련될 수 있다. 도 11의 동작들은 도 3a 내지 3b 및/또는 도 5a 내지 5b에서 상술된 전자 장치(101)의 동작들과 관련될 수 있다.11 is a flowchart illustrating an operation of selecting at least one camera from among a plurality of cameras by an electronic device according to an exemplary embodiment. The electronic device of FIG. 11 may correspond to the
도 11을 참고하면, 동작(1110)에서, 일 실시예에 따른 전자 장치는, 전자 장치에 포함된 복수의 카메라들 중에서, 프리뷰 이미지를 표시하기 위해 이용되는 제1 카메라에 대하여 시차를 가지는 제2 카메라를 식별할 수 있다. 예를 들어, 전자 장치는 도 10의 동작(1020)의 촬영 입력을 수신하는 것에 응답하여, 복수의 카메라들 중 프리뷰 이미지를 제공하는 제1 카메라와 구별되는 하나 이상의 카메라들 중에서, 상기 프리뷰 이미지 및/또는 상기 제1 카메라에 의해 획득되는 제1 이미지에 대하여 시차를 가지는 이미지를 획득할 수 있는 위치에 배치된 제2 카메라를 식별할 수 있다. 상기 시차는, 사람의 양안 시차와 관련될 수 있다. 일 실시예에 따른 전자 장치가 동작(1110)을 수행하는 시점은, 촬영 입력을 수신하는 것과 독립적일 수 있다. 예를 들어, 전자 장치는 사용자에 의한 전자 장치의 기울임(예, 틸팅(tilting))을 식별하는 것에 응답하여, 동작(1110)을 수행할 수 있다.Referring to FIG. 11 , in
일 실시예에 따른 전자 장치는, 전자 장치의 자세에 적어도 기반하여, 복수의 카메라들 중에서 도 10의 동작(1020)의 촬영 입력에 의하여 제어될 복수의 카메라들을 선택할 수 있다. 전자 장치에 의해 선택되는 복수의 카메라들은, 프리뷰 이미지를 제공하는 제1 카메라를 포함할 수 있다. 예를 들어, 전자 장치는 랜드스케이프 모드, 포트레이트 모드, 언폴딩 모드 또는 폴딩 모드 중 적어도 하나에 기반하여 나타나는 전자 장치의 자세에 기반하여, 단일 촬영 입력에 의하여 제어될 복수의 카메라들을 선택할 수 있다.The electronic device according to an embodiment may select a plurality of cameras to be controlled by the photographing input of
도 11을 참고하면, 동작(1120)에서, 일 실시예에 따른 전자 장치는 동작(1110)에 의해 식별된 제2 카메라를 이용하여 제2 이미지를 획득할 수 있다. 일 실시예에 따른 전자 장치는 도 10의 동작(1040)과 유사하게 동작(1120)을 수행할 수 있다. 예를 들어, 도 10의 동작(1020)의 촬영 입력을 수신하는 것에 응답하여, 전자 장치는 프리뷰 이미지를 제공하는 제1 카메라를 통해 제1 이미지를 획득함과 실질적으로 동시에, 동작(1110)에 의하여 식별된 제2 카메라를 통해 제2 이미지를 획득할 수 있다. Referring to FIG. 11 , in
상술한 바와 같이, 일 실시예에 따른 전자 장치는 단일 촬영 입력을 수신하는 것에 응답하여, 시차를 가지는 적어도 두 카메라들을 동시에 제어하여, 시차를 가짐에 따라 입체감을 가지는 적어도 두 이미지들을 획득할 수 있다. 전자 장치는 획득된 적어도 두 이미지들에 기반하여, 입체감을 가지는 애니메이션을 제공하기 위한 이미지를 획득할 수 있다. 이하에서는 도 12를 참고하여, 전자 장치가 피사체 및 전자 장치 사이의 거리를 측정하기 위한 센서를 이용하여 수행하는 동작이 상세히 설명된다.As described above, in response to receiving a single photographing input, the electronic device according to an embodiment may simultaneously control at least two cameras having parallax to acquire at least two images having a 3D effect according to the parallax. . The electronic device may obtain an image for providing animation having a three-dimensional effect based on the obtained at least two images. Hereinafter, an operation performed by an electronic device using a sensor for measuring a distance between a subject and the electronic device will be described in detail with reference to FIG. 12 .
도 12는 일 실시예에 따른 전자 장치가 피사체 및 전자 장치 사이의 거리에 기반하여 수행하는 동작을 설명하기 위한 흐름도이다. 도 12의 전자 장치는 도 1 내지 도 2의 전자 장치(101)에 대응할 수 있다. 예를 들어, 도 12의 동작들 중 적어도 하나는 도 1의 전자 장치(101) 및/또는 전자 장치(101)의 프로세서(110)에 의해 수행될 수 있다. 도 12의 동작들은 도 10 내지 도 11의 동작들 중 적어도 하나와 관련될 수 있다. 도 12의 동작들은 도 8에서 상술된 전자 장치(101)의 동작과 관련될 수 있다.12 is a flowchart illustrating an operation performed by an electronic device based on a distance between a subject and the electronic device according to an exemplary embodiment. The electronic device of FIG. 12 may correspond to the
도 12를 참고하면, 동작(1210)에서, 일 실시예에 따른 전자 장치는 제1 카메라를 이용하여, 디스플레이 상에 프리뷰 이미지 및 프리뷰 이미지 상에 중첩되는 시각적 가이드를 표시할 수 있다. 상기 시각적 가이드는, 예를 들어, 도 6a 및/또는 도 8의 시각적 가이드(605)를 포함할 수 있다. 예를 들어, 전자 장치는 프리뷰 이미지를 표시하는 동안, 상기 제1 카메라의 FOV 내에 포함된 피사체에 대응하는 프리뷰 이미지 내 시각적 객체 상에 중첩되는 시각적 가이드를 표시할 수 있다. 시각적 가이드는, 도 8에서 상술된 바와 같이, 촬영 입력을 수행하기 이전에, 사용자에 의해 프리뷰 이미지 내에서 이동 가능할 수 있다. 시각적 가이드는, 상기 제1 카메라와 구별되는 제2 카메라에서 획득될 제2 이미지의 변환과 관련된 사용자 입력을 수신하기 위하여, 촬영 입력을 수신하기 이전에 프리뷰 이미지 상에 표시될 수 있다. 시각적 가이드는, 예를 들어, 프리뷰 이미지 내에 복수의 피사체들 각각에 대응하는 복수의 시각적 객체들이 표시된 상태에서, 복수의 피사체들 중 상기 제1 시각적 객체를 포커싱하기 위한 사용자 입력을 수신하는 것에 응답하여, 제1 시각적 객체 상에 중첩되도록 표시될 수 있다.Referring to FIG. 12 , in
도 12를 참고하면, 동작(1220)에서, 일 실시예에 따른 전자 장치는 촬영 입력을 수신하였는지 여부를 판단할 수 있다. 예를 들어, 전자 장치는 도 10의 동작(1020)과 유사하게 동작(1220)을 수행할 수 있다. 촬영 입력을 수신하는 것에 응답하여(1220-예), 동작(1230)에서, 일 실시예에 따른 전자 장치는 제1 카메라를 이용하여 제1 이미지를 획득할 수 있다. 예를 들어, 전자 장치는 도 10의 동작(1030)과 유사하게 동작(1230)을 수행할 수 있다. Referring to FIG. 12 , in
도 12를 참고하면, 동작(1240)에서, 일 실시예에 따른 전자 장치는 센서를 이용하여, 프리뷰 이미지 내에서 시각적 가이드와 중첩된 시각적 객체에 대응하는 피사체 및 전자 장치 사이의 거리를 획득할 수 있다. 예를 들어, 동작(1230)의 촬영 입력을 수신하는 것에 응답하여, 전자 장치는 센서(예, 도 1, 도 3a 및/또는 도 5a 내지 5b의 거리 센서(154))를 이용하여 시각적 가이드에 의해 지시되는 일 피사체 및 전자 장치 사이의 거리를 식별할 수 있다.Referring to FIG. 12 , in
도 12를 참고하면, 동작(1250)에서, 일 실시예에 따른 전자 장치는 제2 카메라를 이용하여 제2 이미지를 획득할 수 있다. 예를 들어, 전자 장치는 도 10의 동작(1040)과 유사하게 동작(1250)을 수행할 수 있다. 일 실시예에 따른 전자 장치가 동작들(1230, 1240, 1250)을 수행하는 것은, 도 12에 도시된 순서에 제한되지 않으며, 예를 들어, 전자 장치는 동작들(1230, 1240, 1250)을 실질적으로 동시에 수행할 수 있다.Referring to FIG. 12 , in
도 12를 참고하면, 동작(1260)에서, 일 실시예에 따른 전자 장치는, 동작(1240)에 의하여 획득된 피사체 및 전자 장치 사이의 거리에 따라, 동작(1250)의 제2 이미지를 변환하여, 제3 이미지를 획득할 수 있다. 예를 들어, 피사체 및 전자 장치 사이의 거리에 기반하여, 전자 장치는 제2 이미지 내 일부분(예, 도 6c의 일부분(628) 및/또는 도 8의 일부분(830))을 식별할 수 있다. 전자 장치는 식별된 일부분을, 동작(1230)의 제1 이미지의 크기에 대응하는 크기로 스케일링하여, 상기 제3 이미지를 획득할 수 있다.Referring to FIG. 12 , in
도 12를 참고하면, 동작(1270)에서, 일 실시예에 따른 전자 장치는 제1 이미지 및 제3 이미지에 기반하는 애니메이션을 제공하기 위한 제4 이미지를 획득할 수 있다. 예를 들어, 전자 장치는 도 10의 동작(1060)과 유사하게 동작(1270)을 수행할 수 있다. 일 실시예에 따른 전자 장치가 동작(1240)에 기반하여 획득된 피사체 및 전자 장치 사이의 거리에 기반하여 상기 제4 이미지를 획득함에 따라, 상기 제4 이미지는 동작(1210)의 시각적 가이드에 의해 지시되는 피사체를 중심으로 형성된 호를 따라 상기 피사체를 촬영한 애니메이션을 나타낼 수 있다.Referring to FIG. 12 , in
도 13은 일 실시예에 따른 전자 장치가 복수의 이미지들 각각에 시차를 가지는 하나 이상의 시각적 객체들을 결합하는 동작을 설명하기 위한 흐름도이다. 도 13의 전자 장치는 도 1 내지 도 2의 전자 장치(101)에 대응할 수 있다. 예를 들어, 도 13의 동작들 중 적어도 하나는 도 1의 전자 장치(101) 및/또는 전자 장치(101)의 프로세서(110)에 의해 수행될 수 있다. 도 13의 동작들은 도 10 내지 도 12의 동작들 중 적어도 하나와 관련될 수 있다. 도 13의 동작들은 도 7에서 상술된 전자 장치(101)의 동작과 관련될 수 있다.13 is a flowchart illustrating an operation of combining one or more visual objects having a parallax with each of a plurality of images by an electronic device according to an exemplary embodiment. The electronic device of FIG. 13 may correspond to the
도 13을 참고하면, 동작(1310)에서, 일 실시예에 따른 전자 장치는 일 실시예에 따른 전자 장치는 제1 카메라를 이용하여, 디스플레이 상에 프리뷰 이미지 및 프리뷰 이미지 상에 중첩되는 시각적 가이드를 표시할 수 있다. 예를 들어, 전자 장치는 도 10의 동작(1010) 및/또는 도 12의 동작(1210)과 유사하게, 동작(1310)을 수행할 수 있다.Referring to FIG. 13 , in
도 13을 참고하면, 동작(1320)에서, 일 실시예에 따른 전자 장치는 일 실시예에 따른 전자 장치는 촬영 입력을 수신하였는지 여부를 판단할 수 있다. 예를 들어, 전자 장치는 도 10의 동작(1020) 및/또는 도 12의 동작(1220)과 유사하게 동작(1320)을 수행할 수 있다. 촬영 입력을 수신하는 것에 응답하여(1320-예), 동작(1330)에서, 일 실시예에 따른 전자 장치는 제1 카메라를 이용하여 제1 이미지를 획득할 수 있다. 예를 들어, 전자 장치는 도 10의 동작(1030)및/또는 도 12의 동작(1230)과 유사하게 동작(1330)을 수행할 수 있다. 도 13을 참고하면, 동작(1340)에서, 일 실시예에 따른 전자 장치는 일 실시예에 따른 전자 장치는 제2 카메라를 이용하여 제2 이미지를 획득할 수 있다. 예를 들어, 전자 장치는 도 10의 동작(1040) 및/또는 도 13의 동작(1250)과 유사하게 동작(1340)을 수행할 수 있다. 일 실시예에 따른 전자 장치가 동작들(1330, 1340)을 수행하는 것은, 도 13에 도시된 순서에 제한되지 않으며, 예를 들어, 전자 장치는 동작들(1330, 1340)을 실질적으로 동시에 수행할 수 있다. 비록 도시되지 않았지만, 전자 장치는, 동작(1240)과 유사하게, 센서를 이용하여 피사체 및 전자 장치 사이의 거리를 획득할 수 있다.Referring to FIG. 13 , in
도 13을 참고하면, 동작(1350)에서, 일 실시예에 따른 전자 장치는 일 실시예에 따른 전자 장치는, 제1 카메라 및/또는 제1 이미지 내 피사체와 관련된 정보에 따라 제2 이미지를 변환하여, 제3 이미지를 획득할 수 있다. 상기 정보는, 예를 들어, 전자 장치에 포함된 거리 센서(예, 도 1의 거리 센서(154))에 의해 획득된 깊이 영상(예, ToF 이미지) 및/또는 초점을 조절하기 위해 거리 센서로부터 방출된 레이저 광이 피사체에 의하여 반사된 거리를 포함할 수 있다. 예를 들어, 전자 장치는 도 10의 동작(1050) 및/또는 도 12의 동작(1260)과 유사하게 동작(1350)을 수행할 수 있다.Referring to FIG. 13 , in
도 13을 참고하면, 동작(1360)에서, 일 실시예에 따른 전자 장치는 제1 이미지 및 제3 이미지에 기반하는 애니메이션 내에 추가될 하나 이상의 시각적 객체들을 획득할 수 있다. 상기 하나 이상의 시각적 객체들은 동작들(1330, 1340)의 제1 카메라 및 제2 카메라의 FOV들에 포함된 피사체와 독립적일 수 있다. 상기 하나 이상의 시각적 객체들은, 예를 들어, 도 2의 텍스트(266)와 관련된 사용자 입력에 의해 추가된 그래픽 객체를 포함할 수 있다.Referring to FIG. 13 , in
도 13을 참고하면, 동작(1370)에서, 일 실시예에 따른 전자 장치는 획득된 하나 이상의 시각적 객체들을, 하나 이상의 시각적 객체들 각각에 대응하는 시차에 따라 제1 이미지 및 제3 이미지에 결합할 수 있다. 예를 들어, 전자 장치는 도 7에서 상술된 바와 유사하게 동작(1370)을 수행할 수 있다. 일 실시예에서, 동작(1330)의 제1 이미지를 획득하는 것에 응답하여, 전자 장치는 제1 이미지에 포함된 제1 시각적 객체와 구별되는 제2 시각적 객체(예, 도 7의 시각적 객체들(712, 722))를, 제1 이미지에 결합할 수 있다. 일 실시예에서, 동작(1370)의 제3 이미지를 획득하는 것에 응답하여, 전자 장치는 제3 이미지에 포함된 제3 시각적 객체와 구별되고, 상기 제2 시각적 객체에 대하여 시차를 갖도록 상기 제2 시각적 객체를 변환하여 획득된, 제4 시각적 객체(예, 도 7의 시각적 객체들(714, 724))를, 제3 이미지에 결합할 수 있다.Referring to FIG. 13 , in
도 13을 참고하면, 동작(1380)에서, 일 실시예에 따른 전자 장치는 제1 이미지 및 제3 이미지에 기반하는 애니메이션을 제공하기 위한 제4 이미지를 획득할 수 있다. 예를 들어, 전자 장치는 도 10의 동작(1060) 및/또는 도 12의 동작(1270)과 유사하게 동작(1380)을 수행할 수 있다. 전자 장치가 동작(1380)에 기반하여 획득하는 상기 제4 이미지는, 동작들(1330, 1360)의 제1 이미지 및 제3 이미지에 공통적으로 포함된 하나 이상의 피사체들과 관련된 애니메이션을 나타낼 수 있다.Referring to FIG. 13 , in
상술한 바와 같이, 일 실시예에 따른 전자 장치는 한 번의 촬영 입력에 대응하여 복수의 카메라들을 동시에 제어할 수 있다. 전자 장치가 동시에 제어하는 복수의 카메라들의 조합은, 상기 조합에 의해 획득된 복수의 이미지들이 시차(disparity)를 갖도록, 전자 장치의 자세에 따라 구별될 수 있다. 일 실시예에 따른 전자 장치는 획득된 복수의 이미지들 중 적어도 하나를 변경하여, 시차에 의한 입체감을 제공하기 위한 애니메이션을 획득할 수 있다. 상기 애니메이션은, 3차원 디스플레이 및/또는 편광 디스플레이와 독립적으로 사용자에게 표시될 수 있다.As described above, the electronic device according to an embodiment may simultaneously control a plurality of cameras in response to a single photographing input. A combination of a plurality of cameras simultaneously controlled by the electronic device may be distinguished according to a posture of the electronic device so that a plurality of images obtained by the combination have a disparity. The electronic device according to an embodiment may change at least one of a plurality of acquired images to obtain an animation for providing a 3D effect due to parallax. The animation may be displayed to the user independently of the 3D display and/or the polarization display.
상술한 바와 같은, 일 실시예에 따른 전자 장치(electronic device)는, 디스플레이, 제1 카메라 및 상기 제1 카메라의 제1 FOV(Field-of-View)와 구별되는 제2 FOV를 가지는 제2 카메라를 포함하는 복수의 카메라들, 메모리 및 상기 디스플레이, 상기 복수의 카메라들 및 상기 메모리와 작동적으로 결합된 프로세서를 포함하고, 상기 메모리는 하나 이상의 인스트럭션들을 저장하고, 상기 하나 이상의 인스트럭션들은, 상기 프로세서에 의해 실행될 시에, 상기 프로세서가, 상기 제1 카메라를 통해 획득되는 복수의 이미지들 중 적어도 일부분에 기반하여, 상기 디스플레이 상에 프리뷰 이미지를 표시하고, 상기 복수의 이미지들 각각은, 상기 제1 FOV 내에 포함된 피사체에 대응하는 제1 시각적 객체를 포함하고, 상기 프리뷰 이미지를 표시하는 동안, 촬영 입력(shooting input)을 수신하고, 상기 촬영 입력을 수신하는 것에 응답하여, 상기 제1 카메라를 통해 상기 제1 시각적 객체를 포함하는 제1 이미지를 획득하고, 상기 제2 카메라를 통해 상기 피사체에 대응하는 제2 시각적 객체를 포함하는 제2 이미지를 획득하고, 상기 제2 이미지로부터 변환되고, 상기 제1 시각적 객체의 크기에 대응하는 크기를 가지는 상기 제2 시각적 객체를 포함하는 제3 이미지를 획득하고, 및 상기 제1 이미지를 표시한 후 상기 제3 이미지를 표시함으로써, 상기 피사체에 대한 애니메이션을 제공하기 위한 제4 이미지를 획득하는 것을 야기할 수 있다. As described above, an electronic device according to an embodiment includes a display, a first camera, and a second camera having a second FOV (Field-of-View) distinct from a first field-of-view (FOV) of the first camera. a plurality of cameras including a memory and the display, a processor operatively coupled to the plurality of cameras and the memory, the memory storing one or more instructions, the one or more instructions comprising: the processor When executed by, the processor displays a preview image on the display based on at least a portion of a plurality of images acquired through the first camera, and each of the plurality of images, the first It includes a first visual object corresponding to a subject included in the FOV, receives a shooting input while displaying the preview image, and in response to receiving the shooting input, through the first camera. A first image including the first visual object is obtained, a second image including a second visual object corresponding to the subject is acquired through the second camera, converted from the second image, and 1 Obtaining a third image including the second visual object having a size corresponding to the size of the visual object, and displaying the third image after displaying the first image, thereby providing animation for the subject. It may cause obtaining a fourth image for
예를 들어, 상기 전자 장치는, 센서를 더 포함하고, 상기 하나 이상의 인스트럭션들은, 상기 프로세서에 의해 실행될 시에, 상기 프로세서가, 상기 촬영 입력을 수신하는 것에 응답하여, 상기 센서를 이용하여 상기 전자 장치 및 상기 피사체 사이의 거리를 식별하고, 및 상기 식별된 거리에 기반하여 상기 제2 이미지를 변환하여, 상기 제3 이미지를 획득하는 것을 야기할 수 있다. For example, the electronic device further includes a sensor, and when the one or more instructions are executed by the processor, the processor, in response to receiving the photographing input, uses the sensor to perform the electronic device. identifying a distance between the device and the subject, and transforming the second image based on the identified distance, resulting in acquiring the third image.
예를 들어, 상기 하나 이상의 인스트럭션들은, 상기 프로세서에 의해 실행될 시에, 상기 프로세서가, 상기 피사체를 포함하는 복수의 피사체들이 상기 제1 FOV 내에 포함된 상태에서, 상기 프리뷰 이미지 내에 상기 복수의 피사체들 각각에 대응하는 복수의 시각적 객체들을 표시하고, 상기 프리뷰 이미지 내에서, 상기 복수의 시각적 객체들 중 상기 제1 시각적 객체를 포커싱하기 위한 사용자 입력을 수신하는 것에 응답하여, 상기 제1 시각적 객체 상에 중첩되는(superimposed on) 시각적 가이드(visual guide)를 표시하고, 및 상기 사용자 입력을 수신한 이후 상기 촬영 입력을 수신하는 것에 응답하여, 상기 센서를 이용하여 상기 시각적 가이드에 의해 지시되는 상기 피사체 및 상기 전자 장치 사이의 상기 거리를 식별하는 것을 야기할 수 있다. For example, the one or more instructions, when executed by the processor, cause the processor to select the plurality of subjects in the preview image in a state in which the plurality of subjects including the subject are included in the first FOV. Displaying a plurality of visual objects corresponding to each, and in response to receiving a user input for focusing the first visual object among the plurality of visual objects in the preview image, on the first visual object Displaying a superimposed on visual guide, and in response to receiving the photographing input after receiving the user input, the subject indicated by the visual guide and the subject using the sensor It may cause identifying the distance between the electronic devices.
예를 들어, 상기 하나 이상의 인스트럭션들은, 상기 프로세서에 의해 실행될 시에, 상기 프로세서가, 상기 센서를 이용하여 식별된 상기 전자 장치 및 상기 피사체 사이의 거리, 상기 제1 이미지와 관련된 상기 제1 카메라의 줌 배율(zoom factor), 또는 상기 제1 FOV 및 상기 제2 FOV 사이의 위치 관계를 나타내는 데이터 중 적어도 하나에 기반하여, 상기 제2 이미지를 변환하는 것을 야기할 수 있다. For example, the one or more instructions, when executed by the processor, may cause the processor to determine a distance between the subject and the electronic device identified using the sensor, the first camera associated with the first image. Based on at least one of a zoom factor or data indicating a positional relationship between the first FOV and the second FOV, the second image may be converted.
예를 들어, 상기 복수의 카메라들은, 상기 제1 FOV 및 상기 제2 FOV와 구별되는 제3 FOV를 가지는 제3 카메라를 더 포함하고, 상기 하나 이상의 인스트럭션들은, 상기 프로세서에 의해 실행될 시에, 상기 프로세서가, 상기 촬영 입력을 수신하는 것에 응답하여, 상기 제2 카메라 및 상기 제3 카메라 중에서, 상기 제1 이미지에 대하여 시차(disparity)를 가지는 이미지를 획득할 수 있는 위치에 배치된 상기 제2 카메라를, 상기 제4 이미지를 획득하기 위한 카메라로 식별하고, 및 상기 촬영 입력을 수신하는 것에 응답하여, 상기 제1 카메라를 통해 상기 제1 이미지를 획득하고, 상기 식별된 제2 카메라를 통해 상기 제2 이미지를 획득하는 것을 야기할 수 있다. For example, the plurality of cameras further include a third camera having a third FOV distinct from the first FOV and the second FOV, and the one or more instructions, when executed by the processor, The second camera disposed in a position where a processor can obtain an image having a disparity with respect to the first image, among the second camera and the third camera, in response to receiving the photographing input. is identified as a camera for acquiring the fourth image, and in response to receiving the photographing input, the first image is acquired through the first camera, and the first image is acquired through the identified second camera. 2 may cause the image to be acquired.
예를 들어, 상기 하나 이상의 인스트럭션들은, 상기 프로세서에 의해 실행될 시에, 상기 프로세서가, 상기 제1 이미지에 대하여 시차를 가지는 상기 제2 이미지를 변환하여 획득된 상기 제3 이미지를, 시간 영역 내에서(in a time domain) 상기 제1 이미지와 연접함으로써, 상기 피사체에 대한 시차를 가지는 상기 애니메이션을 제공하기 위한 상기 제4 이미지를 획득하는 것을 야기할 수 있다. For example, when the one or more instructions are executed by the processor, the processor converts the third image obtained by transforming the second image having a parallax with respect to the first image in the time domain. Concatenation with the first image (in a time domain) may result in obtaining the fourth image for providing the animation with a parallax for the subject.
예를 들어, 상기 하나 이상의 인스트럭션들은, 상기 프로세서에 의해 실행될 시에, 상기 프로세서가, 상기 제1 이미지를 획득하는 것에 응답하여, 상기 제1 시각적 객체 및 상기 제2 시각적 객체와 구별되는 제3 시각적 객체를, 상기 제1 이미지에 결합하고, 및 상기 제2 이미지를 획득하는 것에 응답하여, 상기 제3 시각적 객체에 대한 시차를 가지는 상기 애니메이션을 제공하도록 상기 제3 시각적 객체를 변환하여 획득된, 제4 시각적 객체를 상기 제2 이미지에 결합하는 것을 야기할 수 있다. For example, the one or more instructions, when executed by the processor, in response to the processor acquiring the first image, provide a third visual object distinct from the first visual object and the second visual object. Obtained by combining an object with the first image, and in response to obtaining the second image, transforming the third visual object to provide the animation having a parallax for the third visual object. 4 may cause binding of a visual object to the second image.
예를 들어, 상기 하나 이상의 인스트럭션들은, 상기 프로세서에 의해 실행될 시에, 상기 프로세서가, 상기 제1 이미지 및 상기 제3 이미지를 획득하는 것에 응답하여, 상기 제1 이미지 및 상기 제3 이미지의 보간에 기반하여, 상기 제1 이미지 및 상기 제3 이미지 사이의 하나 이상의 제5 이미지들을 획득하고, 및 시간 영역 내에서, 상기 제1 이미지, 상기 제3 이미지, 및 상기 하나 이상의 제5 이미지들을 연접하여, 상기 제4 이미지를 획득하는 것을 야기할 수 있다. For example, the one or more instructions, when executed by the processor, cause the processor, in response to obtaining the first image and the third image, to interpolate the first image and the third image. Based on, obtaining one or more fifth images between the first image and the third image, and concatenating the first image, the third image, and the one or more fifth images in the time domain, may cause obtaining the fourth image.
상술한 바와 같은, 일 실시예에 따른 전자 장치의 방법은, 상기 전자 장치의 복수의 카메라들 중 제1 카메라를 통해 획득되는 복수의 이미지들 중 적어도 일부분에 기반하여, 상기 전자 장치의 디스플레이 상에 프리뷰 이미지를 표시하는 동작, 상기 복수의 이미지들 각각은, 상기 제1 카메라의 제1 FOV(Field-Of-View) 내에 포함된 피사체에 대응하는 제1 시각적 객체를 포함하고, 상기 프리뷰 이미지를 표시하는 동안, 촬영 입력을 수신하는 동작, 상기 촬영 입력을 수신하는 것에 응답하여, 상기 제1 카메라를 통해 상기 제1 시각적 객체를 포함하는 제1 이미지를 획득하는 동작, 상기 촬영 입력을 수신하는 것에 응답하여, 상기 제1 카메라와 구별되는 상기 복수의 카메라들 중 제2 카메라를 통해 상기 피사체에 대응하는 제2 시각적 객체를 포함하는 제2 이미지를 획득하는 동작, 상기 제2 이미지로부터 변환되고, 상기 제1 시각적 객체의 크기에 대응하는 크기를 가지는 제2 시각적 객체를 포함하는 제3 이미지를 획득하는 동작 및 상기 제1 이미지를 표시한 후 상기 제3 이미지를 표시함으로써, 상기 피사체에 대한 애니메이션을 제공하기 위한 제4 이미지를 획득하는 동작을 포함할 수 있다. As described above, the method of the electronic device according to an embodiment, based on at least a portion of a plurality of images acquired through a first camera among a plurality of cameras of the electronic device, on the display of the electronic device Displaying a preview image, each of the plurality of images including a first visual object corresponding to a subject included in a first field-of-view (FOV) of the first camera, and displaying the preview image receiving a photographing input, obtaining a first image including the first visual object through the first camera in response to receiving the photographing input, and responding to receiving the photographing input. Thus, an operation of obtaining a second image including a second visual object corresponding to the subject through a second camera among the plurality of cameras distinguished from the first camera, converted from the second image, and the
예를 들어, 상기 촬영 입력을 수신하는 것에 응답하여, 상기 전자 장치의 센서를 이용하여 상기 전자 장치 및 상기 피사체 사이의 거리를 식별하는 동작을 더 포함하고, 상기 제3 이미지를 획득하는 동작은, 상기 식별된 거리에 기반하여 상기 제2 이미지를 변환하여, 상기 제3 이미지를 획득하는 동작을 더 포함할 수 있다. For example, in response to receiving the photographing input, further comprising identifying a distance between the electronic device and the subject using a sensor of the electronic device, and acquiring the third image, The method may further include obtaining the third image by transforming the second image based on the identified distance.
예를 들어, 상기 프리뷰 이미지를 표시하는 동작은, 상기 피사체를 포함하는 복수의 피사체들이 상기 제1 FOV 내에 포함된 상태에서, 상기 프리뷰 이미지 내에 상기 복수의 피사체들 각각에 대응하고, 상기 제1 시각적 객체를 포함하는 복수의 시각적 객체들을 표시하는 동작, 및 상기 프리뷰 이미지 내에서, 상기 복수의 피사체들 중 상기 제1 시각적 객체를 포커싱하기 위한 사용자 입력을 수신하는 것에 응답하여, 상기 제1 시각적 객체 상에 중첩되는 시각적 가이드를 표시하는 동작을 더 포함하고, 상기 거리를 식별하는 동작은, 상기 촬영 입력을 수신하는 것에 응답하여, 상기 센서를 이용하여 상기 시각적 가이드에 의해 지시되는 상기 피사체 및 상기 전자 장치 사이의 거리를 식별하는 동작을 더 포함할 수 있다. For example, the operation of displaying the preview image corresponds to each of the plurality of subjects in the preview image in a state in which the plurality of subjects including the subject are included in the first FOV, and the first visual In response to displaying a plurality of visual objects including an object and receiving a user input for focusing the first visual object among the plurality of subjects in the preview image, An operation of displaying a visual guide overlapping the distance, wherein the operation of identifying the distance includes, in response to receiving the photographing input, the subject indicated by the visual guide and the electronic device using the sensor. An operation of identifying a distance between the two may be further included.
예를 들어, 상기 촬영 입력을 수신하는 것에 응답하여, 상기 복수의 카메라들 중에서, 상기 제1 이미지에 대하여 시차를 가지는 이미지를 획득할 수 있는 위치에 배치된 상기 제2 카메라를, 상기 제4 이미지를 획득하기 위한 카메라로 식별하는 동작을 더 포함할 수 있다. For example, in response to receiving the photographing input, among the plurality of cameras, the second camera disposed in a position capable of obtaining an image having a parallax with respect to the first image may be set to the fourth image. It may further include an operation of identifying as a camera for obtaining .
예를 들어, 상기 제4 이미지를 획득하는 동작은, 상기 제1 이미지에 대하여 시차를 가지는 상기 제2 이미지를 변환하여 획득된 상기 제3 이미지를, 시간 영역 내에서 상기 제1 이미지와 연접함으로써, 상기 피사체에 대한 시차를 가지는 상기 애니메이션을 제공하기 위한 상기 제4 이미지를 획득하는 동작을 더 포함할 수 있다. For example, the obtaining of the fourth image may include concatenating the third image obtained by converting the second image having a parallax with respect to the first image with the first image in the time domain, The method may further include acquiring the fourth image for providing the animation having a parallax for the subject.
예를 들어, 상기 제1 이미지를 획득하는 것에 응답하여, 상기 제1 시각적 객체 및 상기 제2 시각적 객체와 구별되는 제3 시각적 객체를, 상기 제1 이미지에 결합하는 동작, 및 상기 제2 이미지를 획득하는 것에 응답하여, 상기 제3 시각적 객체에 대한 시차를 가지는 상기 애니메이션을 제공하도록 상기 제3 시각적 객체를 변환하여 획득된, 제4 시각적 객체를 상기 제2 이미지에 결합하는 동작을 더 포함할 수 있다. For example, in response to obtaining the first image, combining a third visual object distinct from the first visual object and the second visual object with the first image, and performing the second image In response to obtaining, the method may further include combining a fourth visual object obtained by transforming the third visual object with the second image to provide the animation having a parallax with respect to the third visual object. there is.
예를 들어, 상기 제1 이미지 및 상기 제3 이미지를 획득하는 것에 응답하여, 상기 제1 이미지 및 상기 제3 이미지의 보간에 기반하여, 상기 제1 이미지 및 상기 제3 이미지 사이의 하나 이상의 제5 이미지들을 획득하는 동작을 더 포함하고, 상기 제4 이미지를 획득하는 동작은, 시간 영역 내에서, 상기 제1 이미지, 상기 제3 이미지 및 상기 하나 이상의 제5 이미지들을 연접하여, 상기 제4 이미지를 획득하는 동작을 더 포함할 수 있다. For example, in response to obtaining the first image and the third image, based on interpolation of the first image and the third image, one or more fifth images between the first image and the third image. Further comprising obtaining images, wherein the obtaining of the fourth image comprises concatenating the first image, the third image, and the one or more fifth images in a time domain to obtain the fourth image. An acquiring operation may be further included.
상술한 바와 같은, 일 실시예에 따른 전자 장치(electronic device)는, 디스플레이, 서로 다른 FOV들(Field-of-Views)을 가지는 복수의 카메라들, 메모리 및 상기 디스플레이, 상기 복수의 카메라들 및 상기 메모리와 작동적으로 결합된 프로세서를 포함하고, 상기 메모리는 하나 이상의 인스트럭션들을 저장하고, 상기 하나 이상의 인스트럭션들은, 상기 프로세서에 의해 실행될 시에, 상기 프로세서가, 상기 복수의 카메라들 중 제1 카메라를 이용하여 상기 디스플레이 상에 프리뷰 이미지를 표시하고, 상기 프리뷰 이미지는, 상기 제1 카메라가 향하는 제1 FOV 내에 포함된 피사체에 대응하는 제1 시각적 객체를 포함하고, 상기 프리뷰 이미지를 표시하는 동안, 상기 제1 카메라와 관련된 촬영 입력(shooting input)을 수신하고, 상기 촬영 입력을 수신하는 것에 응답하여, 상기 복수의 카메라들 중에서, 상기 피사체를 포함하고, 상기 제1 카메라의 제1 FOV에 대하여 시차를 가지는 제2 FOV를 가지는 제2 카메라를 식별하고, 및 상기 제2 카메라를 식별하는 것에 응답하여, 상기 제1 카메라를 통해 상기 제1 시각적 객체를 포함하는 제1 이미지를 획득하고, 상기 식별된 제2 카메라를 통해 상기 피사체에 대응하는 제2 시각적 객체를 포함하는 제2 이미지를 획득하는 것을 야기할 수 있다. As described above, an electronic device according to an embodiment includes a display, a plurality of cameras having different FOVs (Field-of-Views), a memory and the display, the plurality of cameras, and the a processor operably coupled with a memory, the memory storing one or more instructions, the one or more instructions, when executed by the processor, causing the processor to: A preview image is displayed on the display using a preview image, the preview image includes a first visual object corresponding to a subject included in a first FOV toward which the first camera is directed, and while displaying the preview image, the A shooting input related to a first camera is received, and in response to receiving the shooting input, a parallax is determined with respect to a first FOV of the first camera including the subject among the plurality of cameras. identify a second camera having a second FOV, and in response to identifying the second camera, obtain a first image including the first visual object through the first camera; 2 may result in acquiring a second image including a second visual object corresponding to the subject through the camera.
예를 들어, 상기 전자 장치는, 센서를 더 포함하고, 상기 하나 이상의 인스트럭션들은, 상기 프로세서에 의해 실행될 시에, 상기 프로세서가, 상기 촬영 입력을 수신하는 것에 응답하여, 상기 센서를 이용하여, 상기 피사체 및 상기 전자 장치 사이의 거리를 획득하고, 상기 제1 이미지, 상기 제2 이미지 및 상기 거리를 획득하는 것에 응답하여, 상기 거리에 기반하여 상기 제2 이미지를 변환하여, 상기 제1 이미지 내에서의 상기 제1 시각적 객체의 크기와 관련된 크기를 가지는 상기 제2 시각적 객체를 포함하는, 제3 이미지를 획득하고, 및 시간 영역 내에서, 상기 제1 이미지 및 상기 제3 이미지를 서로 연접함으로써 상기 피사체에 대한 애니메이션을 제공하기 위한 제4 이미지를 획득하는 것을 야기할 수 있다. For example, the electronic device may further include a sensor, and when the one or more instructions are executed by the processor, the processor, in response to receiving the photographing input, uses the sensor to perform the Obtaining a distance between a subject and the electronic device, and in response to obtaining the first image, the second image, and the distance, converting the second image based on the distance, so that within the first image Obtaining a third image, including the second visual object having a size related to the size of the first visual object of, and connecting the first image and the third image to each other in the time domain to obtain the subject may result in obtaining a fourth image for providing an animation for .
예를 들어, 상기 하나 이상의 인스트럭션들은, 상기 프로세서에 의해 실행될 시에, 상기 프로세서가, 상기 제1 이미지를 획득하는 것에 응답하여, 상기 제1 시각적 객체 및 상기 제2 시각적 객체와 구별되는 제3 시각적 객체를, 상기 제1 이미지에 결합하고, 및 상기 제2 이미지를 획득하는 것에 응답하여, 상기 제3 시각적 객체에 대한 시차를 가지는 상기 애니메이션을 제공하도록 상기 제3 시각적 객체를 변환하여 획득된, 제4 시각적 객체를 상기 제2 이미지에 결합하는 것을 야기할 수 있다. For example, the one or more instructions, when executed by the processor, in response to the processor acquiring the first image, provide a third visual object distinct from the first visual object and the second visual object. Obtained by combining an object with the first image, and in response to obtaining the second image, transforming the third visual object to provide the animation having a parallax for the third visual object. 4 may cause binding of a visual object to the second image.
예를 들어, 상기 하나 이상의 인스트럭션들은, 상기 프로세서에 의해 실행될 시에, 상기 프로세서가, 상기 프리뷰 이미지를 표시하는 동안, 상기 피사체에 대응하는 상기 제1 시각적 객체 상에 중첩되고, 상기 제3 이미지의 획득을 위한 제2 이미지의 변환과 관련된 사용자 입력을 수신하기 위한 시각적 가이드를 표시하는 것을 야기할 수 있다. For example, the one or more instructions, when executed by the processor, are superimposed on the first visual object corresponding to the subject while displaying the preview image, and the third image may cause display of a visual guide for receiving user input related to transformation of the second image for acquisition.
예를 들어, 상기 하나 이상의 인스트럭션들은, 상기 프로세서에 의해 실행될 시에, 상기 프로세서가, 상기 제1 이미지 및 상기 제3 이미지를 획득하는 것에 응답하여, 상기 제1 이미지 및 상기 제3 이미지의 보간에 기반하여, 상기 제1 이미지 및 상기 제3 이미지 사이의 하나 이상의 제5 이미지들을 획득하고, 및 시간 영역 내에서, 상기 제1 이미지, 상기 제3 이미지, 및 상기 하나 이상의 제5 이미지들을 연접하여, 상기 제4 이미지를 획득하는 것을 야기할 수 있다. For example, the one or more instructions, when executed by the processor, cause the processor, in response to obtaining the first image and the third image, to interpolate the first image and the third image. Based on, obtaining one or more fifth images between the first image and the third image, and concatenating the first image, the third image, and the one or more fifth images in the time domain, may cause obtaining the fourth image.
상술한 바와 같은, 일 실시예에 따른 전자 장치의 방법은, 전자 장치에 포함된 복수의 카메라들 중 제1 카메라를 이용하여 전자 장치의 디스플레이 상에 프리뷰 이미지를 표시하는 동작, 상기 프리뷰 이미지는, 상기 제1 카메라가 향하는 제1 FOV 내에 포함된 피사체에 대응하는 제1 시각적 객체를 포함하고, 상기 프리뷰 이미지를 표시하는 동안, 상기 제1 카메라와 관련된 촬영 입력을 수신하는 동작, 상기 촬영 입력을 수신하는 것에 응답하여, 상기 복수의 카메라들 중에서, 상기 피사체를 포함하고, 상기 제1 카메라의 FOV에 대하여 시차를 가지는 제2 FOV를 가지는 제2 카메라를 식별하는 동작, 및 상기 제2 카메라를 식별하는 것에 응답하여, 상기 제1 카메라를 통해 상기 제1 시각적 객체를 포함하는 제1 이미지를 획득하고, 상기 식별된 제2 카메라를 통해 상기 피사체에 대응하는 제2 시각적 객체를 포함하는 제2 이미지를 획득하는 동작을 포함할 수 있다.As described above, the method of the electronic device according to an embodiment includes an operation of displaying a preview image on a display of the electronic device using a first camera among a plurality of cameras included in the electronic device, the preview image, An operation of including a first visual object corresponding to a subject included in a first FOV toward which the first camera is directed and receiving a photographing input related to the first camera while displaying the preview image; receiving the photographing input In response to doing, identifying a second camera among the plurality of cameras, including the subject, and having a second FOV having a parallax with respect to the FOV of the first camera, and identifying the second camera In response to this, a first image including the first visual object is acquired through the first camera, and a second image including a second visual object corresponding to the subject is obtained through the identified second camera. action may be included.
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 어플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The devices described above may be implemented as hardware components, software components, and/or a combination of hardware components and software components. For example, devices and components described in the embodiments include a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate array (FPGA), and a programmable PLU (programmable logic unit). logic unit), microprocessor, or any other device capable of executing and responding to instructions. The processing device may run an operating system (OS) and one or more software applications running on the operating system. A processing device may also access, store, manipulate, process, and generate data in response to execution of software. For convenience of understanding, there are cases in which one processing device is used, but those skilled in the art will understand that the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that it can include. For example, a processing device may include a plurality of processors or a processor and a controller. Other processing configurations are also possible, such as parallel processors.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 컴퓨터 저장 매체 또는 장치에 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may include a computer program, code, instructions, or a combination of one or more of the foregoing, which configures a processing device to operate as desired or processes independently or collectively. The device can be commanded. The software and/or data may be embodied in any tangible machine, component, physical device, computer storage medium or device to be interpreted by or to provide instructions or data to a processing device. there is. Software may be distributed on networked computer systems and stored or executed in a distributed manner. Software and data may be stored on one or more computer readable media.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 이때, 매체는 컴퓨터로 실행 가능한 프로그램을 계속 저장하거나, 실행 또는 다운로드를 위해 임시 저장하는 것일 수도 있다. 또한, 매체는 단일 또는 수 개의 하드웨어가 결합된 형태의 다양한 기록수단 또는 저장수단일 수 있는데, 어떤 컴퓨터 시스템에 직접 접속되는 매체에 한정되지 않고, 네트워크 상에 분산 존재하는 것일 수도 있다. 매체의 예시로는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등을 포함하여 프로그램 명령어가 저장되도록 구성된 것이 있을 수 있다. 또한, 다른 매체의 예시로, 어플리케이션을 유통하는 앱 스토어나 기타 다양한 소프트웨어를 공급 내지 유통하는 사이트, 서버 등에서 관리하는 기록매체 내지 저장매체도 들 수 있다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer readable medium. In this case, the medium may continuously store a program executable by a computer or temporarily store the program for execution or download. In addition, the medium may be various recording means or storage means in the form of a single or combined hardware, but is not limited to a medium directly connected to a certain computer system, and may be distributed on a network. Examples of the medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical recording media such as CD-ROM and DVD, magneto-optical media such as floptical disks, and ROM, RAM, flash memory, etc. configured to store program instructions. In addition, examples of other media include recording media or storage media managed by an app store that distributes applications, a site that supplies or distributes various other software, and a server.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with limited examples and drawings, those skilled in the art can make various modifications and variations from the above description. For example, the described techniques may be performed in an order different from the method described, and/or components of the described system, structure, device, circuit, etc. may be combined or combined in a different form than the method described, or other components may be used. Or even if it is replaced or substituted by equivalents, appropriate results can be achieved.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다. Therefore, other implementations, other embodiments, and equivalents of the claims are within the scope of the following claims.
Claims (20)
디스플레이;
제1 카메라 및 상기 제1 카메라의 제1 FOV(Field-of-View)와 구별되는 제2 FOV를 가지는 제2 카메라를 포함하는 복수의 카메라들;
메모리; 및
상기 디스플레이, 상기 복수의 카메라들 및 상기 메모리와 작동적으로 결합된 프로세서를 포함하고,
상기 메모리는 하나 이상의 인스트럭션들을 저장하고, 상기 하나 이상의 인스트럭션들은, 상기 프로세서에 의해 실행될 시에, 상기 프로세서가,
상기 제1 카메라를 통해 획득되는 복수의 이미지들 중 적어도 일부분에 기반하여, 상기 디스플레이 상에 프리뷰 이미지를 표시하고, 상기 복수의 이미지들 각각은, 상기 제1 FOV 내에 포함된 피사체에 대응하는 제1 시각적 객체를 포함함;
상기 프리뷰 이미지를 표시하는 동안, 촬영 입력(shooting input)을 수신하고;
상기 촬영 입력을 수신하는 것에 응답하여, 상기 제1 카메라를 통해 상기 제1 시각적 객체를 포함하는 제1 이미지를 획득하고, 상기 제2 카메라를 통해 상기 피사체에 대응하는 제2 시각적 객체를 포함하는 제2 이미지를 획득하고;
상기 제2 이미지로부터 변환되고, 상기 제1 시각적 객체의 크기에 대응하는 크기를 가지는 상기 제2 시각적 객체를 포함하는 제3 이미지를 획득하고; 및
상기 제1 이미지를 표시한 후 상기 제3 이미지를 표시함으로써, 상기 피사체에 대한 애니메이션을 제공하기 위한 제4 이미지를 획득하는 것을 야기하는 전자 장치.In an electronic device,
display;
a plurality of cameras including a first camera and a second camera having a second FOV different from a first field-of-view (FOV) of the first camera;
Memory; and
a processor operatively coupled with the display, the plurality of cameras, and the memory;
The memory stores one or more instructions, and the one or more instructions, when executed by the processor, cause the processor to:
A preview image is displayed on the display based on at least a portion of a plurality of images acquired through the first camera, and each of the plurality of images corresponds to a first subject included in the first FOV. contain visual objects;
receiving a shooting input while displaying the preview image;
In response to receiving the photographing input, a first image including the first visual object is obtained through the first camera, and a second image including a second visual object corresponding to the subject is acquired through the second camera. acquire 2 images;
obtaining a third image including the second visual object converted from the second image and having a size corresponding to the size of the first visual object; and
Displaying the third image after displaying the first image causes obtaining a fourth image for providing animation for the subject.
상기 전자 장치는, 센서를 더 포함하고,
상기 하나 이상의 인스트럭션들은, 상기 프로세서에 의해 실행될 시에, 상기 프로세서가,
상기 촬영 입력을 수신하는 것에 응답하여, 상기 센서를 이용하여 상기 전자 장치 및 상기 피사체 사이의 거리를 식별하고; 및
상기 식별된 거리에 기반하여 상기 제2 이미지를 변환하여, 상기 제3 이미지를 획득하는 것을 야기하는 전자 장치.According to claim 1,
The electronic device further includes a sensor,
The one or more instructions, when executed by the processor, cause the processor to:
identifying a distance between the electronic device and the subject using the sensor in response to receiving the photographing input; and
Transforming the second image based on the identified distance, resulting in obtaining the third image.
상기 하나 이상의 인스트럭션들은, 상기 프로세서에 의해 실행될 시에, 상기 프로세서가,
상기 피사체를 포함하는 복수의 피사체들이 상기 제1 FOV 내에 포함된 상태에서, 상기 프리뷰 이미지 내에 상기 복수의 피사체들 각각에 대응하는 복수의 시각적 객체들을 표시하고;
상기 프리뷰 이미지 내에서, 상기 복수의 시각적 객체들 중 상기 제1 시각적 객체를 포커싱하기 위한 사용자 입력을 수신하는 것에 응답하여, 상기 제1 시각적 객체 상에 중첩되는(superimposed on) 시각적 가이드(visual guide)를 표시하고; 및
상기 사용자 입력을 수신한 이후 상기 촬영 입력을 수신하는 것에 응답하여, 상기 센서를 이용하여 상기 시각적 가이드에 의해 지시되는 상기 피사체 및 상기 전자 장치 사이의 상기 거리를 식별하는 것을 야기하는 전자 장치.According to claim 2,
The one or more instructions, when executed by the processor, cause the processor to:
displaying a plurality of visual objects corresponding to each of the plurality of subjects in the preview image in a state in which a plurality of subjects including the subject are included in the first FOV;
In the preview image, a visual guide superimposed on the first visual object in response to receiving a user input for focusing the first visual object among the plurality of visual objects display; and
and in response to receiving the photographing input after receiving the user input, causing identification of the distance between the electronic device and the subject indicated by the visual guide using the sensor.
상기 하나 이상의 인스트럭션들은, 상기 프로세서에 의해 실행될 시에, 상기 프로세서가,
상기 센서를 이용하여 식별된 상기 전자 장치 및 상기 피사체 사이의 거리, 상기 제1 이미지와 관련된 상기 제1 카메라의 줌 배율(zoom factor), 또는 상기 제1 FOV 및 상기 제2 FOV 사이의 위치 관계를 나타내는 데이터 중 적어도 하나에 기반하여, 상기 제2 이미지를 변환하는 것을 야기하는 전자 장치.According to claim 2,
The one or more instructions, when executed by the processor, cause the processor to:
The distance between the electronic device and the subject identified using the sensor, a zoom factor of the first camera related to the first image, or a positional relationship between the first FOV and the second FOV An electronic device that causes the second image to be converted based on at least one of the indicated data.
상기 복수의 카메라들은,
상기 제1 FOV 및 상기 제2 FOV와 구별되는 제3 FOV를 가지는 제3 카메라를 더 포함하고,
상기 하나 이상의 인스트럭션들은, 상기 프로세서에 의해 실행될 시에, 상기 프로세서가,
상기 촬영 입력을 수신하는 것에 응답하여, 상기 제2 카메라 및 상기 제3 카메라 중에서, 상기 제1 이미지에 대하여 시차(disparity)를 가지는 이미지를 획득할 수 있는 위치에 배치된 상기 제2 카메라를, 상기 제4 이미지를 획득하기 위한 카메라로 식별하고; 및
상기 촬영 입력을 수신하는 것에 응답하여, 상기 제1 카메라를 통해 상기 제1 이미지를 획득하고, 상기 식별된 제2 카메라를 통해 상기 제2 이미지를 획득하는 것을 야기하는 전자 장치.According to claim 1,
The plurality of cameras,
A third camera having a third FOV distinct from the first FOV and the second FOV,
The one or more instructions, when executed by the processor, cause the processor to:
In response to receiving the photographing input, among the second camera and the third camera, the second camera disposed in a position capable of acquiring an image having a disparity with respect to the first image, identify as a camera for obtaining a fourth image; and
The electronic device causing, in response to receiving the photographing input, to acquire the first image through the first camera and acquire the second image through the identified second camera.
상기 하나 이상의 인스트럭션들은, 상기 프로세서에 의해 실행될 시에, 상기 프로세서가,
상기 제1 이미지에 대하여 시차를 가지는 상기 제2 이미지를 변환하여 획득된 상기 제3 이미지를, 시간 영역 내에서(in a time domain) 상기 제1 이미지와 연접함으로써, 상기 피사체에 대한 시차를 가지는 상기 애니메이션을 제공하기 위한 상기 제4 이미지를 획득하는 것을 야기하는 전자 장치.According to claim 5,
The one or more instructions, when executed by the processor, cause the processor to:
By concatenating the third image obtained by converting the second image having a parallax with respect to the first image with the first image in a time domain, the image having a parallax with respect to the subject An electronic device that causes acquiring the fourth image for providing animation.
상기 하나 이상의 인스트럭션들은, 상기 프로세서에 의해 실행될 시에, 상기 프로세서가,
상기 제1 이미지를 획득하는 것에 응답하여, 상기 제1 시각적 객체 및 상기 제2 시각적 객체와 구별되는 제3 시각적 객체를, 상기 제1 이미지에 결합하고; 및
상기 제2 이미지를 획득하는 것에 응답하여, 상기 제3 시각적 객체에 대한 시차를 가지는 상기 애니메이션을 제공하도록 상기 제3 시각적 객체를 변환하여 획득된, 제4 시각적 객체를 상기 제2 이미지에 결합하는 것을 야기하는 전자 장치.According to claim 1,
The one or more instructions, when executed by the processor, cause the processor to:
in response to acquiring the first image, combining a third visual object distinct from the first visual object and the second visual object to the first image; and
In response to acquiring the second image, combining a fourth visual object obtained by transforming the third visual object to the second image to provide the animation having a parallax for the third visual object. electronic device that causes it.
상기 하나 이상의 인스트럭션들은, 상기 프로세서에 의해 실행될 시에, 상기 프로세서가,
상기 제1 이미지 및 상기 제3 이미지를 획득하는 것에 응답하여, 상기 제1 이미지 및 상기 제3 이미지의 보간에 기반하여, 상기 제1 이미지 및 상기 제3 이미지 사이의 하나 이상의 제5 이미지들을 획득하고; 및
시간 영역 내에서, 상기 제1 이미지, 상기 제3 이미지, 및 상기 하나 이상의 제5 이미지들을 연접하여, 상기 제4 이미지를 획득하는 것을 야기하는 전자 장치.According to claim 1,
The one or more instructions, when executed by the processor, cause the processor to:
in response to obtaining the first image and the third image, obtain one or more fifth images between the first image and the third image based on interpolation of the first image and the third image; ; and
and concatenating the first image, the third image, and the one or more fifth images within the time domain to obtain the fourth image.
상기 전자 장치의 복수의 카메라들 중 제1 카메라를 통해 획득되는 복수의 이미지들 중 적어도 일부분에 기반하여, 상기 전자 장치의 디스플레이 상에 프리뷰 이미지를 표시하는 동작, 상기 복수의 이미지들 각각은, 상기 제1 카메라의 제1 FOV(Field-Of-View) 내에 포함된 피사체에 대응하는 제1 시각적 객체를 포함함;
상기 프리뷰 이미지를 표시하는 동안, 촬영 입력을 수신하는 동작;
상기 촬영 입력을 수신하는 것에 응답하여, 상기 제1 카메라를 통해 상기 제1 시각적 객체를 포함하는 제1 이미지를 획득하는 동작;
상기 촬영 입력을 수신하는 것에 응답하여, 상기 제1 카메라와 구별되는 상기 복수의 카메라들 중 제2 카메라를 통해 상기 피사체에 대응하는 제2 시각적 객체를 포함하는 제2 이미지를 획득하는 동작;
상기 제2 이미지로부터 변환되고, 상기 제1 시각적 객체의 크기에 대응하는 크기를 가지는 제2 시각적 객체를 포함하는 제3 이미지를 획득하는 동작; 및
상기 제1 이미지를 표시한 후 상기 제3 이미지를 표시함으로써, 상기 피사체에 대한 애니메이션을 제공하기 위한 제4 이미지를 획득하는 동작을 포함하는 방법.In the method of electronic device,
Displaying a preview image on a display of the electronic device based on at least a portion of a plurality of images acquired through a first camera among a plurality of cameras of the electronic device, each of the plurality of images, including a first visual object corresponding to a subject included in a first field-of-view (FOV) of the first camera;
receiving a photographing input while displaying the preview image;
obtaining a first image including the first visual object through the first camera in response to receiving the photographing input;
obtaining a second image including a second visual object corresponding to the subject through a second camera among the plurality of cameras distinguished from the first camera in response to receiving the photographing input;
obtaining a third image that is converted from the second image and includes a second visual object having a size corresponding to the size of the first visual object; and
and obtaining a fourth image for providing animation for the subject by displaying the third image after displaying the first image.
상기 촬영 입력을 수신하는 것에 응답하여, 상기 전자 장치의 센서를 이용하여 상기 전자 장치 및 상기 피사체 사이의 거리를 식별하는 동작을 더 포함하고,
상기 제3 이미지를 획득하는 동작은,
상기 식별된 거리에 기반하여 상기 제2 이미지를 변환하여, 상기 제3 이미지를 획득하는 동작을 더 포함하는 방법.According to claim 9,
In response to receiving the photographing input, further comprising identifying a distance between the electronic device and the subject using a sensor of the electronic device;
The operation of obtaining the third image,
The method further comprising obtaining the third image by converting the second image based on the identified distance.
상기 프리뷰 이미지를 표시하는 동작은,
상기 피사체를 포함하는 복수의 피사체들이 상기 제1 FOV 내에 포함된 상태에서, 상기 프리뷰 이미지 내에 상기 복수의 피사체들 각각에 대응하고, 상기 제1 시각적 객체를 포함하는 복수의 시각적 객체들을 표시하는 동작; 및
상기 프리뷰 이미지 내에서, 상기 복수의 피사체들 중 상기 제1 시각적 객체를 포커싱하기 위한 사용자 입력을 수신하는 것에 응답하여, 상기 제1 시각적 객체 상에 중첩되는 시각적 가이드를 표시하는 동작을 더 포함하고,
상기 거리를 식별하는 동작은,
상기 촬영 입력을 수신하는 것에 응답하여, 상기 센서를 이용하여 상기 시각적 가이드에 의해 지시되는 상기 피사체 및 상기 전자 장치 사이의 거리를 식별하는 동작을 더 포함하는 방법.According to claim 9,
The operation of displaying the preview image,
displaying a plurality of visual objects corresponding to each of the plurality of subjects in the preview image and including the first visual object in a state in which a plurality of subjects including the subject are included in the first FOV; and
In response to receiving a user input for focusing the first visual object among the plurality of subjects in the preview image, displaying a visual guide overlapping the first visual object;
The operation of identifying the distance,
In response to receiving the photographing input, the method may further include identifying a distance between the electronic device and the subject indicated by the visual guide using the sensor.
상기 촬영 입력을 수신하는 것에 응답하여, 상기 복수의 카메라들 중에서, 상기 제1 이미지에 대하여 시차를 가지는 이미지를 획득할 수 있는 위치에 배치된 상기 제2 카메라를, 상기 제4 이미지를 획득하기 위한 카메라로 식별하는 동작을 더 포함하는 방법.According to claim 9,
In response to receiving the photographing input, among the plurality of cameras, the second camera disposed in a position capable of acquiring an image having a parallax with respect to the first image is configured to acquire the fourth image. A method further comprising an action identified by a camera.
상기 제4 이미지를 획득하는 동작은,
상기 제1 이미지에 대하여 시차를 가지는 상기 제2 이미지를 변환하여 획득된 상기 제3 이미지를, 시간 영역 내에서 상기 제1 이미지와 연접함으로써, 상기 피사체에 대한 시차를 가지는 상기 애니메이션을 제공하기 위한 상기 제4 이미지를 획득하는 동작을 더 포함하는 방법.According to claim 12,
The operation of acquiring the fourth image,
The third image obtained by converting the second image having a parallax with respect to the first image is connected to the first image in a time domain to provide the animation having a parallax with respect to the subject. The method further comprising acquiring a fourth image.
상기 제1 이미지를 획득하는 것에 응답하여, 상기 제1 시각적 객체 및 상기 제2 시각적 객체와 구별되는 제3 시각적 객체를, 상기 제1 이미지에 결합하는 동작; 및
상기 제2 이미지를 획득하는 것에 응답하여, 상기 제3 시각적 객체에 대한 시차를 가지는 상기 애니메이션을 제공하도록 상기 제3 시각적 객체를 변환하여 획득된, 제4 시각적 객체를 상기 제2 이미지에 결합하는 동작을 더 포함하는 방법.According to claim 9,
combining a third visual object distinct from the first visual object and the second visual object with the first image in response to obtaining the first image; and
In response to acquiring the second image, combining a fourth visual object obtained by transforming the third visual object with the second image to provide the animation having a parallax for the third visual object. How to include more.
상기 제1 이미지 및 상기 제3 이미지를 획득하는 것에 응답하여, 상기 제1 이미지 및 상기 제3 이미지의 보간에 기반하여, 상기 제1 이미지 및 상기 제3 이미지 사이의 하나 이상의 제5 이미지들을 획득하는 동작을 더 포함하고,
상기 제4 이미지를 획득하는 동작은,
시간 영역 내에서, 상기 제1 이미지, 상기 제3 이미지 및 상기 하나 이상의 제5 이미지들을 연접하여, 상기 제4 이미지를 획득하는 동작을 더 포함하는 방법.According to claim 9,
In response to obtaining the first image and the third image, obtaining one or more fifth images between the first image and the third image based on interpolation of the first image and the third image. more action,
The operation of acquiring the fourth image,
and obtaining the fourth image by concatenating the first image, the third image, and the one or more fifth images in the time domain.
디스플레이;
서로 다른 FOV들(Field-of-Views)을 가지는 복수의 카메라들;
메모리; 및
상기 디스플레이, 상기 복수의 카메라들 및 상기 메모리와 작동적으로 결합된 프로세서를 포함하고,
상기 메모리는 하나 이상의 인스트럭션들을 저장하고, 상기 하나 이상의 인스트럭션들은, 상기 프로세서에 의해 실행될 시에, 상기 프로세서가,
상기 복수의 카메라들 중 제1 카메라를 이용하여 상기 디스플레이 상에 프리뷰 이미지를 표시하고, 상기 프리뷰 이미지는, 상기 제1 카메라가 향하는 제1 FOV 내에 포함된 피사체에 대응하는 제1 시각적 객체를 포함함;
상기 프리뷰 이미지를 표시하는 동안, 상기 제1 카메라와 관련된 촬영 입력(shooting input)을 수신하고;
상기 촬영 입력을 수신하는 것에 응답하여, 상기 복수의 카메라들 중에서, 상기 피사체를 포함하고, 상기 제1 카메라의 제1 FOV에 대하여 시차를 가지는 제2 FOV를 가지는 제2 카메라를 식별하고; 및
상기 제2 카메라를 식별하는 것에 응답하여, 상기 제1 카메라를 통해 상기 제1 시각적 객체를 포함하는 제1 이미지를 획득하고, 상기 식별된 제2 카메라를 통해 상기 피사체에 대응하는 제2 시각적 객체를 포함하는 제2 이미지를 획득하는 것을 야기하는 전자 장치.In an electronic device,
display;
A plurality of cameras having different FOVs (Field-of-Views);
Memory; and
a processor operatively coupled with the display, the plurality of cameras, and the memory;
The memory stores one or more instructions, and the one or more instructions, when executed by the processor, cause the processor to:
Displaying a preview image on the display using a first camera among the plurality of cameras, wherein the preview image includes a first visual object corresponding to a subject included in a first FOV directed by the first camera ;
receive a shooting input related to the first camera while displaying the preview image;
In response to receiving the photographing input, identify a second camera including the subject and having a second FOV having a parallax with respect to the first FOV of the first camera, among the plurality of cameras; and
In response to identifying the second camera, a first image including the first visual object is obtained through the first camera, and a second visual object corresponding to the subject is obtained through the identified second camera. An electronic device that causes acquiring a second image comprising:
상기 전자 장치는, 센서를 더 포함하고,
상기 하나 이상의 인스트럭션들은, 상기 프로세서에 의해 실행될 시에, 상기 프로세서가,
상기 촬영 입력을 수신하는 것에 응답하여, 상기 센서를 이용하여, 상기 피사체 및 상기 전자 장치 사이의 거리를 획득하고,
상기 제1 이미지, 상기 제2 이미지 및 상기 거리를 획득하는 것에 응답하여, 상기 거리에 기반하여 상기 제2 이미지를 변환하여, 상기 제1 이미지 내에서의 상기 제1 시각적 객체의 크기와 관련된 크기를 가지는 상기 제2 시각적 객체를 포함하는, 제3 이미지를 획득하고; 및
시간 영역 내에서, 상기 제1 이미지 및 상기 제3 이미지를 서로 연접함으로써 상기 피사체에 대한 애니메이션을 제공하기 위한 제4 이미지를 획득하는 것을 야기하는 전자 장치.According to claim 16,
The electronic device further includes a sensor,
The one or more instructions, when executed by the processor, cause the processor to:
In response to receiving the photographing input, obtain a distance between the subject and the electronic device using the sensor;
In response to obtaining the first image, the second image and the distance, transform the second image based on the distance to obtain a size related to the size of the first visual object in the first image. obtains a third image, the branch including the second visual object; and
and concatenating the first image and the third image with each other within the time domain to cause obtaining a fourth image for providing animation for the subject.
상기 하나 이상의 인스트럭션들은, 상기 프로세서에 의해 실행될 시에, 상기 프로세서가,
상기 제1 이미지를 획득하는 것에 응답하여, 상기 제1 시각적 객체 및 상기 제2 시각적 객체와 구별되는 제3 시각적 객체를, 상기 제1 이미지에 결합하고; 및
상기 제2 이미지를 획득하는 것에 응답하여, 상기 제3 시각적 객체에 대한 시차를 가지는 상기 애니메이션을 제공하도록 상기 제3 시각적 객체를 변환하여 획득된, 제4 시각적 객체를 상기 제2 이미지에 결합하는 것을 야기하는 전자 장치.According to claim 17,
The one or more instructions, when executed by the processor, cause the processor to:
in response to acquiring the first image, combining a third visual object distinct from the first visual object and the second visual object to the first image; and
In response to acquiring the second image, combining a fourth visual object obtained by transforming the third visual object to the second image to provide the animation having a parallax for the third visual object. electronic device that causes it.
상기 하나 이상의 인스트럭션들은, 상기 프로세서에 의해 실행될 시에, 상기 프로세서가,
상기 프리뷰 이미지를 표시하는 동안, 상기 피사체에 대응하는 상기 제1 시각적 객체 상에 중첩되고, 상기 제3 이미지의 획득을 위한 제2 이미지의 변환과 관련된 사용자 입력을 수신하기 위한 시각적 가이드를 표시하는 것을 야기하는 전자 장치.According to claim 17,
The one or more instructions, when executed by the processor, cause the processor to:
While displaying the preview image, displaying a visual guide superimposed on the first visual object corresponding to the subject and receiving a user input related to conversion of a second image for obtaining the third image. electronic device that causes it.
상기 하나 이상의 인스트럭션들은, 상기 프로세서에 의해 실행될 시에, 상기 프로세서가,
상기 제1 이미지 및 상기 제3 이미지를 획득하는 것에 응답하여, 상기 제1 이미지 및 상기 제3 이미지의 보간에 기반하여, 상기 제1 이미지 및 상기 제3 이미지 사이의 하나 이상의 제5 이미지들을 획득하고; 및
시간 영역 내에서, 상기 제1 이미지, 상기 제3 이미지, 및 상기 하나 이상의 제5 이미지들을 연접하여, 상기 제4 이미지를 획득하는 것을 야기하는 전자 장치.According to claim 17,
The one or more instructions, when executed by the processor, cause the processor to:
in response to obtaining the first image and the third image, obtain one or more fifth images between the first image and the third image based on interpolation of the first image and the third image; ; and
and concatenating the first image, the third image, and the one or more fifth images within the time domain to obtain the fourth image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/KR2022/010179 WO2023038264A1 (en) | 2021-09-13 | 2022-07-13 | Electronic device for generating three-dimensional photo based on images acquired from plurality of cameras, and method therefor |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210121695 | 2021-09-13 | ||
KR20210121695 | 2021-09-13 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20230039466A true KR20230039466A (en) | 2023-03-21 |
Family
ID=85801002
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210129297A KR20230039466A (en) | 2021-09-13 | 2021-09-29 | Electronic device for generating stereoscopy based on images obtained from multiple cameras and method thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20230039466A (en) |
-
2021
- 2021-09-29 KR KR1020210129297A patent/KR20230039466A/en unknown
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107636534B (en) | Method and system for image processing | |
US8762846B2 (en) | Method and system for adaptive viewport for a mobile device based on viewing angle | |
RU2623201C2 (en) | Mobile display device | |
KR102348504B1 (en) | Method for reducing parallax of a plurality of cameras and electronic device supporting the same | |
KR102146858B1 (en) | Photographing apparatus and method for making a video | |
JP2011090400A (en) | Image display device, method, and program | |
JP6576536B2 (en) | Information processing device | |
JP2015149634A (en) | Image display device and method | |
US11044398B2 (en) | Panoramic light field capture, processing, and display | |
JP7392105B2 (en) | Methods, systems, and media for rendering immersive video content using foveated meshes | |
CN111385470B (en) | Electronic device, control method of electronic device, and computer-readable medium | |
JP7378243B2 (en) | Image generation device, image display device, and image processing method | |
JP5253300B2 (en) | Display control device, display device control method, program, and storage medium | |
JP2020004325A (en) | Image processing device, image processing method, and program | |
WO2017118662A1 (en) | Spherical virtual reality camera | |
CN111095348A (en) | Transparent display based on camera | |
WO2020166376A1 (en) | Image processing device, image processing method, and program | |
KR20230039466A (en) | Electronic device for generating stereoscopy based on images obtained from multiple cameras and method thereof | |
KR102132406B1 (en) | Display apparatus and control method thereof | |
KR20150010070A (en) | Method and apparatus for dispalying images on portable terminal | |
JP6601392B2 (en) | Display control apparatus, display control method, and program | |
JP2012141753A5 (en) | ||
WO2023038264A1 (en) | Electronic device for generating three-dimensional photo based on images acquired from plurality of cameras, and method therefor | |
JP2020108112A (en) | Electronic apparatus and method for controlling the same | |
JP7358938B2 (en) | Communication terminal, image communication system, display method, and program |