KR20230163849A - Electronic device including a plurality of cameras and method for shooting thereof - Google Patents

Electronic device including a plurality of cameras and method for shooting thereof Download PDF

Info

Publication number
KR20230163849A
KR20230163849A KR1020220063676A KR20220063676A KR20230163849A KR 20230163849 A KR20230163849 A KR 20230163849A KR 1020220063676 A KR1020220063676 A KR 1020220063676A KR 20220063676 A KR20220063676 A KR 20220063676A KR 20230163849 A KR20230163849 A KR 20230163849A
Authority
KR
South Korea
Prior art keywords
camera
electronic device
time
processor
shooting
Prior art date
Application number
KR1020220063676A
Other languages
Korean (ko)
Inventor
박재성
안병용
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020220063676A priority Critical patent/KR20230163849A/en
Publication of KR20230163849A publication Critical patent/KR20230163849A/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/915Television signal processing therefor for field- or frame-skip recording or reproducing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/51Housings
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera

Abstract

다양한 실시예들에 따른 전자 장치는 하우징, 하우징의 제 1 면에 위치한 제 1 카메라, 제 1 면과 마주보는 상기 하우징의 제 2 면에 위치한 제 2 카메라, 메모리 및 프로세서를 포함하고, 프로세서는 메모리 상에 저장된 사용 패턴 정보로부터 학습된 결과에 기초해서, 동영상의 편집 기준이 되는 적어도 하나의 객체를 결정하고, 제 1 카메라를 이용하여 촬영된 제 1 영상 또는 제 2 카메라를 이용하여 촬영된 제 2 영상 중 적어도 어느 하나에 적어도 하나의 객체가 포함됨에 대응하여 동영상의 타임라인(timeline)에 적어도 하나의 객체가 포함되기 시작하는 제 1 시점을 표시하고, 제 1 카메라를 이용하여 촬영된 제 1 영상에 적어도 하나의 객체가 포함됨에 대응하여 제 1 카메라의 촬영 주기를 짧게 조절하고, 제 1 카메라의 촬영 주기를 짧게 조절함에 대응하여 제 2 카메라의 촬영 주기를 상기 제 1 카메라의 촬영 주기와 동일하게 변경할 수 있다.An electronic device according to various embodiments includes a housing, a first camera located on a first side of the housing, a second camera located on a second side of the housing facing the first side, a memory, and a processor, and the processor includes a memory Based on the results learned from the usage pattern information stored in the In response to at least one object being included in at least one of the images, a first point in time at which at least one object begins to be included in the timeline of the video is displayed, and a first image captured using a first camera is displayed. In response to the fact that at least one object is included, the shooting cycle of the first camera is adjusted to be short, and in response to the shooting cycle of the first camera being shortened, the shooting cycle of the second camera is set to be the same as the shooting cycle of the first camera. You can change it.

Description

복수의 카메라를 포함하는 전자 장치 및 전자 장치의 촬영 방법 {ELECTRONIC DEVICE INCLUDING A PLURALITY OF CAMERAS AND METHOD FOR SHOOTING THEREOF}Electronic device including a plurality of cameras and a shooting method of the electronic device {ELECTRONIC DEVICE INCLUDING A PLURALITY OF CAMERAS AND METHOD FOR SHOOTING THEREOF}

본 문서에 개시된 다양한 실시예들은, 복수의 카메라를 포함하는 전자 장치 및 전자 장치의 촬영 방법에 관한 것으로서, 예를 들면 복수의 카메라를 통해 복수의 동영상을 촬영하고 저장 및 재생하는 전자 장치 및 전자 장치의 동작 방법에 관한 것이다. Various embodiments disclosed in this document relate to an electronic device including a plurality of cameras and a photographing method of the electronic device, for example, an electronic device and an electronic device that captures, stores, and plays a plurality of videos through a plurality of cameras. It is about how to operate.

본 문서에 개시된 다양한 실시예들은, 듀얼 카메라를 활용한 타입랩스 비디오 촬영 및 이를 활용하는 방법을 포함할 수 있다. 본 문서에 개시된 다양한 실시예들은, 타임랩스 비디오를 이용하여 사용자 경험을 확대하기 위한 다양한 AI 기술에 대한 분야를 포함할 수 있다.Various embodiments disclosed in this document may include type-lapse video shooting using a dual camera and a method of using the same. Various embodiments disclosed in this document may include the field of various AI technologies for expanding user experience using time-lapse video.

최근 스마트폰과 같은 전자 장치에서 카메라 사용이 활발해지면서, 초광각 카메라, 광각 카메라, 망원 카메라와 같이 다양한 종류의 카메라를 포함하고 전면 및/또는 후면에 이들이 배치된 스마트폰이 개발되고 있다. 초광각 카메라는 카메라의 화각이 넓은 렌즈를 포함하는 카메라로, 화각이 약 120도 이상이며, 사람 시야와 유사한 화각으로 사진을 촬영할 수 있다. 광각 카메라는 약 70도~ 80도의 화각의 렌즈를 포함하는 카메라로, 일반적인 스마트폰 사진 촬영 시 사용되는 카메라일 수 있다. 망원 카메라는 멀리 있는 피사체를 촬영하기 위한 망원 렌즈를 포함하는 카메라로, 약 2배줌에서부터 약 10배줌 이상의 배율에서도 고화질의 사진을 획득할 수 있다. Recently, as the use of cameras in electronic devices such as smartphones has become more active, smartphones are being developed that include various types of cameras, such as ultra-wide-angle cameras, wide-angle cameras, and telephoto cameras, and have them placed on the front and/or back. An ultra-wide-angle camera is a camera that includes a lens with a wide angle of view. The angle of view is approximately 120 degrees or more, and it can take pictures with an angle of view similar to the human field of view. A wide-angle camera is a camera that includes a lens with an angle of view of approximately 70 to 80 degrees, and may be a camera used for general smartphone photography. A telephoto camera is a camera that includes a telephoto lens for photographing distant subjects, and can obtain high-quality photos at magnifications ranging from about 2x zoom to about 10x zoom or higher.

전자 장치는 다양한 카메라를 포함하면서, 다양한 피사체와 다양한 촬영 환경에 따른 적합한 카메라를 선택하여 동영상을 촬영할 수 있다. Electronic devices include various cameras and can capture videos by selecting an appropriate camera according to various subjects and various shooting environments.

back to back 카메라는 적어도 두 개의 카메라가 등을 기댄 것처럼 서로 다른 방향을 바라보고 있는 형태로 전자 장치 상에 배치된 카메라들을 의미할 수 있다. 예를 들면, back to back 카메라는 디스플레이와 같은 면에 배치된 전면 카메라 및 디스플레이와 마주보는 다른 면에 배치된 후면 카메라를 포함할 수 있다. back to back 카메라로 구현된 전자 장치는 전면 카메라 및 후면 카메라를 이용한 듀얼 카메라 촬영 기능을 제공할 수 있으나, 전면 카메라 및 후면 카메라를 이용한 타임 랩스(time lapse) 기능을 제공하기는 어려울 수 있다. 타임 랩스 기능은 오랜 시간 촬영된 영상의 재생 구간을 압축하여, 짧은 시간 동안 재생하는 기능을 의미할 수 있다.A back to back camera may refer to cameras arranged on an electronic device in a manner in which at least two cameras are facing different directions, as if they are leaning against each other. For example, the back to back camera may include a front camera disposed on the same side as the display and a rear camera disposed on the other side facing the display. An electronic device implemented with a back to back camera can provide a dual camera shooting function using a front camera and a rear camera, but it may be difficult to provide a time lapse function using a front camera and a rear camera. The time lapse function may refer to a function of compressing the playback section of an image captured over a long period of time and playing it back for a short period of time.

복수의 카메라(예: back to back 듀얼 카메라)를 포함하는 전자 장치가 제공할 수 있는 타임 랩스 상황의 사용자 경험(user experience)은 제한될 수 있다. 본 문서의 다양한 실시예들에 따른 복수의 카메라(예: back to back 듀얼 카메라)를 포함하는 전자 장치는 타임 랩스 촬영 중 사용자 경험이 제한되는 문제를 해결할 수 있다.The user experience in a time-lapse situation that can be provided by an electronic device including a plurality of cameras (e.g., back to back dual cameras) may be limited. An electronic device including a plurality of cameras (e.g., back to back dual cameras) according to various embodiments of this document can solve the problem of limited user experience during time-lapse shooting.

다양한 실시예들에 따른 전자 장치는 하우징, 하우징의 제 1 면에 위치한 제 1 카메라, 제 1 면과 마주보는 상기 하우징의 제 2 면에 위치한 제 2 카메라, 메모리 및 프로세서를 포함하고, 프로세서는 메모리 상에 저장된 사용 패턴 정보로부터 학습된 결과에 기초해서, 동영상의 편집 기준이 되는 적어도 하나의 객체를 결정하고, 제 1 카메라를 이용하여 촬영된 제 1 영상 또는 제 2 카메라를 이용하여 촬영된 제 2 영상 중 적어도 어느 하나에 적어도 하나의 객체가 포함됨에 대응하여 동영상의 타임라인(timeline)에 적어도 하나의 객체가 포함되기 시작하는 제 1 시점을 표시하고, 제 1 카메라를 이용하여 촬영된 제 1 영상에 적어도 하나의 객체가 포함됨에 대응하여 제 1 카메라의 촬영 주기를 짧게 조절하고, 제 1 카메라의 촬영 주기를 짧게 조절함에 대응하여 제 2 카메라의 촬영 주기를 상기 제 1 카메라의 촬영 주기와 동일하게 변경할 수 있다.An electronic device according to various embodiments includes a housing, a first camera located on a first side of the housing, a second camera located on a second side of the housing facing the first side, a memory, and a processor, and the processor includes a memory Based on the results learned from the usage pattern information stored in the In response to at least one object being included in at least one of the images, a first point in time at which at least one object begins to be included in the timeline of the video is displayed, and a first image captured using a first camera is displayed. In response to the fact that at least one object is included, the shooting cycle of the first camera is adjusted to be short, and in response to the shooting cycle of the first camera being shortened, the shooting cycle of the second camera is set to be the same as the shooting cycle of the first camera. You can change it.

복수의 카메라를 포함하는 전자 장치의 동작 방법은 메모리 상에 저장된 사용 패턴 정보로부터 학습된 결과에 기초해서, 동영상의 편집 기준이 되는 적어도 하나의 객체를 결정하는 동작, 제 1 카메라를 이용하여 촬영된 제 1 영상 또는 제 2 카메라를 이용하여 촬영된 제 2 영상 중 적어도 어느 하나에 적어도 하나의 객체가 포함됨에 대응하여 상기 동영상의 타임라인(timeline)에 적어도 하나의 객체가 포함되기 시작하는 제 1 시점을 표시하는 동작, 제 1 카메라를 이용하여 촬영된 제 1 영상에 적어도 하나의 객체가 포함됨에 대응하여 제 1 카메라의 촬영 주기를 짧게 조절하는 동작 및 제 1 카메라의 촬영 주기를 짧게 조절함에 대응하여 제 2 카메라의 촬영 주기를 상기 제 1 카메라의 촬영 주기와 동일하게 변경하는 동작을 포함할 수 있다.A method of operating an electronic device including a plurality of cameras includes determining at least one object that serves as an editing standard for a video based on a result learned from usage pattern information stored in a memory, and an operation of determining at least one object that is a reference for editing a video, captured using a first camera, A first point in time at which at least one object begins to be included in the timeline of the video in response to at least one object being included in at least one of the first video or the second video captured using a second camera. An operation of displaying, an operation of briefly adjusting the shooting cycle of the first camera in response to at least one object being included in the first image captured using the first camera, and an operation of briefly adjusting the shooting cycle of the first camera. It may include an operation of changing the shooting cycle of the second camera to be the same as the shooting cycle of the first camera.

다양한 실시예에 따르면, 전자 장치는 두 개 혹은 그 이상의 카메라가 전자 장치의 본체 앞뒤로 장착이 된 상황에서, 타임랩스 촬영 기능을 제공할 때 사용자 편의 촬영 기능을 제공할 수 있다.According to various embodiments, an electronic device can provide a user-friendly shooting function when providing a time-lapse shooting function in a situation where two or more cameras are mounted on the front and back of the main body of the electronic device.

다양한 실시예에 따르면, 전자 장치는 복수의 카메라 중 적어도 어느 하나의 카메라 상에서 특정 이벤트(salient event)를 검출하고, 특정 이벤트(salient event)를 검출한 카메라를 기준으로 나머지 카메라의 촬영 주기를 조절할 수 있다. 따라서, 하나의 카메라의 촬영 주기가 다른 카메라의 촬영 주기와 다름으로써 발생하는 비동기화 현상으로 인한 타임랩스 영상의 품질 저하를 방지할 수 있다.According to various embodiments, an electronic device may detect a specific event (salient event) on at least one camera among a plurality of cameras and adjust the shooting cycle of the remaining cameras based on the camera that detected the specific event (salient event). there is. Therefore, it is possible to prevent the quality of time-lapse video from deteriorating due to a desynchronization phenomenon that occurs when the shooting cycle of one camera is different from that of another camera.

다양한 실시예에 따르면, 전자 장치는 특정 이벤트(salient event) 발생 시점을 기록하고, 특정 이벤트(salient event) 발생 시점을 사용자가 빨리 찾을 수 있도록 타임라인 상에 표시할 수 있다.According to various embodiments, an electronic device may record the time point at which a specific event (salient event) occurs and display the time point at which a specific event (salient event) occurs on a timeline so that a user can quickly find the time point at which the specific event (salient event) occurs.

다양한 실시예에 따르면, 전자 장치는 이전에 검출된 특정 이벤트(salient event) 발생 정보에 기반하여 타임랩스 비디오 촬영 각도 및 시점 중 적어도 어느 하나를 포함하는 정보를 사용자에게 제공할 수 있다. 전자 장치는 타임랩스 비디오 촬영이 진행되다가 중단된 상황에서, 타임랩스 비디오 촬영을 재개할 수 있도록 사용자에게 정보를 제공할 수 있다.According to various embodiments, an electronic device may provide a user with information including at least one of a time-lapse video shooting angle and viewpoint based on information on the occurrence of a previously detected specific event (salient event). The electronic device may provide information to the user so that time-lapse video shooting can be resumed in a situation where time-lapse video shooting is interrupted.

도 1은 다양한 실시예들에 따른, 네트워크 환경 내의 전자 장치의 블록도이다.
도 2a는, 다양한 실시예에 따른 전자 장치(200)(예: 도 1의 전자 장치(101))의 블록도이다.
도 2b는 전자 장치(200)가 폴더블 폰 형태로 구현된 예를 나타내는 도면이다.
도 3a는 다양한 실시예에 따른 제2형태를 포함하는 전자 장치의 펼침 상태(flat state 또는 unfolding state)를 도시한 전면 사시도이다.
도 3b는 다양한 실시예에 따른 도 3a의 펼침 상태에서, 전자장치의 전면을 도시한 평면도이다.
도 3c는 다양한 실시예에 따른 도 3a의 펼침 상태에서, 전자 장치의 후면을 도시한 평면도이다.
도 4a는, 비교 실시예에 따른 전자 장치가 동시 촬영 모드에 따라 복수개의 영상을 동시에 촬영하여 저장하는 상황을 도시한 것이다.
도 4b는, 본 문서의 다양한 실시예들에 따른 전자 장치(예: 도 2a의 전자 장치(200))가 동시 촬영 모드에 따라 복수개의 영상을 동시에 촬영하여 저장하는 상황을 도시한 것이다.
도 5는 다양한 실시예들에 따른 전자 장치의 복수개의 카메라를 이용한 영상 촬영 상황을 도시한 것이다.
도 6a 내지 도 6d는 다양한 실시예에 따른 전자 장치의 복수개의 동영상을 상호 전환하여 재생하기 위한 사용자 인터페이스의 예들을 나타낸다.
도 7은 다양한 실시예들에 따른 전자 장치의 촬영 방법을 순서도로 도시한 것이다.
1 is a block diagram of an electronic device in a network environment, according to various embodiments.
FIG. 2A is a block diagram of an electronic device 200 (eg, the electronic device 101 of FIG. 1 ) according to various embodiments.
FIG. 2B is a diagram illustrating an example in which the electronic device 200 is implemented in the form of a foldable phone.
FIG. 3A is a front perspective view illustrating a flat state or unfolding state of an electronic device including a second type according to various embodiments.
FIG. 3B is a plan view illustrating the front of the electronic device in the unfolded state of FIG. 3A according to various embodiments.
FIG. 3C is a plan view illustrating the rear of the electronic device in the unfolded state of FIG. 3A according to various embodiments.
FIG. 4A illustrates a situation in which an electronic device according to a comparative example simultaneously captures and stores a plurality of images according to a simultaneous capture mode.
FIG. 4B illustrates a situation in which an electronic device (e.g., the electronic device 200 of FIG. 2A) according to various embodiments of this document simultaneously captures and stores a plurality of images according to a simultaneous capture mode.
FIG. 5 illustrates an image capturing situation using a plurality of cameras of an electronic device according to various embodiments.
FIGS. 6A to 6D show examples of user interfaces for switching between and playing a plurality of videos of an electronic device according to various embodiments.
FIG. 7 is a flow chart illustrating a method of photographing an electronic device according to various embodiments.

도 1은, 다양한 실시예들에 따른, 네트워크 환경(100) 내의 전자 장치(101)의 블록도이다. 도 1을 참조하면, 네트워크 환경(100)에서 전자 장치(101)는 제 1 네트워크(198)(예: 근거리 무선 통신 네트워크)를 통하여 전자 장치(102)와 통신하거나, 또는 제 2 네트워크(199)(예: 원거리 무선 통신 네트워크)를 통하여 전자 장치(104) 또는 서버(108) 중 적어도 하나와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 서버(108)를 통하여 전자 장치(104)와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 프로세서(120), 메모리(130), 입력 모듈(150), 음향 출력 모듈(155), 디스플레이 모듈(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 연결 단자(178), 햅틱 모듈(179), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 가입자 식별 모듈(196), 또는 안테나 모듈(197)을 포함할 수 있다. 어떤 실시예에서는, 전자 장치(101)에는, 이 구성요소들 중 적어도 하나(예: 연결 단자(178))가 생략되거나, 하나 이상의 다른 구성요소가 추가될 수 있다. 어떤 실시예에서는, 이 구성요소들 중 일부들(예: 센서 모듈(176), 카메라 모듈(180), 또는 안테나 모듈(197))은 하나의 구성요소(예: 디스플레이 모듈(160))로 통합될 수 있다.1 is a block diagram of an electronic device 101 in a network environment 100, according to various embodiments. Referring to FIG. 1, in the network environment 100, the electronic device 101 communicates with the electronic device 102 through a first network 198 (e.g., a short-range wireless communication network) or a second network 199. It is possible to communicate with at least one of the electronic device 104 or the server 108 through (e.g., a long-distance wireless communication network). According to one embodiment, the electronic device 101 may communicate with the electronic device 104 through the server 108. According to one embodiment, the electronic device 101 includes a processor 120, a memory 130, an input module 150, an audio output module 155, a display module 160, an audio module 170, and a sensor module ( 176), interface 177, connection terminal 178, haptic module 179, camera module 180, power management module 188, battery 189, communication module 190, subscriber identification module 196 , or may include an antenna module 197. In some embodiments, at least one of these components (eg, the connection terminal 178) may be omitted or one or more other components may be added to the electronic device 101. In some embodiments, some of these components (e.g., sensor module 176, camera module 180, or antenna module 197) are integrated into one component (e.g., display module 160). It can be.

프로세서(120)는, 예를 들면, 소프트웨어(예: 프로그램(140))를 실행하여 프로세서(120)에 연결된 전자 장치(101)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)를 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일실시예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(120)는 다른 구성요소(예: 센서 모듈(176) 또는 통신 모듈(190))로부터 수신된 명령 또는 데이터를 휘발성 메모리(132)에 저장하고, 휘발성 메모리(132)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리(134)에 저장할 수 있다. 일실시예에 따르면, 프로세서(120)는 메인 프로세서(121)(예: 중앙 처리 장치 또는 어플리케이션 프로세서) 또는 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(123)(예: 그래픽 처리 장치, 신경망 처리 장치(NPU: neural processing unit), 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 예를 들어, 전자 장치(101)가 메인 프로세서(121) 및 보조 프로세서(123)를 포함하는 경우, 보조 프로세서(123)는 메인 프로세서(121)보다 저전력을 사용하거나, 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서(123)는 메인 프로세서(121)와 별개로, 또는 그 일부로서 구현될 수 있다.The processor 120, for example, executes software (e.g., program 140) to operate at least one other component (e.g., hardware or software component) of the electronic device 101 connected to the processor 120. It can be controlled and various data processing or calculations can be performed. According to one embodiment, as at least part of data processing or computation, the processor 120 stores commands or data received from another component (e.g., sensor module 176 or communication module 190) in volatile memory 132. The commands or data stored in the volatile memory 132 can be processed, and the resulting data can be stored in the non-volatile memory 134. According to one embodiment, the processor 120 includes a main processor 121 (e.g., a central processing unit or an application processor) or an auxiliary processor 123 that can operate independently or together (e.g., a graphics processing unit, a neural network processing unit ( It may include a neural processing unit (NPU), an image signal processor, a sensor hub processor, or a communication processor). For example, if the electronic device 101 includes a main processor 121 and a secondary processor 123, the secondary processor 123 may be set to use lower power than the main processor 121 or be specialized for a designated function. You can. The auxiliary processor 123 may be implemented separately from the main processor 121 or as part of it.

보조 프로세서(123)는, 예를 들면, 메인 프로세서(121)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(121)를 대신하여, 또는 메인 프로세서(121)가 액티브(예: 어플리케이션 실행) 상태에 있는 동안 메인 프로세서(121)와 함께, 전자 장치(101)의 구성요소들 중 적어도 하나의 구성요소(예: 디스플레이 모듈(160), 센서 모듈(176), 또는 통신 모듈(190))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일실시예에 따르면, 보조 프로세서(123)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성요소(예: 카메라 모듈(180) 또는 통신 모듈(190))의 일부로서 구현될 수 있다. 일실시예에 따르면, 보조 프로세서(123)(예: 신경망 처리 장치)는 인공지능 모델의 처리에 특화된 하드웨어 구조를 포함할 수 있다. 인공지능 모델은 기계 학습을 통해 생성될 수 있다. 이러한 학습은, 예를 들어, 인공지능 모델이 수행되는 전자 장치(101) 자체에서 수행될 수 있고, 별도의 서버(예: 서버(108))를 통해 수행될 수도 있다. 학습 알고리즘은, 예를 들어, 지도형 학습(supervised learning), 비지도형 학습(unsupervised learning), 준지도형 학습(semi-supervised learning) 또는 강화 학습(reinforcement learning)을 포함할 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은, 복수의 인공 신경망 레이어들을 포함할 수 있다. 인공 신경망은 심층 신경망(DNN: deep neural network), CNN(convolutional neural network), RNN(recurrent neural network), RBM(restricted boltzmann machine), DBN(deep belief network), BRDNN(bidirectional recurrent deep neural network), 심층 Q-네트워크(deep Q-networks) 또는 상기 중 둘 이상의 조합 중 하나일 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은 하드웨어 구조 이외에, 추가적으로 또는 대체적으로, 소프트웨어 구조를 포함할 수 있다. The auxiliary processor 123 may, for example, act on behalf of the main processor 121 while the main processor 121 is in an inactive (e.g., sleep) state, or while the main processor 121 is in an active (e.g., application execution) state. ), together with the main processor 121, at least one of the components of the electronic device 101 (e.g., the display module 160, the sensor module 176, or the communication module 190) At least some of the functions or states related to can be controlled. According to one embodiment, co-processor 123 (e.g., image signal processor or communication processor) may be implemented as part of another functionally related component (e.g., camera module 180 or communication module 190). there is. According to one embodiment, the auxiliary processor 123 (eg, neural network processing unit) may include a hardware structure specialized for processing artificial intelligence models. Artificial intelligence models can be created through machine learning. For example, such learning may be performed in the electronic device 101 itself on which the artificial intelligence model is performed, or may be performed through a separate server (e.g., server 108). Learning algorithms may include, for example, supervised learning, unsupervised learning, semi-supervised learning, or reinforcement learning, but It is not limited. An artificial intelligence model may include multiple artificial neural network layers. Artificial neural networks include deep neural network (DNN), convolutional neural network (CNN), recurrent neural network (RNN), restricted boltzmann machine (RBM), belief deep network (DBN), bidirectional recurrent deep neural network (BRDNN), It may be one of deep Q-networks or a combination of two or more of the above, but is not limited to the examples described above. In addition to hardware structures, artificial intelligence models may additionally or alternatively include software structures.

메모리(130)는, 전자 장치(101)의 적어도 하나의 구성요소(예: 프로세서(120) 또는 센서 모듈(176))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램(140)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(130)는, 휘발성 메모리(132) 또는 비휘발성 메모리(134)를 포함할 수 있다.The memory 130 may store various data used by at least one component (eg, the processor 120 or the sensor module 176) of the electronic device 101. Data may include, for example, input data or output data for software (e.g., program 140) and instructions related thereto. Memory 130 may include volatile memory 132 or non-volatile memory 134.

프로그램(140)은 메모리(130)에 소프트웨어로서 저장될 수 있으며, 예를 들면, 운영 체제(142), 미들 웨어(144) 또는 어플리케이션(146)을 포함할 수 있다.The program 140 may be stored as software in the memory 130 and may include, for example, an operating system 142, middleware 144, or application 146.

입력 모듈(150)은, 전자 장치(101)의 구성요소(예: 프로세서(120))에 사용될 명령 또는 데이터를 전자 장치(101)의 외부(예: 사용자)로부터 수신할 수 있다. 입력 모듈(150)은, 예를 들면, 마이크, 마우스, 키보드, 키(예: 버튼), 또는 디지털 펜(예: 스타일러스 펜)을 포함할 수 있다.The input module 150 may receive commands or data to be used in a component of the electronic device 101 (e.g., the processor 120) from outside the electronic device 101 (e.g., a user). The input module 150 may include, for example, a microphone, mouse, keyboard, keys (eg, buttons), or digital pen (eg, stylus pen).

음향 출력 모듈(155)은 음향 신호를 전자 장치(101)의 외부로 출력할 수 있다. 음향 출력 모듈(155)은, 예를 들면, 스피커 또는 리시버를 포함할 수 있다. 스피커는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있다. 리시버는 착신 전화를 수신하기 위해 사용될 수 있다. 일실시예에 따르면, 리시버는 스피커와 별개로, 또는 그 일부로서 구현될 수 있다.The sound output module 155 may output sound signals to the outside of the electronic device 101. The sound output module 155 may include, for example, a speaker or a receiver. Speakers can be used for general purposes such as multimedia playback or recording playback. The receiver can be used to receive incoming calls. According to one embodiment, the receiver may be implemented separately from the speaker or as part of it.

디스플레이 모듈(160)은 전자 장치(101)의 외부(예: 사용자)로 정보를 시각적으로 제공할 수 있다. 디스플레이 모듈(160)은, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일실시예에 따르면, 디스플레이 모듈(160)은 터치를 감지하도록 설정된 터치 센서, 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 압력 센서를 포함할 수 있다.The display module 160 can visually provide information to the outside of the electronic device 101 (eg, a user). The display module 160 may include, for example, a display, a hologram device, or a projector, and a control circuit for controlling the device. According to one embodiment, the display module 160 may include a touch sensor configured to detect a touch, or a pressure sensor configured to measure the intensity of force generated by the touch.

오디오 모듈(170)은 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 일실시예에 따르면, 오디오 모듈(170)은, 입력 모듈(150)을 통해 소리를 획득하거나, 음향 출력 모듈(155), 또는 전자 장치(101)와 직접 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(102))(예: 스피커 또는 헤드폰)를 통해 소리를 출력할 수 있다.The audio module 170 can convert sound into an electrical signal or, conversely, convert an electrical signal into sound. According to one embodiment, the audio module 170 acquires sound through the input module 150, the sound output module 155, or an external electronic device (e.g., directly or wirelessly connected to the electronic device 101). Sound may be output through the electronic device 102 (e.g., speaker or headphone).

센서 모듈(176)은 전자 장치(101)의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 사용자 상태)를 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 일실시예에 따르면, 센서 모듈(176)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다.The sensor module 176 detects the operating state (e.g., power or temperature) of the electronic device 101 or the external environmental state (e.g., user state) and generates an electrical signal or data value corresponding to the detected state. can do. According to one embodiment, the sensor module 176 includes, for example, a gesture sensor, a gyro sensor, an air pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, a color sensor, an IR (infrared) sensor, a biometric sensor, It may include a temperature sensor, humidity sensor, or light sensor.

인터페이스(177)는 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 직접 또는 무선으로 연결되기 위해 사용될 수 있는 하나 이상의 지정된 프로토콜들을 지원할 수 있다. 일실시예에 따르면, 인터페이스(177)는, 예를 들면, HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.The interface 177 may support one or more designated protocols that can be used to connect the electronic device 101 directly or wirelessly with an external electronic device (eg, the electronic device 102). According to one embodiment, the interface 177 may include, for example, a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, an SD card interface, or an audio interface.

연결 단자(178)는, 그를 통해서 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 물리적으로 연결될 수 있는 커넥터를 포함할 수 있다. 일실시예에 따르면, 연결 단자(178)는, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.The connection terminal 178 may include a connector through which the electronic device 101 can be physically connected to an external electronic device (eg, the electronic device 102). According to one embodiment, the connection terminal 178 may include, for example, an HDMI connector, a USB connector, an SD card connector, or an audio connector (eg, a headphone connector).

햅틱 모듈(179)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 일실시예에 따르면, 햅틱 모듈(179)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.The haptic module 179 can convert electrical signals into mechanical stimulation (e.g., vibration or movement) or electrical stimulation that the user can perceive through tactile or kinesthetic senses. According to one embodiment, the haptic module 179 may include, for example, a motor, a piezoelectric element, or an electrical stimulation device.

카메라 모듈(180)은 정지 영상 및 동영상을 촬영할 수 있다. 일실시예에 따르면, 카메라 모듈(180)은 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다.The camera module 180 can capture still images and moving images. According to one embodiment, the camera module 180 may include one or more lenses, image sensors, image signal processors, or flashes.

전력 관리 모듈(188)은 전자 장치(101)에 공급되는 전력을 관리할 수 있다. 일실시예에 따르면, 전력 관리 모듈(188)은, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구현될 수 있다.The power management module 188 can manage power supplied to the electronic device 101. According to one embodiment, the power management module 188 may be implemented as at least a part of, for example, a power management integrated circuit (PMIC).

배터리(189)는 전자 장치(101)의 적어도 하나의 구성요소에 전력을 공급할 수 있다. 일실시예에 따르면, 배터리(189)는, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.The battery 189 may supply power to at least one component of the electronic device 101. According to one embodiment, the battery 189 may include, for example, a non-rechargeable primary battery, a rechargeable secondary battery, or a fuel cell.

통신 모듈(190)은 전자 장치(101)와 외부 전자 장치(예: 전자 장치(102), 전자 장치(104), 또는 서버(108)) 간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(190)은 프로세서(120)(예: 어플리케이션 프로세서)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일실시예에 따르면, 통신 모듈(190)은 무선 통신 모듈(192)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(194)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제 1 네트워크(198)(예: 블루투스, WiFi(wireless fidelity) direct 또는 IrDA(infrared data association)와 같은 근거리 통신 네트워크) 또는 제 2 네트워크(199)(예: 레거시 셀룰러 네트워크, 5G 네트워크, 차세대 통신 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부의 전자 장치(104)와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성요소(예: 단일 칩)로 통합되거나, 또는 서로 별도의 복수의 구성요소들(예: 복수 칩들)로 구현될 수 있다. 무선 통신 모듈(192)은 가입자 식별 모듈(196)에 저장된 가입자 정보(예: 국제 모바일 가입자 식별자(IMSI))를 이용하여 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크 내에서 전자 장치(101)를 확인 또는 인증할 수 있다.Communication module 190 is configured to provide a direct (e.g., wired) communication channel or wireless communication channel between electronic device 101 and an external electronic device (e.g., electronic device 102, electronic device 104, or server 108). It can support establishment and communication through established communication channels. Communication module 190 operates independently of processor 120 (e.g., an application processor) and may include one or more communication processors that support direct (e.g., wired) communication or wireless communication. According to one embodiment, the communication module 190 is a wireless communication module 192 (e.g., a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module) or a wired communication module 194 (e.g., : LAN (local area network) communication module, or power line communication module) may be included. Among these communication modules, the corresponding communication module is a first network 198 (e.g., a short-range communication network such as Bluetooth, wireless fidelity (WiFi) direct, or infrared data association (IrDA)) or a second network 199 (e.g., legacy It may communicate with an external electronic device 104 through a telecommunication network such as a cellular network, a 5G network, a next-generation communication network, the Internet, or a computer network (e.g., LAN or WAN). These various types of communication modules may be integrated into one component (e.g., a single chip) or may be implemented as a plurality of separate components (e.g., multiple chips). The wireless communication module 192 uses subscriber information (e.g., International Mobile Subscriber Identifier (IMSI)) stored in the subscriber identification module 196 within a communication network such as the first network 198 or the second network 199. The electronic device 101 can be confirmed or authenticated.

무선 통신 모듈(192)은 4G 네트워크 이후의 5G 네트워크 및 차세대 통신 기술, 예를 들어, NR 접속 기술(new radio access technology)을 지원할 수 있다. NR 접속 기술은 고용량 데이터의 고속 전송(eMBB(enhanced mobile broadband)), 단말 전력 최소화와 다수 단말의 접속(mMTC(massive machine type communications)), 또는 고신뢰도와 저지연(URLLC(ultra-reliable and low-latency communications))을 지원할 수 있다. 무선 통신 모듈(192)은, 예를 들어, 높은 데이터 전송률 달성을 위해, 고주파 대역(예: mmWave 대역)을 지원할 수 있다. 무선 통신 모듈(192)은 고주파 대역에서의 성능 확보를 위한 다양한 기술들, 예를 들어, 빔포밍(beamforming), 거대 배열 다중 입출력(massive MIMO(multiple-input and multiple-output)), 전차원 다중입출력(FD-MIMO: full dimensional MIMO), 어레이 안테나(array antenna), 아날로그 빔형성(analog beam-forming), 또는 대규모 안테나(large scale antenna)와 같은 기술들을 지원할 수 있다. 무선 통신 모듈(192)은 전자 장치(101), 외부 전자 장치(예: 전자 장치(104)) 또는 네트워크 시스템(예: 제 2 네트워크(199))에 규정되는 다양한 요구사항을 지원할 수 있다. 일실시예에 따르면, 무선 통신 모듈(192)은 eMBB 실현을 위한 Peak data rate(예: 20Gbps 이상), mMTC 실현을 위한 손실 Coverage(예: 164dB 이하), 또는 URLLC 실현을 위한 U-plane latency(예: 다운링크(DL) 및 업링크(UL) 각각 0.5ms 이하, 또는 라운드 트립 1ms 이하)를 지원할 수 있다.The wireless communication module 192 may support 5G networks after 4G networks and next-generation communication technologies, for example, NR access technology (new radio access technology). NR access technology provides high-speed transmission of high-capacity data (eMBB (enhanced mobile broadband)), minimization of terminal power and access to multiple terminals (mMTC (massive machine type communications)), or high reliability and low latency (URLLC (ultra-reliable and low latency). -latency communications)) can be supported. The wireless communication module 192 may support high frequency bands (eg, mmWave bands), for example, to achieve high data rates. The wireless communication module 192 uses various technologies to secure performance in high frequency bands, for example, beamforming, massive array multiple-input and multiple-output (MIMO), and full-dimensional multiplexing. It can support technologies such as input/output (FD-MIMO: full dimensional MIMO), array antenna, analog beam-forming, or large scale antenna. The wireless communication module 192 may support various requirements specified in the electronic device 101, an external electronic device (e.g., electronic device 104), or a network system (e.g., second network 199). According to one embodiment, the wireless communication module 192 supports Peak data rate (e.g., 20 Gbps or more) for realizing eMBB, loss coverage (e.g., 164 dB or less) for realizing mmTC, or U-plane latency (e.g., 164 dB or less) for realizing URLLC. Example: Downlink (DL) and uplink (UL) each of 0.5 ms or less, or round trip 1 ms or less) can be supported.

안테나 모듈(197)은 신호 또는 전력을 외부(예: 외부의 전자 장치)로 송신하거나 외부로부터 수신할 수 있다. 일실시예에 따르면, 안테나 모듈(197)은 서브스트레이트(예: PCB) 위에 형성된 도전체 또는 도전성 패턴으로 이루어진 방사체를 포함하는 안테나를 포함할 수 있다. 일실시예에 따르면, 안테나 모듈(197)은 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다. 이런 경우, 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 적어도 하나의 안테나가, 예를 들면, 통신 모듈(190)에 의하여 상기 복수의 안테나들로부터 선택될 수 있다. 신호 또는 전력은 상기 선택된 적어도 하나의 안테나를 통하여 통신 모듈(190)과 외부의 전자 장치 간에 송신되거나 수신될 수 있다. 어떤 실시예에 따르면, 방사체 이외에 다른 부품(예: RFIC(radio frequency integrated circuit))이 추가로 안테나 모듈(197)의 일부로 형성될 수 있다.The antenna module 197 may transmit signals or power to or receive signals or power from the outside (e.g., an external electronic device). According to one embodiment, the antenna module 197 may include an antenna including a radiator made of a conductor or a conductive pattern formed on a substrate (eg, PCB). According to one embodiment, the antenna module 197 may include a plurality of antennas (eg, an array antenna). In this case, at least one antenna suitable for a communication method used in a communication network such as the first network 198 or the second network 199 is connected to the plurality of antennas by, for example, the communication module 190. can be selected Signals or power may be transmitted or received between the communication module 190 and an external electronic device through the at least one selected antenna. According to some embodiments, in addition to the radiator, other components (eg, radio frequency integrated circuit (RFIC)) may be additionally formed as part of the antenna module 197.

다양한 실시예에 따르면, 안테나 모듈(197)은 mmWave 안테나 모듈을 형성할 수 있다. 일실시예에 따르면, mmWave 안테나 모듈은 인쇄 회로 기판, 상기 인쇄 회로 기판의 제 1 면(예: 아래 면)에 또는 그에 인접하여 배치되고 지정된 고주파 대역(예: mmWave 대역)을 지원할 수 있는 RFIC, 및 상기 인쇄 회로 기판의 제 2 면(예: 윗 면 또는 측 면)에 또는 그에 인접하여 배치되고 상기 지정된 고주파 대역의 신호를 송신 또는 수신할 수 있는 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다.According to various embodiments, the antenna module 197 may form a mmWave antenna module. According to one embodiment, a mmWave antenna module includes: a printed circuit board, an RFIC disposed on or adjacent to a first side (e.g., bottom side) of the printed circuit board and capable of supporting a designated high frequency band (e.g., mmWave band); And a plurality of antennas (e.g., array antennas) disposed on or adjacent to the second side (e.g., top or side) of the printed circuit board and capable of transmitting or receiving signals in the designated high frequency band. can do.

상기 구성요소들 중 적어도 일부는 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input and output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))을 통해 서로 연결되고 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.At least some of the components are connected to each other through a communication method between peripheral devices (e.g., bus, general purpose input and output (GPIO), serial peripheral interface (SPI), or mobile industry processor interface (MIPI)) and signal ( (e.g. commands or data) can be exchanged with each other.

일실시예에 따르면, 명령 또는 데이터는 제 2 네트워크(199)에 연결된 서버(108)를 통해서 전자 장치(101)와 외부의 전자 장치(104)간에 송신 또는 수신될 수 있다. 외부의 전자 장치(102, 또는 104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 일실시예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 외부의 전자 장치들(102, 104, 또는 108) 중 하나 이상의 외부의 전자 장치들에서 실행될 수 있다. 예를 들면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로, 또는 사용자 또는 다른 장치로부터의 요청에 반응하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 하나 이상의 외부의 전자 장치들에게 그 기능 또는 그 서비스의 적어도 일부를 수행하라고 요청할 수 있다. 상기 요청을 수신한 하나 이상의 외부의 전자 장치들은 요청된 기능 또는 서비스의 적어도 일부, 또는 상기 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행의 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 상기 결과를, 그대로 또는 추가적으로 처리하여, 상기 요청에 대한 응답의 적어도 일부로서 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 모바일 에지 컴퓨팅(MEC: mobile edge computing), 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다. 전자 장치(101)는, 예를 들어, 분산 컴퓨팅 또는 모바일 에지 컴퓨팅을 이용하여 초저지연 서비스를 제공할 수 있다. 다른 실시예에 있어서, 외부의 전자 장치(104)는 IoT(internet of things) 기기를 포함할 수 있다. 서버(108)는 기계 학습 및/또는 신경망을 이용한 지능형 서버일 수 있다. 일실시예에 따르면, 외부의 전자 장치(104) 또는 서버(108)는 제 2 네트워크(199) 내에 포함될 수 있다. 전자 장치(101)는 5G 통신 기술 및 IoT 관련 기술을 기반으로 지능형 서비스(예: 스마트 홈, 스마트 시티, 스마트 카, 또는 헬스 케어)에 적용될 수 있다. According to one embodiment, commands or data may be transmitted or received between the electronic device 101 and the external electronic device 104 through the server 108 connected to the second network 199. Each of the external electronic devices 102 or 104 may be of the same or different type as the electronic device 101. According to one embodiment, all or part of the operations performed in the electronic device 101 may be executed in one or more of the external electronic devices 102, 104, or 108. For example, when the electronic device 101 needs to perform a certain function or service automatically or in response to a request from a user or another device, the electronic device 101 may perform the function or service instead of executing the function or service on its own. Alternatively, or additionally, one or more external electronic devices may be requested to perform at least part of the function or service. One or more external electronic devices that have received the request may execute at least part of the requested function or service, or an additional function or service related to the request, and transmit the result of the execution to the electronic device 101. The electronic device 101 may process the result as is or additionally and provide it as at least part of a response to the request. For this purpose, for example, cloud computing, distributed computing, mobile edge computing (MEC), or client-server computing technology can be used. The electronic device 101 may provide an ultra-low latency service using, for example, distributed computing or mobile edge computing. In another embodiment, the external electronic device 104 may include an Internet of Things (IoT) device. Server 108 may be an intelligent server using machine learning and/or neural networks. According to one embodiment, the external electronic device 104 or server 108 may be included in the second network 199. The electronic device 101 may be applied to intelligent services (e.g., smart home, smart city, smart car, or healthcare) based on 5G communication technology and IoT-related technology.

본 문서에 개시된 다양한 실시예들에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치(예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 또는 가전 장치를 포함할 수 있다. 본 문서의 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.Electronic devices according to various embodiments disclosed in this document may be of various types. Electronic devices may include, for example, portable communication devices (e.g., smartphones), computer devices, portable multimedia devices, portable medical devices, cameras, wearable devices, or home appliances. Electronic devices according to embodiments of this document are not limited to the above-described devices.

본 문서의 다양한 실시예들 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시예들로 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나", "A 또는 B 중 적어도 하나", "A, B 또는 C", "A, B 및 C 중 적어도 하나", 및 "A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에, "기능적으로" 또는 "통신적으로"라는 용어와 함께 또는 이런 용어 없이, "커플드" 또는 "커넥티드"라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 제 3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.The various embodiments of this document and the terms used herein are not intended to limit the technical features described in this document to specific embodiments, and should be understood to include various changes, equivalents, or replacements of the embodiments. In connection with the description of the drawings, similar reference numbers may be used for similar or related components. The singular form of a noun corresponding to an item may include one or more of the above items, unless the relevant context clearly indicates otherwise. As used herein, “A or B”, “at least one of A and B”, “at least one of A or B”, “A, B or C”, “at least one of A, B and C”, and “A Each of phrases such as “at least one of , B, or C” may include any one of the items listed together in the corresponding phrase, or any possible combination thereof. Terms such as "first", "second", or "first" or "second" may be used simply to distinguish one component from another, and to refer to that component in other respects (e.g., importance or order) is not limited. One (e.g., first) component is said to be “coupled” or “connected” to another (e.g., second) component, with or without the terms “functionally” or “communicatively.” When mentioned, it means that any of the components can be connected to the other components directly (e.g. wired), wirelessly, or through a third component.

본 문서의 다양한 실시예들에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로와 같은 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일실시예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다. The term “module” used in various embodiments of this document may include a unit implemented in hardware, software, or firmware, and is interchangeable with terms such as logic, logic block, component, or circuit, for example. It can be used as A module may be an integrated part or a minimum unit of the parts or a part thereof that performs one or more functions. For example, according to one embodiment, the module may be implemented in the form of an application-specific integrated circuit (ASIC).

본 문서의 다양한 실시예들은 기기(machine)(예: 전자 장치(101)) 의해 읽을 수 있는 저장 매체(storage medium)(예: 내장 메모리(136) 또는 외장 메모리(138))에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예: 프로그램(140))로서 구현될 수 있다. 예를 들면, 기기(예: 전자 장치(101))의 프로세서(예: 프로세서(120))는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장 매체는, 비일시적(non-transitory) 저장 매체의 형태로 제공될 수 있다. 여기서, '비일시적'은 저장 매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장 매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.Various embodiments of the present document are one or more instructions stored in a storage medium (e.g., built-in memory 136 or external memory 138) that can be read by a machine (e.g., electronic device 101). It may be implemented as software (e.g., program 140) including these. For example, a processor (e.g., processor 120) of a device (e.g., electronic device 101) may call at least one command among one or more commands stored from a storage medium and execute it. This allows the device to be operated to perform at least one function according to the at least one instruction called. The one or more instructions may include code generated by a compiler or code that can be executed by an interpreter. A storage medium that can be read by a device may be provided in the form of a non-transitory storage medium. Here, 'non-transitory' only means that the storage medium is a tangible device and does not contain signals (e.g. electromagnetic waves), and this term refers to cases where data is semi-permanently stored in the storage medium. There is no distinction between temporary storage cases.

일실시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory(CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두 개의 사용자 장치들(예: 스마트 폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.According to one embodiment, methods according to various embodiments disclosed in this document may be included and provided in a computer program product. Computer program products are commodities and can be traded between sellers and buyers. The computer program product may be distributed in the form of a machine-readable storage medium (e.g. compact disc read only memory (CD-ROM)) or through an application store (e.g. Play StoreTM) or on two user devices (e.g. It can be distributed (e.g. downloaded or uploaded) directly between smart phones) or online. In the case of online distribution, at least a portion of the computer program product may be at least temporarily stored or temporarily created in a machine-readable storage medium, such as the memory of a manufacturer's server, an application store's server, or a relay server.

다양한 실시예들에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있으며, 복수의 개체 중 일부는 다른 구성요소에 분리 배치될 수도 있다. 다양한 실시예들에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시예들에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.According to various embodiments, each component (e.g., module or program) of the above-described components may include a single or plural entity, and some of the plurality of entities may be separately placed in other components. there is. According to various embodiments, one or more of the components or operations described above may be omitted, or one or more other components or operations may be added. Alternatively or additionally, multiple components (eg, modules or programs) may be integrated into a single component. In this case, the integrated component may perform one or more functions of each component of the plurality of components in the same or similar manner as those performed by the corresponding component of the plurality of components prior to the integration. . According to various embodiments, operations performed by a module, program, or other component may be executed sequentially, in parallel, iteratively, or heuristically, or one or more of the operations may be executed in a different order, or omitted. Alternatively, one or more other operations may be added.

도 2a는, 다양한 실시예에 따른 전자 장치(200)(예: 도 1의 전자 장치(101))의 블록도이다. 도 2a의 전자 장치(200)는 예를 들면 스마트폰, 태블릿과 같은 다양한 전자 장치를 포함할 수 있다. 예를 들면 전자 장치(200)의 형태는 바 형태, 접히는 구조(예: 폴더블 폰), 펼치는 구조(예: 롤러블 폰)와 같은 다양한 형태를 포함할 수 있으며 이하 기술하는 예에 한정되지 않는다. FIG. 2A is a block diagram of an electronic device 200 (eg, the electronic device 101 of FIG. 1 ) according to various embodiments. The electronic device 200 of FIG. 2A may include various electronic devices, such as a smartphone or tablet. For example, the shape of the electronic device 200 may include various shapes such as a bar shape, a folding structure (e.g., a foldable phone), and an unfolding structure (e.g., a rollable phone), and is not limited to the examples described below. .

도 2a를 참조하면, 전자 장치(200)는, 메모리(210)(예: 도 1의 메모리(130)), 프로세서(220)(예: 도 1의 프로세서(120)), 카메라(230)(예: 도 1의 카메라(180)) 및/또는 디스플레이(240)(예: 도 1의 디스플레이 모듈(160))을 포함할 수 있다. 도 2에 포함된 구성 요소는 전자 장치(200)에 포함된 구성들의 일부에 대한 것이며 전자 장치(200)는 이 밖에도 도 1에 도시된 것과 같이 다양한 구성요소를 포함할 수 있다.Referring to FIG. 2A, the electronic device 200 includes a memory 210 (e.g., memory 130 in FIG. 1), a processor 220 (e.g., processor 120 in FIG. 1), and a camera 230 ( For example, it may include a camera 180 in FIG. 1) and/or a display 240 (for example, the display module 160 in FIG. 1). The components included in FIG. 2 are some of the components included in the electronic device 200, and the electronic device 200 may also include various other components as shown in FIG. 1 .

다양한 실시예에 따른 카메라(230)는 제1 카메라(231)(예: 도 1의 카메라(180)), 제2 카메라(232)(예: 도 1의 카메라(180)) 및 제3 카메라(233)(예: 도 1의 카메라(180))를 포함하는 복수의 카메라들을 포함할 수 있다. 여기서는 카메라(230)가 3개의 카메라(예: 제1 카메라(231), 제2 카메라(232) 및 제3 카메라(233))를 포함하는 것으로 도시하였으나, 이는 일 예로서, 본 개시의 실시예들은 이에 한정되지 않으며 4개 이상의 카메라들을 포함할 수 있다. 제1 카메라(231), 제2 카메라(232) 및 제3 카메라(233)를 포함하는 복수의 카메라들은 하나 이상의 복수의 모듈로 구현될 수 있으며, 예를 들어 각각 분리된 모듈로서 구현될 수도 있다. 각각 분리된 모듈로서 구현되는 경우에도 제1 카메라(231), 제2 카메라(232) 및 제3 카메라(233)를 포함하는 복수의 카메라들은 전자 장치(200)의 하우징의 동일한 면 및/또는 서로 다른 면을 포함하는 다양한 위치에 장착될 수 있다. The camera 230 according to various embodiments includes a first camera 231 (e.g., camera 180 in FIG. 1), a second camera 232 (e.g., camera 180 in FIG. 1), and a third camera ( 233) (eg, camera 180 of FIG. 1). Here, the camera 230 is shown as including three cameras (e.g., the first camera 231, the second camera 232, and the third camera 233), but this is an example and an embodiment of the present disclosure. They are not limited to this and may include four or more cameras. A plurality of cameras including the first camera 231, the second camera 232, and the third camera 233 may be implemented as one or more modules, for example, each may be implemented as a separate module. . Even when implemented as separate modules, the plurality of cameras including the first camera 231, the second camera 232, and the third camera 233 are located on the same side of the housing of the electronic device 200 and/or with each other. It can be mounted in a variety of positions, including on different sides.

도 2b는 전자 장치(200)가 폴더블 폰 형태로 구현된 예를 나타내는 도면이다. 다양한 실시예에 따르면 전자 장치(200)는 일반적인 바 형태의 스마트 폰 이외에 폴더블 폰 형태로도 구현될 수 있다. 도 2b에 도시된 바와 같이 전자 장치(200)가 폴더블 폰 형태로 구현되는 경우, 복수의 카메라들(예: 도 2a의 제1 카메라(231), 제2 카메라(232) 및 제3 카메라(233))은, 폴딩시 외부로 노출되는 전면 카메라(201), 후면 카메라(202) 및/또는 폴딩시 내부로 접히는 내부 카메라(203)로 서로 다른 면 또는 위치에 각각 장착될 수 있다. 일 실시예에 따르면 폴더블 폰 형태의 전자 장치(200)는 그 폴딩 각도에 따라 전면 카메라(201)와 후면 카메라(202)가 촬영하는 방향은 예를 들면 언폴딩 시(a) 서로 다른 위치에서 동일한 방향, 언폴딩 상태와 폴딩 상태의 중간 각도(예: 90도 각도)로 폴딩 시(b) 각각 중간 각도의 좌 또는 우측 방향, 180도 각도로 폴딩 시(c) 180도 각도의 전면과 후면 방향 등 다양한 각도, 위치 및/또는 방향에서 이미지를 촬영할 수 있다. 또한 내부 카메라(203)의 촬영 방향은 전면 카메라(201)와 후면 카메라(202)의 촬영 방향 변화에 따라 변화할 수 있으며 폴딩 상태에서는 촬영이 불가능할 수 있다. FIG. 2B is a diagram illustrating an example in which the electronic device 200 is implemented in the form of a foldable phone. According to various embodiments, the electronic device 200 may be implemented in the form of a foldable phone in addition to a general bar-shaped smart phone. As shown in FIG. 2B, when the electronic device 200 is implemented in the form of a foldable phone, a plurality of cameras (e.g., the first camera 231, the second camera 232, and the third camera (in FIG. 2A) are used. 233)) is a front camera 201, a rear camera 202 that is exposed to the outside when folded, and/or an internal camera 203 that is folded inward when folded, and can be mounted on different surfaces or positions, respectively. According to one embodiment, the electronic device 200 in the form of a foldable phone is photographed by the front camera 201 and the rear camera 202 depending on the folding angle, for example, at different positions when unfolded (a). When folded in the same direction, at an angle halfway between the unfolded and folded states (e.g., a 90-degree angle) (b) to the left or right of the middle angle, respectively, when folded at a 180-degree angle (c) at the front and back at an angle of 180 degrees. Images can be taken from various angles, positions, and/or directions, including directions. Additionally, the shooting direction of the internal camera 203 may change depending on changes in the shooting directions of the front camera 201 and the rear camera 202, and shooting may not be possible in the folded state.

다양한 실시예에 따른 제1 카메라(231)는, 초광각 카메라, 광각 카메라, 제1 망원 카메라, 제2 망원 카메라 중 적어도 하나의 카메라를 포함할 수 있다. The first camera 231 according to various embodiments may include at least one of an ultra-wide-angle camera, a wide-angle camera, a first telephoto camera, and a second telephoto camera.

초광각 카메라(ultra wide camera, 울트라 와이드 카메라)는 초광각 렌즈를 포함하여, 가까이 있는 피사체를 촬영하기 위하여 사용되는 카메라일 수 있다. 초광각 카메라는 전자 장치(200)에 포함된 카메라 중 가장 화각이 넓은 카메라일 수 있다.An ultra wide camera may be a camera that includes an ultra wide angle lens and is used to photograph a nearby subject. The ultra-wide-angle camera may be a camera with the widest angle of view among cameras included in the electronic device 200.

광각 카메라(wide camera, 와이드 카메라)는 광각 렌즈를 포함하여, 가까이 있는 피사체를 촬영하기 위하여 사용되는 카메라일 수 있다. 광각 카메라는 전자 장치(200)에 포함된 카메라 중 두번째로 화각이 넓은 카메라일 수 있다.A wide-angle camera may be a camera that includes a wide-angle lens and is used to photograph a nearby subject. The wide-angle camera may be a camera with the second widest angle of view among cameras included in the electronic device 200.

제1 망원 카메라는(tele camera)는 N1 배율을 촬영할 수 있는 망원 렌즈를 포함하여, 멀리 있는 피사체를 촬영하기 위하여 사용되는 카메라일 수 있다. 제1 망원 카메라는 전자 장치(200)에 포함된 카메라 중 두번째로 화각이 좁은 카메라일 수 있다. The first telephoto camera may be a camera used to photograph a distant subject, including a telephoto lens capable of taking N1 magnification. The first telephoto camera may be a camera with the second narrowest angle of view among cameras included in the electronic device 200.

제2 망원 카메라(tele camera)는 N2 배율을 촬영할 수 있는 망원 렌즈를 포함하여, 멀리 있는 피사체를 촬영하기 위한 카메라일 수 있다. 제2 망원 카메라는 전자 장치(200)에 포함된 카메라 중 가장 화각이 좁은 카메라일 수 있다.The second telephoto camera may include a telephoto lens capable of taking N2 magnification and may be a camera for photographing a distant subject. The second telephoto camera may be a camera with the narrowest angle of view among cameras included in the electronic device 200.

다양한 실시예에 따른 제2 카메라(232)는, 초광각 카메라, 광각 카메라, 제1 망원 카메라, 제2 망원 카메라 중 적어도 하나의 카메라를 포함할 수 있다. 제2 카메라(232)는, 제1 카메라(231) 및 제3 카메라(233)와 전자 장치(200)상에 상이한 위치에 배치되고, 상이한 화각을 가지는 카메라로 구현될 수 있다. The second camera 232 according to various embodiments may include at least one of an ultra-wide-angle camera, a wide-angle camera, a first telephoto camera, and a second telephoto camera. The second camera 232 may be disposed at a different position on the electronic device 200 than the first camera 231 and the third camera 233 and may be implemented as a camera having a different viewing angle.

다양한 실시예에 따른 제3 카메라(233)는, 초광각 카메라, 광각 카메라, 제1 망원 카메라, 제2 망원 카메라 중 적어도 하나의 카메라를 포함할 수 있다. 제3 카메라(233)는, 제1 카메라(231) 및 제2 카메라(232)와 전자 장치(200)상에 상이한 위치에 배치되고, 상이한 화각을 가지는 카메라로 구현될 수 있다. The third camera 233 according to various embodiments may include at least one camera among an ultra-wide-angle camera, a wide-angle camera, a first telephoto camera, and a second telephoto camera. The third camera 233 may be disposed at a different location on the electronic device 200 than the first camera 231 and the second camera 232 and may be implemented as a camera having a different viewing angle.

다양한 실시예에 따른 제1 카메라(231), 제2 카메라(232) 및 제3 카메라(233)를 포함하는 복수개의 카메라가 전자 장치(200) 상에 배치되는 위치는 전자 장치(200)의 전방을 바라보는 위치 및 후방을 바라보는 다양한 위치를 포함할 수 있으며, 이에 한정되지 않는다. 예를 들면 제1 카메라(231) 및 제2 카메라(232)는 전방 카메라로 구현되고 제3 카메라(233)는 후방 카메라로 구현될 수 있다. 예를 들면 3개의 전방 카메라(제1 카메라(231) 내지 제3 카메라(233))와 2개의 후방 카메라(미도시)(예: 제2 카메라(232) 및 제3 카메라(233)와 동일 또는 유사한 카메라))로 구현될 수 있다. The location where the plurality of cameras including the first camera 231, the second camera 232, and the third camera 233 according to various embodiments are placed on the electronic device 200 is the front of the electronic device 200. It may include, but is not limited to, various positions facing the rear. For example, the first camera 231 and the second camera 232 may be implemented as a front camera, and the third camera 233 may be implemented as a rear camera. For example, three front cameras (first camera 231 to third camera 233) and two rear cameras (not shown) (e.g., the same as the second camera 232 and the third camera 233 or It can be implemented with a similar camera)).

상술한 바와 같이 제1 카메라(231), 제2 카메라(232) 및 제3 카메라(233)를 포함하는 복수개의 카메라가 도 2b에 도시된 바와 같이 폴더블 전자 장치(200)의 전면 카메라(201), 후면 카메라(202) 및/또는 내부 카메라(203)로서 구현된 경우, 상술한 바와 같이 각각의 카메라들은 서로 다른 각도, 위치 및/또는 방향에서 다양한 이미지들을 촬영할 수 있다. 이 경우 촬영된 이미지를 포함하는 파일은 이미지 촬영 각도, 위치 및/또는 방향에 대한 정보를 부가 정보로서 포함할 수 있다. As described above, a plurality of cameras including the first camera 231, the second camera 232, and the third camera 233 are used as the front camera 201 of the foldable electronic device 200, as shown in FIG. 2B. ), when implemented as the rear camera 202 and/or the internal camera 203, each camera may capture various images at different angles, positions, and/or directions, as described above. In this case, a file containing a captured image may include information about the image capturing angle, location, and/or direction as additional information.

다양한 실시예에 따르면 디스플레이(240)는 다양한 텍스트, 이미지를 포함하는 컨텐츠, 아이콘, 메뉴를 표시할 수 있으며 입력 센서(미도시)를 통해 감지된 터치 입력에 대응하여 다양한 동작을 수행할 수 있다.According to various embodiments, the display 240 can display content including various texts and images, icons, and menus, and can perform various operations in response to touch input detected through an input sensor (not shown).

다양한 실시예에 따르면 프로세서(220)는 카메라를 사용하는 어프리케이션 예를 들면 영상 촬영 앱의 실행에 따라 복수개의 영상을 동시에 촬영하고 각각 저장하기 위한 사용자 인터페이스를 제공할 수 있다. 예를 들면 복수개의 영상을 동시에 촬영하고 각각 저장하기 위한 촬영 모드(이하 동시 촬영 모드로 지칭함)는 카메라의 설정 메뉴를 통해 선택되거나 촬영 앱 상에서 제공되는 메뉴(예: 토글 스위치)를 통해 선택될 수 있다. According to various embodiments, the processor 220 may provide a user interface for simultaneously capturing and storing a plurality of images according to the execution of an application that uses a camera, for example, an image capture app. For example, the shooting mode for shooting multiple images simultaneously and saving them separately (hereinafter referred to as simultaneous shooting mode) can be selected through the camera's settings menu or through a menu (e.g. toggle switch) provided on the shooting app. there is.

다양한 실시예에 따르면 프로세서(220)는 동시 촬영 모드에 따라 복수개의 카메라 중 촬영을 수행할 둘 이상의 카메라를 선택하기 위한 사용자 인터페이스를 제공할 수 있다. 예를 들면 프로세서(220)는 제1 카메라(231), 제2 카메라(232) 및 제3 카메라(233))를 포함하는 복수개의 카메라 중 둘 이상의 카메라를 선택하기 위한 아이콘을 표시할 수 있다. 예를 들면 프로세서(220)는 제1 카메라(231), 제2 카메라(232) 및 제3 카메라(233))를 포함하는 복수개의 카메라로부터 입력되는 영상에 대한 프리뷰 이미지를 각각 예를 들면 썸네일 형태로 디스플레이(240)에 표시할 수 있다. 예를 들면 프로세서(230)는 복수개의 썸네일 프리뷰 이미지 중 선택된 둘 이상의 카메라를 통해 영상을 촬영하도록 할 수 있다. According to various embodiments, the processor 220 may provide a user interface for selecting two or more cameras to perform shooting among a plurality of cameras according to a simultaneous shooting mode. For example, the processor 220 may display an icon for selecting two or more cameras among a plurality of cameras including the first camera 231, the second camera 232, and the third camera 233. For example, the processor 220 displays preview images of images input from a plurality of cameras including the first camera 231, the second camera 232, and the third camera 233, for example, in the form of thumbnails. It can be displayed on the display 240. For example, the processor 230 may capture images through two or more cameras selected from among a plurality of thumbnail preview images.

다양한 실시예에 따르면 프로세서(220)는 동시 촬영 모드로 동일한 시작 시점과 종료 시점에 따라 촬영된 둘 이상의 카메라 영상을 실시간으로 처리하고 영상 포맷에 따라 관련성 있는 독립된 영상 파일로 각각 또는 하나의 파일로 통합하여 메모리(210)에 저장할 수 있다. 이하, 둘 이상의 카메라 영상이 복수개의 독립된 영상 파일로 저장되는 경우에 대해 보다 상세히 설명하나 실시예들은 이에 한정되지 않으며, 하나의 파일로 통합하여 저장되는 경우에 대해서도 적용될 수 있다. According to various embodiments, the processor 220 processes two or more camera images captured according to the same start and end point in real time in a simultaneous shooting mode and integrates them into independent image files that are related depending on the image format, respectively, or into one file. This can be stored in the memory 210. Hereinafter, the case where two or more camera images are stored as a plurality of independent image files will be described in more detail, but the embodiments are not limited to this and can also be applied to the case where images from two or more cameras are stored together as a single file.

다양할 실시예에 따르면 프로세서(220)는 영상 파일 저장시 해당 영상에 대한 촬영 정보, 예를 들면 화각 정보 또는 카메라의 위치 정보(촬영 각도 및/또는 방향 포함)를 포함하는 카메라 정보와 같은 다양한 정보를 파일 부가 정보로서 저장할 수 있다. 또한 프로세서(220)는 영상 파일들에 대해 상호 연관성을 나타내는 구분자 또는 식별자와 같은 정보를 파일 부가 정보로서 저장할 수 있다. 영상 파일에 대한 시간 정보, 카메라 화각 또는 위치 정보, 촬영 각도 및/또는 방향 정보, 상호 연관성 정보와 같은 부가 정보는 각 영상 파일에 첨부 및/또는 별도의 파일로서 메모리(210)에 저장될 수 있다. 예를 들면 메모리(210)의 컨텐츠 관리 허브(content management hub)와 같은 별도 관리 정보 저장 파일에 각 영상의 저장 위치(path)와 함께 카메라 위치 정보 및 화각 정보와 같은 촬영 정보(예: 전면 'Directorsview_Front', 광각 'Directorsview_Wide')를 저장할 수 있다. According to various embodiments, when saving an image file, the processor 220 stores various information such as shooting information for the corresponding image, for example, camera information including angle of view information or camera location information (including shooting angle and/or direction). can be saved as file additional information. Additionally, the processor 220 may store information, such as a separator or identifier indicating correlation between image files, as additional file information. Additional information such as time information, camera angle of view or position information, shooting angle and/or direction information, and correlation information for the video file may be attached to each video file and/or stored in the memory 210 as a separate file. . For example, shooting information such as camera position information and angle of view information along with the storage location (path) of each image in a separate management information storage file such as the content management hub of the memory 210 (e.g., front 'Directorsview_Front') ', wide angle 'Directorsview_Wide') can be saved.

다양한 실시예에 따르면 프로세서(220)는 영상 재생을 위한 앱 실행(예: 갤러리 앱, 동영상 재생 앱)에 따라, 관련성 있는 파일로 저장된 둘 이상의 영상 파일을 디스플레이(240)에 표시하고, 둘 이상의 영상 파일 중 선택된 파일의 영상을 디스플레이(240)를 통해 재생하도록 할 수 있다. 예를 들면 프로세서(220)는 관련된 둘 이상의 영상 파일을 디스플레이(240)에 표시할 때 둘 이상의 영상 파일이 관련된 파일임을 표시할 수 있다. 프로세서(22)는 관련된 파일의 표시를, 예를 들면 동시 촬영 모드를 나타내는 아이콘 및/또는 연속되는 숫자를 포함하는 아이콘을 해당 파일들을 나타내는 썸네일들 상에 표시 및/또는 썸네일들을 하나의 테두리 또는 박스로 묶음 표시와 같은 다양한 방식으로 수행할 수 있다. According to various embodiments, the processor 220 displays two or more video files stored as related files on the display 240 according to the execution of an app for video playback (e.g., gallery app, video playback app), and displays two or more video files stored as related files on the display 240. The video of a selected file among files can be played through the display 240. For example, when displaying two or more related image files on the display 240, the processor 220 may indicate that the two or more image files are related files. The processor 22 displays related files, for example, an icon representing a simultaneous shooting mode and/or an icon containing consecutive numbers on the thumbnails representing the files, and/or divides the thumbnails into a border or box. This can be done in a variety of ways, such as grouping.

다양한 실시예에 따르면 프로세서(220)는 입력 센서(미도시)를 포함하는 디스플레이(240)를 통해 복수의 관련된 동영상 파일 중 하나의 동영상 파일의 선택 및 재생, 중단 또는 관련된 다른 동영상 파일로 전환 명령을 포함하는 제어 신호를 수신할 수 있다.According to various embodiments, the processor 220 commands commands to select and play, stop, or switch to another related video file one of a plurality of related video files through a display 240 that includes an input sensor (not shown). A control signal containing can be received.

다양한 실시예에 따르면 프로세서(220)는 관련된 둘 이상의 영상 파일 중 선택된 파일을 디스플레이(240)를 통해 재생하면서 재생되는 영상이 동시 촬영 모드에 따라 촬영된 영상임과 동시 촬영된 다른 영상이 있음을 나타낼 수 있다. 예를 들어 프로세서(220)는 선택된 영상 파일을 디스플레이(240)를 통해 큰 화면 또는 전체 화면으로 재생하면서 다른 영상 파일을 프리뷰 형태로 썸네일과 같은 작은 화면으로 큰 화면의 일부에 표시할 수 있다. 예를 들어 프로세서(220)는 선택된 영상 파일을 디스플레이(240)를 통해 큰 화면 또는 전체 화면으로 재생하면서 화면 상단에 동시 촬영 모드를 나타내는 아이콘을 표시하거나 캐러셀 형태(예: 동일 공간에 복수의 파일 각각을 나타내는 이미지 및/또는 텍스트를 한번에 하나씩 표시하여 복수의 파일이 존재함을 표시할 수 있음)의 그래픽 유저 인터페이스를 제공하여 동시 촬영된 다른 영상 파일이 있음을 표시할 수 있다. According to various embodiments, the processor 220 plays a file selected among two or more related video files through the display 240, indicating that the image being played is an image captured according to the simultaneous shooting mode and that there is another image captured simultaneously. You can. For example, the processor 220 may play the selected video file on a large screen or full screen through the display 240 while displaying other video files in a preview form on a small screen, such as a thumbnail, on a portion of the large screen. For example, the processor 220 plays the selected video file on a large screen or full screen through the display 240, while displaying an icon indicating the simultaneous shooting mode at the top of the screen or in a carousel format (e.g., multiple files in the same space). A graphical user interface (which can indicate the existence of a plurality of files by displaying images and/or text representing each one at a time) can be provided to indicate that there are other image files captured simultaneously.

다양한 실시예에 따르면 프로세서(220)는 관련된 둘 이상의 영상 파일 중 선택된 파일을 시간 정보에 따라 재생하면서 둘 이상의 영상 파일 중 다른 파일로의 전환 명령을 수신하면, 재생 중인 영상 파일의 재생을 중단하고 중단된 영상 파일의 재생 시간 정보에 따라 다른 파일의 영상을 재생하도록 할 수 있다. 예를 들면 프로세서(220)는 시작 시간 이후 영상 파일의 재생 중 전환 명령 수신 시점의 재생 시간이 15초인 경우, 전환 명령에 따라 재생 중인 영상 파일의 재생을 15초 지점에서 중단하고, 다른 영상 파일을 15초 지점에서 이어서 재생하도록 할 수 있다. According to various embodiments, the processor 220 plays a selected file among two or more related video files according to time information, and when receiving a command to switch to another file among the two or more video files, stops playing the video file being played. Depending on the playback time information of the video file, the video of another file can be played. For example, if the playback time at the time of receiving the change command during playback of the video file after the start time is 15 seconds, the processor 220 stops playback of the video file being played according to the change command at the 15 second point and plays another video file. You can continue playing at the 15 second mark.

도 3a는 다양한 실시예에 따른 제2형태를 포함하는 전자 장치의 펼침 상태(flat state 또는 unfolding state)를 도시한 전면 사시도이다.FIG. 3A is a front perspective view illustrating a flat state or unfolding state of an electronic device including a second type according to various embodiments.

도 3b는 다양한 실시예에 따른 도 3a의 펼침 상태에서, 전자장치의 전면을 도시한 평면도이다.FIG. 3B is a plan view illustrating the front of the electronic device in the unfolded state of FIG. 3A according to various embodiments.

도 3c는 다양한 실시예에 따른 도 3a의 펼침 상태에서, 전자 장치의 후면을 도시한 평면도이다.FIG. 3C is a plan view illustrating the rear of the electronic device in the unfolded state of FIG. 3A according to various embodiments.

도 3a 내지 도 3c를 참고하면, 전자 장치(300)는 힌지 장치(예: 도 3b의 힌지 장치(340))를 기준으로 서로에 대하여 마주보며 접히도록 회동 가능하게 결합되는 한 쌍의 하우징(310, 320)(예: 폴더블 하우징)을 포함할 수 있다. 어떤 실시예에서, 힌지 장치(예: 도 3b의 힌지 장치(340))는 X 축 방향으로 배치되거나, Y 축 방향으로 배치될 수 있다. 어떤 실시예에서, 힌지 장치(예: 도 3b의 힌지 장치(340))는 동일한 방향 또는 서로 다른 방향으로 폴딩되도록 2개 이상 배치될 수도 있다. 일 실시예에 따르면, 전자 장치(300)는 한 쌍의 하우징(310, 320)에 의해 형성된 영역에 배치되는 디스플레이(예: 도 2의 디스플레이(240)) 를 포함할 수 있다. 디스플레이(240)는 플렉서블 디스플레이(예: 폴더블(foldable) 디스플레이)의 형태를 가질 수 있다. 일 실시예에 따르면, 제1하우징(310)과 제2하우징(320)은 폴딩 축(축 A)을 중심으로 양측에 배치되고, 폴딩 축(축 A)에 대하여 실질적으로 대칭인 형상을 가질 수 있다. 일 실시예에 따르면, 제1하우징(310) 및 제2하우징(320)은 전자 장치(300)의 상태가 펼침 상태(flat state 또는 unfolding state)인지, 접힘 상태(folding state)인지, 또는 중간 상태(intermediate state)인지의 여부에 따라 서로 이루는 각도나 거리가 달라질 수 있다. Referring to FIGS. 3A to 3C, the electronic device 300 includes a pair of housings 310 that face each other and are rotatably coupled to be folded based on a hinge device (e.g., the hinge device 340 in FIG. 3B). , 320) (e.g., foldable housing). In some embodiments, the hinge device (eg, hinge device 340 in FIG. 3B) may be arranged in the X-axis direction or in the Y-axis direction. In some embodiments, two or more hinge devices (eg, hinge device 340 in FIG. 3B) may be arranged to fold in the same direction or in different directions. According to one embodiment, the electronic device 300 may include a display (eg, display 240 of FIG. 2) disposed in an area formed by a pair of housings 310 and 320. The display 240 may have the form of a flexible display (eg, a foldable display). According to one embodiment, the first housing 310 and the second housing 320 are disposed on both sides about the folding axis (axis A) and may have a shape that is substantially symmetrical with respect to the folding axis (axis A). there is. According to one embodiment, the first housing 310 and the second housing 320 are configured to determine whether the electronic device 300 is in a flat state or unfolding state, a folding state, or an intermediate state. Depending on whether they are in an intermediate state, the angle or distance between them may vary.

다양한 실시예에 따르면, 한 쌍의 하우징(310, 320)은 힌지 장치(예: 도 3b의 힌지 장치(340))와 결합되는 제1하우징(310)(예: 제1하우징 구조) 및 힌지 장치(예: 도 3b의 힌지 장치(340))와 결합되는 제2하우징(320)(예: 제2하우징 구조)을 포함할 수 있다. 일 실시예에 따르면, 제1하우징(310)은, 펼침 상태에서, 제1방향(예: 전면 방향)(z 축 방향)을 향하는 제1면(311) 및 제1면(311)과 대향되는 제2방향(예: 후면 방향)(-z 축 방향)을 향하는 제2면(312)을 포함할 수 있다. 일 실시예에 따르면, 제2하우징(320)은 펼침 상태에서, 제1방향(z 축 방향)을 향하는 제3면(321) 및 제2방향(- z 축 방향)을 향하는 제4면(322)을 포함할 수 있다. 일 실시예에 따르면, 전자 장치(300)는, 펼침 상태에서, 제1하우징(310)의 제1면(311)과 제2하우징(320)의 제3면(321)이 실질적으로 동일한 제1방향(z 축 방향)을 향하고, 접힘 상태에서 제1면(311)과 제3면(321)이 서로 마주보는 방식으로 동작될 수 있다. 일 실시예에 따르면, 전자 장치(300)는, 펼침 상태에서, 제1하우징(310)의 제2면(312)과 제2하우징(320)의 제4면(322)이 실질적으로 동일한 제2방향(- z 축 방향)을 향하고, 접힘 상태에서 제2면(312)과 제4면(322)이 서로 반대 방향을 향하도록 동작될 수 있다. 예를 들면, 접힘 상태에서 제2면(312)은 제1방향(z 축 방향)을 향할 수 있고, 제4면(322)은 제2방향(- z 축 방향)을 향할 수 있다.According to various embodiments, the pair of housings 310 and 320 includes a first housing 310 (e.g., a first housing structure) coupled with a hinge device (e.g., the hinge device 340 in FIG. 3B) and a hinge device. It may include a second housing 320 (e.g., a second housing structure) coupled to (e.g., the hinge device 340 of FIG. 3B). According to one embodiment, the first housing 310, in the unfolded state, has a first surface 311 facing in a first direction (e.g., front direction) (z-axis direction) and a first surface 311 facing the first surface 311. It may include a second surface 312 facing a second direction (eg, rear direction) (-z axis direction). According to one embodiment, in the unfolded state, the second housing 320 has a third side 321 facing the first direction (z-axis direction) and a fourth side 322 facing the second direction (-z-axis direction). ) may include. According to one embodiment, the electronic device 300, in the unfolded state, has a first surface 311 of the first housing 310 and a third surface 321 of the second housing 320 that are substantially the same. It may be operated in such a way that it faces the direction (z-axis direction) and the first surface 311 and the third surface 321 face each other in the folded state. According to one embodiment, the electronic device 300, in the unfolded state, has a second surface 312 of the first housing 310 and a fourth surface 322 of the second housing 320 that are substantially the same. direction (-z-axis direction), and in the folded state, the second surface 312 and the fourth surface 322 may be operated to face opposite directions. For example, in the folded state, the second side 312 may face a first direction (z-axis direction), and the fourth side 322 may face a second direction (-z-axis direction).

다양한 실시예에 따르면, 제1하우징(310)은 적어도 부분적으로 전자 장치(300)의 외관을 형성하는 제1측면 부재(313) 및 제1측면 부재(313)와 결합되고, 전자 장치(300)의 제2면(312)의 적어도 일부를 형성하는 제1후면 커버(314)를 포함할 수 있다. 일 실시예에 따르면, 제1측면 부재(313)는 제1측면(313a), 제1측면(313a)의 일단으로부터 연장되는 제2측면(313b) 및 제1측면(313a)의 타단으로부터 연장되는 제3측면(313c)을 포함할 수 있다. 일 실시예에 따르면, 제1측면 부재(313)은 제1측면(313a), 제2측면(313b) 및 제3측면(313c)을 통해 장방형(예: 정사각형 또는 직사각형) 형상으로 형성될 수 있다. According to various embodiments, the first housing 310 is coupled to the first side member 313 and the first side member 313, which at least partially forms the exterior of the electronic device 300, It may include a first rear cover 314 that forms at least a portion of the second surface 312 of . According to one embodiment, the first side member 313 includes a first side 313a, a second side 313b extending from one end of the first side 313a, and a second side extending from the other end of the first side 313a. It may include a third side 313c. According to one embodiment, the first side member 313 may be formed into a rectangular (e.g., square or rectangular) shape through the first side 313a, the second side 313b, and the third side 313c. .

다양한 실시예에 따르면, 제2하우징(320)은 적어도 부분적으로 전자 장치(300)의 외관을 형성하는 제2측면 부재(323) 및 제2측면 부재(323)과 결합되고, 전자 장치(300)의 제4면(322)의 적어도 일부를 형성하는 제2후면 커버(324)를 포함할 수 있다. 일 실시예에 따르면, 제2측면 부재(323)은 제4측면(323a), 제4측면(323a)의 일단으로부터 연장되는 제5측면(323b) 및 제4측면(323a)의 타단으로부터 연장되는 제6측면(323c)을 포함할 수 있다. 일 실시예에 따르면, 제2측면 부재(323)은 제4측면(323a), 제5측면(323b) 및 제6측면(323c)을 통해 장방형 형상으로 형성될 수 있다. According to various embodiments, the second housing 320 is coupled to the second side member 323 and the second side member 323, which at least partially forms the exterior of the electronic device 300, It may include a second rear cover 324 forming at least a portion of the fourth surface 322 of . According to one embodiment, the second side member 323 includes a fourth side 323a, a fifth side 323b extending from one end of the fourth side 323a, and a fifth side 323b extending from the other end of the fourth side 323a. It may include a sixth side 323c. According to one embodiment, the second side member 323 may be formed into a rectangular shape through the fourth side 323a, the fifth side 323b, and the sixth side 323c.

다양한 실시예에 따르면, 한 쌍의 하우징(310, 320)은 도시된 형태 및 결합으로 제한되지 않으며, 다른 형상이나 부품의 조합 및/또는 결합에 의해 구현될 수 있다. 예를 들어, 어떤 실시예에서는, 제1측면 부재(313)은 제1후면 커버(314)와 일체로 형성될 수 있고, 제2측면 부재(323)은 제2후면 커버(324)와 일체로 형성될 수 있다.According to various embodiments, the pair of housings 310 and 320 is not limited to the shape and combination shown, and may be implemented by combining and/or combining other shapes or parts. For example, in some embodiments, the first side member 313 may be formed integrally with the first rear cover 314, and the second side member 323 may be formed integrally with the second rear cover 324. can be formed.

다양한 실시예에 따르면, 전자 장치(300)는, 펼침 상태에서, 제1측면 부재(313)의 제2측면(313b)과 제2측면 부재(323)의 제5측면(323b)이 어떠한 갭(gap) 없이 연결될 수 있다. 일 실시예에 따르면, 전자 장치(300)는, 펼침 상태에서, 제1측면 부재(313)의 제3측면(313c)과 제2측면 부재(323)의 제6측면(323c)이 어떠한 갭(gap) 없이 연결될 수 있다. 일 실시예에 따르면, 전자 장치(300)는, 펼침 상태에서, 제2측면(313b)과 제5측면(323b)의 합한 길이가 제1측면(313a) 및/또는 제4측면(323a)의 길이보다 길도록 구성될 수 있다. 또한, 제3측면(313c)과 제6측면(323c)의 합한 길이가 제1측면(313a) 및/또는 제4측면(323a)의 길이보다 길도록 구성될 수 있다.According to various embodiments, in the unfolded state, the electronic device 300 has a certain gap between the second side 313b of the first side member 313 and the fifth side 323b of the second side member 323. It can be connected without a gap. According to one embodiment, when the electronic device 300 is unfolded, the third side 313c of the first side member 313 and the sixth side 323c of the second side member 323 have a certain gap ( It can be connected without a gap. According to one embodiment, in the unfolded state, the electronic device 300 has a total length of the second side 313b and the fifth side 323b that is longer than that of the first side 313a and/or the fourth side 323a. It may be configured to be longer than the length. Additionally, the total length of the third side 313c and the sixth side 323c may be longer than the length of the first side 313a and/or the fourth side 323a.

다양한 실시예에 따르면, 제1후면 커버(314) 및/또는 제2후면 커버(324)는, 예를 들어, 코팅 또는 착색된 유리, 세라믹, 폴리머 또는 금속(예: 알루미늄, 스테인레스 스틸(STS), 또는 마그네슘) 중 적어도 하나 또는 적어도 둘의 조합에 의하여 형성될 수 있다. According to various embodiments, the first rear cover 314 and/or the second rear cover 324 may be, for example, coated or colored glass, ceramic, polymer, or metal (e.g., aluminum, stainless steel (STS)). , or magnesium) or a combination of at least two.

다양한 실시예에 따르면, 디스플레이(240)는 제1하우징(310)의 제1면(311)으로부터 힌지 장치(예: 도 3b의 힌지 장치(340))를 가로질러 제2하우징(320)의 제3면(321)의 적어도 일부까지 연장되도록 배치될 수 있다. 예를 들어, 디스플레이(240)는 실질적으로 제1면(311)과 대응하는 제1부분(330a), 제2면(321)과 대응하는 제2부분(330b) 및 제1부분(330a)과 제2부분(330b)을 연결하고, 힌지 장치(예: 도 3b의 힌지 장치(340))와 대응하는 제3부분(330c)(예: 굴곡 가능 영역)을 포함할 수 있다. 일 실시예에 따르면, 전자 장치(300)는 제1하우징(310)의 가장자리를 따라 결합되는 제1보호 커버(315)(예: 제1보호 프레임 또는 제1장식 부재)를 포함할 수 있다. 일 실시예에 따르면, 전자 장치(300)는 제2하우징(320)의 가장자리를 따라 결합되는 제2보호 커버(325)(예: 제2보호 프레임 또는 제2장식 부재)를 포함할 수 있다. 일 실시예에 따르면, 제1보호 커버(315) 및/또는 제2보호 커버(325)는 금속 또는 폴리머 재질로 형성될수 있다. 일 실시예에 따르면, 제1보호 커버(315) 및/또는 제2보호 커버(325)는 장식 부재(decoration member)로 사용될 수 있다. 일 실시예에 따르면, 디스플레이(240)는 제1부분(330a)의 가장자리가 제1하우징(310)과 제1보호 커버(315) 사이에 개재되도록 위치될 수 있다. 일 실시예에 따르면, 디스플레이(240)는 제2부분(330b)의 가장자리가 제2하우징(320)과 제2보호 커버(325) 사이에 개재되도록 위치될 수 있다. 일 실시예에 따르면, 디스플레이(240)는 힌지 장치(예: 도 3b의 힌지 장치(340))와 대응되는 영역에 배치되는 보호 캡(335)을 통해, 보호 캡에 대응되는 디스플레이(240)의 가장자리가 보호되도록 위치될 수 있다. 따라서, 디스플레이(240)는 실질적으로 가장자리가 외부로부터 보호될 수 있다. 일 실시예에 따르면, 전자 장치(300)는 힌지 장치(예: 도 3b의 힌지 장치(340))를 지지하고, 전자 장치(300)가 접힘 상태일 때, 외부로 노출되고, 펼힘 상태일 때, 제1공간(예: 제1하우징(310)의 내부 공간) 및 제2공간(예: 제2하우징(320)의 내부 공간)으로 인입됨으로써 외부로부터 보이지 않게 배치되는 힌지 하우징(341)(예: 힌지 커버)을 포함할 수 있다. 어떤 실시예에서, 디스플레이(240)는 제2면(312)의 적어도 일부로부터 제4면(322)의 적어도 일부까지 연장 배치될 수 있다. 이러한 경우, 전자 장치(300)는 디스플레이(240)가 외부로 노출될 수 있도록 접힐 수 있다(아웃 폴딩 방식).According to various embodiments, the display 240 is connected to the second housing 320 from the first side 311 of the first housing 310 across a hinge device (e.g., the hinge device 340 in FIG. 3B). It may be arranged to extend to at least part of the three sides 321. For example, the display 240 includes a first part 330a substantially corresponding to the first surface 311, a second part 330b corresponding to the second surface 321, and a first part 330a. It connects the second part 330b and may include a hinge device (eg, the hinge device 340 of FIG. 3B) and a corresponding third part 330c (eg, a bendable area). According to one embodiment, the electronic device 300 may include a first protective cover 315 (eg, a first protective frame or a first decorative member) coupled along an edge of the first housing 310. According to one embodiment, the electronic device 300 may include a second protective cover 325 (eg, a second protective frame or a second decorative member) coupled along an edge of the second housing 320. According to one embodiment, the first protective cover 315 and/or the second protective cover 325 may be formed of metal or polymer material. According to one embodiment, the first protective cover 315 and/or the second protective cover 325 may be used as a decoration member. According to one embodiment, the display 240 may be positioned so that the edge of the first portion 330a is interposed between the first housing 310 and the first protective cover 315. According to one embodiment, the display 240 may be positioned so that the edge of the second portion 330b is interposed between the second housing 320 and the second protective cover 325. According to one embodiment, the display 240 is connected to the display 240 corresponding to the protective cap through a protective cap 335 disposed in an area corresponding to a hinge device (e.g., the hinge device 340 in FIG. 3B). It can be positioned so that the edges are protected. Accordingly, the edges of the display 240 can be substantially protected from the outside. According to one embodiment, the electronic device 300 supports a hinge device (e.g., the hinge device 340 in FIG. 3B), is exposed to the outside when the electronic device 300 is in the folded state, and is exposed to the outside when the electronic device 300 is in the unfolded state. , the hinge housing 341 (e.g., disposed to be invisible from the outside by being introduced into the first space (e.g., the inner space of the first housing 310) and the second space (e.g., the inner space of the second housing 320) : Hinge cover) may be included. In some embodiments, the display 240 may extend from at least a portion of the second side 312 to at least a portion of the fourth side 322 . In this case, the electronic device 300 may be folded so that the display 240 is exposed to the outside (out-folding method).

다양한 실시예에 따르면, 전자 장치(300)는 디스플레이(240)와 별도로 배치되는 서브 디스플레이(331)를 포함할 수 있다. 일 실시예에 따르면, 서브 디스플레이(331)는 제1하우징(310)의 제2면(312)에 적어도 부분적으로 노출되도록 배치됨으로써, 접힘 상태일 경우, 디스플레이(240)의 표시 기능을 대체하는, 전자 장치(300)의 상태 정보를 표시할 수 있다. 일 실시예에 따르면, 서브 디스플레이(331)는 제1후면 커버(314)의 적어도 일부 영역을 통해 외부로부터 보일 수 있게 배치될 수 있다. 어떤 실시예에서, 서브 디스플레이(331)는 제2하우징(320)의 제4면(322)에 배치될 수도 있다. 이러한 경우, 서브 디스플레이(331)는 제2후면 커버(324)의 적어도 일부 영역을 통해 외부로부터 보일 수 있게 배치될 수 있다.According to various embodiments, the electronic device 300 may include a sub-display 331 disposed separately from the display 240. According to one embodiment, the sub-display 331 is disposed to be at least partially exposed to the second surface 312 of the first housing 310, thereby replacing the display function of the display 240 when in the folded state. Status information of the electronic device 300 may be displayed. According to one embodiment, the sub-display 331 may be arranged to be visible from the outside through at least a partial area of the first rear cover 314. In some embodiments, the sub-display 331 may be disposed on the fourth side 322 of the second housing 320. In this case, the sub-display 331 may be arranged to be visible from the outside through at least a partial area of the second rear cover 324.

다양한 실시예에 따르면, 전자 장치(300)는 입력 장치(303)(예: 마이크), 음향 출력 장치(301, 302), 센서 모듈(304), 카메라 장치(305, 308), 키 입력 장치(306) 또는 커넥터 포트(307) 중 적어도 하나를 포함할 수 있다. 도시된 실시예에서, 입력 장치(303)(예: 마이크), 음향 출력 장치(301, 302), 센서 모듈(304), 카메라 장치(305, 308), 키 입력 장치(306) 또는 커넥터 포트(307)는 제1하우징(310) 또는 제2하우징(320)에 형성된 홀 또는 형상을 지칭하고 있으나, 전자 장치(300)의 내부에 배치되고, 홀 또는 형상을 통해 동작하는 실질적인 전자 부품(예: 입력 장치, 음향 출력 장치, 센서 모듈 또는 카메라 장치)를 포함하도록 정의될 수 있다.According to various embodiments, the electronic device 300 includes an input device 303 (e.g., a microphone), an audio output device 301 and 302, a sensor module 304, a camera device 305 and 308, and a key input device ( It may include at least one of 306) or connector port 307. In the illustrated embodiment, an input device 303 (e.g., a microphone), an audio output device 301, 302, a sensor module 304, a camera device 305, 308, a key input device 306, or a connector port ( 307) refers to a hole or shape formed in the first housing 310 or the second housing 320, but is disposed inside the electronic device 300 and operates through the hole or shape. may be defined to include an input device, an audio output device, a sensor module, or a camera device).

다양한 실시예에 따르면, 입력 장치(303)는 제2하우징(320)에 배치되는 적어도 하나의 마이크(303)를 포함할 수 있다. 어떤 실시예에서, 입력 장치(303)는 소리의 방향을 감지할 수 있도록 배치되는 복수 개의 마이크(303)를 포함할 수 있다. 어떤 실시예에서, 복수 개의 마이크(303)는 제1하우징(310) 및/또는 제2하우징(320)에서 적절한 위치에 배치될 수 있다. 일 실시예에 따르면, 음향 출력 장치(301, 302)는 스피커들(301, 302)을 포함할 수 있다. 일 실시예에 따르면, 스피커들(301, 302)은, 제1하우징(310)에 배치되는 통화용 리시버(301)와 제2하우징(320)에 배치되는 스피커(302)를 포함할 수 있다. 어떤 실시예에서, 입력 장치(303), 음향 출력 장치(301, 302) 및 커넥터 포트(307)는 전자 장치(300)의 제1하우징(310) 및/또는 제2하우징(320)에 마련된 공간에 배치되고, 제1하우징(310) 및/또는 제2하우징(320)에 형성된 적어도 하나의 홀을 통하여 외부 환경에 노출될 수 있다. 일 실시예에 따르면, 적어도 하나의 커넥터 포트(307)는, 외부 전자 장치와 전력 및/또는 데이터를 송수신하기 위하여 사용될 수 있다. 어떤 실시예에서, 적어도 하나의 커넥터 포트(예: 이어잭 홀)는 외부 전자 장치와 오디오 신호를 송수신하기 위한 커넥터(예: 이어잭)를 수용할 수도 있다. 어떤 실시예에서, 제1하우징(310) 및/또는 제2하우징(320)에 형성된 홀은 입력 장치(303) 및 음향 출력 장치(301, 302)를 위하여 공용으로 사용될 수 있다. 어떤 실시예에서는 음향 출력 장치(301, 302)는 제1하우징(310) 및/또는 제2하우징(320)에 형성된 홀이 배제된 채, 동작되는 스피커(예: 피에조 스피커)를 포함할 수도 있다.According to various embodiments, the input device 303 may include at least one microphone 303 disposed in the second housing 320. In some embodiments, the input device 303 may include a plurality of microphones 303 arranged to detect the direction of sound. In some embodiments, a plurality of microphones 303 may be placed at appropriate positions in the first housing 310 and/or the second housing 320. According to one embodiment, the sound output devices 301 and 302 may include speakers 301 and 302. According to one embodiment, the speakers 301 and 302 may include a call receiver 301 disposed in the first housing 310 and a speaker 302 disposed in the second housing 320. In some embodiments, the input device 303, the audio output devices 301 and 302, and the connector port 307 are space provided in the first housing 310 and/or the second housing 320 of the electronic device 300. and may be exposed to the external environment through at least one hole formed in the first housing 310 and/or the second housing 320. According to one embodiment, at least one connector port 307 may be used to transmit and receive power and/or data with an external electronic device. In some embodiments, at least one connector port (eg, ear jack hole) may accommodate a connector (eg, ear jack) for transmitting and receiving audio signals to and from an external electronic device. In some embodiments, the hole formed in the first housing 310 and/or the second housing 320 may be commonly used for the input device 303 and the audio output devices 301 and 302. In some embodiments, the sound output devices 301 and 302 may include a speaker (e.g., a piezo speaker) that operates without the hole formed in the first housing 310 and/or the second housing 320. .

다양한 실시예에 따르면, 센서 모듈(304)은, 전자 장치(300)의 내부의 작동 상태, 또는 외부의 환경 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 센서 모듈(304)은, 예를 들어, 제1하우징(310)의 제1면(311)을 통해 외부 환경을 검출할 수 있다. 어떤 실시예에서, 전자 장치(300)는 제1하우징(310)의 제2면(312)을 통해 외부 환경을 검출하도록 배치되는 적어도 하나의 센서 모듈을 더 포함할 수도 있다. 일 실시예에 따르면, 센서 모듈(304)(예: 조도 센서)은 디스플레이(240) 아래에서, 디스플레이(240)를 통해 외부 환경을 검출하도록 배치될 수 있다. 일 실시예에 따르면, 센서 모듈(304)은 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 조도 센서, 근접 센서, 생체 센서, 초음파 센서 또는 조도 센서(304) 중 적어도 하나를 포함할 수 있다.According to various embodiments, the sensor module 304 may generate an electrical signal or data value corresponding to the internal operating state of the electronic device 300 or the external environmental state. The sensor module 304 may detect the external environment through, for example, the first surface 311 of the first housing 310. In some embodiments, the electronic device 300 may further include at least one sensor module disposed to detect the external environment through the second surface 312 of the first housing 310. According to one embodiment, the sensor module 304 (eg, an illumination sensor) may be disposed below the display 240 to detect the external environment through the display 240 . According to one embodiment, the sensor module 304 includes a gesture sensor, a gyro sensor, a barometric pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a color sensor, an IR (infrared) sensor, a biometric sensor, a temperature sensor, a humidity sensor, and an illumination sensor. , it may include at least one of a proximity sensor, a biometric sensor, an ultrasonic sensor, or an illumination sensor 304.

다양한 실시예에 따르면, 카메라 장치들(305, 308)은, 제1하우징(310)의 제1면(311)에 배치되는 제1카메라 장치(305)(예: 전면 카메라 장치) 및 제1하우징(310)의 제2면(312)에 배치되는 제2카메라 장치(308)를 포함할 수 있다. 전자 장치(300)는 제2카메라 장치(308) 근처에 배치되는 플래시(309)를 더 포함할 수 있다. 일 실시예에 따르면, 카메라 장치(305, 308)는 하나 또는 복수의 렌즈들, 이미지 센서, 및/또는 이미지 시그널 프로세서를 포함할 수 있다. 플래시(309)는, 예를 들어, 발광 다이오드 또는 제논 램프(xenon lamp)를 포함할 수 있다. 일 실시예에 따르면, 카메라 장치(305, 308)는 2개 이상의 렌즈들(예: 광각 렌즈, 초광각 렌즈 또는 망원 렌즈) 및 이미지 센서들이 전자 장치(300)의 한 면(예: 제1면(311), 제2면(312), 제3면(321), 또는 제4면(322))에 위치하도록 배치될 수 있다. 어떤 실시예에서, 카메라 장치(305, 308)는 TOF(time of flight)용 렌즈들 및/또는 이미지 센서를 포함할 수도 있다. According to various embodiments, the camera devices 305 and 308 include a first camera device 305 (e.g., a front camera device) disposed on the first side 311 of the first housing 310 and the first housing. It may include a second camera device 308 disposed on the second surface 312 of 310 . The electronic device 300 may further include a flash 309 disposed near the second camera device 308. According to one embodiment, the camera devices 305 and 308 may include one or more lenses, an image sensor, and/or an image signal processor. Flash 309 may include, for example, a light emitting diode or a xenon lamp. According to one embodiment, the camera devices 305 and 308 include two or more lenses (e.g., a wide-angle lens, an ultra-wide-angle lens, or a telephoto lens) and image sensors that are positioned on one side (e.g., the first side) of the electronic device 300. 311), the second side 312, the third side 321, or the fourth side 322). In some embodiments, the camera devices 305 and 308 may include time of flight (TOF) lenses and/or an image sensor.

다양한 실시예에 따르면, 키 입력 장치(306)(예: 키 버튼)는, 제1하우징(310)의 제1측면 부재(313)의 제3측면(313c)에 배치될 수 있다. 어떤 실시예에서, 키 입력 장치(306)는 제1하우징(310)의 다른 측면들(313a, 313b) 및/또는 제2하우징(320)의 측면들(323a, 323b, 323c) 중 적어도 하나의 측면에 배치될 수도 있다. 어떤 실시예에서, 전자 장치(300)는 키 입력 장치(306)들 중 일부 또는 전부를 포함하지 않을 수 있고 포함되지 않은 키 입력 장치(306)는 디스플레이(240) 상에 소프트 키 등 다른 형태로 구현될 수도 있다. 어떤 실시예에서, 키 입력 장치(306)는 디스플레이(240)에 포함된 압력 센서를 이용하여 구현될 수도 있다.According to various embodiments, the key input device 306 (eg, key button) may be disposed on the third side 313c of the first side member 313 of the first housing 310. In some embodiments, the key input device 306 is connected to at least one of the different sides 313a, 313b of the first housing 310 and/or the sides 323a, 323b, and 323c of the second housing 320. It may also be placed on the side. In some embodiments, the electronic device 300 may not include some or all of the key input devices 306 and the key input devices 306 that are not included may be displayed on the display 240 in the form of soft keys, etc. It may be implemented. In some embodiments, key input device 306 may be implemented using a pressure sensor included in display 240.

다양한 실시예에 따르면, 카메라 장치들(305, 308) 중 일부 카메라 장치(예: 제1카메라 장치(305)) 또는 센서 모듈(304)은 디스플레이(240)를 통해 노출되도록 배치될 수 있다. 예컨대, 제1카메라 장치(305) 또는 센서 모듈(304)은 전자 장치(300)의 내부 공간에서, 디스플레이(240)에 적어도 부분적으로 형성된 오프닝(예: 관통홀)을 통해 외부 환경과 접할 수 있도록 배치될 수 있다. 다른 실시예로, 일부 센서 모듈(304)은 전자 장치(300)의 내부 공간에서 디스플레이(240)를 통해 시각적으로 노출되지 않고 그 기능을 수행하도록 배치될 수도 있다. 예컨대, 이러한 경우, 디스플레이(240)의, 센서 모듈과 대면하는 영역은 오프닝이 불필요할 수도 있다.According to various embodiments, some of the camera devices 305 and 308 (eg, the first camera device 305) or the sensor module 304 may be arranged to be exposed through the display 240. For example, the first camera device 305 or the sensor module 304 may come into contact with the external environment through an opening (e.g., a through hole) formed at least partially in the display 240 in the internal space of the electronic device 300. can be placed. In another embodiment, some sensor modules 304 may be arranged to perform their functions in the internal space of the electronic device 300 without being visually exposed through the display 240. For example, in this case, the area of the display 240 facing the sensor module may not require opening.

도 4a는, 비교 실시예에 따른 전자 장치가 동시 촬영 모드에 따라 복수개의 영상을 동시에 촬영하여 저장하는 상황을 도시한 것이다.FIG. 4A illustrates a situation in which an electronic device according to a comparative example simultaneously captures and stores a plurality of images according to a simultaneous capture mode.

도 4b는, 본 문서의 다양한 실시예들에 따른 전자 장치(예: 도 2a의 전자 장치(200))가 동시 촬영 모드에 따라 복수개의 영상을 동시에 촬영하여 저장하는 상황을 도시한 것이다.FIG. 4B illustrates a situation in which an electronic device (e.g., the electronic device 200 of FIG. 2A) according to various embodiments of this document simultaneously captures and stores a plurality of images according to a simultaneous capture mode.

도 4a에 따르면, 일반적인 전자 장치는 전면 카메라(예: 제 1 카메라) 및 후면 카메라(예: 제 2 카메라) 각각으로부터 촬영된 영상을 버퍼로 전달받을 수 있다. 일반적인 전자 장치는 각각의 카메라로부터 촬영된 영상을 저장하기 위한 버퍼를 포함할 수 있다. 일반적인 전자 장치는 전면 카메라(예: 제 1 카메라) 를 이용하여 촬영한 영상(431)에 대한 정보는 제 1 버퍼에 저장할 수 있다. 일반적인 전자 장치는 후면 카메라(예: 제 2 카메라) 를 이용하여 촬영한 영상(432)에 대한 정보는 제 2 버퍼에 저장할 수 있다. According to FIG. 4A, a general electronic device can receive images captured from each of the front camera (eg, first camera) and rear camera (eg, second camera) as a buffer. A typical electronic device may include a buffer for storing images captured by each camera. A general electronic device may store information about the image 431 captured using a front camera (eg, first camera) in a first buffer. A typical electronic device can store information about the image 432 captured using a rear camera (eg, a second camera) in a second buffer.

일반적인 전자 장치는 전면 카메라(예: 제 1 카메라)를 이용하여 촬영한 영상 및 후면 카메라(예: 제 2 카메라)를 이용하여 촬영한 영상을 PIP(picture in picture) 방식으로 표시할 수 있다(412a). PIP는 전면 카메라를 이용하여 촬영한 영상을, 후면 카메라를 이용하여 촬영한 영상 위에 오버레이하는 방식으로 디스플레이하는 방식을 의미할 수 있다. 일반적인 전자 장치는 반대로 후면 카메라(예: 제 2 카메라)를 이용하여 촬영한 영상 및 위에 전면 카메라(예: 제 1 카메라)를 이용하여 촬영한 영상을 PIP 방식으로 표시할 수도 있다. A typical electronic device can display an image captured using a front camera (e.g., a first camera) and an image captured using a rear camera (e.g., a second camera) in a picture in picture (PIP) manner (412a) ). PIP may refer to a method of displaying an image captured using a front camera by overlaying an image captured using a rear camera. Conversely, a typical electronic device may display an image captured using a rear camera (e.g., a second camera) and an image captured using a front camera (e.g., a first camera) using a PIP method.

일반적인 전자 장치는 전면 카메라(예: 제 1 카메라)를 이용하여 촬영한 영상(431)에서 특정 이벤트(salient event)를 감지할 수 있다. 특정 이벤트(salient event)는 지정된 시간 동안 촬영된 화면 상에 존재하지 않았던 물체가 갑자기 등장하는 상황(예: 풍경 촬영 중 갑자기 새가 화면에 등장하는 상황)을 의미할 수 있다. 새가 화면에 등장하는 상황은 일 예시일 뿐 특정 이벤트(salient event)의 종류는 이것으로 한정되는 것은 아니다.A general electronic device can detect a specific event (salient event) in the image 431 captured using a front camera (eg, first camera). A specific event (salient event) may mean a situation in which an object that did not exist on the screen captured for a specified time suddenly appears (for example, a situation in which a bird suddenly appears on the screen while shooting a landscape). The situation in which a bird appears on the screen is only an example, and the type of specific event (salient event) is not limited to this.

도 4a에 따르면, 일반적인 전자 장치는 전면 카메라(예: 제 1 카메라)를 이용하여 촬영한 영상(431)의 3번째 프레임(401)상에서 특정 이벤트(salient event)를 감지할 수 있다. 일반적인 전자 장치는 특정 이벤트(salient event)를 감지함에 대응하여, 제 1 버퍼에 특정 이벤트(salient event)를 감지시점을 지시하는 제 1 태그(tag)를 표시할 수 있다. 일반적인 전자 장치는 후면 카메라(예: 제 2 카메라)를 이용하여 촬영한 영상(432)의 2번째 프레임(403)상에서 특정 이벤트(salient event)를 감지할 수 있다. 일반적인 전자 장치는 특정 이벤트(salient event)를 감지함에 대응하여, 제 2 버퍼에 특정 이벤트(salient event)를 감지시점을 지시하는 제 2 태그(tag)를 표시할 수 있다.According to FIG. 4A, a general electronic device can detect a specific event (salient event) on the third frame 401 of an image 431 captured using a front camera (eg, first camera). In response to detecting a specific event (salient event), a general electronic device may display a first tag indicating a detection point of a specific event (salient event) in a first buffer. A general electronic device can detect a specific event (salient event) on the second frame 403 of the image 432 captured using a rear camera (eg, a second camera). In response to detecting a specific event (salient event), a general electronic device may display a second tag in a second buffer indicating a point in time at which the specific event (salient event) is detected.

일반적인 전자 장치는 전면 카메라(예: 제 1 카메라)를 이용하여 촬영한 영상(431) 및 후면 카메라(예: 제 2 카메라)를 이용하여 촬영한 영상(432)을 통합시킬 수 있다. 일반적인 전자 장치는 제 1 태그를 후면 카메라(예: 제 2 카메라)를 이용하여 촬영한 영상(432)에도 표시하는 과정이 필요할 수 있다. 일반적인 전자 장치는 제 2 태그를 전면 카메라(예: 제 1 카메라)를 이용하여 촬영한 영상(431)에도 표시하는 과정이 필요할 수 있다. A typical electronic device can integrate an image 431 captured using a front camera (eg, a first camera) and an image 432 captured using a rear camera (eg, a second camera). A general electronic device may require a process of displaying the first tag on the image 432 captured using a rear camera (eg, a second camera). A general electronic device may require a process of displaying a second tag on the image 431 captured using a front camera (eg, first camera).

또한, 일반적인 전자 장치는 전면 카메라(예: 제 1 카메라)를 이용하여 촬영한 영상(431) 및 후면 카메라(예: 제 2 카메라)를 이용하여 촬영한 영상(432)의 촬영 주기를 동일하게 조절하기 어려울 수 있다.In addition, a general electronic device adjusts the shooting cycle of the image 431 captured using a front camera (e.g., a first camera) and the image 432 captured using a rear camera (e.g., a second camera) to be the same. This can be difficult to do.

도 4b는, 본 문서의 다양한 실시예들에 따른 전자 장치(예: 도 2a의 전자 장치(200))가 동시 촬영 모드에 따라 복수개의 영상을 동시에 촬영하여 저장하는 상황을 도시한 것이다.FIG. 4B illustrates a situation in which an electronic device (e.g., the electronic device 200 of FIG. 2A) according to various embodiments of this document simultaneously captures and stores a plurality of images according to a simultaneous capture mode.

도 4b에 따르면, 다양한 실시예들에 따른 전자 장치(200)는 전면 카메라(예: 도 2a의 제 1 카메라(231)) 및 후면 카메라(예:도 2a의 제 2 카메라(232)) 각각으로부터 촬영된 영상을 버퍼(예: 도 2a의 버퍼(212))로 전달받을 수 있다. 전자 장치(200)는 각각의 카메라로부터 촬영된 영상을 저장하기 위한 버퍼(212)를 포함할 수 있다. 전자 장치(200)는 도 4a의 일반적인 전자 장치와는 다르게, 각각의 카메라로부터 촬영된 영상을 하나의 버퍼(또는 통합 버퍼) 상에 저장할 수 있다.According to FIG. 4B, the electronic device 200 according to various embodiments uses a front camera (e.g., the first camera 231 in FIG. 2a) and a rear camera (e.g., the second camera 232 in FIG. 2a), respectively. The captured image can be transmitted to a buffer (e.g., buffer 212 in FIG. 2A). The electronic device 200 may include a buffer 212 for storing images captured by each camera. Unlike the general electronic device of FIG. 4A, the electronic device 200 can store images captured from each camera in one buffer (or integrated buffer).

전자 장치(200)는 하나의 버퍼(212) 상에 각각의 카메라로부터 촬영된 영상을 저장할 수 있다. 전자 장치(200)는 하나의 버퍼(212)를 기준으로 특정 이벤트(salient event)검출, 버퍼 저장, 버퍼 관리 또는 타임스탬프(timestamp) 관리 중 적어도 어느 하나를 수행할 수 있다. 특정 이벤트(salient event)는 지정된 시간 동안 촬영된 화면 상에 존재하지 않았던 물체가 갑자기 등장하는 상황(예: 풍경 촬영 중 갑자기 새가 화면에 등장하는 상황)을 의미할 수 있다. 타임스탬프(timestamp)는 타임 라인 상의 특정 위치에 기재된 표식을 의미할 수 있다. 전자 장치(200)는 타임스탬프(timestamp)를 이용하여 어느 시점에 특정 이벤트가 존재했는지 지시하는 정보를 사용자에게 제공할 수 있다.The electronic device 200 may store images captured from each camera in one buffer 212. The electronic device 200 may perform at least one of detection of a specific event (salient event), buffer storage, buffer management, or timestamp management based on one buffer 212. A specific event (salient event) may mean a situation in which an object that did not exist on the screen captured for a specified time suddenly appears (for example, a situation in which a bird suddenly appears on the screen while shooting a landscape). A timestamp may refer to a mark written at a specific location on the timeline. The electronic device 200 may provide the user with information indicating at what point in time a specific event existed using a timestamp.

도 4b에 따르면, 전자 장치(200)는 제 1 카메라(231)로부터 촬영된 제 1 영상(431)의 3번째 프레임(405) 상에서 특정 이벤트를 감지할 수 있다. 또한, 전자 장치(200)는 제 2 카메라(232)로부터 촬영된 제 2 영상(432)의 3번째 프레임(407) 상에서 특정 이벤트를 감지할 수 있다. 전자 장치(200)는 특정 이벤트를 감지함에 대응하여 하나의 버퍼(212)상에 특정 이벤트 감지 시점을 기록할 수 있다. 전자 장치(200)는 버퍼(212)상에 제 1 영상(431) 및 제 2 영상(432)을 함께 저장 및 관리할 수 있다(412b). 전자 장치(200)는 버퍼(212)상에 저장된 제 1 영상(431)의 타임라인에 특정 이벤트 감지 시점(예: 제 3 프레임(405))을 표시하고, 제 2 영상(432) 영상의 타임라인에도 동시에 표시되도록 제어할 수 있다. 반대로 전자 장치(200)는 버퍼(212)상에 저장된 제 2 영상(432)의 타임라인에 특정 이벤트 감지 시점(예: 제 2 프레임(407))을 표시하고, 제 1 영상(431) 영상의 타임라인에도 동시에 표시되도록 제어할 수 있다.According to FIG. 4B, the electronic device 200 may detect a specific event on the third frame 405 of the first image 431 captured by the first camera 231. Additionally, the electronic device 200 may detect a specific event on the third frame 407 of the second image 432 captured by the second camera 232. The electronic device 200 may record a specific event detection point in one buffer 212 in response to detecting a specific event. The electronic device 200 may store and manage the first image 431 and the second image 432 together on the buffer 212 (412b). The electronic device 200 displays a specific event detection point (e.g., the third frame 405) on the timeline of the first image 431 stored in the buffer 212 and displays the time of the second image 432. You can control it to be displayed simultaneously on the line. Conversely, the electronic device 200 displays a specific event detection point (e.g., the second frame 407) on the timeline of the second image 432 stored in the buffer 212 and displays the You can control it to be displayed simultaneously on the timeline.

일 실시예에 따르면, 전자 장치(200)는 프로세서(220)의 제어 하에, 특정 이벤트 검출 시 이벤트 검출을 위해 제 1 카메라(231) 내지 제 3 카메라(233)를 이용하여 촬영된 화면들 중 어느 화면을 이용할지 지시하는 가중치(weight)를 조절할 수 있다. 전자 장치(200)는 가중치(weight)를 조절하여 타임 랩스 촬영을 위한 기준이 되는 카메라를 결정할 수 있다. 예를 들어, 전자 장치(200)는 제 1 카메라(231) 상에서 발생하는 특정 이벤트만을 기준으로 타임 랩스 촬영을 진행할 수 있다. 또는 전자 장치(200)는 제 2 카메라(232) 상에서 발생하는 특정 이벤트만을 기준으로 타임 랩스 촬영을 진행할 수 있다. 또는 전자 장치(200)는 제 1 카메라(231) 및 제 2 카메라(232) 상에서 발생하는 특정 이벤트를 모두 고려하여 타임 랩스 촬영을 진행할 수 있다.According to one embodiment, under the control of the processor 220, when a specific event is detected, the electronic device 200 selects any of the screens captured using the first to third cameras 231 to 233 to detect the event. You can adjust the weight that indicates whether to use the screen. The electronic device 200 may determine a camera that serves as a standard for time-lapse photography by adjusting the weight. For example, the electronic device 200 may perform time-lapse photography based only on a specific event that occurs on the first camera 231. Alternatively, the electronic device 200 may perform time-lapse photography based only on specific events that occur on the second camera 232. Alternatively, the electronic device 200 may perform time-lapse photography by considering all specific events that occur on the first camera 231 and the second camera 232.

일 실시예에 따르면, 전자 장치(200)는 프로세서(220)의 제어 하에, 제 1 카메라(231) 및 제 2 카메라(232) 상에서 촬영된 복수의 영상들이 동일한 시간 정보를 갖도록 만들 수 있다. 전자 장치(200)는 제 1 카메라(231) 및 제 2 카메라(232) 상에서 촬영된 영상들을 통합시킬 수 있다. According to one embodiment, the electronic device 200, under the control of the processor 220, can make a plurality of images captured on the first camera 231 and the second camera 232 have the same time information. The electronic device 200 may integrate images captured on the first camera 231 and the second camera 232.

전자 장치(200)는 통합 과정에서, 제 1 카메라(231) 및 제 2 카메라(232) 상에서 촬영된 영상들의 프레임을 동일하게 만들 수 있다. 예를 들어, 전자 장치(200)는 제 1 카메라(231) 및 제 2 카메라(232) 상에서 촬영된 영상들의 초당 프레임 수(frame per second, fps)를 동일하게 만들 수 있다. 또는 전자 장치(200)는 제 1 카메라(231) 및 제 2 카메라(232) 상에서 촬영된 영상들을 동기화시켜 같은 시점을 디스플레이하도록 만들 수 있다. 전자 장치(200)는 통합 과정에서, 영상들의 재생 시점 정보 및 타임스탬프를 획득할 수 있다. 전자 장치(200)는 영상들의 재생 시점 정보 및 타임스탬프에 기반하여, 제 1 카메라(231) 상에서 촬영된 제 1 영상(431)에서, 제 2 카메라(232) 상에서 촬영된 제 2 영상(432)으로 전환시킬 수 있다. 전자 장치(200)는 영상의 전환 과정에서, 원래 재생되고 있던 제 1 영상(431)의 frame index 를 유지할 수 있다. 전자 장치(200)는 frame index 를 유지하여 효율적으로 영상을 전환시킬 수 있다.During the integration process, the electronic device 200 may make the frames of images captured on the first camera 231 and the second camera 232 the same. For example, the electronic device 200 may make the frames per second (fps) of images captured on the first camera 231 and the second camera 232 the same. Alternatively, the electronic device 200 may synchronize images captured on the first camera 231 and the second camera 232 to display the same viewpoint. The electronic device 200 may obtain playback point information and timestamps of images during the integration process. The electronic device 200 selects the first image 431 captured on the first camera 231 and the second image 432 captured on the second camera 232 based on the playback point information and timestamp of the images. It can be converted to . During the video conversion process, the electronic device 200 may maintain the frame index of the first video 431 that was originally being played. The electronic device 200 can efficiently convert images by maintaining the frame index.

일 실시예에 따르면, 전자 장치(200)는 특정 이벤트가 발생함에 대응하여 특정 이벤트 발생 사실을 하나의 버퍼(212) 또는 메모리(210)를 이용하여 관리할 수 있다. 일반적인 전자 장치는 특정 이벤트 발생 사실을 지시하는 데이터를 전면 카메라의 영상 및 후면 카메라의 영상과 별도로 메모리 상에 따로 저장시킬 수 있다. 전자 장치는 일반적으로 사용자가 특정 시점에 태그(tag)를 추가함에 대응하여, 태그(tag)를 지시하는 데이터를 전면 카메라의 영상 및 후면 카메라의 영상과 별도로 메모리 상에 따로 저장시킬 수 있다. According to one embodiment, the electronic device 200 may manage the occurrence of a specific event using one buffer 212 or memory 210 in response to the occurrence of a specific event. A typical electronic device can store data indicating the occurrence of a specific event in memory separately from the front camera image and the rear camera image. In general, in response to a user adding a tag at a specific point in time, an electronic device can store data indicating the tag in memory separately from the image from the front camera and the image from the rear camera.

본 문서의 다양한 실시예들에 따른 전자 장치(200)는 특정 이벤트 발생 사실을 지시하는 데이터를 전면 카메라의 영상 및 후면 카메라의 영상과 별도로 저장하지 않고, 하나의 파일로 관리할 수 있다. 전자 장치(200)는 사용자가 특정 시점에 태그(tag)를 추가함에 대응하여, 하나의 파일에 태그(tag)를 지시하는 데이터를 추가시킬 수 있다. 전자 장치(200)는 특정 이벤트 발생 사실을 지시하는 데이터를 전면 카메라를 이용하여 촬영된 영상 및 후면 카메라를 이용하여 촬영된 영상에 각각 저장할 필요 없이 하나의 파일에 저장할 수 있다. 전자 장치(200)는 태그(tag)를 지시하는 데이터를 하나의 파일로 관리하여 하나의 영상에 태그가 추가되면, 반대쪽 카메라를 이용하여 촬영된 영상에도 태그가 추가되도록 제어할 수 있다. 전자 장치(200)는 하나의 카메라의 영상(예: 제 1 카메라(231)에서 촬영된 제 1 영상(431))에 태그(tag)를 추가함에 대응하여, 반대쪽 카메라의 영상(예: 제 2 카메라(232)에서 촬영된 제 2 영상(432))의 영상에도 동시에 태그(tag)가 추가되도록 제어할 수 있다.The electronic device 200 according to various embodiments of this document may manage data indicating the occurrence of a specific event as one file rather than storing it separately from the front camera image and the rear camera image. The electronic device 200 may add data indicating the tag to one file in response to the user adding a tag at a specific time. The electronic device 200 can store data indicating the occurrence of a specific event in a single file without having to store data separately in the image captured using the front camera and the image captured using the rear camera. The electronic device 200 manages data indicating a tag as a single file, and when a tag is added to one image, the electronic device 200 can control the tag to be added to the image captured using the opposite camera. In response to adding a tag to the image of one camera (e.g., the first image 431 captured by the first camera 231), the electronic device 200 adds an image of the opposite camera (e.g., the second image 431). A tag can be controlled to be added to the second image 432 captured by the camera 232 at the same time.

전자 장치(200)는 제 1 영상(431) 및 제 2 영상(432)을 검출 정보와 함께 동기화시켜 버퍼(212) 상에 저장할 수 있다. 검출 정보는 타임 라인 상에서 어떤 시점에 이벤트가 발생했는지 지시하는 시점 정보, 어떤 종류의 이벤트가 발생하였는지 지시하는 유형 정보 또는 어떤 카메라 상에서 이벤트가 발생했는지 지시하는 카메라 정보 중 적어도 어느 하나를 포함할 수 있다.The electronic device 200 may synchronize the first image 431 and the second image 432 with detection information and store them on the buffer 212. Detection information may include at least one of timing information indicating at what point in the timeline an event occurred, type information indicating what type of event occurred, or camera information indicating on which camera the event occurred. .

전자 장치(200)는 하나의 타임라인(timeline)을 공유하는 제 1 영상(431) 및 제 2 영상(432)을 통합시켜 재생시킬 수 있다. 전자 장치(200)는 제 1 영상(431) 및 제 2 영상(432) 중 어느 영상을 표시할지 결정할 수 있는 사용자 인터페이스를 제공할 수 있다. 전자 장치(200)는 사용자 선택에 기반하여 디스플레이(예: 도 2a의 디스플레이(240)) 상에서 재생되는 영상을 다르게 표시할 수 있다. 또는 전자 장치(200)는 사용자 선택에 기반하여 제 1 영상(431) 및 제 2 영상(432)을 다른 방식으로 표시할 수 있다. 예를 들어, 전자 장치(200)는 사용자 선택에 기반하여 제 1 영상(431) 및 제 2 영상(432)을 side by side 방식으로 디스플레이(240)상에 표시할 수 있다. 전자 장치(200)는 사용자 선택에 기반하여 제 1 영상(431)은 디스플레이(240)의 상단에 표시하고, 제 2 영상(432)은 디스플레이(240)의 하단에 표시할 수 있다.The electronic device 200 may integrate and play the first image 431 and the second image 432 that share one timeline. The electronic device 200 may provide a user interface that can determine which of the first image 431 and the second image 432 to display. The electronic device 200 may display images played on a display (eg, the display 240 of FIG. 2A) differently based on user selection. Alternatively, the electronic device 200 may display the first image 431 and the second image 432 in different ways based on user selection. For example, the electronic device 200 may display the first image 431 and the second image 432 on the display 240 in a side-by-side manner based on user selection. The electronic device 200 may display the first image 431 at the top of the display 240 and the second image 432 at the bottom of the display 240 based on user selection.

일 실시예에 따르면, 전자 장치(200)는 특정 이벤트가 발생한 시점을 타임라인 상에 표시할 수 있다. 전자 장치(200)는 사용자의 선택에 기반하여 영상 재생 시점을 특정 이벤트가 발생한 시점으로 변경할 수 있다. 전자 장치(200)는 사용자의 선택에 기반하여 제 1 영상(431) 또는 제 2 영상(432) 중 적어도 어느 하나를 재생시킬 수 있다.According to one embodiment, the electronic device 200 may display the time when a specific event occurs on a timeline. The electronic device 200 may change the video playback time to the time when a specific event occurs based on the user's selection. The electronic device 200 may play at least one of the first image 431 or the second image 432 based on the user's selection.

도 5는 다양한 실시예들에 따른 전자 장치의 복수개의 카메라를 이용한 영상 촬영 상황을 도시한 것이다.FIG. 5 illustrates an image capturing situation using a plurality of cameras of an electronic device according to various embodiments.

그림 531에서, 전자 장치(예: 도 2a의 전자 장치(200))는 후면부에 적어도 하나의 카메라(예: 도 2a의 제 1 카메라(231))를 포함할 수 있다. 전자 장치(200)는 프로세서(220)의 제어 하에, 전자 장치(200)의 후면 또는 제 1 면에 배치된 제 1 카메라(231)를 이용하여 영상을 촬영할 수 있다. 전자 장치(200)는 제 1 카메라(231)를 이용하여 촬영된 영상을 하나의 메모리(예: 도 2a의 메모리(210)) 또는 하나의 버퍼(예: 도 2a의 버퍼(212)) 상에 저장할 수 있다.In Figure 531, the electronic device (e.g., the electronic device 200 in FIG. 2A) may include at least one camera (e.g., the first camera 231 in FIG. 2A) on its rear side. The electronic device 200 may capture images using the first camera 231 disposed on the rear or first side of the electronic device 200 under the control of the processor 220. The electronic device 200 stores the image captured using the first camera 231 on one memory (e.g., memory 210 in FIG. 2A) or one buffer (e.g., buffer 212 in FIG. 2A). You can save it.

그림 532에서, 전자 장치(200)는 후면부에 적어도 하나의 카메라(예: 도 2a의 제 2 카메라(232))를 포함할 수 있다. 전자 장치(200)는 전자 장치(200)의 전면 또는 제 2 면에 배치된 제 2 카메라(232)를 이용하여 영상을 촬영할 수 있다. 전자 장치(200)는 제 2 카메라(232)를 이용하여 촬영된 영상을 하나의 메모리(210) 또는 하나의 버퍼(212) 상에 저장할 수 있다. 제 1 면 및 제 2 면은 전자 장치(200) 상에서 반대 방향 또는 서로 마주보는 방향에 위치할 수 있다.In Figure 532, the electronic device 200 may include at least one camera (eg, the second camera 232 in Figure 2A) on the rear side. The electronic device 200 may capture images using the second camera 232 disposed on the front or second side of the electronic device 200. The electronic device 200 may store an image captured using the second camera 232 in one memory 210 or one buffer 212. The first side and the second side may be located in opposite directions or facing each other on the electronic device 200.

프로세서(220)는 하나의 메모리(210) 또는 하나의 버퍼(212) 상에 저장된 복수의 영상들을 통합하여 관리하고, 사용자에게 편의기능을 제공할 수 있다. 이하 도 6a 내지 도 6d에서는 전자 장치(200) 사용자에게 제공하는 편의기능에 대해 설명될 것이다.The processor 220 can integrate and manage a plurality of images stored in one memory 210 or one buffer 212 and provide convenience functions to the user. Hereinafter, convenience functions provided to users of the electronic device 200 will be described in FIGS. 6A to 6D.

도 6a 내지 도 6d는 다양한 실시예에 따른 전자 장치의 복수개의 동영상을 상호 전환하여 재생하기 위한 사용자 인터페이스의 예들을 나타낸다.FIGS. 6A to 6D show examples of user interfaces for switching between and playing a plurality of videos of an electronic device according to various embodiments.

도 6a에 따르면, 전자 장치(예: 도 2a의 전자 장치(200))는 프로세서(예: 도 2a의 프로세서(220))의 제어 하에, 제 1 영상 및 제 2 영상의 특정 이벤트의 발생 시점을 확인할 수 있다. 제 1 영상은 제 1 카메라(631)로부터 촬영된 영상을 의미할 수 있다. 제 2 영상은 제 2 카메라(632)로부터 촬영된 영상을 의미할 수 있다. 제 1 카메라(631)는 전자 장치(200)의 제 1 면에 배치될 수 있다. 제 2 카메라(632)는 전자 장치(200)의 제 1 면과 반대인 제 2 면에 배치될 수 있다.According to FIG. 6A, an electronic device (e.g., the electronic device 200 of FIG. 2a) determines the occurrence time of a specific event of the first image and the second image under the control of a processor (e.g., the processor 220 of FIG. 2a). You can check it. The first image may refer to an image captured by the first camera 631. The second image may refer to an image captured by the second camera 632. The first camera 631 may be placed on the first side of the electronic device 200. The second camera 632 may be disposed on a second side of the electronic device 200 that is opposite to the first side.

도 6a에 따르면, 프로세서(220)는 제 1 영상에서 특정 이벤트(613a)를 감지함에 대응하여 제 1 카메라(631) 및 제 2 카메라(632)의 촬영 주기를 변경시킬 수 있다. 프로세서(220)는 제 1 영상 및 제 2 영상을 동기화 시켜, 동일한 재생 시점을 갖도록 제어할 수 있다. According to FIG. 6A, the processor 220 may change the capturing cycle of the first camera 631 and the second camera 632 in response to detecting a specific event 613a in the first image. The processor 220 can control the first video and the second video to have the same playback time by synchronizing them.

일 실시예에 따르면, 프로세서(220)는 제 1 영상 및 제 2 영상을 동기화하여 타임 라인을 동일하게 표시할 수 있다. 프로세서(220)는 메모리(예: 도 2a의 메모리(210)) 상에 저장된 사용 패턴 정보로부터 학습된 결과에 기초해서, 동영상의 편집 기준이 되는 적어도 하나의 객체를 결정할 수 있다.According to one embodiment, the processor 220 may synchronize the first image and the second image to display the same timeline. The processor 220 may determine at least one object that serves as an editing standard for the video based on a result learned from usage pattern information stored in a memory (e.g., memory 210 in FIG. 2A).

프로세서(220)는 타임 라인 상에 제 1 시점 또는 제 2 시점 중 적어도 어느 하나에 대한 인디케이터를 표시할 수 있다. 제 1 시점은 제 1 카메라(631)에 적어도 하나의 객체가 포함되는 시점을 의미할 수 있다. 제 2 시점은 제 2 카메라(632)에 적어도 하나의 객체가 포함되는 시점을 의미할 수 있다.The processor 220 may display an indicator for at least one of the first time point and the second time point on the timeline. The first viewpoint may mean a viewpoint at which at least one object is included in the first camera 631. The second viewpoint may mean a viewpoint at which at least one object is included in the second camera 632.

프로세서(220)는 제 1 영상의 제 2 프레임(613) 상에서 특정 이벤트(613a)를 감지할 수 있다. 프로세서(220)는 특정 이벤트(613a)를 감지함에 대응하여 제 2 프레임(613)의 재생 주기를 변경시킬 수 있다. 예를 들어, 제 2 프레임(613) 이전의 제 1 프레임(611)은 60 frame/sec 또는 1 frame/min 의 재생 주기를 가질 수 있다. 프로세서(220)는 특정 이벤트(613a)를 감지함에 대응하여 제 2 프레임(613)의 재생 주기를 제 1 프레임(611)의 주기보다 짧게 조절할 수 있다(예: 1 frame/sec). 프로세서(220)는 제 2 영상의 제 2 프레임(613)도 자동적으로 제 1 영상의 제 2 프레임(613)과 동일하게 주기를 변경시킬 수 있다. 언급된 재생 주기는 일 예시일 뿐 재생 주기가 이것으로 한정되는 것은 아니다. 프로세서(220)는 제 1 영상의 제 3 프레임(615)에서 특정 이벤트(613a)를 감지하지 못함에 대응하여, 제 3 프레임(615)의 재생 주기를 변경시킬 수 있다. 프로세서(220)는 제 3 프레임(615)의 재생 주기를 제 2 프레임(613)의 재생 주기보다 길게 변경시킬 수 있다.The processor 220 may detect a specific event 613a on the second frame 613 of the first image. The processor 220 may change the playback period of the second frame 613 in response to detecting a specific event 613a. For example, the first frame 611 before the second frame 613 may have a playback period of 60 frames/sec or 1 frame/min. In response to detecting a specific event 613a, the processor 220 may adjust the playback period of the second frame 613 to be shorter than that of the first frame 611 (eg, 1 frame/sec). The processor 220 may automatically change the period of the second frame 613 of the second image to be the same as that of the second frame 613 of the first image. The mentioned regeneration cycle is only an example and the regeneration cycle is not limited to this. The processor 220 may change the playback period of the third frame 615 in response to not detecting a specific event 613a in the third frame 615 of the first image. The processor 220 may change the playback period of the third frame 615 to be longer than that of the second frame 613.

프로세서(220)는 제 2 영상의 제 4 프레임(617) 상에서 특정 이벤트(617a)를 감지할 수 있다. 프로세서(220)는 제 4 프레임(617)의 재생 주기를 제 4 프레임(617) 이전의 제 2 프레임(615)의 재생 주기보다 상대적으로 짧게 변경할 수 있다. 프로세서(220)는 제 2 영상의 제 5 프레임(619) 상에서 특정 이벤트(619a)가 연속적으로 감지됨에 대응하여 변경된 재생 주기를 유지할 수 있다.The processor 220 may detect a specific event 617a on the fourth frame 617 of the second image. The processor 220 may change the playback period of the fourth frame 617 to be relatively shorter than the playback period of the second frame 615 before the fourth frame 617. The processor 220 may maintain a changed playback cycle in response to the specific event 619a being continuously detected on the fifth frame 619 of the second image.

카메라의 수, 재생 주기 및 특정 이벤트(619a)가 등장하는 프레임의 위치는 모두 일 예시일 뿐, 이것으로 한정되는 것은 아니다.The number of cameras, the playback cycle, and the position of the frame where the specific event 619a appears are all examples and are not limited thereto.

도 6b에 따르면, 프로세서(220)는 제 1 영상에서 특정 이벤트를 감지함에 대응하여 통합된 영상의 타임라인 상에 특정 이벤트가 포함되는 시점을 표시할 수 있다. 프로세서(220)는 태그(tag)의 형태로 통합된 영상의 타임라인 상에 특정 이벤트가 포함되는 시점을 표시할 수 있다.According to FIG. 6B, the processor 220 may display a point in time at which the specific event is included in the timeline of the integrated image in response to detecting a specific event in the first image. The processor 220 may display the point in time at which a specific event is included on the timeline of the integrated video in the form of a tag.

그림 621에서, 프로세서(220)는 디스플레이(예: 도 2a의 디스플레이(240))상의 터치 입력을 인식할 수 있다. 프로세서(220)는 타임라인 상의 터치 입력에 기반하여 영상의 재생 시점을 변경할 수 있다. 프로세서(220)는 태그(tag) 상의 터치 입력에 기반하여 영상의 재생 시점을 변경할 수 있다.In Figure 621, processor 220 may recognize a touch input on a display (e.g., display 240 in Figure 2A). The processor 220 may change the playback time of the image based on a touch input on the timeline. The processor 220 can change the playback time of the image based on a touch input on the tag.

그림 623에서, 프로세서(220)는 태그(tag) 상의 터치 입력에 기반하여 영상의 재생 시점을 특정 이벤트(623a)가 포함되는 시점으로 변경할 수 있다. 프로세서(220)는 태그(tag)를 이용하여, 사용자에게 특정 이벤트(623a)가 포함되는 시점을 지시하는 정보를 제공할 수 있다.In Figure 623, the processor 220 can change the video playback time to a time when a specific event 623a is included based on a touch input on the tag. The processor 220 may use a tag to provide the user with information indicating when a specific event 623a is included.

일 실시예에 따르면, 프로세서(220)는 동영상의 타임 라인 상에 제 1 시점에 대한 인디케이터를 표시할 수 있다. 제 1 시점은 제 1 카메라(631) 또는 제 2 카메라(632) 중 적어도 어느 하나에 적어도 하나의 객체가 포함됨에 대응하여 동영상의 타임라인(timeline)에 적어도 하나의 객체가 포함되기 시작하는 시점을 의미할 수 있다.According to one embodiment, the processor 220 may display an indicator for the first viewpoint on the timeline of the video. The first viewpoint refers to the point at which at least one object begins to be included in the timeline of the video in response to at least one object being included in at least one of the first camera 631 or the second camera 632. It can mean.

일 실시예에 따르면, 프로세서(220)는 인디케이터에 대한 사용자 입력에 기반하여, 동영상의 재생 시점을 제 1 시점으로 이동시킬 수 있다.According to one embodiment, the processor 220 may move the playback time of the video to the first view point based on the user input to the indicator.

도 6c에 따르면, 프로세서(220)는 타임 랩스 촬영 중 전자 장치(200)가 이동됨에 대응하여 타임 랩스 촬영을 이어서 진행하기 위한 사용자 인터페이스를 제공할 수 있다. 프로세서(220)는 타임 랩스 촬영이 중단 후 다시 진행됨에 대응하여, 이전 타임 랩스 촬영 정보를 이용할 수 있다. 타임 랩스 촬영 정보는 촬영에 사용된 제 1 카메라(631) 및 제 2 카메라(632)의 촬영 각도, 제 1 카메라(631) 및 제 2 카메라(632)의 촬영 시점 또는 제 1 카메라(631) 및 제 2 카메라(632)로 촬영된 영상 내 특정 이벤트 등장 시점 중 적어도 어느 하나를 포함할 수 있다. 프로세서(220)는 타임 랩스 촬영 정보에 기반하여, 사용자에게 일반적인 전자 장치와 비교하여 상대적으로 이전 촬영과 동일한 촬영 환경을 제공할 수 있다.According to FIG. 6C, the processor 220 may provide a user interface for continuing time-lapse photography in response to the electronic device 200 moving during time-lapse photography. The processor 220 may use previous time-lapse shooting information in response to time-lapse shooting being stopped and then resumed. Time-lapse shooting information includes the shooting angles of the first camera 631 and the second camera 632 used for shooting, the shooting time of the first camera 631 and the second camera 632, or the first camera 631 and It may include at least one of the points in time at which a specific event appears in the image captured by the second camera 632. Based on time-lapse shooting information, the processor 220 can provide the user with a shooting environment that is relatively the same as the previous shooting compared to a general electronic device.

도 6c에 따르면, 제 1 카메라(631) 로 촬영된 제 1 영상의 제 1 프레임(631a)이 표시되던 시점에 타임 랩스 촬영이 중단될 수 있다. 프로세서(220)는 제 1 프레임(631a)이 표시되던 시점에 타임 랩스 촬영이 중단되고, 다시 타임 랩스 촬영을 하기 위한 입력을 제공받을 수 있다. 프로세서(220)는 타임 랩스 촬영을 위한 입력에 기반하여 타임 랩스 촬영을 진행하기 위한 사용자 인터페이스를 제공할 수 있다. 사용자 인터페이스는 주변 물체들이 표시되는 각도(예: 지면으로부터 60도를 갖는 나무), 주변 물체들이 표시되는 구도(예: 지붕과 나무, 지붕과 항아리) 또는 주변 물체들이 표시되는 수(예: 4개의 항아리) 중 적어도 어느 하나에 대한 정보를 포함할 수 있다. 프로세서(220)는 사용자 인터페이스를 제공하여 사용자가 카메라의 위치 또는 전자 장치의 위치를 조정하도록 도움을 줄 수 있다. 예를 들어, 프로세서(220)는 이전 촬영과 비교하여 주변 물체들이 표시되는 각도가 다름을 지시하는 정보를 사용자에게 제공할 수 있다. 이것은 일 예시일 뿐, 사용자 인터페이스 상에서 표시되는 정보는 이것으로 한정되는 것은 아니다.According to FIG. 6C, time-lapse shooting may be stopped when the first frame 631a of the first image captured by the first camera 631 is displayed. The processor 220 may stop time-lapse shooting at the point when the first frame 631a is displayed, and may receive an input to start time-lapse shooting again. The processor 220 may provide a user interface for performing time-lapse photography based on input for time-lapse photography. The user interface determines the angle at which the surrounding objects are displayed (e.g. a tree at 60 degrees from the ground), the composition in which the surrounding objects are displayed (e.g. a roof and a tree, a roof and an urn), or the number of surrounding objects at which they are displayed (e.g. 4 jar) may contain information about at least one of the jars. Processor 220 may provide a user interface to help a user adjust the position of a camera or an electronic device. For example, the processor 220 may provide the user with information indicating that the angle at which surrounding objects are displayed is different compared to the previous capture. This is only an example, and the information displayed on the user interface is not limited to this.

일 실시예에 따르면, 프로세서(220)는 타임 랩스 촬영이 중단된 시점에 촬영된 제 1 이미지로부터 적어도 하나의 제 1 특징점을 추출하고, 타임 랩스 촬영을 재개하려는 시점에 촬영된 제 2 이미지로부터 적어도 하나의 제 2 특징점을 추출할 수 있다. 프로세서(220)는 제 1 특징점을 제 2 특징점과 비교하여 기울어진 정도 및 뒤틀어진 정도를 계산하고, 기울어진 정도 및 뒤틀어진 정도에 기반하여, 제 2 특징점이 제 1 특징점과 맵핑되도록 사용자 인터페이스를 제공할 수 있다.According to one embodiment, the processor 220 extracts at least one first feature point from the first image taken at the time when time-lapse shooting is stopped, and at least one first feature point from the second image taken at the time when time-lapse shooting is to be resumed. One second feature point can be extracted. The processor 220 calculates the degree of tilt and distortion by comparing the first feature point with the second feature point, and based on the degree of tilt and distortion, configures the user interface so that the second feature point is mapped with the first feature point. can be provided.

일 실시예에 따르면, 프로세서(220)는 사용자가 전자 장치(200)의 위치 또는 카메라의 위치를 조절하도록 사용자 인터페이스를 제공할 수 있다. 프로세서(220)는 사용자 인터페이스를 제공하여 사용자가 타임 랩스 촬영 중단 전과 같은 구도에서 촬영을 이어가도록 도움을 줄 수 있다.According to one embodiment, the processor 220 may provide a user interface to allow the user to adjust the position of the electronic device 200 or the position of the camera. The processor 220 may provide a user interface to help the user continue shooting in the same composition as before stopping time-lapse shooting.

일 실시예에 따르면, 프로세서(220)는 제 2 특징점이 제 1 특징점과 사전에 설정된 수준을 초과하여 맵핑됨에 기반하여 타임 랩스 촬영을 다시 시작할 준비가 되었음을 지시하는 정보를 디스플레이(예: 도 2a의 디스플레이(240)) 상에 표시할 수 있다.According to one embodiment, the processor 220 displays information indicating that time-lapse photography is ready to resume based on the second feature point being mapped to the first feature point by exceeding a preset level (e.g., in FIG. 2A). It can be displayed on the display 240).

일 실시예에 따르면, 프로세서(220)는 초점 거리, 피사체 거리, 촬영 방향, 줌 비율에 관한 정보 중 적어도 하나를 이용하여 제 1 특징점 및 제 2 특징점을 추출할 수 있다.According to one embodiment, the processor 220 may extract the first feature point and the second feature point using at least one of information about the focal length, subject distance, shooting direction, and zoom ratio.

일 실시예에 따르면, 프로세서(220)는 타임 랩스 촬영이 중단된 제 3 시점을 메모리(210) 상에 저장할 수 있다. 프로세서(220)는 타임 랩스 촬영을 재개하려는 입력에 기반하여, 제 3 시점과 타임 랩스 촬영을 재개하려는 제 4 시점 간의 차이에 대한 정보를 제공할 수 있다. According to one embodiment, the processor 220 may store the third point in time when time-lapse photography was stopped on the memory 210. The processor 220 may provide information about the difference between a third viewpoint and a fourth viewpoint to resume time-lapse photography, based on an input for resuming time-lapse photography.

일 실시예에 따르면, 프로세서(220)는 제 3 시점과 제 4 시점이 사전에 설정된 수준을 초과하여 일치함에 기반하여, 타임 랩스 촬영이 준비되었음을 지시하는 정보를 사용자에게 제공할 수 있다.According to one embodiment, the processor 220 may provide the user with information indicating that time-lapse photography is ready based on the fact that the third and fourth viewpoints match by exceeding a preset level.

도 6d에 따르면, 프로세서(220)는 태그(645) 상의 사용자 입력에 기반하여 디스플레이(240) 상에서 표시되는 영상을 변경시킬 수 있다. 프로세서(220)는 태그(645) 상의 사용자 입력에 기반하여 디스플레이(240) 상에서 표시되던 제 1 영상을 제 2 영상으로 변경시킬 수 있다. 제 1 영상은 전자 장치(200)의 전면 카메라에 의해 촬영되는 영상을 의미할 수 있다. 제 2 영상은 전자 장치(200)의 후면 카메라에 의해 촬영되는 영상을 의미할 수 있다.According to FIG. 6D, the processor 220 can change the image displayed on the display 240 based on the user input on the tag 645. The processor 220 may change the first image displayed on the display 240 to the second image based on the user input on the tag 645. The first image may refer to an image captured by the front camera of the electronic device 200. The second image may refer to an image captured by the rear camera of the electronic device 200.

프로세서(220)는 디스플레이(240) 상에 태그(645)를 표시하여 사용자에게 현재 표시되는 영상에 대한 정보(예: 전면 카메라에 의해 촬영된 영상인지 또는 후면 카메라에 의해 촬영된 영상인지)를 제공할 수 있다. 프로세서(220)는 태그(645) 상의 사용자 입력에 기반하여 디스플레이(240) 상에서 표시되는 영상을 변경시킬 수 있다.The processor 220 displays a tag 645 on the display 240 to provide the user with information about the image currently being displayed (e.g., whether the image is captured by the front camera or the rear camera). can do. The processor 220 may change the image displayed on the display 240 based on the user input on the tag 645.

다양한 실시예에 따르면 프로세서(220)는 제 1 영상의 재생을 중단하고, 제 2 영상을 재생시킬 수 있다. 이 경우 프로세서(220)는 제 1 영상의 재생이 중단되는 시점의 재생 시간 정보(640)에 대응하는 시점에서 제 2 영상이 재생되도록 제어할 수 있다.According to various embodiments, the processor 220 may stop playing the first image and play the second image. In this case, the processor 220 may control the second video to be played at a time corresponding to the playback time information 640 at the time when playback of the first video is stopped.

도 7은 다양한 실시예들에 따른 전자 장치의 촬영 방법을 순서도로 도시한 것이다.FIG. 7 is a flow chart illustrating a method of photographing an electronic device according to various embodiments.

도 7을 통하여 설명되는 동작들은 컴퓨터 기록 매체 또는 메모리(예: 도 2a의 메모리(210))에 저장될 수 있는 인스트럭션들 을 기반으로 구현될 수 있다. 도시된 방법(700)은 앞서 도 1 내지 도 6d를 통해 설명한 전자 장치(예: 도 2a의 전자 장치(200))에 의해 실행될 수 있으며, 앞서 설명한 바 있는 기술적 특징은 이하에서 생략하기로 한다.Operations described with reference to FIG. 7 may be implemented based on instructions that can be stored in a computer recording medium or memory (eg, memory 210 in FIG. 2A). The illustrated method 700 can be executed by the electronic device previously described with reference to FIGS. 1 to 6D (e.g., the electronic device 200 of FIG. 2A), and technical features described above will be omitted below.

동작 710에서, 프로세서(예: 도 2a의 프로세서(220))는 메모리(210) 상에 저장된 사용 패턴 정보로부터 학습된 결과에 기초해서, 동영상의 편집 기준이 되는 적어도 하나의 객체를 결정할 수 있다. 특정 이벤트(salient event)는 적어도 하나의 객체가 제 1 카메라(예: 도 2a의 제 1 카메라(231)) 또는 제 2 카메라(예: 도 2a의 제 2 카메라(232)) 중 적어도 어느 하나에 등장하는 이벤트를 의미할 수 있다. 제 1 카메라(231)는 전자 장치(200)의 하우징(미도시)을 기준으로 전면에 위치한 카메라를 의미할 수 있다. 제 2 카메라(232)는 전자 장치(200)의 하우징(미도시)을 기준으로 후면에 위치한 카메라를 의미할 수 있다.In operation 710, the processor (e.g., processor 220 of FIG. 2A) may determine at least one object that serves as an editing standard for the video based on a result learned from usage pattern information stored in the memory 210. A specific event (salient event) is when at least one object is detected by at least one of a first camera (e.g., the first camera 231 in FIG. 2A) or a second camera (e.g., the second camera 232 in FIG. 2A). It may mean an event that appears. The first camera 231 may refer to a camera located in the front of the housing (not shown) of the electronic device 200. The second camera 232 may refer to a camera located on the rear side of the housing (not shown) of the electronic device 200.

동작 720에서, 프로세서(220)는 제 1 카메라(231) 또는 제 2 카메라(232) 중 적어도 어느 하나에 적어도 하나의 객체가 포함됨에 대응하여 동영상의 타임라인(timeline)에 적어도 하나의 객체가 포함되기 시작하는 제 1 시점을 표시할 수 있다. 프로세서(220)는 타임라인(timeline) 상의 제 1 시점에 대한 사용자 입력에 기반하여 동영상의 재생 시점을 제 1 시점으로 이동시킬 수 있다. 프로세서(220)는 타임라인(timeline) 상에 제 1 시점을 표시하여 사용자에게 특정 이벤트(salient event)가 발생한 시점에 대한 정보를 제공할 수 있다.In operation 720, the processor 220 includes at least one object in the timeline of the video in response to at least one object being included in at least one of the first camera 231 or the second camera 232. It can indicate the first point in time when something starts to happen. The processor 220 may move the playback point of the video to the first point in time based on the user input for the first point in the timeline. The processor 220 may display a first point in time on a timeline to provide the user with information about when a specific event (salient event) occurred.

동작 730에서, 프로세서(220)는 제 1 카메라(231) 상에 적어도 하나의 객체가 포함됨에 대응하여 제 1 카메라(231)의 촬영 주기를 짧게 조절할 수 있다. 프로세서(220)는 제 1 카메라(231)의 촬영 주기를 짧게 변경시켜, 영상의 프레임 및 화질을 개선할 수 있다. 프로세서(220)는 특정 이벤트(salient event)가 발생하기 이전 시점에는 제 1 카메라(231)의 촬영 주기를 상대적으로 길게 유지시키며, 전력 소모 및 메모리(210)의 용량 소모를 줄일 수 있다. 프로세서(220)는 특정 이벤트(salient event)가 발생된 제 1 시점을 기준으로 제 1 카메라(231)의 촬영 주기를 짧게 변경시킬 수 있다. 프로세서(220)는 영상 내에서 적어도 하나의 객체가 포함됨에 대응하여 영상의 프레임 및 화질을 개선시켜 사용자에게 제공할 수 있다.In operation 730, the processor 220 may shorten the shooting cycle of the first camera 231 in response to the inclusion of at least one object on the first camera 231. The processor 220 can shorten the shooting cycle of the first camera 231 to improve the frame and quality of the image. The processor 220 maintains the shooting cycle of the first camera 231 relatively long before a specific event (salient event) occurs, and can reduce power consumption and capacity consumption of the memory 210. The processor 220 may shorten the shooting cycle of the first camera 231 based on the first time point when a specific event (salient event) occurs. The processor 220 may improve the frame and image quality of the image in response to the inclusion of at least one object in the image and provide the image to the user.

동작 735에서, 프로세서(220)는 제 1 카메라(231)의 촬영 주기를 짧게 조절함에 대응하여 제 2 카메라(232)의 촬영 주기를 제 1 카메라(231)의 촬영 주기와 동일하게 변경시킬 수 있다. 전자 장치는 일반적으로 복수의 카메라들의 영상들을 따로 저장시킬 수 있다. 전자 장치는 일반적으로 어느 하나의 카메라 상에서, 특정 이벤트(salient event)가 발생하여 카메라의 촬영 주기를 조절할 수 있다. 그러나 일반적인 전자 장치는 특정 이벤트(salient event)가 발생하지 않은 다른 카메라들의 촬영 주기를 자동으로 변경시키기 어려울 수 있다. 일반적인 전자 장치는 특정 이벤트(salient event)가 발생한 카메라에서 촬영한 제 1 영상 및 특정 이벤트(salient event)가 발생하지 않은 카메라에서 촬영한 제 2 영상을 사용자에게 제공할 수 있다. 이 때, 제 1 영상 및 제 2 영상의 촬영 주기는 다를 수 있다. 그래서 전면 카메라에서 촬영된 영상 및 후면 카메라에서 촬영된 영상은 프레임 및 화질이 다르게 생성될 수 있다. In operation 735, the processor 220 may change the shooting cycle of the second camera 232 to be the same as the shooting cycle of the first camera 231 in response to shortening the shooting cycle of the first camera 231. . Electronic devices can generally separately store images from multiple cameras. Electronic devices can generally adjust the camera's shooting cycle when a specific event (salient event) occurs on one camera. However, it may be difficult for general electronic devices to automatically change the shooting cycle of other cameras where a specific event (salient event) has not occurred. A general electronic device may provide a user with a first image captured by a camera in which a specific event (salient event) occurred and a second image captured by a camera in which a specific event (salient event) did not occur. At this time, the shooting cycle of the first image and the second image may be different. Therefore, images captured on the front camera and images captured on the rear camera may be created with different frames and quality.

본 문서의 다양한 실시예들에 따른 전자 장치(200)는 프로세서(220)의 제어 하에, 특정 이벤트(salient event)가 발생한 제 1 카메라(231)의 촬영 주기를 이전보다 짧게 변경시킬 수 있다(예: 1 frame/sec). 동시에 전자 장치(200)는 특정 이벤트(salient event)가 발생하지 않은 제 2 카메라(232)의 촬영 주기를 제 1 카메라(231)의 촬영 주기와 동일하게 변경시킬 수 있다. 전자 장치(200) 특정 이벤트(salient event)가 발생한 시점부터 고화질의 영상을 제공하면서, 전면 카메라에서 촬영된 영상 및 후면 카메라에서 촬영된 영상이 동일한 화질을 갖도록 제어할 수 있다. The electronic device 200 according to various embodiments of this document may, under the control of the processor 220, change the shooting cycle of the first camera 231 where a specific event (salient event) occurs to be shorter than before (e.g. : 1 frame/sec). At the same time, the electronic device 200 may change the photographing cycle of the second camera 232, in which no specific event (salient event) occurs, to be the same as the photographing cycle of the first camera 231. The electronic device 200 can provide high-quality images from the time a specific event (salient event) occurs, and control the image captured by the front camera and the image captured by the rear camera to have the same image quality.

동작 740에서, 프로세서(220)는 제 2 카메라(232) 상에 적어도 하나의 객체가 포함됨에 대응하여 제 1 카메라(232)의 촬영 주기를 짧게 조절할 수 있다. 프로세서(220)는 제 2 카메라(232)의 촬영 주기를 짧게 변경시켜, 영상의 프레임 및 화질을 개선할 수 있다. 프로세서(220)는 특정 이벤트(salient event)가 발생하기 이전 시점에는 제 2 카메라(232)의 촬영 주기를 상대적으로 길게 유지시키며, 전력 소모 및 메모리(210)의 용량 소모를 줄일 수 있다. 프로세서(220)는 특정 이벤트(salient event)가 발생된 제 2 시점을 기준으로 제 1 카메라(232)의 촬영 주기를 짧게 변경시킬 수 있다.In operation 740, the processor 220 may shorten the shooting cycle of the first camera 232 in response to the fact that at least one object is included in the second camera 232. The processor 220 can shorten the shooting cycle of the second camera 232 to improve the frame and quality of the image. The processor 220 maintains the shooting cycle of the second camera 232 relatively long before a specific event (salient event) occurs, and can reduce power consumption and capacity consumption of the memory 210. The processor 220 may shorten the shooting cycle of the first camera 232 based on the second time point when a specific event (salient event) occurs.

동작 745에서, 프로세서(220)는 제 2 카메라(232)의 촬영 주기를 짧게 조절함에 대응하여 제 1 카메라(231)의 촬영 주기를 제 2 카메라(232)의 촬영 주기와 동일하게 변경시킬 수 있다. 전자 장치(200) 특정 이벤트(salient event)가 발생한 시점부터 고화질의 영상을 제공하면서, 전면 카메라에서 촬영된 영상 및 후면 카메라에서 촬영된 영상이 동일한 화질을 갖도록 제어할 수 있다.In operation 745, the processor 220 may change the photographing cycle of the first camera 231 to be the same as that of the second camera 232 in response to shortening the photographing cycle of the second camera 232. . The electronic device 200 can provide high-quality images from the time a specific event (salient event) occurs, and control the image captured by the front camera and the image captured by the rear camera to have the same image quality.

제 1 카메라(231) 또는 제 2 카메라(232) 중 어떤 카메라에서 특정 이벤트(salient event)를 감지하는지에 따라 동작 730이 수행될 수도 있고, 동작 740이 수행될 수도 있다. 제 1 카메라(231) 및 제 2 카메라(232) 모두 특정 이벤트(salient event)를 감지하는 경우, 동작 730 및 동작 740이 모두 수행될 수도 있다. 또한, 동작 730 및 동작 740은 반드시 연속적으로 발생하는 것을 아닐 수 있다. 동작 730 및 동작 735만 발생하고, 동작 740 및 동작 745는 발생하지 않을 수도 있다. 반대로 동작 740 및 동작 745만 발생하고, 동작 730 및 동작 735는 발생하지 않을 수도 있다.Operation 730 or operation 740 may be performed depending on which camera, the first camera 231 or the second camera 232, detects a specific event (salient event). When both the first camera 231 and the second camera 232 detect a specific event (salient event), both operations 730 and 740 may be performed. Additionally, operations 730 and 740 may not necessarily occur consecutively. Only operations 730 and 735 may occur, and operations 740 and 745 may not occur. Conversely, only operations 740 and 745 may occur, and operations 730 and 735 may not occur.

다양한 실시예들에 따른 전자 장치는 하우징, 하우징의 제 1 면에 위치한 제 1 카메라, 제 1 면과 마주보는 상기 하우징의 제 2 면에 위치한 제 2 카메라, 메모리 및 프로세서를 포함하고, 프로세서는 메모리 상에 저장된 사용 패턴 정보로부터 학습된 결과에 기초해서, 동영상의 편집 기준이 되는 적어도 하나의 객체를 결정하고, 제 1 카메라를 이용하여 촬영된 제 1 영상 또는 제 2 카메라를 이용하여 촬영된 제 2 영상 중 적어도 어느 하나에 적어도 하나의 객체가 포함됨에 대응하여 동영상의 타임라인(timeline)에 적어도 하나의 객체가 포함되기 시작하는 제 1 시점을 표시하고, 제 1 카메라를 이용하여 촬영된 제 1 영상에 적어도 하나의 객체가 포함됨에 대응하여 제 1 카메라의 촬영 주기를 짧게 조절하고, 제 1 카메라의 촬영 주기를 짧게 조절함에 대응하여 제 2 카메라의 촬영 주기를 상기 제 1 카메라의 촬영 주기와 동일하게 변경할 수 있다.An electronic device according to various embodiments includes a housing, a first camera located on a first side of the housing, a second camera located on a second side of the housing facing the first side, a memory, and a processor, and the processor includes a memory Based on the results learned from the usage pattern information stored in the In response to at least one object being included in at least one of the images, a first point in time at which at least one object begins to be included in the timeline of the video is displayed, and a first image captured using a first camera is displayed. In response to the fact that at least one object is included, the shooting cycle of the first camera is adjusted to be short, and in response to the shooting cycle of the first camera being shortened, the shooting cycle of the second camera is set to be the same as the shooting cycle of the first camera. You can change it.

복수의 카메라를 포함하는 전자 장치의 동작 방법은 메모리 상에 저장된 사용 패턴 정보로부터 학습된 결과에 기초해서, 동영상의 편집 기준이 되는 적어도 하나의 객체를 결정하는 동작, 제 1 카메라를 이용하여 촬영된 제 1 영상 또는 제 2 카메라를 이용하여 촬영된 제 2 영상 중 적어도 어느 하나에 적어도 하나의 객체가 포함됨에 대응하여 상기 동영상의 타임라인(timeline)에 적어도 하나의 객체가 포함되기 시작하는 제 1 시점을 표시하는 동작, 제 1 카메라를 이용하여 촬영된 제 1 영상에 적어도 하나의 객체가 포함됨에 대응하여 제 1 카메라의 촬영 주기를 짧게 조절하는 동작 및 제 1 카메라의 촬영 주기를 짧게 조절함에 대응하여 제 2 카메라의 촬영 주기를 상기 제 1 카메라의 촬영 주기와 동일하게 변경하는 동작을 포함할 수 있다.A method of operating an electronic device including a plurality of cameras includes determining at least one object that serves as an editing standard for a video based on a result learned from usage pattern information stored in a memory, and capturing information captured using a first camera. A first point in time at which at least one object begins to be included in the timeline of the video in response to at least one object being included in at least one of the first video or the second video captured using the second camera. An operation of displaying, an operation of briefly adjusting the shooting cycle of the first camera in response to at least one object being included in the first image captured using the first camera, and an operation of briefly adjusting the shooting cycle of the first camera. It may include an operation of changing the shooting cycle of the second camera to be the same as the shooting cycle of the first camera.

Claims (20)

전자 장치에 있어서,
하우징;
상기 하우징의 제 1 면에 위치한 제 1 카메라;
상기 제 1 면과 마주보는 상기 하우징의 제 2 면에 위치한 제 2 카메라;
메모리;및
프로세서를 포함하고,
상기 프로세서는
상기 메모리 상에 저장된 사용 패턴 정보로부터 학습된 결과에 기초해서, 동영상의 편집 기준이 되는 적어도 하나의 객체를 결정하고,
상기 제 1 카메라를 이용하여 촬영된 제 1 영상 또는 상기 제 2 카메라를 이용하여 촬영된 제 2 영상 중 적어도 어느 하나에 상기 적어도 하나의 객체가 포함됨에 대응하여 상기 동영상의 타임라인(timeline)에 상기 적어도 하나의 객체가 포함되기 시작하는 제 1 시점을 표시하고,
상기 제 1 카메라를 이용하여 촬영된 제 1 영상에 상기 적어도 하나의 객체가 포함됨에 대응하여 상기 제 1 카메라의 촬영 주기를 짧게 조절하고,
상기 제 1 카메라의 촬영 주기를 짧게 조절함에 대응하여 상기 제 2 카메라의 촬영 주기를 상기 제 1 카메라의 촬영 주기와 동일하게 변경시키는 전자 장치.
In electronic devices,
housing;
a first camera located on a first side of the housing;
a second camera located on a second side of the housing facing the first side;
memory; and
Includes a processor,
The processor is
Based on results learned from usage pattern information stored in the memory, determine at least one object that serves as an editing standard for the video,
In response to the fact that the at least one object is included in at least one of the first image captured using the first camera or the second image captured using the second camera, the video is displayed on the timeline of the video. Indicates the first point in time at which at least one object begins to be included,
Shortening the shooting cycle of the first camera in response to the fact that the at least one object is included in the first image captured using the first camera,
An electronic device that changes the shooting cycle of the second camera to be the same as the shooting cycle of the first camera in response to shortening the shooting cycle of the first camera.
제 1항에 있어서,
상기 프로세서는
상기 동영상의 타임 라인 상에 상기 제 1 시점에 대한 인디케이터를 표시하고,
상기 인디케이터에 대한 사용자 입력에 기반하여, 상기 동영상의 재생 시점을 상기 제 1 시점으로 이동시키는 전자 장치.
According to clause 1,
The processor is
Displaying an indicator for the first viewpoint on the timeline of the video,
An electronic device that moves the playback time of the video to the first view point based on a user input to the indicator.
제 2항에 있어서,
상기 프로세서는
상기 제 2 카메라를 이용하여 촬영된 제 2 영상 상에 상기 적어도 하나의 객체가 포함됨에 대응하여 상기 제 2 카메라의 촬영 주기를 짧게 조절하고,
상기 제 2 카메라의 촬영 주기를 짧게 조절함에 대응하여 상기 제 1 카메라의 촬영 주기를 상기 제 2 카메라의 촬영 주기와 동일하게 변경시키는 전자 장치.
According to clause 2,
The processor is
Shortening the shooting cycle of the second camera in response to the inclusion of the at least one object in the second image captured using the second camera,
An electronic device that changes the shooting cycle of the first camera to be the same as the shooting cycle of the second camera in response to shortening the shooting cycle of the second camera.
제 1항에 있어서,
상기 프로세서는
타임 랩스 촬영이 중단된 시점에 촬영된 제 1 이미지로부터 적어도 하나의 제 1 특징점을 추출하고,
상기 타임 랩스 촬영을 재개하려는 시점에 촬영된 제 2 이미지로부터 적어도 하나의 제 2 특징점을 추출하고,
상기 제 1 특징점이 상기 제 2 특징점과 비교하여 기울어진 정도 및 뒤틀어진 정도를 계산하고,
상기 기울어진 정도 및 뒤틀어진 정도에 기반하여, 상기 제 2 특징점이 상기 제 1 특징점과 맵핑되도록 사용자 입력을 유도하는 사용자 인터페이스를 제공하는 전자 장치.
According to clause 1,
The processor is
Extracting at least one first feature point from the first image captured at the time when time-lapse shooting was stopped,
Extracting at least one second feature point from the second image captured at the time of resuming the time-lapse shooting,
Calculate the degree of tilt and distortion of the first feature point compared to the second feature point,
An electronic device that provides a user interface that induces a user input to map the second feature point to the first feature point based on the degree of tilt and distortion.
제 4항에 있어서,
상기 프로세서는
상기 제 2 특징점이 상기 제 1 특징점과 사전에 설정된 수준을 초과하여 맵핑됨에 기반하여
타임 랩스 촬영을 다시 시작할 준비가 되었음을 지시하는 정보를 디스플레이 상에 표시하는 전자 장치.
According to clause 4,
The processor is
Based on the mapping of the second feature point to the first feature point exceeding a preset level
An electronic device that displays information on a display indicating that time-lapse photography is ready to resume.
제 4항에 있어서,
상기 프로세서는
초점 거리, 피사체 거리, 촬영 방향, 줌 비율에 관한 정보 중 적어도 하나를 이용하여 상기 제 1 특징점 및 상기 제 2 특징점을 추출하는 전자 장치.
According to clause 4,
The processor is
An electronic device that extracts the first feature point and the second feature point using at least one of information about focal distance, subject distance, shooting direction, and zoom ratio.
제 1항에 있어서,
상기 프로세서는
타임 랩스 촬영이 중단된 제 3 시점을 상기 메모리 상에 저장하고,
상기 타임 랩스 촬영을 재개하려는 입력에 기반하여, 상기 제 1 시점과 상기 타임 랩스 촬영을 재개하려는 제 4 시점 간의 차이에 대한 정보를 제공하는 전자 장치.
According to clause 1,
The processor is
Store the third point in time at which time-lapse shooting was stopped in the memory,
An electronic device that provides information about a difference between the first time point and a fourth time point to resume time lapse shooting, based on the input for resuming time lapse shooting.
제 7항에 있어서,
상기 프로세서는
상기 제 3 시점과 상기 제 4 시점이 사전에 설정된 수준을 초과하여 일치함에 기반하여, 타임 랩스 촬영이 준비되었음을 지시하는 정보를 제공하는 전자 장치.
According to clause 7,
The processor is
An electronic device that provides information indicating that time-lapse photography is ready, based on the third viewpoint and the fourth viewpoint matching more than a preset level.
전자 장치에 있어서,
하우징;
상기 하우징의 제 1 면에 위치한 제 1 카메라;
상기 제 1 면과 마주보는 상기 하우징의 제 2 면에 위치한 제 2 카메라
메모리;및
프로세서를 포함하고,
상기 프로세서는
상기 제 1 카메라를 이용하여 제 1 영상을 획득하고, 상기 제 2 카메라를 이용하여 제 2 영상을 획득하며,
상기 메모리 상에 상기 제 1 영상 및 상기 제 2 영상을 저장하고,
상기 메모리 상에 저장된 사용 패턴 정보로부터 학습된 결과에 기초해서, 동영상의 편집 기준이 되는 적어도 하나의 객체를 결정하고,
상기 제 1 카메라를 이용하여 촬영된 상기 제 1 영상에 상기 적어도 하나의 객체가 포함됨에 대응하여 상기 적어도 하나의 객체가 포함되는 제 1 시점을 상기 제 1 영상의 타임 라인에 기록하고, 상기 제 1 영상의 타임 라인에 상기 제 1 시점을 기록함에 대응하여 상기 제 2 영상의 타임 라인 상에도 상기 제 1 시점이 기록되도록 제어하는 전자 장치.
In electronic devices,
housing;
a first camera located on a first side of the housing;
a second camera located on a second side of the housing facing the first side
memory; and
Includes a processor,
The processor is
Obtaining a first image using the first camera and acquiring a second image using the second camera,
storing the first image and the second image on the memory,
Based on results learned from usage pattern information stored in the memory, determine at least one object that serves as an editing standard for the video,
In response to the fact that the at least one object is included in the first image captured using the first camera, a first viewpoint at which the at least one object is included is recorded on the timeline of the first image, and the first An electronic device that controls the first viewpoint to be recorded on the timeline of the second video in response to recording the first viewpoint on the timeline of the video.
제 9항에 있어서,
상기 프로세서는
상기 제 1 영상 및 상기 제 2 영상을 동기화하여 타임 라인을 동일하게 표시하고,
상기 타임 라인 상에 상기 제 1 시점에 대한 인디케이터를 표시하는 전자 장치.
According to clause 9,
The processor is
Synchronize the first video and the second video to display the same timeline,
An electronic device that displays an indicator for the first time point on the timeline.
제 10 항에 있어서,
상기 프로세서는
상기 제 1 시점을 지시하는 인디케이터에 대한 사용자 입력에 기반하여, 상기 제 1 영상 및 상기 제 2 영상의 재생 시점을 상기 제 1 시점으로 이동시키는 전자 장치.
According to claim 10,
The processor is
An electronic device that moves the playback time of the first image and the second video to the first view based on a user input to an indicator indicating the first view.
제 9항에 있어서,
상기 프로세서는
상기 제 1 영상이 출력되는 디스플레이에 대한 터치 입력을 수신함에 대응하여 상기 제 1 영상의 재생을 중단하고,
상기 제 1 영상의 중단된 재생 시간 정보에 기초하여 상기 제 2 영상을 재생하도록 설정된 전자 장치.
According to clause 9,
The processor is
Stop playing the first image in response to receiving a touch input on the display on which the first image is output,
An electronic device configured to play the second video based on interrupted playback time information of the first video.
제 9항에 있어서,
상기 프로세서는
타임 랩스 촬영이 중단된 시점에 촬영된 제 1 이미지로부터 적어도 하나의 제 1 특징점을 추출하고,
상기 타임 랩스 촬영을 재개하려는 시점에 촬영된 제 2 이미지로부터 적어도 하나의 제 2 특징점을 추출하고,
상기 제 1 특징점이 상기 제 2 특징점과 비교하여 기울어진 정도 및 뒤틀어진 정도를 계산하고,
상기 기울어진 정도 및 뒤틀어진 정도에 기반하여, 상기 제 2 특징점이 상기 제 1 특징점과 맵핑되도록 사용자 인터페이스를 제공하는 전자 장치.
According to clause 9,
The processor is
Extracting at least one first feature point from the first image captured at the time when time-lapse shooting was stopped,
Extracting at least one second feature point from the second image captured at the time of resuming the time-lapse shooting,
Calculate the degree of tilt and distortion of the first feature point compared to the second feature point,
An electronic device that provides a user interface to map the second feature point to the first feature point based on the degree of tilt and degree of distortion.
제 13항에 있어서,
상기 프로세서는
상기 제 2 특징점이 상기 제 1 특징점과 사전에 설정된 수준을 초과하여 맵핑됨에 기반하여
타임 랩스 촬영을 다시 시작할 준비가 되었음을 지시하는 정보를 디스플레이 상에 표시하는 전자 장치.
According to clause 13,
The processor is
Based on the mapping of the second feature point to the first feature point exceeding a preset level
An electronic device that displays information on a display indicating that time-lapse photography is ready to resume.
제 13항에 있어서,
상기 프로세서는
초점 거리, 피사체 거리, 촬영 방향, 줌 비율에 관한 정보 중 적어도 하나를 이용하여 상기 제 1 특징점 및 상기 제 2 특징점을 추출하는 전자 장치.
According to clause 13,
The processor is
An electronic device that extracts the first feature point and the second feature point using at least one of information about focal distance, subject distance, shooting direction, and zoom ratio.
제 9항에 있어서,
상기 프로세서는
타임 랩스 촬영이 중단된 제 3 시점을 상기 메모리 상에 저장하고,
상기 타임 랩스 촬영을 재개하려는 입력에 기반하여, 상기 제 1 시점과 상기 타임 랩스 촬영을 재개하려는 제 4 시점 간의 차이에 대한 정보를 제공하는 전자 장치.
According to clause 9,
The processor is
Store the third point in time at which time-lapse shooting was stopped in the memory,
An electronic device that provides information about a difference between the first time point and a fourth time point to resume time lapse shooting, based on the input for resuming time lapse shooting.
제 16항에 있어서,
상기 프로세서는
상기 제 3 시점과 상기 제 4 시점이 사전에 설정된 수준을 초과하여 일치함에 기반하여, 타임 랩스 촬영이 준비되었음을 지시하는 정보를 제공하는 전자 장치.
According to clause 16,
The processor is
An electronic device that provides information indicating that time-lapse photography is ready, based on the third viewpoint and the fourth viewpoint matching more than a preset level.
복수의 카메라를 포함하는 전자 장치의 동작 방법에 있어서,
메모리 상에 저장된 사용 패턴 정보로부터 학습된 결과에 기초해서, 동영상의 편집 기준이 되는 적어도 하나의 객체를 결정하는 동작;
제 1 카메라를 이용하여 촬영된 제 1 영상 또는 제 2 카메라를 이용하여 촬영된 제 2 영상 중 적어도 어느 하나에 상기 적어도 하나의 객체가 포함됨에 대응하여 상기 동영상의 타임라인(timeline)에 상기 적어도 하나의 객체가 포함되기 시작하는 제 1 시점을 표시하는 동작;
상기 제 1 카메라를 이용하여 촬영된 제 1 영상에 상기 적어도 하나의 객체가 포함됨에 대응하여 상기 제 1 카메라의 촬영 주기를 짧게 조절하는 동작;및
상기 제 1 카메라의 촬영 주기를 짧게 조절함에 대응하여 상기 제 2 카메라의 촬영 주기를 상기 제 1 카메라의 촬영 주기와 동일하게 변경하는 동작을 포함하는 방법.
In a method of operating an electronic device including a plurality of cameras,
An operation of determining at least one object that serves as an editing standard for a video based on a result learned from usage pattern information stored in a memory;
In response to the fact that the at least one object is included in at least one of a first image captured using a first camera or a second image captured using a second camera, the at least one object is included in the timeline of the video An operation indicating a first point in time at which an object of begins to be included;
An operation of shortening the shooting cycle of the first camera in response to the fact that the at least one object is included in the first image captured using the first camera; And
A method comprising changing the shooting cycle of the second camera to be the same as the shooting cycle of the first camera in response to shortening the shooting cycle of the first camera.
제 18항에 있어서,
타임 랩스 촬영이 중단된 시점에 촬영된 제 1 이미지로부터 적어도 하나의 제 1 특징점을 추출하는 동작;
상기 타임 랩스 촬영을 재개하려는 시점에 촬영된 제 2 이미지로부터 적어도 하나의 제 2 특징점을 추출하는 동작;
상기 제 1 특징점이 상기 제 2 특징점과 비교하여 기울어진 정도 및 뒤틀어진 정도를 계산하는 동작;및
상기 기울어진 정도 및 뒤틀어진 정도에 기반하여, 상기 제 2 특징점이 상기 제 1 특징점과 맵핑되도록 사용자 인터페이스를 제공하는 동작을 더 포함하는 방법.
According to clause 18,
An operation of extracting at least one first feature point from a first image captured when time-lapse photography is stopped;
extracting at least one second feature point from a second image captured at the time of resuming the time-lapse photography;
An operation of calculating a degree of tilt and distortion of the first feature point compared to the second feature point; And
The method further includes providing a user interface to map the second feature point to the first feature point based on the degree of tilt and degree of distortion.
제 18항에 있어서,
상기 동영상의 타임라인(timeline)에 상기 적어도 하나의 객체가 포함되기 시작하는 제 1 시점을 표시하는 동작은
상기 동영상의 타임 라인 상에 상기 제 1 시점에 대한 인디케이터를 표시하는 동작;및
상기 인디케이터에 대한 사용자 입력에 기반하여, 상기 동영상의 재생 시점을 상기 제 1 시점으로 이동시키는 동작을 더 포함하는 방법.

According to clause 18,
The operation of displaying a first point in time at which the at least one object begins to be included in the timeline of the video is
An operation of displaying an indicator for the first viewpoint on the timeline of the video; And
The method further includes moving a playback point of the video to the first point of view based on a user input to the indicator.

KR1020220063676A 2022-05-24 2022-05-24 Electronic device including a plurality of cameras and method for shooting thereof KR20230163849A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220063676A KR20230163849A (en) 2022-05-24 2022-05-24 Electronic device including a plurality of cameras and method for shooting thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220063676A KR20230163849A (en) 2022-05-24 2022-05-24 Electronic device including a plurality of cameras and method for shooting thereof

Publications (1)

Publication Number Publication Date
KR20230163849A true KR20230163849A (en) 2023-12-01

Family

ID=89124526

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220063676A KR20230163849A (en) 2022-05-24 2022-05-24 Electronic device including a plurality of cameras and method for shooting thereof

Country Status (1)

Country Link
KR (1) KR20230163849A (en)

Similar Documents

Publication Publication Date Title
KR102661614B1 (en) Screen providing method and electronic device supporting the same
US20220164159A1 (en) Method for playing audio, terminal and computer-readable storage medium
US20230179856A1 (en) Electronic device including plurality of cameras and method of operating the same
WO2022028241A1 (en) Preview cover generation method and electronic device
KR20160127606A (en) Mobile terminal and the control method thereof
KR102446264B1 (en) mobile terminal
US20230209193A1 (en) Image stabilization method and electronic device therefor
KR20210098292A (en) Electronic device including camera and operating method thereof
KR20220006753A (en) Method for providing image and electronic device for supporting the same
CN116711316A (en) Electronic device and operation method thereof
KR20230163849A (en) Electronic device including a plurality of cameras and method for shooting thereof
KR20220033247A (en) Foldable electronic device for displaying various types of content and operating method thereof
KR20220077516A (en) Method and electronic device for displaying multi image
KR20220055230A (en) Method for Taking pictures using a plurality of Cameras and Device thereof
KR20220125648A (en) Apparatus and method for generating image
CN110942426A (en) Image processing method and device, computer equipment and storage medium
KR20240024712A (en) Electronic device and operation method of electronic device for determining setting information of external electronic device
KR20230085809A (en) Electronic device and operation method of electronic device including plurality of cameras
KR20230013522A (en) Electronic device comprising flexible display and method of operating the same
KR20220129885A (en) Method and apparatus for capturing control
KR20220039431A (en) Method for photographing using wireless communication and electronic device supporting the same
KR20240030853A (en) Electronic device for controlling one or more cameras based on transforming of display and method thereof
KR20240030877A (en) Electronic device for changing application being executed maintaining attribution information and method for controlling the same
KR20220102422A (en) Electronic device, method and non-transitory storage medium for photographing image
KR20220067454A (en) Electronic device including flexible display and method for thereof