KR20210149549A - Electronic device for recording and method for operating thereof - Google Patents

Electronic device for recording and method for operating thereof Download PDF

Info

Publication number
KR20210149549A
KR20210149549A KR1020200066731A KR20200066731A KR20210149549A KR 20210149549 A KR20210149549 A KR 20210149549A KR 1020200066731 A KR1020200066731 A KR 1020200066731A KR 20200066731 A KR20200066731 A KR 20200066731A KR 20210149549 A KR20210149549 A KR 20210149549A
Authority
KR
South Korea
Prior art keywords
electronic device
recording
communication connection
audio data
latency
Prior art date
Application number
KR1020200066731A
Other languages
Korean (ko)
Inventor
문병혁
임은지
권방현
정인형
김상헌
김미선
서미라
오효민
임연욱
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020200066731A priority Critical patent/KR20210149549A/en
Priority to PCT/KR2021/006830 priority patent/WO2021246765A1/en
Publication of KR20210149549A publication Critical patent/KR20210149549A/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43072Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of multiple content streams on the same device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/436Interfacing a local distribution network, e.g. communicating with another STB or one or more peripheral devices inside the home
    • H04N21/43615Interfacing a Home Network, e.g. for connecting the client to a plurality of peripherals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera

Abstract

According to various embodiments, provided is an electronic device comprising a display, at least one communication circuit, and at least one processor. The electronic device is configured to: identify an event for recording; establish a communication connection with an external electronic device; transmit, based on the communication connection, audio data related to audio to the external electronic device using at least one communication circuit so that the audio can be output from the external electronic device while outputting at least one screen provided by at least one running application to the display, wherein output timing of the at least one screen is adjusted based on a latency associated with the communication connection; and provide, based on the event identification and the communication connection, a file using the at least one screen whose output timing has been adjusted and the audio data whose recording timing has been adjusted based on the latency. Various other embodiments are possible. When a recording operation is performed while communication with another external electronic device is established, a recording time of data for one content is adjusted as much as an output time of another content is adjusted. As a result, the contents in a file can be synchronized when the file is played back.

Description

레코딩을 위한 전자 장치 및 그 동작 방법 {ELECTRONIC DEVICE FOR RECORDING AND METHOD FOR OPERATING THEREOF} Electronic device for recording and method of operation thereof

본 개시의 다양한 실시예는 레코딩을 위한 전자 장치 및 그 동작 방법에 관한 것이다.Various embodiments of the present disclosure relate to an electronic device for recording and an operating method thereof.

현대를 살아가는 많은 사람들에게 휴대용 디지털 통신기기들은 하나의 필수 요소가 되었다. 소비자들은 휴대용 디지털 통신기기들을 이용하여 언제 어디서나 자신이 원하는 다양한 고품질의 서비스를 제공받고 싶어한다.For many people living in modern times, portable digital communication devices have become an essential element. Consumers want to be provided with various high-quality services they want anytime, anywhere by using portable digital communication devices.

휴대용 디지털 통신기기들에는 다양한 종류의 어플리케이션들이 설치되고, 휴대용 디지털 통신기기들은 설치된 어플리케이션들의 구동에 따라서 획득되는 데이터를 기반으로 다양한 고품질의 서비스를 제공할 수 있다. 사용자는 휴대용 디지털 통신기기들로부터 제공받은 다양한 고품질의 서비스에 대한 보관을 위해, 레코딩 어플리케이션을 이용하여 다양한 고품질 서비스에 대한 데이터들을 레코딩할 수 있다.Various types of applications are installed in portable digital communication devices, and portable digital communication devices can provide various high-quality services based on data obtained according to the driving of the installed applications. A user may record data for various high-quality services by using a recording application to store various high-quality services provided from portable digital communication devices.

근래에 휴대용 디지털 통신기기들은 서로 통신을 형성한 상태에서 다양한 고품질 서비스를 제공하는 경우, 형성된 통신의 상태에 따라서 고품질 서비스를 제공하기 위한 데이터의 출력 시점의 지연을 보상하는 동작을 수행할 수 있다. 따라서, 통신이 형성된 상태에서 레코딩 동작이 수행되는 경우, 상기 데이터의 출력 시점의 지연을 보상하는 동작에 의해 레코딩 동작에 발생되는 영향을 보상하기 위한 기술의 구현이 필요하다.In recent years, when portable digital communication devices provide various high-quality services while communicating with each other, they may perform an operation of compensating for a delay in outputting data for providing high-quality services according to the established communication status. Therefore, when the recording operation is performed in a state in which communication is established, it is necessary to implement a technique for compensating for the effect generated on the recording operation by the operation of compensating for the delay of the output timing of the data.

전자 장치는 다른 외부 전자 장치와 통신이 형성된 상태에서, 전자 장치에서 일 컨텐트(예: 시각적 컨텐트)를 출력하고 다른 외부 전자 장치를 통해 다른 컨텐트(예: 청각적 컨텐트)를 제공할 수 있다. 이때, 전자 장치는 형성된 통신의 레이튼시(latency)를 고려하여, 전자 장치로부터 일 컨텐트의 출력 시점을 조정할 수 있다. 따라서, 전자 장치에서 다른 외부 전자 장치와 통신이 형성된 상태에서 레코딩 동작이 수행되는 경우, 상기 일 컨텐트의 출력 시점이 조정된 것에 기반하여 레코딩되는 일 컨텐트에 대한 데이터(예: 비디오 데이터)와 상기 일 컨텐트와 관련된 다른 컨텐트에 대한 데이터(예: 오디오 데이터)의 레코딩 시점이 서로 다르게 될 수 있다. 즉, 레코딩 동작의 수행의 결과에 따라 생성된 파일(예: 동영상 파일)의 재생 시, 출력되는 일 컨텐트 및 다른 컨텐트가 동기화되지 않을 수 있다.The electronic device may output one content (eg, visual content) from the electronic device and provide another content (eg, auditory content) through the other external electronic device while communication is established with the other external electronic device. In this case, the electronic device may adjust the output timing of one content from the electronic device in consideration of the latency of the established communication. Accordingly, when a recording operation is performed in a state in which communication with another external electronic device is established in the electronic device, data (eg, video data) of one content to be recorded and the one content based on the adjustment of the output timing of the one content Recording times of data (eg, audio data) for other content related to the content may be different from each other. That is, when a file (eg, a moving picture file) generated according to a result of performing a recording operation is played, one output content and another content may not be synchronized.

다양한 실시예들에 따르면, 전자 장치 및 그 동작 방법은 다른 외부 전자 장치와 통신이 형성된 상태에서 레코딩 동작이 수행되는 경우 일 컨텐트의 출력 시점이 조정된 만큼 다른 컨텐트에 대한 데이터의 레코딩 시점을 조정함으로써, 생성된 파일(예: 동영상 파일)의 재생 시 출력되는 컨텐트들이 동기화되도록 할 수 있다.According to various embodiments, an electronic device and a method of operating the same adjust the recording time of data for another content as much as the output time of one content is adjusted when a recording operation is performed in a state in which communication with another external electronic device is established. , it is possible to synchronize the contents output when the generated file (eg, a video file) is played.

다양한 실시예들에 따르면, 전자 장치 및 그 동작 방법은 외부 전자 장치와 형성된 통신들의 서로 다른 레이튼시에 따라서 컨텐트에 대한 데이터의 레코딩 시점을 서로 다르게 조정함으로써, 생성된 파일의 재생 시 출력되는 컨텐트들이 동기화되도록 할 수 있다.According to various embodiments, an electronic device and an operating method thereof adjust different recording times of data for content according to different latencies of communications formed with an external electronic device, so that content output when a generated file is reproduced is can be synchronized.

본 개시에서 이루고자 하는 기술적 과제는 이상에서 언급한 기술적 과제로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The technical problems to be achieved in the present disclosure are not limited to the technical problems mentioned above, and other technical problems not mentioned can be clearly understood by those of ordinary skill in the art to which the present invention belongs from the description below. There will be.

다양한 실시예들에 따르면 전자 장치로서, 디스플레이, 적어도 하나의 통신 회로, 상기 디스플레이 및 상기 적어도 하나의 통신 회로와 작동적으로 연결되는 적어도 하나의 프로세서를 포함하고, 레코딩을 위한 이벤트를 식별하고, 상기 적어도 하나의 통신 회로를 이용하여 외부 전자 장치와 통신 연결을 형성하고, 상기 통신 연결에 기반하여, 실행 중인 적어도 하나의 어플리케이션에 의하여 제공되는 적어도 하나의 화면을 상기 디스플레이에 표시하면서, 오디오가 상기 외부 전자 장치에서 출력되도록 상기 오디오와 연관된 오디오 데이터를 적어도 하나의 통신 회로를 이용하여 상기 외부 전자 장치로 전송하되, 상기 적어도 하나의 화면의 출력 시점은 상기 통신 연결과 연관된 레이튼시(latency)에 기반하여 조정되고, 상기 이벤트 식별 및 상기 통신 연결에 기반하여, 상기 출력 시점이 조정된 적어도 하나의 화면 및 상기 레이튼시에 기반하여 레코딩 시점이 조정된 상기 오디오 데이터를 이용하여 파일을 제공하도록 설정된, 전자 장치가 제공될 수 있다.According to various embodiments there is provided an electronic device comprising: a display, at least one communication circuitry, at least one processor operatively coupled to the display and the at least one communication circuitry, for identifying an event for recording; A communication connection is formed with an external electronic device using at least one communication circuit, and based on the communication connection, at least one screen provided by at least one application being executed is displayed on the display while audio is transmitted to the external device. Transmitting the audio data related to the audio to be output from the electronic device to the external electronic device using at least one communication circuit, wherein the output timing of the at least one screen is based on a latency associated with the communication connection Adjusted, based on the event identification and the communication connection, set to provide a file using at least one screen whose output time is adjusted and the audio data whose recording time is adjusted based on the latency, the electronic device may be provided.

다양한 실시예들에 따른, 과제의 해결 수단이 상술한 해결 수단들로 제한되는 것은 아니며, 언급되지 아니한 해결 수단들은 본 명세서 및 첨부된 도면으로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.According to various embodiments, the means for solving the problem are not limited to the above-described solutions, and the solutions not mentioned are to those of ordinary skill in the art to which the present invention belongs from the present specification and the accompanying drawings. can be clearly understood.

다양한 실시예들에 따르면, 다른 외부 전자 장치와 통신이 형성된 상태에서 레코딩 동작이 수행되는 경우 일 컨텐트의 출력 시점이 조정된 만큼 다른 컨텐트에 대한 데이터의 레코딩 시점을 조정함으로써, 생성된 파일(예: 동영상 파일)의 재생 시 출력되는 컨텐트들이 동기화되도록 하는 전자 장치 및 그 동작 방법이 제공될 수 있다.According to various embodiments, when a recording operation is performed in a state in which communication with another external electronic device is established, by adjusting the recording time of data for another content as much as the output time of one content is adjusted, a file (eg An electronic device that synchronizes contents output during playback of a moving picture file) and an operating method thereof may be provided.

다양한 실시예들에 따르면, 외부 전자 장치와 형성된 통신들의 서로 다른 레이튼시에 따라서 컨텐트에 대한 데이터의 레코딩 시점을 서로 다르게 조정함으로써, 생성된 파일의 재생 시 출력되는 컨텐트들이 동기화되도록하는 전자 장치 및 그 동작 방법이 제공될 수 있다.According to various embodiments, an electronic device that synchronizes contents output when a generated file is reproduced by adjusting a recording time of content data differently according to different latencies of communications formed with an external electronic device, and the same A method of operation may be provided.

도 1은 본 개시의 다양한 실시예들에 따른, 네트워크 환경 내의 전자 장치의 블럭도이다.
도 2a는 다양한 실시예들에 따른 전자 장치 및 외부 전자 장치를 나타내는 도면이다.
도 2b는 다양한 실시예들에 따른 전자 장치 및 외부 전자 장치의 구성의 일 예를 설명하기 위한 도면이다.
도 3은 다양한 실시예들에 따른 전자 장치의 구성의 다른 예를 설명하기 위한 도면이다.
도 4는 다양한 실시예들에 따른 전자 장치의 동작의 일 예를 설명하기 위한 흐름도이다.
도 5는 다양한 실시예들에 따른 전자 장치의 외부 전자 장치와 통신 연결)이 형성된 경우 레코딩을 수행하는 동작의 일 예를 설명하기 위한 도면이다.
도 6은 다양한 실시예들에 따른 전자 장치의 동작의 또 다른 예를 설명하기 위한 흐름도이다.
도 7은 다양한 실시예들에 따른 전자 장치의 외부 전자 장치와의 통신 연결 시 레이튼시를 이용하여 적어도 하나의 화면의 출력 시점을 조정하는 동작의 일 예를 설명하기 위한 도면이다.
도 8은 다양한 실시예들에 따른 전자 장치의 레코딩 동작을 위해 획득된 오디오 데이터의 레코딩 시점을 레이튼시를 이용하여 조정하기 위한 동작의 일 예를 설명하기 위한 도면이다.
도 9는 다양한 실시예들에 따른 전자 장치의 레코딩 동작에 의해 생성된 파일을 재생하는 동작의 예들을 설명하기 위한 도면이다.
도 10은 다양한 실시예들에 따른 전자 장치의 동작의 또 다른 예를 설명하기 위한 흐름도이다.
도 11은 다양한 실시예들에 따른 전자 장치와 통신 연결된 외부 전자 장치들 별로 서로 다른 레이튼시에 대해서 설명하기 위한 도면이다.
도 12는 다양한 실시예들에 따른 전자 장치의 통신 연결의 식별 여부에 따라서 레이튼시를 식별하는 동작의 일 예를 설명하기 위한 도면이다.
도 13은 다양한 실시예들에 따른 전자 장치의 동작의 또 다른 예를 설명하기 위한 흐름도이다.
도 14는 다양한 실시예들에 따른 전자 장치의 레코딩 동작을 수행한 이후 통신 연결이 형성되는 경우, 빈 시간 구간에 관련된 레코딩 동작을 수행하는 동작의 일 예를 설명하기 위한 도면이다.
도 15는 다양한 실시예들에 따른 전자 장치의 동작의 또 다른 예를 설명하기 위한 흐름도이다.
도 16은 다양한 실시예들에 따른 전자 장치의 통신 연결이 형성된 이후 레코딩 동작을 개시하는 경우, 레코딩 동작을 개시하는 시점부터 일정 시간 구간 동안 획득되는 비디오 데이터를 처리하는 동작의 일 예를 설명하기 위한 도면이다.
도 17은 다양한 실시예들에 따른 전자 장치의 동작의 또 다른 예를 설명하기 위한 흐름도이다.
도 18은 다양한 실시예들에 따른 전자 장치의 레코딩 어플리케이션의 실행 및 레코딩 어플리케이션의 인터페이스를 제공하는 동작의 일 예를 설명하기 위한 도면이다.
도 19는 다양한 실시예들에 따른 전자 장치의 동작의 또 다른 예를 설명하기 위한 흐름도이다.
도 20은 다양한 실시예들에 따른 전자 장치의 비디오 데이터와 오디오 데이터 뿐만 아니라, 전자 장치의 입력 장치(예: 마이크)를 통해 획득되는 사용자 음성에 대한 오디오 데이터를 레코딩하는 동작의 일 예를 설명하기 위한 도면이다.
도 21은 다양한 실시예들에 따른 전자 장치의 동작의 또 다른 예를 설명하기 위한 흐름도이다.
도 22는 다양한 실시예들에 따른 전자 장치의 레코딩 동작의 수행 중에 콜을 수신하는 경우 수행되는 동작의 일 예를 설명하기 위한 도면이다.
도 23은 다양한 실시예들에 따른 전자 장치의 레코딩 동작의 수행 중에 알림을 획득하는 경우 수해되는 동작의 일 예를 설명하기 위한 도면이다.
도 24는 다양한 실시예들에 따른 전자 장치의 동작의 또 다른 예를 설명하기 위한 흐름도이다.
도 25는 다양한 실시예들에 따른 전자 장치의 레코딩 완료 시, 레이튼시를 기반으로 비디오 데이터 또는 오디오 데이터 중 적어도 하나의 레코딩 시점을 조정하는 동작의 일 예를 설명하기 위한 도면이다.
도면의 설명과 관련하여, 동일 또는 유사한 구성요소에 대해서는 동일 또는 유사한 참조 부호가 사용될 수 있다.
1 is a block diagram of an electronic device in a network environment, according to various embodiments of the present disclosure;
2A is a diagram illustrating an electronic device and an external electronic device according to various embodiments of the present disclosure;
2B is a diagram for explaining an example of the configuration of an electronic device and an external electronic device according to various embodiments of the present disclosure;
3 is a diagram for describing another example of a configuration of an electronic device according to various embodiments of the present disclosure;
4 is a flowchart illustrating an example of an operation of an electronic device according to various embodiments of the present disclosure;
FIG. 5 is a diagram for explaining an example of an operation of performing recording when a communication connection between an electronic device and an external electronic device is established, according to various embodiments of the present disclosure;
6 is a flowchart illustrating another example of an operation of an electronic device according to various embodiments of the present disclosure;
7 is a diagram for describing an example of an operation of adjusting an output time of at least one screen by using a latency when an electronic device is connected to an external electronic device for communication according to various embodiments of the present disclosure;
8 is a diagram for explaining an example of an operation for adjusting a recording time of audio data obtained for a recording operation of an electronic device using latency according to various embodiments of the present disclosure;
9 is a diagram for explaining examples of an operation of reproducing a file generated by a recording operation of an electronic device according to various embodiments of the present disclosure;
10 is a flowchart illustrating another example of an operation of an electronic device according to various embodiments of the present disclosure;
11 is a diagram for explaining different latencies for each external electronic device communicatively connected to an electronic device according to various embodiments of the present disclosure;
12 is a diagram for describing an example of an operation of identifying a latency according to whether a communication connection of an electronic device is identified, according to various embodiments of the present disclosure;
13 is a flowchart illustrating another example of an operation of an electronic device according to various embodiments of the present disclosure;
14 is a diagram for describing an example of an operation of performing a recording operation related to an empty time period when a communication connection is established after performing a recording operation of an electronic device according to various embodiments of the present disclosure;
15 is a flowchart illustrating another example of an operation of an electronic device according to various embodiments of the present disclosure;
16 is a diagram for explaining an example of an operation of processing video data acquired for a predetermined time period from a time point of starting a recording operation when a recording operation is started after a communication connection of an electronic device is established according to various embodiments of the present disclosure; It is a drawing.
17 is a flowchart illustrating another example of an operation of an electronic device according to various embodiments of the present disclosure;
18 is a diagram for describing an example of an operation of executing a recording application of an electronic device and providing an interface of the recording application according to various embodiments of the present disclosure;
19 is a flowchart illustrating another example of an operation of an electronic device according to various embodiments of the present disclosure;
20 illustrates an example of an operation of recording video data and audio data of an electronic device as well as audio data of a user voice acquired through an input device (eg, a microphone) of the electronic device according to various embodiments of the present disclosure; is a drawing for
21 is a flowchart illustrating another example of an operation of an electronic device according to various embodiments of the present disclosure;
22 is a diagram for describing an example of an operation performed when a call is received while an electronic device performs a recording operation according to various embodiments of the present disclosure;
23 is a diagram for describing an example of an operation that is performed when a notification is obtained while an electronic device performs a recording operation according to various embodiments of the present disclosure;
24 is a flowchart illustrating another example of an operation of an electronic device according to various embodiments of the present disclosure;
25 is a diagram for explaining an example of an operation of adjusting a recording time of at least one of video data or audio data based on latency when recording of an electronic device is completed, according to various embodiments of the present disclosure;
In connection with the description of the drawings, the same or similar reference numerals may be used for the same or similar components.

도 1은, 다양한 실시예들에 따른, 네트워크 환경(100) 내의 전자 장치(101)의 블록도이다. 도 1을 참조하면, 네트워크 환경(100)에서 전자 장치(101)는 제 1 네트워크(198)(예: 근거리 무선 통신 네트워크)를 통하여 전자 장치(102)와 통신하거나, 또는 제 2 네트워크(199)(예: 원거리 무선 통신 네트워크)를 통하여 전자 장치(104) 또는 서버(108)와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 서버(108)를 통하여 전자 장치(104)와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 프로세서(120), 메모리(130), 입력 모듈(150), 음향 출력 모듈(155), 디스플레이 모듈(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 연결 단자(178), 햅틱 모듈(179), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 가입자 식별 모듈(196), 또는 안테나 모듈(197)을 포함할 수 있다. 어떤 실시예에서는, 전자 장치(101)에는, 이 구성요소들 중 적어도 하나(예: 연결 단자(178))가 생략되거나, 하나 이상의 다른 구성요소가 추가될 수 있다. 어떤 실시예에서는, 이 구성요소들 중 일부들(예: 센서 모듈(176), 카메라 모듈(180), 또는 안테나 모듈(197))은 하나의 구성요소(예: 디스플레이 모듈(160))로 통합될 수 있다.1 is a block diagram of an electronic device 101 in a network environment 100 according to various embodiments. Referring to FIG. 1 , in a network environment 100 , an electronic device 101 communicates with an electronic device 102 through a first network 198 (eg, a short-range wireless communication network) or a second network 199 . It may communicate with the electronic device 104 or the server 108 through (eg, a long-distance wireless communication network). According to an embodiment, the electronic device 101 may communicate with the electronic device 104 through the server 108 . According to an embodiment, the electronic device 101 includes a processor 120 , a memory 130 , an input module 150 , a sound output module 155 , a display module 160 , an audio module 170 , and a sensor module ( 176), interface 177, connection terminal 178, haptic module 179, camera module 180, power management module 188, battery 189, communication module 190, subscriber identification module 196 , or an antenna module 197 may be included. In some embodiments, at least one of these components (eg, the connection terminal 178 ) may be omitted or one or more other components may be added to the electronic device 101 . In some embodiments, some of these components (eg, sensor module 176 , camera module 180 , or antenna module 197 ) are integrated into one component (eg, display module 160 ). can be

프로세서(120)는, 예를 들면, 소프트웨어(예: 프로그램(140))를 실행하여 프로세서(120)에 연결된 전자 장치(101)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)를 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일실시예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(120)는 다른 구성요소(예: 센서 모듈(176) 또는 통신 모듈(190))로부터 수신된 명령 또는 데이터를 휘발성 메모리(132)에 저장하고, 휘발성 메모리(132)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리(134)에 저장할 수 있다. 일실시예에 따르면, 프로세서(120)는 메인 프로세서(121)(예: 중앙 처리 장치 또는 어플리케이션 프로세서) 또는 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(123)(예: 그래픽 처리 장치, 신경망 처리 장치(NPU: neural processing unit), 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 예를 들어, 전자 장치(101)가 메인 프로세서(121) 및 보조 프로세서(123)를 포함하는 경우, 보조 프로세서(123)는 메인 프로세서(121)보다 저전력을 사용하거나, 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서(123)는 메인 프로세서(121)와 별개로, 또는 그 일부로서 구현될 수 있다.The processor 120, for example, executes software (eg, a program 140) to execute at least one other component (eg, a hardware or software component) of the electronic device 101 connected to the processor 120 . It can control and perform various data processing or operations. According to one embodiment, as at least part of data processing or operation, the processor 120 converts commands or data received from other components (eg, the sensor module 176 or the communication module 190 ) to the volatile memory 132 . may be stored in the volatile memory 132 , and may process commands or data stored in the volatile memory 132 , and store the result data in the non-volatile memory 134 . According to an embodiment, the processor 120 is the main processor 121 (eg, a central processing unit or an application processor) or a secondary processor 123 (eg, a graphic processing unit, a neural network processing unit) a neural processing unit (NPU), an image signal processor, a sensor hub processor, or a communication processor). For example, when the electronic device 101 includes the main processor 121 and the sub-processor 123 , the sub-processor 123 may use less power than the main processor 121 or may be set to be specialized for a specified function. can The auxiliary processor 123 may be implemented separately from or as a part of the main processor 121 .

보조 프로세서(123)는, 예를 들면, 메인 프로세서(121)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(121)를 대신하여, 또는 메인 프로세서(121)가 액티브(예: 어플리케이션 실행) 상태에 있는 동안 메인 프로세서(121)와 함께, 전자 장치(101)의 구성요소들 중 적어도 하나의 구성요소(예: 디스플레이 모듈(160), 센서 모듈(176), 또는 통신 모듈(190))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일실시예에 따르면, 보조 프로세서(123)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성요소(예: 카메라 모듈(180) 또는 통신 모듈(190))의 일부로서 구현될 수 있다. 일실시예에 따르면, 보조 프로세서(123)(예: 신경망 처리 장치)는 인공지능 모델의 처리에 특화된 하드웨어 구조를 포함할 수 있다. 인공지능 모델은 기계 학습을 통해 생성될 수 있다. 이러한 학습은, 예를 들어, 인공지능이 수행되는 전자 장치(101) 자체에서 수행될 수 있고, 별도의 서버(예: 서버(108))를 통해 수행될 수도 있다. 학습 알고리즘은, 예를 들어, 지도형 학습(supervised learning), 비지도형 학습(unsupervised learning), 준지도형 학습(semi-supervised learning) 또는 강화 학습(reinforcement learning)을 포함할 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은, 복수의 인공 신경망 레이어들을 포함할 수 있다. 인공 신경망은 심층 신경망(DNN: deep neural network), CNN(convolutional neural network), RNN(recurrent neural network), RBM(restricted boltzmann machine), DBN(deep belief network), BRDNN(bidirectional recurrent deep neural network), 심층 Q-네트워크(deep Q-networks) 또는 상기 중 둘 이상의 조합 중 하나일 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은 하드웨어 구조 이외에, 추가적으로 또는 대체적으로, 소프트웨어 구조를 포함할 수 있다. The auxiliary processor 123 is, for example, on behalf of the main processor 121 while the main processor 121 is in an inactive (eg, sleep) state, or the main processor 121 is active (eg, executing an application). ), together with the main processor 121, at least one of the components of the electronic device 101 (eg, the display module 160, the sensor module 176, or the communication module 190) It is possible to control at least some of the related functions or states. According to an embodiment, the co-processor 123 (eg, an image signal processor or a communication processor) may be implemented as part of another functionally related component (eg, the camera module 180 or the communication module 190). have. According to an embodiment, the auxiliary processor 123 (eg, a neural network processing device) may include a hardware structure specialized for processing an artificial intelligence model. Artificial intelligence models can be created through machine learning. Such learning may be performed, for example, in the electronic device 101 itself on which artificial intelligence is performed, or may be performed through a separate server (eg, the server 108). The learning algorithm may include, for example, supervised learning, unsupervised learning, semi-supervised learning, or reinforcement learning, but in the above example not limited The artificial intelligence model may include a plurality of artificial neural network layers. Artificial neural networks include deep neural networks (DNNs), convolutional neural networks (CNNs), recurrent neural networks (RNNs), restricted boltzmann machines (RBMs), deep belief networks (DBNs), bidirectional recurrent deep neural networks (BRDNNs), It may be one of deep Q-networks or a combination of two or more of the above, but is not limited to the above example. The artificial intelligence model may include, in addition to, or alternatively, a software structure in addition to the hardware structure.

메모리(130)는, 전자 장치(101)의 적어도 하나의 구성요소(예: 프로세서(120) 또는 센서 모듈(176))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램(140)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(130)는, 휘발성 메모리(132) 또는 비휘발성 메모리(134)를 포함할 수 있다. The memory 130 may store various data used by at least one component of the electronic device 101 (eg, the processor 120 or the sensor module 176 ). The data may include, for example, input data or output data for software (eg, the program 140 ) and instructions related thereto. The memory 130 may include a volatile memory 132 or a non-volatile memory 134 .

프로그램(140)은 메모리(130)에 소프트웨어로서 저장될 수 있으며, 예를 들면, 운영 체제(142), 미들 웨어(144) 또는 어플리케이션(146)을 포함할 수 있다. The program 140 may be stored as software in the memory 130 , and may include, for example, an operating system 142 , middleware 144 , or an application 146 .

입력 모듈(150)은, 전자 장치(101)의 구성요소(예: 프로세서(120))에 사용될 명령 또는 데이터를 전자 장치(101)의 외부(예: 사용자)로부터 수신할 수 있다. 입력 모듈(150)은, 예를 들면, 마이크, 마우스, 키보드, 키(예: 버튼), 또는 디지털 펜(예: 스타일러스 펜)을 포함할 수 있다. The input module 150 may receive a command or data to be used in a component (eg, the processor 120 ) of the electronic device 101 from the outside (eg, a user) of the electronic device 101 . The input module 150 may include, for example, a microphone, a mouse, a keyboard, a key (eg, a button), or a digital pen (eg, a stylus pen).

음향 출력 모듈(155)은 음향 신호를 전자 장치(101)의 외부로 출력할 수 있다. 음향 출력 모듈(155)은, 예를 들면, 스피커 또는 리시버를 포함할 수 있다. 스피커는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있다. 리시버는 착신 전화를 수신하기 위해 사용될 수 있다. 일실시예에 따르면, 리시버는 스피커와 별개로, 또는 그 일부로서 구현될 수 있다.The sound output module 155 may output a sound signal to the outside of the electronic device 101 . The sound output module 155 may include, for example, a speaker or a receiver. The speaker can be used for general purposes such as multimedia playback or recording playback. The receiver may be used to receive an incoming call. According to one embodiment, the receiver may be implemented separately from or as part of the speaker.

디스플레이 모듈(160)은 전자 장치(101)의 외부(예: 사용자)로 정보를 시각적으로 제공할 수 있다. 디스플레이 모듈(160)은, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일실시예에 따르면, 디스플레이 모듈(160)은 터치를 감지하도록 설정된 터치 센서, 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 압력 센서를 포함할 수 있다. The display module 160 may visually provide information to the outside (eg, a user) of the electronic device 101 . The display module 160 may include, for example, a control circuit for controlling a display, a hologram device, or a projector and a corresponding device. According to an embodiment, the display module 160 may include a touch sensor configured to sense a touch or a pressure sensor configured to measure the intensity of a force generated by the touch.

오디오 모듈(170)은 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 일실시예에 따르면, 오디오 모듈(170)은, 입력 모듈(150)을 통해 소리를 획득하거나, 음향 출력 모듈(155), 또는 전자 장치(101)와 직접 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(102))(예: 스피커 또는 헤드폰)를 통해 소리를 출력할 수 있다.The audio module 170 may convert a sound into an electric signal or, conversely, convert an electric signal into a sound. According to an embodiment, the audio module 170 acquires a sound through the input module 150 , or an external electronic device (eg, a sound output module 155 ) connected directly or wirelessly with the electronic device 101 . A sound may be output through the electronic device 102 (eg, a speaker or headphones).

센서 모듈(176)은 전자 장치(101)의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 사용자 상태)를 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 일실시예에 따르면, 센서 모듈(176)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다. The sensor module 176 detects an operating state (eg, power or temperature) of the electronic device 101 or an external environmental state (eg, user state), and generates an electrical signal or data value corresponding to the sensed state. can do. According to an embodiment, the sensor module 176 may include, for example, a gesture sensor, a gyro sensor, a barometric pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, a color sensor, an IR (infrared) sensor, a biometric sensor, It may include a temperature sensor, a humidity sensor, or an illuminance sensor.

인터페이스(177)는 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 직접 또는 무선으로 연결되기 위해 사용될 수 있는 하나 이상의 지정된 프로토콜들을 지원할 수 있다. 일실시예에 따르면, 인터페이스(177)는, 예를 들면, HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.The interface 177 may support one or more designated protocols that may be used by the electronic device 101 to directly or wirelessly connect with an external electronic device (eg, the electronic device 102 ). According to an embodiment, the interface 177 may include, for example, a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, an SD card interface, or an audio interface.

연결 단자(178)는, 그를 통해서 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 물리적으로 연결될 수 있는 커넥터를 포함할 수 있다. 일실시예에 따르면, 연결 단자(178)는, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.The connection terminal 178 may include a connector through which the electronic device 101 can be physically connected to an external electronic device (eg, the electronic device 102 ). According to an embodiment, the connection terminal 178 may include, for example, an HDMI connector, a USB connector, an SD card connector, or an audio connector (eg, a headphone connector).

햅틱 모듈(179)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 일실시예에 따르면, 햅틱 모듈(179)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.The haptic module 179 may convert an electrical signal into a mechanical stimulus (eg, vibration or movement) or an electrical stimulus that the user can perceive through tactile or kinesthetic sense. According to an embodiment, the haptic module 179 may include, for example, a motor, a piezoelectric element, or an electrical stimulation device.

카메라 모듈(180)은 정지 영상 및 동영상을 촬영할 수 있다. 일실시예에 따르면, 카메라 모듈(180)은 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다.The camera module 180 may capture still images and moving images. According to an embodiment, the camera module 180 may include one or more lenses, image sensors, image signal processors, or flashes.

전력 관리 모듈(188)은 전자 장치(101)에 공급되는 전력을 관리할 수 있다. 일실시예에 따르면, 전력 관리 모듈(188)은, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구현될 수 있다.The power management module 188 may manage power supplied to the electronic device 101 . According to an embodiment, the power management module 188 may be implemented as, for example, at least a part of a power management integrated circuit (PMIC).

배터리(189)는 전자 장치(101)의 적어도 하나의 구성요소에 전력을 공급할 수 있다. 일실시예에 따르면, 배터리(189)는, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.The battery 189 may supply power to at least one component of the electronic device 101 . According to one embodiment, battery 189 may include, for example, a non-rechargeable primary cell, a rechargeable secondary cell, or a fuel cell.

통신 모듈(190)은 전자 장치(101)와 외부 전자 장치(예: 전자 장치(102), 전자 장치(104), 또는 서버(108)) 간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(190)은 프로세서(120)(예: 어플리케이션 프로세서)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일실시예에 따르면, 통신 모듈(190)은 무선 통신 모듈(192)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(194)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제 1 네트워크(198)(예: 블루투스, WiFi(wireless fidelity) direct 또는 IrDA(infrared data association)와 같은 근거리 통신 네트워크) 또는 제 2 네트워크(199)(예: 레거시 셀룰러 네트워크, 5G 네트워크, 차세대 통신 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부의 전자 장치(104)와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성요소(예: 단일 칩)로 통합되거나, 또는 서로 별도의 복수의 구성요소들(예: 복수 칩들)로 구현될 수 있다. 무선 통신 모듈(192)은 가입자 식별 모듈(196)에 저장된 가입자 정보(예: 국제 모바일 가입자 식별자(IMSI))를 이용하여 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크 내에서 전자 장치(101)를 확인 또는 인증할 수 있다. The communication module 190 is a direct (eg, wired) communication channel or a wireless communication channel between the electronic device 101 and an external electronic device (eg, the electronic device 102, the electronic device 104, or the server 108). It can support establishment and communication performance through the established communication channel. The communication module 190 may include one or more communication processors that operate independently of the processor 120 (eg, an application processor) and support direct (eg, wired) communication or wireless communication. According to one embodiment, the communication module 190 is a wireless communication module 192 (eg, a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module) or a wired communication module 194 (eg, : It may include a LAN (local area network) communication module, or a power line communication module). A corresponding communication module among these communication modules is a first network 198 (eg, a short-range communication network such as Bluetooth, wireless fidelity (WiFi) direct, or infrared data association (IrDA)) or a second network 199 (eg, legacy It may communicate with the external electronic device 104 through a cellular network, a 5G network, a next-generation communication network, the Internet, or a computer network (eg, a telecommunication network such as a LAN or a WAN). These various types of communication modules may be integrated into one component (eg, a single chip) or may be implemented as a plurality of components (eg, multiple chips) separate from each other. The wireless communication module 192 uses the subscriber information (eg, International Mobile Subscriber Identifier (IMSI)) stored in the subscriber identification module 196 within a communication network such as the first network 198 or the second network 199 . The electronic device 101 may be identified or authenticated.

무선 통신 모듈(192)은 4G 네트워크 이후의 5G 네트워크 및 차세대 통신 기술, 예를 들어, NR 접속 기술(new radio access technology)을 지원할 수 있다. NR 접속 기술은 고용량 데이터의 고속 전송(eMBB(enhanced mobile broadband)), 단말 전력 최소화와 다수 단말의 접속(mMTC(massive machine type communications)), 또는 고신뢰도와 저지연(URLLC(ultra-reliable and low-latency communications))을 지원할 수 있다. 무선 통신 모듈(192)은, 예를 들어, 높은 데이터 전송률 달성을 위해, 고주파 대역(예: mmWave 대역)을 지원할 수 있다. 무선 통신 모듈(192)은 고주파 대역에서의 성능 확보를 위한 다양한 기술들, 예를 들어, 빔포밍(beamforming), 거대 배열 다중 입출력(massive MIMO(multiple-input and multiple-output)), 전차원 다중입출력(FD-MIMO: full dimensional MIMO), 어레이 안테나(array antenna), 아날로그 빔형성(analog beam-forming), 또는 대규모 안테나(large scale antenna)와 같은 기술들을 지원할 수 있다. 무선 통신 모듈(192)은 전자 장치(101), 외부 전자 장치(예: 전자 장치(104)) 또는 네트워크 시스템(예: 제 2 네트워크(199))에 규정되는 다양한 요구사항을 지원할 수 있다. 일실시예에 따르면, 무선 통신 모듈(192)은 eMBB 실현을 위한 Peak data rate(예: 20Gbps 이상), mMTC 실현을 위한 손실 Coverage(예: 164dB 이하), 또는 URLLC 실현을 위한 U-plane latency(예: 다운링크(DL) 및 업링크(UL) 각각 0.5ms 이하, 또는 라운드 트립 1ms 이하)를 지원할 수 있다.The wireless communication module 192 may support a 5G network after a 4G network and a next-generation communication technology, for example, a new radio access technology (NR). NR access technology includes high-speed transmission of high-capacity data (eMBB (enhanced mobile broadband)), minimization of terminal power and access to multiple terminals (mMTC (massive machine type communications)), or high reliability and low latency (URLLC (ultra-reliable and low-latency) -latency communications)). The wireless communication module 192 may support a high frequency band (eg, mmWave band) to achieve a high data rate, for example. The wireless communication module 192 includes various technologies for securing performance in a high-frequency band, for example, beamforming, massive multiple-input and multiple-output (MIMO), all-dimensional multiplexing. It may support technologies such as full dimensional MIMO (FD-MIMO), an array antenna, analog beam-forming, or a large scale antenna. The wireless communication module 192 may support various requirements specified in the electronic device 101 , an external electronic device (eg, the electronic device 104 ), or a network system (eg, the second network 199 ). According to an embodiment, the wireless communication module 192 may include a peak data rate (eg, 20 Gbps or more) for realizing eMBB, loss coverage (eg, 164 dB or less) for realizing mMTC, or U-plane latency for realizing URLLC ( Example: downlink (DL) and uplink (UL) each 0.5 ms or less, or round trip 1 ms or less).

안테나 모듈(197)은 신호 또는 전력을 외부(예: 외부의 전자 장치)로 송신하거나 외부로부터 수신할 수 있다. 일실시예에 따르면, 안테나 모듈(197)은 서브스트레이트(예: PCB) 위에 형성된 도전체 또는 도전성 패턴으로 이루어진 방사체를 포함하는 안테나를 포함할 수 있다. 일실시예에 따르면, 안테나 모듈(197)은 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다. 이런 경우, 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 적어도 하나의 안테나가, 예를 들면, 통신 모듈(190)에 의하여 상기 복수의 안테나들로부터 선택될 수 있다. 신호 또는 전력은 상기 선택된 적어도 하나의 안테나를 통하여 통신 모듈(190)과 외부의 전자 장치 간에 송신되거나 수신될 수 있다. 어떤 실시예에 따르면, 방사체 이외에 다른 부품(예: RFIC(radio frequency integrated circuit))이 추가로 안테나 모듈(197)의 일부로 형성될 수 있다. The antenna module 197 may transmit or receive a signal or power to the outside (eg, an external electronic device). According to an embodiment, the antenna module 197 may include an antenna including a conductor formed on a substrate (eg, a PCB) or a radiator formed of a conductive pattern. According to an embodiment, the antenna module 197 may include a plurality of antennas (eg, an array antenna). In this case, at least one antenna suitable for a communication method used in a communication network such as the first network 198 or the second network 199 is connected from the plurality of antennas by, for example, the communication module 190 . can be selected. A signal or power may be transmitted or received between the communication module 190 and an external electronic device through the selected at least one antenna. According to some embodiments, other components (eg, a radio frequency integrated circuit (RFIC)) other than the radiator may be additionally formed as a part of the antenna module 197 .

다양한 실시예에 따르면, 안테나 모듈(197)은 mmWave 안테나 모듈을 형성할 수 있다. 일실시예에 따르면, mmWave 안테나 모듈은 인쇄 회로 기판, 상기 인쇄 회로 기판의 제 1 면(예: 아래 면)에 또는 그에 인접하여 배치되고 지정된 고주파 대역(예: mmWave 대역)을 지원할 수 있는 RFIC, 및 상기 인쇄 회로 기판의 제 2 면(예: 윗 면 또는 측 면)에 또는 그에 인접하여 배치되고 상기 지정된 고주파 대역의 신호를 송신 또는 수신할 수 있는 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다.According to various embodiments, the antenna module 197 may form a mmWave antenna module. According to one embodiment, the mmWave antenna module comprises a printed circuit board, an RFIC disposed on or adjacent to a first side (eg, bottom side) of the printed circuit board and capable of supporting a designated high frequency band (eg, mmWave band); and a plurality of antennas (eg, an array antenna) disposed on or adjacent to a second side (eg, top or side) of the printed circuit board and capable of transmitting or receiving signals of the designated high frequency band. can do.

상기 구성요소들 중 적어도 일부는 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input and output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))을 통해 서로 연결되고 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.At least some of the components are connected to each other through a communication method between peripheral devices (eg, a bus, general purpose input and output (GPIO), serial peripheral interface (SPI), or mobile industry processor interface (MIPI)) and a signal ( eg commands or data) can be exchanged with each other.

일실시예에 따르면, 명령 또는 데이터는 제 2 네트워크(199)에 연결된 서버(108)를 통해서 전자 장치(101)와 외부의 전자 장치(104)간에 송신 또는 수신될 수 있다. 외부의 전자 장치(102, 또는 104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 일실시예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 외부의 전자 장치들(102, 104, 또는 108) 중 하나 이상의 외부의 전자 장치들에서 실행될 수 있다. 예를 들면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로, 또는 사용자 또는 다른 장치로부터의 요청에 반응하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 하나 이상의 외부의 전자 장치들에게 그 기능 또는 그 서비스의 적어도 일부를 수행하라고 요청할 수 있다. 상기 요청을 수신한 하나 이상의 외부의 전자 장치들은 요청된 기능 또는 서비스의 적어도 일부, 또는 상기 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행의 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 상기 결과를, 그대로 또는 추가적으로 처리하여, 상기 요청에 대한 응답의 적어도 일부로서 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 모바일 에지 컴퓨팅(MEC: mobile edge computing), 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다. 전자 장치(101)는, 예를 들어, 분산 컴퓨팅 또는 모바일 에지 컴퓨팅을 이용하여 초저지연 서비스를 제공할 수 있다. 다른 실시예에 있어서, 외부의 전자 장치(104)는 IoT(internet of things) 기기를 포함할 수 있다. 서버(108)는 기계 학습 및/또는 신경망을 이용한 지능형 서버일 수 있다. 일실시예에 따르면, 외부의 전자 장치(104) 또는 서버(108)는 제 2 네트워크(199) 내에 포함될 수 있다. 전자 장치(101)는 5G 통신 기술 및 IoT 관련 기술을 기반으로 지능형 서비스(예: 스마트 홈, 스마트 시티, 스마트 카, 또는 헬스 케어)에 적용될 수 있다. According to an embodiment, the command or data may be transmitted or received between the electronic device 101 and the external electronic device 104 through the server 108 connected to the second network 199 . Each of the external electronic devices 102 or 104 may be the same as or different from the electronic device 101 . According to an embodiment, all or a part of operations executed in the electronic device 101 may be executed in one or more external electronic devices 102 , 104 , or 108 . For example, when the electronic device 101 is to perform a function or service automatically or in response to a request from a user or other device, the electronic device 101 may perform the function or service itself instead of executing the function or service itself. Alternatively or additionally, one or more external electronic devices may be requested to perform at least a part of the function or the service. One or more external electronic devices that have received the request may execute at least a part of the requested function or service, or an additional function or service related to the request, and transmit a result of the execution to the electronic device 101 . The electronic device 101 may process the result as it is or additionally and provide it as at least a part of a response to the request. For this, for example, cloud computing, distributed computing, mobile edge computing (MEC), or client-server computing technology may be used. The electronic device 101 may provide an ultra-low latency service using, for example, distributed computing or mobile edge computing. In another embodiment, the external electronic device 104 may include an Internet of things (IoT) device. Server 108 may be an intelligent server using machine learning and/or neural networks. According to an embodiment, the external electronic device 104 or the server 108 may be included in the second network 199 . The electronic device 101 may be applied to an intelligent service (eg, smart home, smart city, smart car, or health care) based on 5G communication technology and IoT-related technology.

이하에서는, 다양한 실시예들에 따른 전자 장치(210)의 일 예 및 외부 전자 장치(220)의 일 예에 대해서 설명한다. 도 1에서 설명된 전자 장치(101)에 대한 설명이, 전자 장치(210) 및 외부 전자 장치(220)에 준용될 수 있으므로 중복되는 설명은 생략한다.Hereinafter, an example of the electronic device 210 and an example of the external electronic device 220 according to various embodiments will be described. Since the description of the electronic device 101 described in FIG. 1 may be applied mutatis mutandis to the electronic device 210 and the external electronic device 220 , a redundant description will be omitted.

도 2a는 다양한 실시예들에 따른 전자 장치 및 외부 전자 장치를 나타내는 도면이다. 이하에서는, 도 2b 및 도 3을 참조하여 도 2a에 대해서 설명한다.2A is a diagram illustrating an electronic device and an external electronic device according to various embodiments of the present disclosure; Hereinafter, FIG. 2A will be described with reference to FIGS. 2B and 3 .

도 2b는 다양한 실시예들에 따른 전자 장치 및 외부 전자 장치의 구성의 일 예를 설명하기 위한 도면이다. 도 3은 다양한 실시예들에 따른 전자 장치의 구성의 다른 예를 설명하기 위한 도면이다. 다양한 실시예들에 따르면 도 2b 및 도 3에 도시된 구성들에 국한되지 않고, 전자 장치(210) 및 외부 전자 장치(220)는 도시된 구성들 보다 더 많은 구성들 또는 도시된 구성들 보다 더 적은 구성들을 포함할 수 있다. 예를 들어, 도 1에서 기술된 전자 장치(101)의 구성들이, 도 2 및 도 3에서 기술되는 전자 장치(210) 및/또는 외부 전자 장치(220)에 포함될 수 있다. 다양한 실시예들에 따르면, 전자 장치(210) 및/또는 외부 전자 장치(220)의 프로세서에 포함된 모듈들(예: 레코딩 모듈(212))은 프로세서(211, 예: 도 1의 프로세서(120))가 적어도 하나의 동작을 수행하도록 하는 인스트럭션들(instructions), 컴퓨터 코드(computer code), 또는 프로그램과 같은 전자적인 형태로 구현될 수 있다. 다시 말해, 모듈이 실행되는 경우, 모듈은 전자 장치(210)(예: 프로세서(211), 예: 도 1의 프로세서(120))가 모듈과 연관된 적어도 하나의 동작을 수행하도록 할 수 있다.2B is a diagram for explaining an example of the configuration of an electronic device and an external electronic device according to various embodiments of the present disclosure; 3 is a diagram for describing another example of a configuration of an electronic device according to various embodiments of the present disclosure; According to various embodiments, it is not limited to the configurations shown in FIGS. 2B and 3 , and the electronic device 210 and the external electronic device 220 have more configurations than the illustrated configurations or more than the illustrated configurations. It may include few components. For example, the components of the electronic device 101 described in FIG. 1 may be included in the electronic device 210 and/or the external electronic device 220 described in FIGS. 2 and 3 . According to various embodiments, the electronic device 210 and/or modules (eg, the recording module 212 ) included in the processor of the external electronic device 220 include the processor 211 (eg, the processor 120 of FIG. 1 ). )) may be implemented in an electronic form such as instructions, computer code, or a program for performing at least one operation. In other words, when the module is executed, the module may cause the electronic device 210 (eg, the processor 211 , such as the processor 120 of FIG. 1 ) to perform at least one operation associated with the module.

다양한 실시예들에 따르면, 전자 장치(210)와 외부 전자 장치(220)는 도 2a에 도시된 바와 같이, 서로 통신 연결(230)을 형성할 수 있다. 상기 통신 연결(230)의 종류는 블루투스(blue-tooth), Wi-Fi direct, Wi-Fi hot spot과 같은 D2D 방식 및 Wi-Fi와 같은 AP(access point)를 이용하는 방식의 무선 통신 연결(230) 및 시리얼(USB)과 같은 유선 통신 연결(230)을 포함할 수 있다. 전자 장치(210)와 외부 전자 장치(220)는 형성된 통신을 통해서 데이터를 송신 및/또는 수신할 수 있다. 상기 전자 장치(210)와 외부 전자 장치(220)의 데이터의 송신 및/또는 수신 시 레이튼시(latency)가 발생될 수 있다. 예를 들어, 전자 장치(210)가 외부 전자 장치(220)로 제 1 시점에 데이터를 송신하는 경우, 외부 전자 장치(220)는 제 2 시점에 데이터를 수신할 수 있다. 상기 데이터의 송신 시점인 제 1 시점과 상기 데이터의 수신 시점인 제 2 시점의 차이는 레이튼시로 정의될 수 있다. 전자 장치(210)는 상기 통신 연결(230)과 연관된 레이튼시에 기반하여, 적어도 하나의 동작(예: 화면 출력 동작, 및 레코딩 동작)을 수행할 수 있는데, 이에 대해서는 후술한다.According to various embodiments, the electronic device 210 and the external electronic device 220 may form a communication connection 230 with each other as shown in FIG. 2A . The type of the communication connection 230 is a wireless communication connection 230 using a D2D method such as Bluetooth (blue-tooth), Wi-Fi direct, Wi-Fi hot spot, and an AP (access point) such as Wi-Fi. ) and a wired communication connection 230 such as serial (USB). The electronic device 210 and the external electronic device 220 may transmit and/or receive data through established communication. Latency may occur when the electronic device 210 and the external electronic device 220 transmit and/or receive data. For example, when the electronic device 210 transmits data to the external electronic device 220 at a first time, the external electronic device 220 may receive the data at a second time. A difference between the first time point, which is the data transmission time, and the second time point, which is the data reception time, may be defined as latency. The electronic device 210 may perform at least one operation (eg, a screen output operation and a recording operation) based on the latency associated with the communication connection 230 , which will be described later.

다양한 실시예들에 따르면 전자 장치(210)는 외부 전자 장치(220)와 형성된 통신 연결(230)에 기반하여, 외부 전자 장치(220)와 협업 동작을 수행할 수 있다. 예를 들어, 전자 장치(210)는 일 동작을 수행하면서, 외부 전자 장치(220)가 다른 동작을 수행하도록 외부 전자 장치(220)로 통신을 통해서 데이터를 전송 할 수 있다. 일 예로, 전자 장치(210)는 화면을 출력하는 동작(또는, 화면을 디스플레이에 표시)을 수행하며, 통신 연결(230)된 외부 전자 장치(220)로 오디오 데이터를 전송하여 외부 전자 장치(220)가 오디오를 출력하는 동작을 수행하도록 할 수 있다. 전자 장치(210)는, 협업 동작이 수행 되는 경우, 전자 장치(210)에서 수행되는 일 동작이 수행되는 시점과 외부 전자 장치(220)에서 수행되는 다른 동작이 수행되는 시점이 같아지도록(또는, 동기화되도록) 레이튼시를 이용할 수 있다. 전자 장치(210)의 레이튼시를 이용하여 동작을 동기화하는 동작(예: 화면의 출력과 오디오의 출력을 동기화)에 대해서는 후술한다.According to various embodiments, the electronic device 210 may perform a cooperative operation with the external electronic device 220 based on the communication connection 230 formed with the external electronic device 220 . For example, while performing one operation, the electronic device 210 may transmit data to the external electronic device 220 through communication so that the external electronic device 220 performs another operation. As an example, the electronic device 210 performs an operation of outputting a screen (or displaying the screen on a display), and transmits audio data to the external electronic device 220 through which the communication connection 230 is connected to the external electronic device 220 . ) can perform an operation of outputting audio. When a collaborative operation is performed, the electronic device 210 sets the time point at which one operation performed by the electronic device 210 is performed and the time point at which another operation performed by the external electronic device 220 is performed to be the same (or, to be synchronized) and latency can be used. An operation of synchronizing an operation using the latency of the electronic device 210 (eg, synchronizing an output of a screen and an output of an audio) will be described later.

다양한 실시예들에 따르면 전자 장치(210)는 외부 전자 장치(220)와 협업 동작을 수행하면서, 레코딩 동작을 수행할 수 있다. 상기 레코딩 동작은 다양한 종류의 데이터를 실시간으로 먹싱(muxing)하는 동작을 포함할 수 있다. 상기 다양한 종류의 데이터는 비디오 데이터, 또는 오디오 데이터를 포함하며, 각각의 데이터는 인코딩 된 실시간 스트림 데이터일 수 있다. 예를 들어, 전자 장치(210)는 레코딩 동작을 개시하기 위한 이벤트가 식별되는 경우, 현재 표시중인 화면과 관련된 비디오 데이터 및 출력되는 오디오와 관련된 오디오 데이터를 실시간으로 획득하고 비디오 데이터 및 오디오 데이터를 먹싱할 수 있다. 전자 장치(210)는 상기 먹싱의 결과로서, 비디오 데이터와 오디오 데이터를 포함하는 파일을 생성할 수 있다. 생성된 파일이 재생되는 경우, 비디오 데이터와 오디오 데이터가 재생되어 비디오와 오디오가 함께 출력될 수 있다. 상기 레코딩 동작의 종류는 상기 비디오 데이터와 상기 오디오 데이터를 레코딩하는 동작 외에도, 비디오 데이터만을 레코딩하는 동작, 및 비디오 데이터, 오디오 데이터 및 사용자의 음성에 대응하는 오디오 데이터를 레코딩 하는 동작을 포함할 수 있다. 상기 전자 장치(210)는 레코딩 동작의 수행 시, 레이튼시를 이용하여 먹싱되는 오디오 데이터(525)의 레코딩되는 시점 및/또는 비디오 데이터(515)의 레코딩되는 시점을 조정할 수 있다. 전자 장치(210)의 구체적인 레코딩 동작에 대해서는 후술한다.According to various embodiments, the electronic device 210 may perform a recording operation while performing a cooperative operation with the external electronic device 220 . The recording operation may include an operation of muxing various types of data in real time. The various types of data include video data or audio data, and each data may be encoded real-time stream data. For example, when an event for initiating a recording operation is identified, the electronic device 210 acquires video data related to a currently displayed screen and audio data related to output audio in real time, and muxes the video data and audio data. can do. As a result of the muxing, the electronic device 210 may generate a file including video data and audio data. When the generated file is reproduced, video data and audio data may be reproduced to output video and audio together. The type of the recording operation may include, in addition to the operation of recording the video data and the audio data, an operation of recording only video data, and an operation of recording video data, audio data, and audio data corresponding to a user's voice. . When performing a recording operation, the electronic device 210 may adjust a recording time of the muxed audio data 525 and/or a recording time of the video data 515 using latency. A detailed recording operation of the electronic device 210 will be described later.

이하에서는 전자 장치(210)의 구성의 일 예 및 외부 전자 장치(220)의 구성의 일 예에 대해서 설명한다. Hereinafter, an example of the configuration of the electronic device 210 and an example of the configuration of the external electronic device 220 will be described.

다양한 실시예들에 따르면, 전자 장치(210)는 도 2b에 도시된 바와 같이 레코딩 모듈(212), 비디오 데이터 획득 모듈(213), 및 오디오 모듈(214)을 포함하는 프로세서(211), 디스플레이 제어 회로(215), 통신 회로(216), 디스플레이(217), 및/또는 안테나(218)를 포함할 수 있다. According to various embodiments, the electronic device 210 includes a processor 211 including a recording module 212 , a video data acquisition module 213 , and an audio module 214 , and display control as shown in FIG. 2B . circuitry 215 , communication circuitry 216 , display 217 , and/or antenna 218 .

다양한 실시예들에 따르면, 프로세서(211)의 레코딩 모듈(212)은 레코딩 동작을 수행할 수 있다. 상기 레코딩 모듈(212)은 상기 레코딩 동작과 연관된 이벤트를 수신하기 위한 인터페이스를 제공(예: 디스플레이 상에 표시)하고, 사용자로부터 레코딩 동작과 연관된 이벤트를 수신할 수 있다. 상기 레코딩 모듈(212)은 레코딩 동작이 개시되는 경우, 실시간으로 다양한 종류의 데이터(예: 오디오 데이터 및/또는 비디오 데이터)를 획득하고, 획득된 다양한 종류의 데이터를 먹싱할 수 있다. 예를 들어 상기 레코딩 모듈(212)은 전자 장치(210)의 디스플레이 상에 표시되는 적어도 하나의 화면에 대한 비디오 데이터(515)를 비디오 데이터 획득 모듈(213)로부터 획득할 수 있다. 상기 비디오 데이터 획득 모듈(213)은 레코딩 동작이 수행되는 경우, 레코딩 동작이 수행되는 시점부터 디스플레이 제어 회로(215)의 디스플레이(217)에 화면을 표시하기 위한 구성으로부터 비디오 데이터(515)를 획득하여 레코딩 모듈(212)로 전달할 수 있다. 또 예를 들어, 상기 레코딩 모듈(212)은 전자 장치(210) 또는 외부 전자 장치(220)에서 출력되는 오디오에 대한 오디오 데이터를 오디오 모듈(214)로부터 획득할 수 있다. 상기 레코딩 모듈(212)에 의해 획득되는 다양한 종류의 데이터는 지정된 코덱에 의해 인코딩된 데이터일 수 있다. 또는, 상기 다양한 종류의 데이터는 레코딩 모듈(212)에 의해 먹싱 전에 지정된 코덱을 이용하여 인코딩될 수 있다. 또는 상기 다양한 종류의 데이터는 인코딩되지 않은 상태에서 레코딩 어플리케이션에 의해 먹싱될 수 있다. 또 다양한 실시예들에 따르면 상기 기재된 바에 국한되지 않고, 레코딩 모듈(212)은 레코딩 동작을 실시간으로 수행하지 않고, 레코딩 동작의 수행 시점부터 레코딩 동작이 종료되는 시점까지의 실시간으로 축적된 데이터들(예: 비디오 데이터 및/또는 오디오 데이터)을 레코딩 동작이 종료되는 시점에서 먹싱할 수도 있다. 이하에서는 설명의 편의를 위해서 레코딩 동작은 실시간으로 수행되는 것으로 예를 들어 설명하지만, 설명된 예들은 레코딩 동작이 종료되는 시점에서 데이터들을 먹싱하는 레코딩 동작에도 준용될 수 있다.According to various embodiments, the recording module 212 of the processor 211 may perform a recording operation. The recording module 212 may provide an interface (eg, displayed on a display) for receiving an event related to the recording operation, and receive an event related to the recording operation from a user. When a recording operation is started, the recording module 212 may acquire various types of data (eg, audio data and/or video data) in real time and mux the obtained various types of data. For example, the recording module 212 may acquire the video data 515 for at least one screen displayed on the display of the electronic device 210 from the video data acquisition module 213 . When the recording operation is performed, the video data acquisition module 213 acquires the video data 515 from the configuration for displaying a screen on the display 217 of the display control circuit 215 from the time the recording operation is performed. may be transmitted to the recording module 212 . Also, for example, the recording module 212 may obtain audio data for audio output from the electronic device 210 or the external electronic device 220 from the audio module 214 . Various types of data obtained by the recording module 212 may be data encoded by a designated codec. Alternatively, the various types of data may be encoded using a designated codec before muxing by the recording module 212 . Alternatively, the various types of data may be muxed by a recording application in an unencoded state. In addition, according to various embodiments, without being limited thereto, the recording module 212 does not perform the recording operation in real time, but data ( For example, video data and/or audio data) may be muxed at the time the recording operation ends. Hereinafter, for convenience of description, the recording operation will be described as being performed in real time, but the described examples may be applied mutatis mutandis to a recording operation of muxing data when the recording operation is terminated.

다양한 실시예들에 따르면, 레코딩 모듈(212)은 외부 전자 장치(220)와의 통신 연결(230) 여부에 따라서, 레코딩 동작을 수행할 수 있다. 예를 들어, 레코딩 모듈(212)은 통신 연결(230) 여부에 따라서 레코딩되는 다양한 종류의 데이터(예: 오디오 데이터 및/또는 비디오 데이터)의 레코딩 시점을 조정할 수 있다. 상기 레코딩 모듈(212)에 의한 레코딩 시점의 조정 동작에 대해서는 후술한다.According to various embodiments, the recording module 212 may perform a recording operation according to whether the communication connection 230 with the external electronic device 220 is established. For example, the recording module 212 may adjust the recording time of various types of data (eg, audio data and/or video data) to be recorded according to whether the communication connection 230 is established. The adjustment operation of the recording time by the recording module 212 will be described later.

다양한 실시예들에 따르면 프로세서(211)의 레코딩 모듈(212)은 상기 먹싱의 결과로서, 비디오 데이터(515)와 오디오 데이터를 포함하는 파일을 생성할 수 있다. 전자 장치(210)는 생성된 파일이 재생되는 경우, 미디어 재생 어플리케이션을 이용하여 파일로부터 비디오 데이터(515)와 오디오 데이터를 스플리팅하고, 비디오 데이터 및 오디오 데이터를 각각 재생할 수 있다. 상기 비디오 데이터 및 오디오 데이터가 각각 재생됨에 따라, 전자 장치(210)는 비디오와 오디오를 함께 출력할 수 있다. According to various embodiments, the recording module 212 of the processor 211 may generate a file including video data 515 and audio data as a result of the muxing. When the generated file is reproduced, the electronic device 210 may split the video data 515 and audio data from the file using a media playback application and reproduce the video data and the audio data, respectively. As the video data and the audio data are respectively reproduced, the electronic device 210 may output video and audio together.

다양한 실시예들에 따르면 오디오 모듈(214)은 오디오 데이터를 통신 회로(216)로 제공하고, 통신 회로(216)를 이용하여 안테나(218)를 통해서 오디오 데이터를 외부 전자 장치(220)로 전송할 수 있다. 외부 전자 장치(220)는 수신된 오디오 데이터에 기반하여 스피커(225)를 통해 오디오를 출력할 수 있다.According to various embodiments, the audio module 214 may provide audio data to the communication circuit 216 and transmit the audio data to the external electronic device 220 through the antenna 218 using the communication circuit 216 . have. The external electronic device 220 may output audio through the speaker 225 based on the received audio data.

다양한 실시예들에 따르면 디스플레이 제어 회로(215)는 디스플레이(217)에 적어도 하나의 화면을 표시할 수 있다. 예를 들어, 전자 장치(210)는 적어도 하나의 어플리케이션의 실행 및/또는 구동에 따라 획득되는 비디오 데이터를 기반으로, 디스플레이 제어 회로(215)를 이용하여 디스플레이(217)에 적어도 하나의 화면을 표시할 수 있다. 또, 전자 장치(210)와 외부 전자 장치(220) 사이에 통신 연결(230)이 형성되는 경우, 전자 장치(210)(예: 프로세서(211))는 통신 연결(230)과 연관된 레이튼시 만큼 적어도 하나의 화면의 출력 시점이 조정되도록 디스플레이 제어 회로(215) 및 디스플레이(217)를 제어할 수 있다. 상기 전자 장치(210)의 통신 연결(230) 형성 시 출력 시점을 조정하는 동작에 대해서는 후술한다.According to various embodiments, the display control circuit 215 may display at least one screen on the display 217 . For example, the electronic device 210 displays at least one screen on the display 217 using the display control circuit 215 based on video data obtained according to the execution and/or driving of at least one application. can do. In addition, when the communication connection 230 is formed between the electronic device 210 and the external electronic device 220 , the electronic device 210 (eg, the processor 211 ) operates as much as the latency associated with the communication connection 230 . The display control circuit 215 and the display 217 may be controlled to adjust an output timing of at least one screen. The operation of adjusting the output timing when the communication connection 230 of the electronic device 210 is formed will be described later.

다양한 실시예들에 따르면 비디오 데이터 획득 모듈(213)은 레코딩 모듈(212)에 대한 설명에서 상술한 바와 같이, 레코딩 동작이 수행되는 경우 디스플레이에 표시되는 적어도 하나의 화면에 대한 비디오 데이터(515)를 획득하여 레코딩 모듈(212)로 제공할 수 있다.According to various embodiments, the video data acquisition module 213 obtains video data 515 for at least one screen displayed on a display when a recording operation is performed, as described above in the description of the recording module 212 . It can be obtained and provided to the recording module 212 .

다양한 실시예들에 따르면 전자 장치(210)는 메모리(미도시)에 상기 레이튼시에 대한 정보를 저장할 수 있다. 예를 들어, 전자 장치(210)는 외부 전자 장치(220)와 통신 연결(230) 형성 시 외부 전자 장치(220)로부터 수신된 통신 연결에 대한 정보(예: 통신 연결과 연관된 레이튼시에 대한 정보)를 수신하여 메모리(미도시)에 저장할 수 있다. 또 예를 들어, 전자 장치(210)는 수신된 통신 연결에 대한 정보에 기반하여 식별된 레이튼시에 대한 정보를 메모리(미도시)에 저장할 수 있다.According to various embodiments, the electronic device 210 may store the information on the latency in a memory (not shown). For example, when the electronic device 210 forms a communication connection 230 with the external electronic device 220 , information on a communication connection received from the external electronic device 220 (eg, information on latency associated with a communication connection) ) can be received and stored in a memory (not shown). Also, for example, the electronic device 210 may store information on latency identified based on the received communication connection information in a memory (not shown).

이하에서는 외부 전자 장치(220)의 구성의 일 예에 대해서 설명한다.Hereinafter, an example of the configuration of the external electronic device 220 will be described.

다양한 실시예들에 따르면 외부 전자 장치(220)는 오디오 모듈(222)을 포함하는 프로세서(221), 통신 회로(223), 안테나(224), 스피커(225) 및/또는 마이크(226)를 포함할 수 있다.According to various embodiments, the external electronic device 220 includes a processor 221 including an audio module 222 , a communication circuit 223 , an antenna 224 , a speaker 225 , and/or a microphone 226 . can do.

다양한 실시예들에 따르면, 프로세서(221)의 오디오 모듈(222)은 오디오 데이터(525)에 기반하여 스피커(225)를 통해서 오디오를 출력할 수 있다. 오디오 모듈(222)은 마이크(226)를 통해서 사운드(예: 사용자의 음성)를 수신하고, 수신된 사용자의 음성을 오디오 데이터(525)로 획득할 수 있다. 상기 오디오 모듈(222)은 통신 회로(223)로 오디오 데이터(525)를 전달하고 상기 오디오 데이터(525)는 통신 회로(233)를 통해 전자 장치(210)로 송신될 수 있다. 또 상기 오디오 모듈(222)은 통신 회로(223)를 통해서 전자 장치(210)로부터 수신된 오디오 데이터(525)를 획득할 수 있다.According to various embodiments, the audio module 222 of the processor 221 may output audio through the speaker 225 based on the audio data 525 . The audio module 222 may receive a sound (eg, a user's voice) through the microphone 226 , and obtain the received user's voice as audio data 525 . The audio module 222 may transmit audio data 525 to the communication circuit 223 , and the audio data 525 may be transmitted to the electronic device 210 through the communication circuit 233 . Also, the audio module 222 may acquire the audio data 525 received from the electronic device 210 through the communication circuit 223 .

다양한 실시예들에 따르면 외부 전자 장치(220)는 통신 회로(223)를 이용하여 안테나(224)를 통해 전자 장치(210)로부터 오디오 데이터(525)를 수신하고, 수신된 오디오 데이터(525)를 오디오 모듈(222)로 제공할 수 있다. 상기 외부 전자 장치(220)는 오디오 모듈(222)로부터 오디오 데이터(525)(예: 사용자 음성과 연관된 오디오 데이터(525))를 획득하고, 통신 회로(223)를 이용하여 안테나(224)를 통해 획득된 오디오 데이터(525)를 전자 장치(210)로 송신할 수 있다.According to various embodiments, the external electronic device 220 receives the audio data 525 from the electronic device 210 through the antenna 224 using the communication circuit 223 and transmits the received audio data 525 . It may be provided by the audio module 222 . The external electronic device 220 obtains audio data 525 (eg, audio data 525 related to a user's voice) from the audio module 222 , and uses the communication circuit 223 through the antenna 224 . The acquired audio data 525 may be transmitted to the electronic device 210 .

다양한 실시예들에 따르면 외부 전자 장치(220)는 메모리(미도시)에 외부 전자 장치(220)가 이용하는 통신 연결에 대한 정보(예: 통신 연결과 연관된 레이튼시에 대한 정보)를 저장할 수 있다. 외부 전자 장치(220)는 전자 장치(210)와 통신 연결(230) 형성 시 전자 장치(210)로 통신 연결(230)에 대한 정보를 송신할 수 있다.According to various embodiments, the external electronic device 220 may store information on a communication connection used by the external electronic device 220 (eg, information on latency associated with the communication connection) in a memory (not shown). The external electronic device 220 may transmit information on the communication connection 230 to the electronic device 210 when the communication connection 230 is formed with the electronic device 210 .

이하에서는 전자 장치(210)의 구성의 다른 예에 대해서 설명한다. 상기 도 2a에서 설명된 전자 장치(210)의 구성들은 도 2b에 도시된 바와 같이 구현될 수 있다.Hereinafter, another example of the configuration of the electronic device 210 will be described. The configurations of the electronic device 210 described with reference to FIG. 2A may be implemented as illustrated in FIG. 2B .

다양한 실시예들에 따르면, 전자 장치(210)는 센서 컨트롤러(sensor controller)(311) 및 디스플레이 패널(display panel)(312)을 포함하는 하드웨어 계층(HW), 센서 드라이버(sensor driver)(321), BT AV sync 모듈(322), DDI 컨트롤러(diplay driver integrated circuit controller)(323)를 포함하는 커널 계층(kernel), 이벤트 허브(event hub)(331), 오디오 HAL(audio hal)(332), 및 서피스 플린져(surface flinger)(333)를 포함하는 하드웨어 추상화 계층(HAL), 센서 매니져(sensor manager)(335), 윈도우 매니져(window manager)(334), 가상 디스플레이(virtual display)(337)와 미디어 프로젝션(media projection)(338)을 포함하는 비디오 레코드(video record) 모듈(336), 오디오 레코드(audio record)(340)와 오디오 프레임워크(audio framework)(341)를 포함하는 오디오 서비스(339), 뷰 시스템(view system)(342), 액티비티 매니져(activity manager)(343)를 포함하는 프레임 워크(framework), 및 SRM(screen recorder manager, 이하 레코딩 어플리케이션)(351), 시스템 UI(system user interface)(355)와 그외 어플리케이션들(352, 353, 또는 354)을 포함하는 어플리케이션 계층(application)을 포함할 수 있다. 여기서, 상기 커널 계층(kernel), 하드웨어 추상화 계층(hardware abstraction layer, HAL), 프레임 워크 계층(framework), 및 어플리케이션 계층(application)은 상술한 도 2a의 프로세서(211)에 포함된 모듈들과 같이 프로세서(211)가 적어도 하나의 동작을 수행하도록 하는 인스트럭션들(instructions), 컴퓨터 코드(computer code), 또는 프로그램과 같은 전자적인 형태로 구현될 수 있다.According to various embodiments, the electronic device 210 includes a hardware layer (HW) including a sensor controller 311 and a display panel 312 , and a sensor driver 321 . , a BT AV sync module 322, a kernel layer including a DDI controller (diplay driver integrated circuit controller) 323, an event hub 331, an audio HAL (audio hal) 332, and a hardware abstraction layer (HAL) including a surface flinger (333), a sensor manager (335), a window manager (334), a virtual display (337) and a video record module 336 including a media projection 338 and an audio service including an audio record 340 and an audio framework 341 ( 339), a view system 342, a framework including an activity manager 343, and a screen recorder manager (hereinafter, recording application) 351 (SRM) 351, system UI (system) It may include an application layer (application) including a user interface) 355 and other applications 352 , 353 , or 354 . Here, the kernel layer (kernel), hardware abstraction layer (hardware abstraction layer, HAL), framework layer (framework), and the application layer (application) are the same as the modules included in the processor 211 of FIG. 2A described above. Instructions for causing the processor 211 to perform at least one operation may be implemented in an electronic form, such as instructions, computer code, or a program.

이하에서는 하드웨어 계층(HW)에 대해서 설명한다.Hereinafter, the hardware layer (HW) will be described.

다양한 실시예들에 따르면 센서 컨트롤러(311)는 다양한 종류의 전자 장치(210)의 상태를 검출할 수 있다. 예를 들어 센서 컨트롤러(311)는 홀 센서를 이용하여, 전자 장치(210)가 폴더블 전자 장치(210)인 경우, 폴더블 전자 장치(210)의 폴딩 여부를 검출할 수 있다.According to various embodiments, the sensor controller 311 may detect states of various types of electronic devices 210 . For example, when the electronic device 210 is the foldable electronic device 210 using a Hall sensor, the sensor controller 311 may detect whether the foldable electronic device 210 is folded.

다양한 실시예들에 따르면 디스플레이 패널(312)은 적어도 하나의 화면을 출력할 수 있다.According to various embodiments, the display panel 312 may output at least one screen.

이하에서는 커널 계층(kernel)에 대해서 설명한다.Hereinafter, the kernel layer (kernel) will be described.

다양한 실시예들에 따르면 커널 계층(kernel)은 전자 장치(210)에 포함된 다양한 하드웨어 모듈(예: 311, 또는 312)을 제어하기 위한 다양한 드라이버를 포함할 수 있다. According to various embodiments, the kernel layer may include various drivers for controlling various hardware modules (eg, 311 or 312 ) included in the electronic device 210 .

다양한 실시예들에 따르면 센서 드라이버(321)는 센서 컨트롤러(311)를 제어하는 인터페이스 모듈을 포함할 수 있다.According to various embodiments, the sensor driver 321 may include an interface module for controlling the sensor controller 311 .

다양한 실시예들에 따르면 BT AV sync 모듈(322)은 외부 전자 장치(220)와 통신 연결(230)(예: 블루투스) 형성 시 안테나(218)와 같은 구성을 통한 데이터의 출력을 제어할 수 있다.According to various embodiments, the BT AV sync module 322 may control the output of data through a configuration such as the antenna 218 when the external electronic device 220 and the communication connection 230 (eg, Bluetooth) are formed. .

다양한 실시예들에 따르면 DDI 컨트롤러(323)는 디스플레이 패널(312)을 통한 적어도 하나의 화면의 출력을 제어할 수 있다.According to various embodiments, the DDI controller 323 may control the output of at least one screen through the display panel 312 .

이하에서는 하드웨어 추상화 계층(HAL)에 대해서 설명한다.Hereinafter, the hardware abstraction layer (HAL) will be described.

하드웨어 추상화 계층(HAL)은 하드웨어 계층(HW)에 포함된 복수의 하드웨어 모듈과 전자 장치(210)의 소프트웨어 사이의 추상화된 계층을 의미할 수 있다. The hardware abstraction layer (HAL) may refer to an abstraction layer between a plurality of hardware modules included in the hardware layer (HW) and software of the electronic device 210 .

다양한 실시예들에 따르면 이벤트 허브(331)는 입력 디스패처 또는 센서에서 발생하는 이벤트를 표준화하는 인터페이스를 제공할 수 있다. 입력 디스패처(미도시)는 발생한 이벤트를 어떠한 어플리케이션으로 제공할 지 결정하는 기능을 수행할 수 있다. 이벤트 허브(331)는 수집된 이벤트 및 데이터가 처리되도록 할 수 있다. 예를 들어, 이벤트 허브(331)는 센서 모듈(미도시)로부터 수집된 이벤트 및 데이터에 대응하는 서비스가 제공될 수 있도록 프레임 워크 계층(framework)으로 전달할 수 있다.According to various embodiments, the event hub 331 may provide an interface for standardizing an event occurring in an input dispatcher or a sensor. The input dispatcher (not shown) may perform a function of determining to which application the generated event is provided. The event hub 331 may cause the collected events and data to be processed. For example, the event hub 331 may transmit the event and data collected from the sensor module (not shown) to a framework layer so that a service corresponding to the data may be provided.

다양한 실시예들에 따르면 서피스 플린져(333)는 여러 어플리케이션에서 생성된 실행 화면 중 디스플레이에 표시할 실행 화면을 제공하는 기능을 수행하고, 디스플레이 구성 변경 시 변경된 디스플레이 구성에 따라 해상도 및 밀집도의 변경을 처리하도록 어플리케이션들(352, 353, 또는 354)에 요청할 수 있다 다양한 실시예들에 따르면, 서피스 플린져(333)는, 복수의 레이어들을 합성할 수 있다. 상기 서피스 플린져(333)는 합성된 복수의 레이어들을 나타내는 데이터를 디스플레이 컨트롤러 (예: DDI 컨트롤러(323))에게 제공할 수 있다.According to various embodiments, the surface flanger 333 performs a function of providing an execution screen to be displayed on a display among execution screens generated by various applications, and changes the resolution and density according to the changed display configuration when the display configuration is changed. may request applications 352 , 353 , or 354 to process. According to various embodiments, the surface flinger 333 may combine a plurality of layers. The surface flinger 333 may provide data representing a plurality of synthesized layers to a display controller (eg, the DDI controller 323 ).

상기 기재에 국한되지 않고 하드웨어 추상화 계층(HAL)은 주지된 기술과 같이 구현될 수 있으므로, 중복되는 설명은 생략한다.It is not limited to the above description, and since the hardware abstraction layer (HAL) may be implemented like a well-known technique, a redundant description will be omitted.

이하에서는 프레임 워크 계층(framework)에 대해서 설명한다. Hereinafter, a framework layer will be described.

다양한 실시예들에 따르면 프레임워크(framework)는 전자 장치(210)의 하나 이상의 리소스들로부터 제공되는 기능 또는 정보가 어플리케이션(application)에 의해 사용될 수 있도록 다양한 기능들을 어플리케이션으로 제공할 수 있다. According to various embodiments, a framework may provide various functions to an application so that a function or information provided from one or more resources of the electronic device 210 may be used by an application.

다양한 실시예들에 따르면 윈도우 매니져(334)는 화면에서 사용되는 하나 이상의 GUI(graphic user interface) 자원들을 관리할 수 있다.According to various embodiments, the window manager 334 may manage one or more graphic user interface (GUI) resources used in a screen.

다양한 실시예들에 따르면 센서 매니져(335)는 센서(미도시)에 의해 센싱된 정보를 획득하고, 센싱된 정보가 어플리케이션에 의해 처리되도록 할 수 있다.According to various embodiments, the sensor manager 335 may obtain information sensed by a sensor (not shown) and allow the sensed information to be processed by an application.

다양한 실시예들에 따르면 비디오 레코드 모듈(336)은 도 2a에서 설명된 비디오 데이터 획득 모듈(213)과 같이 디스플레이 패널(312)을 통해 표시되는 적어도 하나의 화면에 대한 비디오 데이터를 획득하고, SRM(351, 이하 레코딩 어플리케이션(recording app))으로 전달할 수 있다. 예를 들어, 비디오 레코드 모듈(336)은 도 3에 도시된 바와 같이 서피스 플린져(333)로 전달되는 비디오 데이터를 획득(또는, 서피스 플린져(333)로부터 바로 비디오 데이터를 획득)할 수 있다. 기술된 비디오 레코드 모듈(336)의 비디오 데이터를 획득하는 동작은 일 예일 뿐, 기재된 바에 국한되지 않고 비디오 데이터 모듈(336)은 디스플레이 패널(312)을 통해 표시되는 적어도 하나의 화면에 대한 비디오 데이터를 획득할 수 있는 다양한 구성들로부터 비디오 데이터를 획득할 수 있다. 비디오 레코드 모듈(336)에 포함된 미디어 프로젝션(338)은 가상 디스플레이(337)를 생성하고, 가상 디스플레이(337)에는 적어도 하나의 화면에 대한 비디오 데이터가 실시간으로 전달 및/또는 획득될 수 있다. 상기 비디오 레코드 모듈(336)은 실시간으로 전달 및/또는 획득된 비디오 데이터를 SRM(351)으로 전달할 수 있다.According to various embodiments, the video record module 336 acquires video data for at least one screen displayed through the display panel 312 like the video data acquisition module 213 described in FIG. 2A , and SRM ( 351, hereinafter referred to as a recording application). For example, the video record module 336 may acquire the video data transmitted to the surface flanger 333 (or acquire the video data directly from the surface flanger 333 ) as shown in FIG. 3 . . The described operation of acquiring video data of the video record module 336 is only an example, and the description is not limited thereto. The video data module 336 receives video data for at least one screen displayed through the display panel 312 . Video data may be obtained from various obtainable configurations. The media projection 338 included in the video record module 336 generates a virtual display 337 , and video data for at least one screen may be transmitted and/or acquired in real time to the virtual display 337 . The video record module 336 may transmit and/or acquired video data in real time to the SRM 351 .

다양한 실시예들에 따르면 오디오 서비스(339)는 도 2a에서 설명된 오디오 모듈(214)과 같이 획득된 오디오 데이터에 기반하여 오디오를 출력하도록 처리하거나 오디오 데이터가 외부 전자 장치(220)로 전송되도록 처리하거나, 오디오 데이터가 레코딩 되도록 SRM(351, 레코딩 어플리케이션)으로 전달할 수 있다. 오디오 서비스(339)에 포함된 오디오 프레임 워크(341)는 오디오 데이터를 처리할 수 있다. 오디오 레코드(340)는 오디오 데이터를 SRM(351, 레코딩 어플리케이션)으로 전달할 수 있다. 예를 들어, 오디오 레코드(340)는 외부 전자 장치(예: 도 2b의 220)로부터 통신 연결 형성에 따라 BT AV sync 모듈(322)과 Audio HAL(332)로부터 전달되는 오디오 데이터를 SRM(351)로 전달할 수 있다.According to various embodiments, the audio service 339 processes to output audio or transmits the audio data to the external electronic device 220 based on the acquired audio data like the audio module 214 described in FIG. 2A . Alternatively, the audio data may be transmitted to the SRM 351 (recording application) to be recorded. The audio framework 341 included in the audio service 339 may process audio data. The audio record 340 may deliver audio data to the SRM 351 (recording application). For example, the audio record 340 transmits audio data transmitted from the BT AV sync module 322 and the Audio HAL 332 to the SRM 351 according to the establishment of a communication connection from an external electronic device (eg, 220 in FIG. 2B ). can be transmitted as

다양한 실시예들에 따르면 뷰 시스템(342)은 애플리케이션 사용자 인터페이스 생성에 사용되는 확장 가능한 뷰들의 집합일 수 있다.According to various embodiments, the view system 342 may be a set of extensible views used to create an application user interface.

다양한 실시예들에 따르면 액티비티 매니져(343)는 애플리케이션의 생명주기(lifecycle)와 액티비티 스택을 제어할 수 있다.According to various embodiments, the activity manager 343 may control an application lifecycle and an activity stack.

상기 기재에 국한되지 않고 프레임 워크(framework)는 주지된 기술과 같이 구현될 수 있으므로, 중복되는 설명은 생략한다.Since the framework is not limited to the above description and may be implemented as well-known techniques, a redundant description will be omitted.

이하에서는 어플리케이션 계층(application)에 대해서 설명한다.Hereinafter, an application layer (application) will be described.

어플리케이션 계층(application)은 메모리(예: 도 1의 메모리(130)) 상에 저장 및 프로세서(예: 도 1의 프로세서(120), 도 2b의 프로세서(211))에 의해 실행 가능한 적어도 하나의 어플리케이션(351, 352, 353, 또는 354) 및 시스템 UI(355)를 포함할 수 있다. The application layer (application) is stored in a memory (eg, the memory 130 of FIG. 1 ) and at least one application executable by the processor (eg, the processor 120 of FIG. 1 , the processor 211 of FIG. 2B ). 351 , 352 , 353 , or 354 , and a system UI 355 .

다양한 실시예들에 따르면 SRM(Screen Recorder Manager, 레코딩 어플리케이션(recording app))(351)은 도 2b에서 상술한 레코딩 모듈(212)과 같이 레코딩 동작을 수행할 수 있다. 다시 말해, 도 2b에서 상술한 레코딩 모듈(212)은 도 3에 도시된 바와 같이 어플리케이션의 형태로 구현될 수 있다. 상기 레코딩 어플리케이션(351)은 비디오 데이터 및/또는 오디오 데이터를 실시간으로 획득하여 먹싱할 수 있다. 상기 레코딩 어플리케이션(351)은 전자 장치(210)의 레코딩 동작의 수행 시에 오디오 데이터의 레코딩될 타임 스탬프(이하에서 레코딩 시점)을 레이튼시를 이용하여 조정하여 레코딩 동작을 수행할 수 있다. 레코딩 어플리케이션(351)은 레코딩 모듈(212)과 같이 동작을 수행할 수 있으므로 중복되는 설명은 생략한다.According to various embodiments, the SRM (Screen Recorder Manager, recording application) 351 may perform a recording operation like the recording module 212 described above with reference to FIG. 2B . In other words, the recording module 212 described above in FIG. 2B may be implemented in the form of an application as shown in FIG. 3 . The recording application 351 may acquire and mux video data and/or audio data in real time. When the electronic device 210 performs the recording operation, the recording application 351 may perform the recording operation by adjusting a time stamp (hereinafter, a recording time point) of audio data to be recorded using latency. Since the recording application 351 may perform the same operation as the recording module 212 , a redundant description will be omitted.

다양한 실시예들에 따르면 어플리케이션(352, 353, 또는 354)은 인터넷 브라우저, 비디오 어플리케이션, 게임 등 다양한 종류의 어플리케이션을 포함할 수 있다. 어플리케이션은 실행 및/또는 구동됨에 따라서 처리될 각종 데이터(예: 오디오 데이터, 비디오 데이터 등)를 제공할 수 있다. 각종 데이터는 상술한 전자 장치(210)의 구성들에 의해 처리되어 각각의 하드웨어(예: 디스플레이, 안테나, 스피커 등)를 통해 출력될 수 있다. 전자 장치(210)는 통신 연결이 형성된 경우, 어플리케이션(352, 353, 또는 354)에 의해 제공되는 데이터의 출력 시점이 레이튼시만큼 지연되도록 제어할 수 있다.According to various embodiments, the applications 352 , 353 , or 354 may include various types of applications such as an Internet browser, a video application, and a game. The application may provide various data (eg, audio data, video data, etc.) to be processed as it is executed and/or driven. Various data may be processed by the above-described components of the electronic device 210 and output through respective hardware (eg, a display, an antenna, a speaker, etc.). When a communication connection is established, the electronic device 210 may control an output timing of data provided by the application 352 , 353 , or 354 to be delayed by a latency.

다양한 실시예들에 따르면 시스템 UI(355)는 notification bar, quick view와 같이 전자 장치(210)의 시스템 상에서 구현하는 여러 GUI 화면을 구성하는 어플리케이션을 의미할 수 있다.According to various embodiments, the system UI 355 may mean an application constituting various GUI screens implemented on the system of the electronic device 210 , such as a notification bar and a quick view.

이하에서는 다양한 실시예들에 따른 전자 장치(210)의 동작의 일 예를 설명하기 위한 도면이다.Hereinafter, diagrams are provided to explain an example of an operation of the electronic device 210 according to various embodiments of the present disclosure.

다양한 실시예들에 따르면, 전자 장치(210)는 외부 전자 장치(220)와 통신 연결(230)을 유지한 상태에서, 레코딩을 수행할 수 있다. 이하에서 전자 장치(210)의 동작에 대해서 기술한다.According to various embodiments, the electronic device 210 may perform recording while maintaining the communication connection 230 with the external electronic device 220 . Hereinafter, the operation of the electronic device 210 will be described.

도 4는 다양한 실시예들에 따른 전자 장치의 동작의 일 예를 설명하기 위한 흐름도(400)이다. 다양한 실시예들에 따르면, 도 4에 도시되는 동작들은 도시되는 순서에 국한되지 않고 다양한 순서로 수행될 수 있다. 또한, 다양한 실시예들에 따르면 도 4에 도시되는 동작들 보다 더 많은 동작들이 수행되거나, 더 적은 적어도 하나의 동작이 수행될 수도 있다. 이하에서는, 도 5를 참조하여 도 4에 대해서 설명한다.4 is a flowchart 400 for explaining an example of an operation of an electronic device according to various embodiments of the present disclosure. According to various embodiments, the operations illustrated in FIG. 4 are not limited to the illustrated order and may be performed in various orders. In addition, according to various embodiments, more operations than those illustrated in FIG. 4 or at least one fewer operations may be performed. Hereinafter, FIG. 4 will be described with reference to FIG. 5 .

도 5는 다양한 실시예들에 따른 전자 장치의 외부 전자 장치와 통신 연결이 형성된 경우 레코딩을 수행하는 동작의 일 예를 설명하기 위한 도면이다.5 is a diagram for describing an example of an operation of performing recording when a communication connection with an external electronic device of an electronic device is established, according to various embodiments of the present disclosure;

다양한 실시예들에 따르면 전자 장치(210)는 401 동작에서 레코딩을 위한 이벤트를 식별할 수 있다. 예를 들어, 전자 장치(210)는 레코딩 어플리케이션(351)을 실행하고, 실행된 레코딩 어플리케이션(351)을 이용하여 레코딩 동작을 제어하기 위한 인터페이스를 디스플레이(217)에 표시할 수 있다. 전자 장치(210)는, 표시된 인터페이스 상에서 레코딩 동작을 개시하기 위한 이벤트를 식별(예: 사용자의 레코딩을 개시하기 위한 입력을 수신)하고, 이벤트를 식별한 것에 기반하여 레코딩 동작을 개시할 수 있다. 상기 개시되는 레코딩 동작은 비디오 데이터 및 오디오 데이터를 레코딩 하기 위한 동작일 수 있다. 전자 장치(210)의 레코딩 어플리케이션(351)을 이용한 인터페이스를 표시하는 동작에 대해서는, 도 19 내지 도 20에서 후술한다.According to various embodiments, the electronic device 210 may identify an event for recording in operation 401 . For example, the electronic device 210 may execute a recording application 351 and display an interface for controlling a recording operation using the executed recording application 351 on the display 217 . The electronic device 210 may identify an event for starting a recording operation on the displayed interface (eg, receive a user's input for starting recording), and start a recording operation based on the identification of the event. The above-described recording operation may be an operation for recording video data and audio data. An operation of displaying the interface using the recording application 351 of the electronic device 210 will be described later with reference to FIGS. 19 to 20 .

다양한 실시예들에 따르면 전자 장치(210)는 402 동작에서 외부 전자 장치(220)와 통신 연결을 형성할 수 있다. 예를 들어 전자 장치(210)는 도 5에 도시된 바와 같이 외부 전자 장치(220)와 통신 연결(230)을 형성할 수 있다. 전자 장치(210)는 형성된 통신 연결(230)에 기반하여, 외부 전자 장치(220)로 데이터(예: 오디오 데이터(525))를 송신할 수 있다. 통신 연결(230)에 대해서는 도 2에서 상술한 바와 같으므로, 중복되는 설명은 생략한다.According to various embodiments, the electronic device 210 may establish a communication connection with the external electronic device 220 in operation 402 . For example, the electronic device 210 may establish a communication connection 230 with the external electronic device 220 as shown in FIG. 5 . The electronic device 210 may transmit data (eg, audio data 525 ) to the external electronic device 220 based on the established communication connection 230 . The communication connection 230 is the same as described above with reference to FIG. 2 , and thus a redundant description will be omitted.

다양한 실시예들에 따르면 전자 장치(210)는 403 동작에서 외부 전자 장치(220)를 통해 오디오를 출력하고 적어도 하나의 화면을 디스플레이(217)에 표시하면서 레코딩 동작을 수행할 수 있다. 이하에서 403 동작에 대해서 설명한다.According to various embodiments, in operation 403 , the electronic device 210 may output audio through the external electronic device 220 and perform a recording operation while displaying at least one screen on the display 217 . Hereinafter, operation 403 will be described.

다양한 실시예들에 따르면 전자 장치(210)는 외부 전자 장치(220)와 형성된 통신 연결(230)에 기반하여 외부 전자 장치(220)와 협업 동작을 수행할 수 있다. 즉, 전자 장치(210)는 적어도 하나의 동작을 수행(예: 시각적 컨텐트를 표시)하면서, 외부 전자 장치(220)로 데이터를 송신하여 외부 전자 장치(220)가 수신된 데이터에 기반하여 적어도 하나의 동작을 수행(예: 청각적 컨텐트를 출력)하도록 할 수 있다. 한편, 이하에서는 전자 장치(210)가 시각적 컨텐트(화면)를 출력하고, 외부 전자 장치(220)가 청각적 컨텐트(오디오)를 출력하는 것으로 예를 들어 설명하지만, 이에 국한되지 않고 전자 장치(210)와 외부 전자 장치(220)는 협업 동작에 따라 다양한 컨텐트를 출력할 수 있다. 즉, 이하의 설명들은 상기 전자 장치(210)와 외부 전자 장치(220)는 협업 동작에 따라 다양한 컨텐트를 출력하는 경우(예: 전자 장치(210)가 청각적 컨텐트 출력, 외부 전자 장치(220)가 시각적 컨텐트 출력)에도 준용될 수 있다.According to various embodiments, the electronic device 210 may perform a cooperative operation with the external electronic device 220 based on the communication connection 230 formed with the external electronic device 220 . That is, the electronic device 210 transmits data to the external electronic device 220 while performing at least one operation (eg, displaying visual content), so that the external electronic device 220 performs at least one operation based on the received data. operation (eg, output auditory content). Meanwhile, in the following description, the electronic device 210 outputs visual content (screen) and the external electronic device 220 outputs auditory content (audio) as an example, but the present invention is not limited thereto. ) and the external electronic device 220 may output various contents according to a cooperative operation. That is, in the following descriptions, when the electronic device 210 and the external electronic device 220 output various contents according to a cooperative operation (eg, the electronic device 210 outputs auditory content, the external electronic device 220 ) can be applied mutatis mutandis to visual content output).

예를 들어, 전자 장치(210)는 적어도 하나의 어플리케이션의 실행 및/또는 구동에 따라서 연관된 적어도 하나의 화면(510)을 디스플레이에 표시할 수 있다. 상기 적어도 하나의 화면은 적어도 하나의 어플리케이션이 실행 및/또는 구동됨에 따라 전자 장치(210)의 디스플레이(217)에 실시간으로 표시(또는, 출력)되는 다양한 종류의 시각적 컨텐트를 포함하는 화면들로 정의될 수 있다. 예를 들어, 상기 시각적 컨텐트는 도 5에 도시된 바와 같이, 비디오(511), 이미지, 실행된 적어도 하나의 어플리케이션에 의해 제공되는 GUI(graphic user interface) 엘리먼트, 및 사용자의 입력(예: 사용자의 터치에 의한 입력 또는 전자 펜에 의한 입력)에 따라 표시되는 GUI 엘리먼트(512) 등을 포함할 수 있다. 일 예로서, 전자 장치(210)는 지정된 어플리케이션(예: 웹 어플리케이션(web application) 또는 VOC(video of conference)를 위한 어플리케이션)을 실행하고, 실행된 지정된 어플리케이션에 의해 제공되는 멀티 미디어 파일(예: 다양한 확장자의 동영상 파일) 및/또는 멀티 미디어 채널 데이터(예: 멀티 채널 스트리밍 데이터)를 획득할 수 있다. 전자 장치(210)는 상기 멀티 미디어 파일이 재생됨에 따라 획득되는 비디오 데이터(515)에 기반하여 실시간으로 재생되는 비디오 컨텐트(511)를 포함하는 화면(510)을 표시할 수 있다. 일 실시예에 따르면, 상기 전자 장치(210)는 수신되는 멀티 미디어 데이터 중 비디오 데이터(515)에 기반하여 실시간으로 재생되는 비디오 컨텐트(511)를 포함하는 화면(510)을 표시할 수 있다. 일 실시예에 따르면, 상기 전자 장치(210)는 도 5에 도시된 바와 같이 비디오 컨텐트(511)가 화면(510)에 표시되는 동안, 사용자의 입력(예: 전자 펜(550)에 의한 입력)을 수신하고, 사용자의 입력에 기반하여 적어도 하나의 화면 상에 그래픽 오브젝트(512)를 표시(예: 사용자 입력의 이동 궤적 상에 핸드 라이팅(hand writing), 또는 스트로크(stroke)를 표시)할 수 있다. 예를 들어, 전자 장치(210)는 후술될 레코딩 어플리케이션(351)에 의해 제공되는 레코딩 동작을 제어하기 위한 인터페이스 상에서 펜 입력을 수신하기 위한 아이콘을 표시하고, 표시된 아이콘이 선택되는 경우 사용자의 입력에 기반하여 핸드 라이팅(hand writing), 또는 스트로크(stroke)를 표시할 수 있다.For example, the electronic device 210 may display at least one related screen 510 on the display according to the execution and/or driving of at least one application. The at least one screen is defined as screens including various types of visual content displayed (or output) in real time on the display 217 of the electronic device 210 as at least one application is executed and/or driven. can be For example, as shown in FIG. 5 , the visual content includes a video 511 , an image, a graphic user interface (GUI) element provided by at least one executed application, and a user input (eg, a user's It may include a GUI element 512 displayed according to an input by a touch or an input by an electronic pen). As an example, the electronic device 210 executes a specified application (eg, a web application or an application for video of conference (VOC)), and a multimedia file (eg, a multimedia file provided by the executed specified application) video files of various extensions) and/or multi-media channel data (eg, multi-channel streaming data) may be acquired. The electronic device 210 may display a screen 510 including video content 511 reproduced in real time based on video data 515 obtained as the multimedia file is reproduced. According to an embodiment, the electronic device 210 may display a screen 510 including video content 511 reproduced in real time based on video data 515 among the received multimedia data. According to an embodiment, as shown in FIG. 5 , the electronic device 210 receives a user input (eg, input by the electronic pen 550 ) while the video content 511 is displayed on the screen 510 . can receive and display the graphic object 512 on at least one screen based on the user's input (eg, display hand writing or stroke on the movement trajectory of the user's input). have. For example, the electronic device 210 displays an icon for receiving a pen input on an interface for controlling a recording operation provided by a recording application 351, which will be described later, and responds to the user's input when the displayed icon is selected. Based on the hand writing (hand writing) or the stroke (stroke) can be displayed.

일 실시예에 따르면, 전자 장치(210)는 적어도 하나의 어플리케이션이 실행 및/또는 구동됨에 따라서 제공되는 데이터를 외부 전자 장치(220)로 전송할 수 있다. 일 예로, 전자 장치(210)는 도 5에 도시된 바와 같이 지정된 어플리케이션(예: 웹 어플리케이션(web application) 또는 VOC(video of conference)를 위한 어플리케이션)의 실행에 따라 제공되는 오디오 데이터(525)를 외부 전자 장치(220)와 형성된 통신 연결(230)에 기반하여 외부 전자 장치(220)로 전송할 수 있다. 외부 전자 장치(220)는 수신된 오디오 데이터(525)를 이용하여 오디오(521)를 출력할 수 있다.According to an embodiment, the electronic device 210 may transmit data provided as at least one application is executed and/or driven to the external electronic device 220 . For example, as shown in FIG. 5 , the electronic device 210 transmits audio data 525 provided according to the execution of a specified application (eg, a web application or an application for video of conference (VOC)). The transmission may be performed to the external electronic device 220 based on the communication connection 230 formed with the external electronic device 220 . The external electronic device 220 may output audio 521 using the received audio data 525 .

다양한 실시예들에 따르면 전자 장치(210)는 상술한 협업 동작을 수행하면서, 레코딩 동작을 수행할 수 있다. 예를 들어, 전자 장치(210)는 상기 협업 동작에 따라 표시되는 적어도 하나의 화면(510) 및 출력되는 오디오(525)를 실시간으로 레코딩하기 위한 동작을 수행할 수 있다. 일 예로, 전자 장치(210)는 도 5에 도시된 바와 같이 디스플레이에 실시간으로 표시되는 적어도 하나의 화면(510)에 대한 비디오 데이터(515)와 전자 장치(210)로부터 외부 전자 장치(220)로 송신되는 오디오 데이터(525)를 획득할 수 있다. 전자 장치(210)는 레코딩 어플리케이션(351)을 이용하여 상기 획득된 비디오 데이터(515)와 오디오 데이터(525)를 먹싱함으로써 파일(540)을 생성할 수 있다. 상기 파일(540)이 재생되는 경우, 전자 장치(210)는 파일(540)로부터 비디오 데이터(515)와 오디오 데이터(525)를 분리(splitting)하여 재생할 수 있다.According to various embodiments, the electronic device 210 may perform the recording operation while performing the aforementioned cooperative operation. For example, the electronic device 210 may perform an operation for recording at least one screen 510 displayed and output audio 525 according to the cooperative operation in real time. For example, as shown in FIG. 5 , the electronic device 210 transmits video data 515 for at least one screen 510 displayed on the display in real time and the electronic device 210 to the external electronic device 220 as shown in FIG. 5 . Transmitted audio data 525 may be acquired. The electronic device 210 may generate the file 540 by muxing the obtained video data 515 and audio data 525 using the recording application 351 . When the file 540 is reproduced, the electronic device 210 may split the video data 515 and the audio data 525 from the file 540 and reproduce them.

이하에서는 다양한 실시예들에 따른 전자 장치(210)의 동작의 다른 예에 대해서 설명한다.Hereinafter, another example of the operation of the electronic device 210 according to various embodiments will be described.

다양한 실시예들에 따르면, 전자 장치(210)는 외부 전자 장치(220)와 통신 연결(230)이 형성된 경우, 레코딩 동작을 위해 획득된 오디오 데이터(525)의 레코딩 시점(예: 레코딩이 수행되는 타임 스탬프)을 상기 형성된 통신 연결(230)과 연관된 레이튼시(latency)를 이용하여 조정할 수 있다. 예를 들어, 상기 전자 장치(210)는 레코딩 어플리케이션(351)을 이용하여 획득된 오디오 데이터(525)의 레코딩 시점을 조정할 수 있다. 이하에서 전자 장치(210)의 동작에 대해서 기술한다.According to various embodiments, when the communication connection 230 with the external electronic device 220 is established, the electronic device 210 records the audio data 525 acquired for the recording operation (eg, at which recording is performed). timestamp) may be adjusted using a latency associated with the established communication connection 230 . For example, the electronic device 210 may adjust the recording time of the acquired audio data 525 using the recording application 351 . Hereinafter, the operation of the electronic device 210 will be described.

도 6은 다양한 실시예들에 따른 전자 장치의 동작의 또 다른 예를 설명하기 위한 흐름도(600)이다. 다양한 실시예들에 따르면, 도 6에 도시되는 동작들은 도시되는 순서에 국한되지 않고 다양한 순서로 수행될 수 있다. 또한, 다양한 실시예들에 따르면 도 6에 도시되는 동작들 보다 더 많은 동작들이 수행되거나, 더 적은 적어도 하나의 동작이 수행될 수도 있다. 이하에서는, 도 7 내지 도 9를 참조하여 도 6에 대해서 설명한다.6 is a flowchart 600 for explaining another example of an operation of an electronic device according to various embodiments of the present disclosure. According to various embodiments, the operations illustrated in FIG. 6 are not limited to the illustrated order and may be performed in various orders. Also, according to various embodiments, more operations than those illustrated in FIG. 6 or at least one fewer operations may be performed. Hereinafter, FIG. 6 will be described with reference to FIGS. 7 to 9 .

도 7은 다양한 실시예들에 따른 전자 장치의 외부 전자 장치와의 통신 연결 시 레이튼시를 이용하여 적어도 하나의 화면의 출력 시점을 조정하는 동작의 일 예를 설명하기 위한 도면이다. 도 8은 다양한 실시예들에 따른 전자 장치의 레코딩 동작을 위해 획득된 오디오 데이터의 레코딩 시점을 레이튼시를 이용하여 조정하기 위한 동작의 일 예를 설명하기 위한 도면이다. 도 9는 다양한 실시예들에 따른 전자 장치의 레코딩 동작에 의해 생성된 파일을 재생하는 동작의 예들을 설명하기 위한 도면이다.7 is a diagram for describing an example of an operation of adjusting an output time of at least one screen by using a latency when an electronic device is connected to an external electronic device for communication according to various embodiments of the present disclosure; 8 is a diagram for explaining an example of an operation for adjusting a recording time of audio data obtained for a recording operation of an electronic device using latency according to various embodiments of the present disclosure; 9 is a diagram for explaining examples of an operation of reproducing a file generated by a recording operation of an electronic device according to various embodiments of the present disclosure;

다양한 실시예들에 따르면, 전자 장치(210)는 601 동작에서 레코딩을 위한 이벤트를 식별할 수 있다. 예를 들어, 전자 장치(210)는 레코딩 어플리케이션(351)을 실행하고, 실행된 레코딩 어플리케이션(351)을 이용하여 레코딩 동작을 개시하기 위한 이벤트를 식별할 수 있다. 전자 장치(210)의 601 동작은 상술한 전자 장치(210)의 401 동작과 같이 수행될 수 있으므로 중복되는 설명은 생략한다.According to various embodiments, the electronic device 210 may identify an event for recording in operation 601 . For example, the electronic device 210 may execute a recording application 351 and identify an event for starting a recording operation using the executed recording application 351 . Since operation 601 of the electronic device 210 may be performed like operation 401 of the electronic device 210 described above, a redundant description will be omitted.

다양한 실시예들에 따르면, 전자 장치(210)는 602 동작에서 외부 전자 장치(220)와 통신 연결(230)을 형성할 수 있다. 예를 들어, 전자 장치(210)는 도 7의 702에 도시된 바와 같이 외부 전자 장치(220)와 통신 연결(230)을 형성할 수 있다. 전자 장치(210)의 602 동작은 상술한 전자 장치(210)의 402 동작과 같이 수행될 수 있으므로 중복되는 설명은 생략한다.According to various embodiments, the electronic device 210 may establish a communication connection 230 with the external electronic device 220 in operation 602 . For example, the electronic device 210 may establish a communication connection 230 with the external electronic device 220 as shown in 702 of FIG. 7 . Operation 602 of the electronic device 210 may be performed like operation 402 of the electronic device 210 , so a redundant description will be omitted.

다양한 실시예들에 따르면, 전자 장치(210)는 603 동작에서 통신 연결(230)에 기반하여, 실행 중인 적어도 하나의 어플리케이션에 의하여 제공되는 적어도 하나의 화면을 표시하면서 오디오 데이터(525)를 외부 전자 장치(220)로 전송할 수 있다. 예를 들어, 전자 장치(210)는 도 7의 702에 도시된 바와 같이 지정된 어플리케이션의 실행(예: 웹 어플리케이션, VOC를 위한 어플리케이션 등)에 따라서 제공되는 컨텐트(예: 동영상의 재생에 의해 표시되는 비디오)를 포함하는 적어도 하나의 화면(510)을 실시간으로 표시(또는, 출력)하고, 지정된 어플리케이션의 실행에 따라서 제공되는 오디오 데이터(525)(예: 동영상의 재생에 의해 획득되는 오디오 데이터(525))를 외부 전자 장치(220)로 전송할 수 있다. 전자 장치(210)의 603 동작은 상술한 전자 장치(210)의 403 동작과 같이 수행될 수 있으므로 중복되는 설명은 생략한다. 이하에서는, 전자 장치(210)의 603 동작에서 레이튼시(tL)에 기반하여 출력되는 적어도 하나의 화면(510)의 출력 시점(710)을 조정하는 동작에 대해서 설명한다. 상기 출력 시점(710)은 전자 장치가 컨텐트(예: 화면(예: 510) 및 오디오(예: “중요!”) 등)를 사용자에게 제공하기 위해 컨텐트의 데이터를 일 구성으로 제공한 시점을 의미할 수 있다. 예를 들어, 적어도 하나의 화면(510)의 출력 시점(710)은 전자 장치(210)가 적어도 하나의 화면(510)과 오디오 각각을 사용자에게 제공하기 위해, 적어도 하나의 화면과 관련된 비디오 데이터(515)를 전자 장치(210)의 일 구성(예: 도 2b의 디스플레이 제어 회로(215))으로 제공한 시점(또는, 타임 스탬프)일 수 있다. According to various embodiments, the electronic device 210 transmits the audio data 525 to an external electronic device while displaying at least one screen provided by at least one running application based on the communication connection 230 in operation 603 . may be transmitted to device 220 . For example, as shown in 702 of FIG. 7 , the electronic device 210 displays content (eg, displayed by playback of a video) according to the execution of a specified application (eg, a web application, an application for VOC, etc.) At least one screen 510 including a video is displayed (or output) in real time, and audio data 525 provided according to execution of a specified application (eg, audio data 525 obtained by playing a video) )) may be transmitted to the external electronic device 220 . Since operation 603 of the electronic device 210 may be performed similarly to operation 403 of the electronic device 210 described above, a redundant description will be omitted. Hereinafter, an operation of adjusting the output time 710 of the at least one screen 510 output based on the latency tL in operation 603 of the electronic device 210 will be described. The output time 710 refers to a point in time when the electronic device provides data of the content as a component in order to provide content (eg, a screen (eg, 510) and audio (eg, “Important!”), etc.) to the user. can do. For example, the output timing 710 of the at least one screen 510 may include video data ( 515) may be a time point (or time stamp) provided as a component of the electronic device 210 (eg, the display control circuit 215 of FIG. 2B ).

다양한 실시예들에 따르면, 전자 장치(210)는 전자 장치(210)와 외부 전자 장치(220)의 통신 연결(230) 형성 여부에 따라서, 지정된 어플리케이션의 실행에 따라서 적어도 하나의 화면(510)을 표시하고 오디오(예: “중요!”)를 출력할 수 있다. 예를 들어, 전자 장치(210)는 통신 연결(230) 형성의 여부에 따른 레이튼시(tL)의 유무에 기반하여 적어도 하나의 화면(510)을 표시하고, 오디오(예: “중요!”)를 출력할 수 있다.According to various embodiments, the electronic device 210 displays at least one screen 510 according to the execution of a specified application according to whether the communication connection 230 between the electronic device 210 and the external electronic device 220 is established. It can display and output audio (eg “Important!”). For example, the electronic device 210 displays at least one screen 510 based on the presence or absence of latency tL according to whether the communication connection 230 is formed, and displays the audio (eg, “important!”). can be printed out.

예를 들어 상기 전자 장치(210)는 도 7의 701에 도시된 바와 같이 외부 전자 장치(220)와 통신 연결(230)이 형성되기 전인 경우에는, 출력 시점(710)이 동일하게(또는, 동기화) 설정된 적어도 하나의 화면과 오디오를 출력할 수 있다. 일 예로, 전자 장치(210)는 어플리케이션의 실행에 따라 동영상이 재생되는 경우, 실시간으로 동영상과 연관된 비디오 컨텐트를 포함하는 적어도 하나의 화면을 표시하고 실시간으로 동영상과 연관된 오디오를 출력할 수 있다. 상기 출력되는 비디오 컨텐트와 오디오는 사용자에 의해 동일한 시점의 컨텐트로 인식될 수 있다. For example, as shown in 701 of FIG. 7 , when the electronic device 210 and the external electronic device 220 and the communication connection 230 are formed before the communication connection 230 is established, the output timing 710 is identical (or synchronized). ) at least one set screen and audio can be output. For example, when a moving picture is played according to the execution of an application, the electronic device 210 may display at least one screen including video content related to the moving picture in real time and output audio related to the moving picture in real time. The output video content and audio may be recognized by the user as content from the same viewpoint.

또 예를 들어 상기 전자 장치(210)는 도 7의 702에 도시된 바와 같이 외부 전자 장치(220)와 통신 연결(230)이 형성되기 전인 경우에는, 출력 시점(710)이 조정된 적어도 하나의 화면(510)과 출력 시점(710)이 유지된 오디오(예: 중요!)를 출력할 수 있다. 외부 전자 장치(220)와 통신 연결(230)이 형성되는 경우, 전자 장치(210)로부터 외부 전자 장치(220)로 데이터가 전송되는 시간이 소요됨으로써 데이터가 전송되는 시간만큼의 레이튼시(latency)(tL)가 발생될 수 있다. 다시 말해, 전자 장치(210)가 제 1 시점(711)에서 오디오 데이터(525)를 외부 전자 장치(220)로 전송하는 경우, 외부 전자 장치(220)에는 제 1 시점(711)에서 레이튼시(tL) 만큼 지난 제 2 시점(712)에 오디오 데이터(525)가 수신되어 외부 전자 장치(220)로부터 제 2 시점(712)부터 오디오(예: 중요!)가 출력될 수 있다. 이에 따라, 전자 장치(210)가 동일한 출력 시점(710)으로 설정된 적어도 하나의 화면(510)과 오디오(예: 중요!)를 출력하는 경우, 적어도 하나의 화면(510)은 제 1 시점(711)에서 디스플레이에 표시되고, 오디오(예: 중요!)는 외부 전자 장치(220)에서 제 1 시점(711)에서 레이튼시(tL) 만큼 지난 제 2 시점(712)에서 사용자에게 제공될 수 있다. 따라서 전자 장치(210)는 적어도 하나의 화면(510)과 외부 전자 장치(220)를 통한 오디오(예: 중요!)가 사용자에게 동일한 시점에 제공되도록, 도 7의 702에 도시된 바와 같이 오디오의 출력 시점(710)(예: 오디오 데이터(525)를 오디오 모듈(예: 도 2b의 오디오 모듈(214))로 제공하는 시점)을 유지하면서, 적어도 하나의 화면(510)의 출력 시점(710)을 레이튼시(tL) 만큼 뒤로 조정하여 적어도 하나의 화면(510)을 표시할 수 있다. 즉, 전자 장치(210)는 적어도 하나의 화면(510)의 출력 시점(710)을 레이튼시(tL) 만큼 조정하기 위해서, 통신 연결(230)이 형성된 경우 통신 연결(230)과 연관된 레이튼시(tL)를 식별할 수 있다. 상기 전자 장치(210)의 레이튼시(tL)를 식별하는 동작에 대해서는, 도 13 내지 도 14에서 후술한다.Also, for example, when the electronic device 210 and the external electronic device 220 and the communication connection 230 are formed before the communication connection 230 is formed as shown in 702 of FIG. 7 , at least one output time point 710 is adjusted. Audio (eg, important!) in which the screen 510 and the output timing 710 are maintained may be output. When the communication connection 230 is formed with the external electronic device 220 , it takes time for data to be transmitted from the electronic device 210 to the external electronic device 220 , so that the latency is equivalent to the time for data transmission. (tL) can be generated. In other words, when the electronic device 210 transmits the audio data 525 to the external electronic device 220 at a first time point 711 , the external electronic device 220 has a latency ( tL), audio data 525 may be received at a second time point 712 , and audio (eg, important!) may be output from the second time point 712 from the external electronic device 220 . Accordingly, when the electronic device 210 outputs at least one screen 510 set to the same output time point 710 and audio (eg, important!), the at least one screen 510 displays the first time point 711 . ), and audio (eg, important!) may be provided to the user at a second time point 712 elapsed by latency tL from the first time point 711 in the external electronic device 220 . Accordingly, the electronic device 210 controls the audio (eg, important!) through the at least one screen 510 and the external electronic device 220 to be provided to the user at the same time, as shown in 702 of FIG. 7 . Output timing 710 of at least one screen 510 while maintaining the output timing 710 (eg, the timing of providing audio data 525 to the audio module (eg, the audio module 214 of FIG. 2B )) At least one screen 510 may be displayed by adjusting back by the latency tL. That is, the electronic device 210 adjusts the output time 710 of the at least one screen 510 by the latency tL, and when the communication connection 230 is formed, the latency associated with the communication connection 230 ( tL) can be identified. The operation of identifying the latency tL of the electronic device 210 will be described later with reference to FIGS. 13 to 14 .

다양한 실시예들에 따르면, 전자 장치(210)는 604 동작에서 레이튼시(tL)에 기반하여 출력 시점(710)이 조정된 적어도 하나의 화면(510) 및 레이튼시(tL)에 기반하여 레코딩 시점(810)이 조정된 상기 오디오 데이터(525)를 이용하여 파일을 제공할 수 있다. 상기 레코딩 시점(810)은 레코딩 어플리케이션(351)을 이용하여 레코딩 동작이 수행되는 경우, 파일(540)의 생성을 위해 실시간으로 획득되는 데이터(예: 적어도 하나의 화면(510)에 대한 비디오 데이터(515) 또는 실시간으로 획득되는 오디오 데이터(525))가 먹싱되는 시점(또는, 타임 스탬프)으로 정의될 수 있다. 상기 레코딩 시점(810)에 레코딩된 비디오 데이터(515) 및/또는 오디오 데이터(525)는 상기 레코딩 시점(810)에 대응하는 시점(또는 타임 스탬프)에 재생될 수 있으므로, 상기 레코딩 시점(810)은 비디오 데이터(515) 및/또는 오디오 데이터(525)의 재생 시점(상기 재생이 수행되는 타임 스탬프)에 대응할 수 있다.According to various embodiments, in operation 604 , the electronic device 210 performs at least one screen 510 to which the output time 710 is adjusted based on the latency tL and a recording time based on the latency tL. 810 may provide a file using the adjusted audio data 525 . The recording time 810 is data (eg, video data for at least one screen 510 ) acquired in real time to generate a file 540 when a recording operation is performed using the recording application 351 . 515) or the real-time audio data 525) may be defined as a point in time (or a time stamp) at which the muxed. Since the video data 515 and/or audio data 525 recorded at the recording time 810 may be reproduced at a time (or time stamp) corresponding to the recording time 810 , the recording time 810 is performed. may correspond to a playback time (time stamp at which the playback is performed) of the video data 515 and/or the audio data 525 .

예를 들어, 전자 장치(210)는 도 8의 801에 도시된 바와 같이 적어도 하나의 화면(510)을 실시간으로 표시하고 오디오 데이터(525)를 외부 전자 장치(220)로 전송하면서, 레코딩 동작을 수행할 수 있다. 전자 장치(210)는 레코딩 어플리케이션(351)을 이용하여, 실시간으로 디스플레이에 표시되는 적어도 하나의 화면(510)에 대한 비디오 데이터(515)를 획득하고, 실시간으로 외부 전자 장치(220)로 전송되는 오디오 데이터(525)를 획득할 수 있다. 예를 들어, 레코딩 어플리케이션(351)은 도 2a 및 도 3에서 상술한 바와 같이 비디오 데이터(515)를 비디오 레코드(336)(또는 비디오 데이터 획득 모듈(213))로부터 비디오 데이터(515)를 실시간으로 획득할 수 있다. 또 예를 들어, 레코딩 어플리케이션(351)은 오디오 서비스(339)(또는 오디오 모듈(214))로부터 오디오 데이터(525)를 실시간으로 획득할 수 있다. 전자 장치(210)는 획득된 비디오 데이터(515)와 획득된 오디오 데이터(525)를 레코딩 어플리케이션(351)에 입력하여, 레코딩 동작을 수행할 수 있다. 이때 603 동작에서 상술한 바와 같이 통신 연결(230)이 형성된 경우 적어도 하나의 화면(510)의 출력 시점(710)이 조정되기 때문에, 상기 오디오 데이터(525)와 상기 적어도 하나의 화면(510)에 대한 비디오 데이터(515)가 서로 동일한 시점부터 레코딩되는 경우 비디오 데이터(515)와 오디오 데이터(525)의 싱크(Sync)가 맞지 않을 수 있다. 따라서 전자 장치(210)는 레코딩 어플리케이션(351)을 이용하여 상기 획득된 오디오 데이터(525)의 레코딩 시점(810)을 레이튼시(tL) 만큼 뒤로 이동 시키고, 획득된 적어도 하나의 화면(510)에 대한 비디오 데이터(515)의 레코딩 시점(810)을 유지할 수 있다. 상기 전자 장치(210)는 오디오 데이터(525)의 레코딩 시점(810)을 조정하기 위한 레이튼시(tL)를 식별할 수 있다. 이때 레코딩 시점(810)을 조정하기 위해 전자 장치(210)에 의해 식별되는 레이튼시(tL)는 603 동작에서 적어도 하나의 화면(510)의 출력 시점(710)의 조정을 위해 식별된 레이튼시(tL)일 수 있다. 또는, 기재된 바에 국한되지 않고 레코딩 시점(810)을 조정하기 위해 식별되는 레이튼시(tL)는 전자 장치(210)의 603 동작과는 별도로, 레코딩 동작의 수행 시 전자 장치(210)에 의해 식별되는 레이튼시(tL)일 수 있다. For example, as shown in 801 of FIG. 8 , the electronic device 210 displays at least one screen 510 in real time and transmits audio data 525 to the external electronic device 220 while performing a recording operation. can be done The electronic device 210 acquires video data 515 for at least one screen 510 displayed on the display in real time by using the recording application 351 and is transmitted to the external electronic device 220 in real time. Audio data 525 may be acquired. For example, the recording application 351 may convert the video data 515 from the video record 336 (or the video data acquisition module 213) to the video data 515 in real time as described above in FIGS. 2A and 3 . can be obtained Also for example, the recording application 351 may obtain the audio data 525 from the audio service 339 (or the audio module 214 ) in real time. The electronic device 210 may perform a recording operation by inputting the obtained video data 515 and the obtained audio data 525 to the recording application 351 . In this case, since the output timing 710 of the at least one screen 510 is adjusted when the communication connection 230 is formed as described above in operation 603 , the audio data 525 and the at least one screen 510 are displayed on the screen 510 . When the video data 515 for the video data 515 is recorded from the same time point, the sync between the video data 515 and the audio data 525 may not match. Accordingly, the electronic device 210 moves the recording time 810 of the acquired audio data 525 backward by the latency tL by using the recording application 351, and displays it on the acquired at least one screen 510. It is possible to maintain the recording time 810 of the video data 515 for the. The electronic device 210 may identify a latency tL for adjusting the recording time 810 of the audio data 525 . In this case, the latency tL identified by the electronic device 210 to adjust the recording time 810 is the latency (tL) identified for adjusting the output time 710 of the at least one screen 510 in operation 603 . tL). Alternatively, without being limited thereto, the latency tL identified to adjust the recording time 810 is identified by the electronic device 210 when the recording operation is performed separately from the operation 603 of the electronic device 210 . It may be a latency (tL).

다양한 실시예들에 따르면, 전자 장치(210)는 레코딩 시점(810)이 조정된(예: 뒤로 이동된) 오디오 데이터(525)와 레코딩 시점(810)이 출력 시점(710)으로 유지된 비디오 데이터(515)를 먹싱하여 파일(540)을 생성하고, 생성된 파일(540)을 메모리(130)에 저장(820)할 수 있다. 상기 파일(540)은 mkv, avi, mp4, mpg, flv, wmv, asf, asx, ogm, ogv, 및/또는 mov와 같은 다양한 종류의 확장자를 가질 수 있다. 생성된 파일(540)이 재생(예: 미디어 플레이어 어플리케이션에 의해 재생)되는 경우, 전자 장치(210)는 파일(540)로부터 비디오 데이터(515)와 오디오 데이터(525)가 스플리팅하고 비디오 데이터(515)와 오디오 데이터(525) 각각을 재생할 수 있다. 상기 오디오 데이터(525)의 레코딩 시점(810)이 조정된 것에 기반하여, 비디오 데이터(515)의 재생에 따라 표시되는 적어도 하나의 화면(510)과 연관된 시점들(또는, 타임 스탬프들)은 오디오 데이터(525)의 재생에 따라 표시되는 오디오와 연관된 시점들(또는, 타임 스탬프들)과 서로 동일하게 될 수 있다(또는, 싱크가 맞게 될 수 있다). 예를 들어, 도 9의 901에 도시된 바와 같이 레코딩 시점(810)이 조정되지 않은 오디오 데이터(525) 및 비디오 데이터(515)가 레코딩되는 경우, 파일(540)의 재생 시 획득되는 비디오 데이터(515)의 시점(또는 타임 스탬프)과 파일(540)의 재생 시 획득되는 오디오 데이터(525)의 시점(또는 타임 스탬프)이 서로 다를 수 있다. 이에 따라 도 9의 901에 도시된 바와 같이, 지정된 시점들(또는, 지정된 타임 스탬프들)에서 비디오 데이터(515)를 이용하여 표시되는 화면(510)에 포함된 정보(예: 사용자 입력에 의해 표시된 GUI 엘리먼트, "중", "중요!")와 오디오 데이터(525)를 이용하여 출력되는 오디오에 포함된 정보(예: 음성 정보, "중", "중요")가 서로 맞지(또는 대응되지) 않을 수 있다. 그러나, 도 9의 902에 도시된 바와 같이 레코딩 시점(810)이 조정된 오디오 데이터(525)와 비디오 데이터(515)가 레코딩 되는 경우, 파일(540)의 재생 시 획득되는 비디오 데이터(515)의 시점(또는 타임 스탬프)과 파일(540)의 재생 시 획득되는 오디오 데이터(525)의 시점(또는 타임 스탬프)이 서로 동일할 수 있다. 이에 따라 도 9의 902에 도시된 바와 같이, 지정된 시점들(또는, 지정된 타임 스탬프들)에서 비디오 데이터(515)를 이용하여 표시되는 화면(510)에 포함된 정보(예: 사용자 입력에 의해 표시된 GUI 엘리먼트, "중", "중요!")와 오디오 데이터(525)를 이용하여 출력되는 오디오에 포함된 정보(예: 음성 정보, "중", "중요")가 서로 대응하게 될 수 있다.According to various embodiments, the electronic device 210 provides audio data 525 for which the recording time point 810 is adjusted (eg, moved backward) and video data in which the recording time point 810 is maintained as the output time point 710 . A file 540 may be generated by muxing 515 , and the generated file 540 may be stored in the memory 130 ( 820 ). The file 540 may have various types of extensions such as mkv, avi, mp4, mpg, flv, wmv, asf, asx, ogm, ogv, and/or mov. When the generated file 540 is played back (eg, played by a media player application), the electronic device 210 splits the video data 515 and the audio data 525 from the file 540, and the video data Each of 515 and audio data 525 may be reproduced. Based on the adjustment of the recording time 810 of the audio data 525 , the time points (or time stamps) associated with the at least one screen 510 displayed according to the reproduction of the video data 515 are audio The time points (or time stamps) associated with the audio displayed according to the reproduction of the data 525 may be identical to each other (or may be synchronized). For example, as shown in 901 of FIG. 9 , when audio data 525 and video data 515 for which the recording time point 810 is not adjusted are recorded, video data obtained when the file 540 is reproduced ( The viewpoint (or time stamp) of 515 may be different from the viewpoint (or time stamp) of the audio data 525 obtained when the file 540 is reproduced. Accordingly, as shown in 901 of FIG. 9 , information (eg, displayed by a user input) included in the screen 510 displayed using the video data 515 at designated time points (or designated time stamps) GUI elements, "Medium", "Important!") and information (eg, voice information, "Medium", "Important") included in the audio output using the audio data 525 do not match (or do not correspond) may not be However, as shown in 902 of FIG. 9 , when the audio data 525 and the video data 515 at which the recording time point 810 is adjusted are recorded, the video data 515 obtained when the file 540 is reproduced. The viewpoint (or time stamp) of the audio data 525 obtained when the file 540 is reproduced may be the same as the viewpoint (or time stamp) of the file 540 . Accordingly, as shown in 902 of FIG. 9 , information (eg, displayed by a user input) included in the screen 510 displayed using the video data 515 at designated time points (or designated time stamps) GUI elements, “middle” and “important!”) and information included in audio output using the audio data 525 (eg, voice information, “middle”, and “important”) may correspond to each other.

다양한 실시예들에 따르면, 전자 장치(210)는 파일(540)의 생성 시 파일 명(821)을 자동으로 설정할 수 있다. 예를 들어, 전자 장치(210)는 도 8의 802에 도시된 바와 같이 생성된 파일(540)의 파일 명(821)을 지정된 어플리케이션의 어플리케이션 명(App name)(예: App A)을 포함하는 텍스트로 설정할 수 있다. 전자 장치(210)는 레코딩 동작이 수행되는 동안 실행되는 적어도 하나의 어플리케이션을 식별할 수 있다. 전자 장치(210)는 식별된 적어도 하나의 어플리케이션 중 가장 빈번하게 사용자에 의해 제어되거나(예: user interaction), 또는 가장 빈번하게 포어 그라운드(fore-ground) 모드로 실행된 지정된 어플리케이션을 식별할 수 있다. 전자 장치(210)는 상기 식별된 지정된 어플리케이션의 어플리케이션 명을 파일 명(821)으로 생성하거나, 또는 어플리케이션 명과 함께 적어도 하나의 텍스트(예: 레코딩된 날짜 등)를 더 포함하는 파일 명(821)을 생성하고, 생성된 파일 명(821)을 파일(540)에 설정할 수 있다. 상기 파일 명(821)이 어플리케이션 명을 포함함에 따라 사용자가 생성된 파일(540)과 연관된 지정된 어플리케이션을 용이하게 식별할 수 있게 된다. 결과적으로, 레코딩 동작에 의해 생성된 파일(540)들을 이용하는 사용자의 편의성이 향상될 수 있다.According to various embodiments, the electronic device 210 may automatically set the file name 821 when the file 540 is created. For example, as shown in 802 of FIG. 8 , the electronic device 210 may include the file name 821 of the generated file 540 with the application name (eg, App A) of the specified application. It can be set to text. The electronic device 210 may identify at least one application that is executed while a recording operation is being performed. The electronic device 210 may identify a designated application that is most frequently controlled by a user (eg, user interaction) or most frequently executed in a foreground mode among the at least one identified application. . The electronic device 210 generates an application name of the identified specified application as a file name 821, or generates a file name 821 that further includes at least one text (eg, a recorded date, etc.) together with the application name. It may be created, and the generated file name 821 may be set in the file 540 . As the file name 821 includes the application name, a user can easily identify a designated application associated with the created file 540 . As a result, the user's convenience using the files 540 generated by the recording operation may be improved.

이하에서는 다양한 실시예들에 따른 전자 장치(210)의 동작의 또 다른 예에 대해서 설명한다.Hereinafter, another example of the operation of the electronic device 210 according to various embodiments will be described.

다양한 실시예들에 따르면, 전자 장치(210)는 레코딩 동작의 수행 시, 통신 연결(230)을 식별한 것에 대한 응답으로 레이튼시를 지정된 값으로 식별할 수 있다. 또, 전자 장치(210)는 통신 연결(230)이 형성된 상태에서 레코딩 동작을 수행하는 동안, 통신 연결(230)이 해제되는 경우 레이튼시를 새로 식별(예: 0 또는 0과 유사한 값으로 식별)할 수 있다. 이하에서 전자 장치(210)의 동작에 대해서 기술한다.According to various embodiments, when performing a recording operation, the electronic device 210 may identify the latency as a specified value in response to the identification of the communication connection 230 . In addition, the electronic device 210 newly identifies the latency when the communication connection 230 is released while the recording operation is performed while the communication connection 230 is established (eg, 0 or a value similar to 0). can do. Hereinafter, the operation of the electronic device 210 will be described.

도 10은 다양한 실시예들에 따른 전자 장치의 동작의 또 다른 예를 설명하기 위한 흐름도(1000)이다. 다양한 실시예들에 따르면, 도 10에 도시되는 동작들은 도시되는 순서에 국한되지 않고 다양한 순서로 수행될 수 있다. 또한, 다양한 실시예들에 따르면 도 10에 도시되는 동작들 보다 더 많은 동작들이 수행되거나, 더 적은 적어도 하나의 동작이 수행될 수도 있다. 이하에서는, 도 11 내지 도 12를 참조하여 도 10에 대해서 설명한다.10 is a flowchart 1000 for explaining another example of an operation of an electronic device according to various embodiments of the present disclosure. According to various embodiments, the operations illustrated in FIG. 10 are not limited to the illustrated order and may be performed in various orders. In addition, according to various embodiments, more operations than those illustrated in FIG. 10 or at least one fewer operations may be performed. Hereinafter, FIG. 10 will be described with reference to FIGS. 11 to 12 .

도 11은 다양한 실시예들에 따른 전자 장치와 통신 연결된 외부 전자 장치들 별로 서로 다른 레이튼시에 대해서 설명하기 위한 도면이다. 도 12는 다양한 실시예들에 따른 전자 장치의 통신 연결의 식별 여부에 따라서 레이튼시를 식별하는 동작의 일 예를 설명하기 위한 도면이다.11 is a diagram for explaining different latencies for each external electronic device communicatively connected to an electronic device according to various embodiments of the present disclosure; 12 is a diagram for describing an example of an operation of identifying a latency according to whether a communication connection of an electronic device is identified, according to various embodiments of the present disclosure;

다양한 실시예들에 따르면 전자 장치(210)는 1001 동작에서 레코딩을 위한 이벤트를 식별할 수 있다. 예를 들어, 전자 장치(210)는 레코딩 어플리케이션(예: 도 3의 SRM(351))을 실행하고, 실행된 레코딩 어플리케이션을 이용하여 레코딩 동작을 개시하기 위한 이벤트를 식별할 수 있다. 전자 장치(210)의 1001 동작은 상술한 전자 장치(210)의 401 동작과 같이 수행될 수 있으므로 중복되는 설명은 생략한다.According to various embodiments, the electronic device 210 may identify an event for recording in operation 1001 . For example, the electronic device 210 may execute a recording application (eg, SRM 351 of FIG. 3 ) and identify an event for starting a recording operation using the executed recording application. Since operation 1001 of the electronic device 210 may be performed like operation 401 of the electronic device 210 described above, a redundant description will be omitted.

다양한 실시예들에 따르면 전자 장치(210)는 1002 동작에서 외부 전자 장치(220)와의 통신 연결(230)의 형성 여부를 식별할 수 있다. 이하에서는 전자 장치(210)의 통신 연결(230) 시 레이튼시(tL)를 식별하고 저장하는 동작에 대해서 설명한다.According to various embodiments, the electronic device 210 may identify whether the communication connection 230 with the external electronic device 220 is established in operation 1002 . Hereinafter, an operation of identifying and storing the latency tL during the communication connection 230 of the electronic device 210 will be described.

다양한 실시예들에 따르면, 전자 장치(210)는 외부 전자 장치(220)와 통신 연결(230)이 형성되는 경우, 형성된 통신 연결(230)과 연관된 레이튼시(tL)를 식별하고 저장할 수 있다. 예를 들어, 전자 장치(210)의 프로세서(예: 도 2b의 프로세서(211))는 전자 장치(210)의 통신 모듈(예: 도 1의 통신 모듈(190))(예: 블루투스 모듈)을 이용하여 통신 연결(230)의 형성을 식별할 수 있다. According to various embodiments, when the communication connection 230 is formed with the external electronic device 220 , the electronic device 210 may identify and store the latency tL associated with the communication connection 230 . For example, the processor of the electronic device 210 (eg, the processor 211 of FIG. 2B ) communicates with a communication module (eg, the communication module 190 of FIG. 1 ) of the electronic device 210 (eg, a Bluetooth module). can be used to identify the formation of the communication connection 230 .

일 실시예에 따르면, 전자 장치(210)는 통신 연결(230)의 형성이 식별된 것에 기반하여 레이튼시(tL)를 식별할 수 있다. 일 예로, 프로세서(예: 도 2b의 프로세서(211))는 통신 모듈(예: 도 1의 190)을 이용하여 외부 전자 장치(220)로부터 외부 전자 장치(220)에 저장된 통신 연결(230)과 관련된 레이튼시(tL)에 대한 정보를 수신할 수 있다. 상기 외부 전자 장치(220)는 외부 전자 장치(220)가 이용하는 통신과 연관된 레이튼시(tL)에 대한 정보를 저장하고, 통신 연결(230) 형성 시 저장된 레이튼시(tL)에 대한 정보를 전자 장치(210)로 전송할 수 있다. 다른 예로, 프로세서(예: 도 2b의 211)는 레이튼시(tL)를 계산할 수 있다. 전자 장치(210)는 상기 외부 전자 장치(220)로 제 1 데이터를 송신한 제 1 시점과 외부 전자 장치(220)로부터 제 1 데이터에 대한 응답으로 제 2 데이터가 수신된 제 2 시점을 식별하고, 제 1 시점과 제 2 시점의 차이를 레이튼시(tL)로 계산할 수 있다. 또 다른 예로, 프로세서(예: 도 2b의 211)는 외부 전자 장치(220)와 형성된 통신 연결(230)에 대한 정보를 기반으로 레이튼시(tL)를 식별할 수 있다. 전자 장치(210)는 통신 연결(230)에 대한 정보에 포함된 레이튼시(tL)에 대한 정보를 메모리(예: 도 1의 메모리(130))에 저장하고, 통신 연결(230) 형성 시 식별되는 통신 연결(230)에 대한 정보와 상기 저장된 정보를 비교하여 상기 통신 연결(230)에 대한 정보에 포함된 레이튼시(tL)를 식별할 수 있다. 상기 통신 연결(230)에 대한 정보는 통신의 종류를 나타내는 정보, 상기 통신 연결(230) 시의 프로파일, 및 프로파일의 코덱에 대한 정보를 포함할 수 있다. 상기 통신의 종류는 블루투스(blue-tooth), Wi-Fi direct, 또는 Wi-Fi hot spot과 같은 D2D 방식 및 Wi-Fi와 같은 AP(access point)를 이용하는 방식의 무선 통신 연결(230) 및 시리얼(USB)과 같은 유선 통신 연결(230)을 포함할 수 있다. 상기 통신 연결(230) 시의 프로파일은 A2DP 프로파일(advanced audio distribution profile) 프로파일, HFP 프로파일(hands-free profile), HSP 프로파일(headset profile) VDP 프로파일(video distribution profile), 또는 VCP 프로파일(video conferencing profile)과 같은 블루투스(bluetooth) 통신의 프로파일을 포함할 수 있다. 예를 들어 상기 프로파일의 코덱에 대한 정보는 A2dp 프로파일일 경우, SBC 및 apt-X 코덱을 포함할 수 있다. 프로세서(예: 도 2b의 211)는 형성된 통신 연결(230)과 연관된 레이튼시(tL)를 식별한 것에 기반하여, 식별된 레이튼시(tL)를 메모리(예: 도 1의 130)에 저장할 수 있다. 상기 메모리(예: 도 1의 메모리(130))에 저장된 레이튼시(tL)는 화면의 출력 시점(710)의 조정 또는 데이터(예: 오디오 데이터(525))의 레코딩 시점(810)의 조정에 이용될 수 있다. 예를 들어, 전자 장치(210)는 외부 전자 장치(220)와 블루투스를 이용하여 통신 연결을 형성하고, A2dp 프로파일 및 A2dp 프로파일의 SBC 코덱을 이용하는 경우, 제 1 값(예: 180ms)의 레이튼시를 식별할 수 있다. 상기 레이튼시의 값은 일 예로서, 기재된 바에 국한되지 않는다. 예를 들어, 통신 연결(230)의 감도에 따라서 레이튼시의 값은 달라질 수 있다.According to an embodiment, the electronic device 210 may identify the latency tL based on the identification of the communication connection 230 being formed. For example, the processor (eg, the processor 211 of FIG. 2B ) communicates with the communication connection 230 stored in the external electronic device 220 from the external electronic device 220 using a communication module (eg, 190 of FIG. 1 ) and Information on the related latency (tL) may be received. The external electronic device 220 stores information on latency (tL) associated with communication used by the external electronic device 220 , and transmits the stored information on latency tL when the communication connection 230 is formed to the electronic device. It can be transmitted to (210). As another example, the processor (eg, 211 of FIG. 2B ) may calculate the latency tL. The electronic device 210 identifies a first time point at which first data is transmitted to the external electronic device 220 and a second time point at which second data is received in response to the first data from the external electronic device 220 , , a difference between the first time point and the second time point may be calculated as latency tL. As another example, the processor (eg, 211 of FIG. 2B ) may identify the latency tL based on information on the communication connection 230 formed with the external electronic device 220 . The electronic device 210 stores information on the latency tL included in the information on the communication connection 230 in a memory (eg, the memory 130 of FIG. 1 ), and identifies when the communication connection 230 is formed. By comparing the information on the communication connection 230 to be stored and the stored information, the latency tL included in the information on the communication connection 230 may be identified. The information on the communication connection 230 may include information indicating a type of communication, a profile at the time of the communication connection 230 , and information on a codec of the profile. The type of communication is a wireless communication connection 230 and serial using a D2D method such as Bluetooth (blue-tooth), Wi-Fi direct, or Wi-Fi hot spot and an AP (access point) such as Wi-Fi. It may include a wired communication connection 230 such as (USB). The profile at the time of the communication connection 230 is an A2DP profile (advanced audio distribution profile) profile, HFP profile (hands-free profile), HSP profile (headset profile) VDP profile (video distribution profile), or VCP profile (video conferencing profile) ) may include a profile of Bluetooth (bluetooth) communication, such as. For example, information on the codec of the profile may include SBC and apt-X codecs in case of an A2dp profile. The processor (eg, 211 of FIG. 2B ) may store the identified latency tL in a memory (eg, 130 of FIG. 1 ) based on the identification of the latency tL associated with the formed communication connection 230 . have. The latency tL stored in the memory (eg, the memory 130 of FIG. 1 ) is for adjustment of the output time 710 of the screen or the adjustment of the recording time 810 of data (eg, audio data 525 ). can be used For example, when the electronic device 210 establishes a communication connection with the external electronic device 220 using Bluetooth and uses the A2dp profile and the SBC codec of the A2dp profile, the latency of the first value (eg, 180ms) can be identified. The value of the latency is as an example, and is not limited thereto. For example, the value of latency may vary according to the sensitivity of the communication connection 230 .

다양한 실시예들에 따르면 전자 장치(210)는 외부 전자 장치(220)들 별로 서로 다른 레이튼시(tL)를 식별할 수 있다. 도 11을 참조하면, 전자 장치(210)는 다양한 종류의 외부 전자 장치들(1101, 1102, 또는 1103)과 통신 연결들(1111, 1112, 또는 1113)을 형성할 수 있다. 전자 장치(210)와 외부 전자 장치(220)들은 서로 다른 종류의 통신 및/또는 서로 다른 통신 시 이용되는 프로파일 및 프로파일의 코덱을 이용하여 통신 연결(230)을 형성할 수 있다. 이 때, 전자 장치(210)와 외부 전자 장치(220)들 별로 형성된 통신 연결들(1111, 1112, 또는 1113)과 연관된 레이튼시(예: tL1, tL2, 또는 tL3)는 통신의 종류 및/또는 통신 시 이용되는 프로파일에 따라서 서로 다르게 설정할 수 있다. 이에 따라, 일 예로 전자 장치(210)는 외부 전자 장치(220)들로부터 상기 레이튼시에 대한 정보를 수신하는 경우, 외부 전자 장치(220)들 별로 서로 다른 통신의 종류 및/또는 통신 시 프로파일을 이용함에 기반하여 서로 다른 레이튼시(예: tL1, tL2, 또는 tL3)에 대한 정보를 수신할 수 있다. 다른 예로, 전자 장치(210)는 레이튼시를 계산하는 경우, 외부 전자 장치(220)들 별로 서로 다른 통신의 종류 및/또는 통신 시 이용되는 프로파일을 이용함에 따라 데이터의 송신 시점 및 수신 시점이 다름에 기반하여, 서로 다른 레이튼시(예: tL1, tL2, 또는 tL3)를 계산할 수 있다. 또 다른 예로, 전자 장치(210)는 외부 전자 장치(220)들 별로 서로 다른 통신의 종류 및/또는 통신 시 이용되는 프로파일에 대한 정보에 대한 응답으로 서로 다른 레이튼시(예: tL1, tL2, 또는 tL3)를 식별할 수 있다. 예를 들어, 전자 장치(210)는 제 1 외부 전자 장치와 블루투스를 이용하여 통신 연결을 형성하고, A2dp 프로파일 및 A2dp 프로파일의 SBC 코덱을 이용하는 경우 제 1 값(예: 180ms)의 레이튼시를 식별하고, 제 2 외부 전자 장치와 블루투스를 이용하여 통신 연결을 형성하고, A2dp 프로파일 및 A2dp 프로파일의 apt-X 코덱을 이용하는 경우 제 2 값(예: 400ms)의 레이튼시를 식별할 수 있다. 상기 레이튼시의 값은 일 예로서, 기재된 바에 국한되지 않는다. 예를 들어, 통신 연결(230)의 감도에 따라서 레이튼시의 값은 달라질 수 있다.According to various embodiments, the electronic device 210 may identify different latencies tL for each external electronic device 220 . Referring to FIG. 11 , the electronic device 210 may form communication connections 1111 , 1112 , or 1113 with various types of external electronic devices 1101 , 1102 , or 1103 . The electronic device 210 and the external electronic device 220 may form a communication connection 230 by using different types of communication and/or profiles used for different types of communication and a codec of the profile. In this case, the latency (eg, tL1, tL2, or tL3) associated with the communication connections 1111 , 1112 , or 1113 formed for each electronic device 210 and the external electronic devices 220 is a communication type and/or It can be set differently depending on the profile used for communication. Accordingly, for example, when receiving the information on the latency from the external electronic devices 220 , the electronic device 210 sets a different communication type and/or communication profile for each external electronic device 220 . Based on usage, information on different latencies (eg, tL1, tL2, or tL3) may be received. As another example, when the electronic device 210 calculates the latency, data transmission time and reception time are different according to different types of communication and/or profiles used during communication for each external electronic device 220 . Based on , different latencies (eg, tL1, tL2, or tL3) can be calculated. As another example, the electronic device 210 provides different latencies (eg, tL1, tL2, or tL3) can be identified. For example, when the electronic device 210 establishes a communication connection with the first external electronic device using Bluetooth and uses the A2dp profile and the SBC codec of the A2dp profile, the latency of the first value (eg, 180ms) is identified In the case of forming a communication connection with the second external electronic device using Bluetooth and using the A2dp profile and the apt-X codec of the A2dp profile, the latency of the second value (eg, 400 ms) may be identified. The value of the latency is an example, and is not limited thereto. For example, the value of latency may vary according to the sensitivity of the communication connection 230 .

다양한 실시예들에 따르면 전자 장치(210)는 1003 동작에서 통신 연결(230)과 연관된 레이튼시를 지정된 값으로 식별하고. 다양한 실시예들에 따르면 전자 장치(210)는 1004 동작에서 레이튼시를 지정된 값(예: A)으로 식별한 것에 기반하여 레코딩 동작을 수행할 수 있다. 전자 장치(210)는 도 12에 도시된 바와 같이 레코딩 동작의 수행 시, 레코딩 어플리케이션을 이용하여 통신 연결(230) 형성 여부를 식별할 수 있다. 상기 통신 연결(230) 형성 여부의 식별은 레코딩 동작의 개시 시점(t1)에서 수행될 수 있다. 전자 장치(210)는 통신 연결(230)이 형성된 것으로 식별되는 경우, 1003 동작에서 저장된 레이튼시를 식별하고, 식별된 레이튼시를 이용하여 오디오 데이터(525)의 레코딩 시점(810)을 조정(예: 도 12에 도시된 바와 같이 뒤로 늦춤)할 수 있다.According to various embodiments, the electronic device 210 identifies the latency associated with the communication connection 230 as a specified value in operation 1003 . According to various embodiments, the electronic device 210 may perform a recording operation based on the identification of the latency as a specified value (eg, A) in operation 1004 . As shown in FIG. 12 , when performing a recording operation, the electronic device 210 may identify whether the communication connection 230 is formed using a recording application. The identification of whether the communication connection 230 is formed may be performed at the start time t1 of the recording operation. When it is identified that the communication connection 230 is established, the electronic device 210 identifies the stored latency in operation 1003 and adjusts the recording time 810 of the audio data 525 using the identified latency (eg, : as shown in Fig. 12) can be delayed.

다양한 실시예들에 따르면 전자 장치(210)는 1005 동작에서 오디오 데이터(525)의 레코딩 시점(810)의 조정 없이 레코딩 동작을 수행 할 수 있다. 전자 장치(210)는 레코딩 동작이 개시되는 시점에서, 레코딩 어플리케이션을 이용하여 통신 연결(230) 형성 여부를 식별할 수 있다. 전자 장치(210)와 외부 전자 장치(220) 사이에 형성된 통신 연결(230)이 해제되거나 또는 전자 장치(210)와 외부 전자 장치(220) 사이에 통신 연결(230)이 형성되지 않은 경우, 전자 장치(210)는 통신 연결(230)이 형성되지 않은 것으로 식별할 수 있다. 전자 장치(210)는 통신 연결(230)이 형성되지 않은 것으로 식별된 경우, 레이튼시(tL)의 값을 제1 값(예: 0)으로 식별하고, 식별된 제1 값을 이용하여 레코딩 동작을 수행할 수 있다. 또는, 전자 장치(210)는 통신 연결(230)이 형성되지 않은 것으로 식별된 경우, 레이튼시(tL)의 값을 식별하는 동작을 수행하지 않고, 오디오 데이터(525)의 레코딩 시점(810)의 조정 없이 레코딩 동작을 수행할 수 있다. 상기 제 1 값은 기재된 바에 국한되지 않고, 다양한 값으로 식별될 수 있다. 예를 들어, 상기 제 1 값은 0에 근사한 값으로 식별될 수도 있다.According to various embodiments, in operation 1005 , the electronic device 210 may perform a recording operation without adjusting the recording time 810 of the audio data 525 . When the recording operation is started, the electronic device 210 may identify whether the communication connection 230 is formed by using the recording application. When the communication connection 230 formed between the electronic device 210 and the external electronic device 220 is released or the communication connection 230 is not formed between the electronic device 210 and the external electronic device 220 , the electronic The device 210 may identify that the communication connection 230 is not established. When it is identified that the communication connection 230 is not formed, the electronic device 210 identifies the value of the latency tL as a first value (eg, 0), and performs a recording operation using the identified first value. can be performed. Alternatively, when it is identified that the communication connection 230 is not formed, the electronic device 210 does not perform an operation of identifying the value of the latency tL, but at the recording time 810 of the audio data 525 . Recording operations can be performed without adjustment. The first value is not limited to the description, and may be identified as various values. For example, the first value may be identified as a value close to zero.

다양한 실시예들에 따르면 전자 장치(210)는 1006 동작에서 레코딩 동작을 수행하는 동안 통신 연결(230)의 형성 여부를 식별하고, 1007 동작에서 통신 연결(230)이 식별되지 않는 경우 레이튼시를 0으로 식별하고, 1008 동작에서 레이튼시를 0으로 식별한 것에 기반하여 레코딩 동작을 수행할 수 있다. 전자 장치(210)는 레코딩 동작의 수행 중에 통신 연결(230)이 해제되는 경우, 출력 시점(710)이 조정되지 않은 비디오 데이터(515)와 레코딩 시점(810)이 조정되지 않은 오디오 데이터(525)를 이용하여 레코딩 동작을 계속하여 수행할 수 있다. 예를 들어, 전자 장치(210)는 도 12에 도시된 바와 같이 통신 연결(230)이 형성된 상태에서 레코딩 동작을 수행하는 중에, 외부 전자 장치(220)와 통신 연결(230)을 해제할 수 있다. 전자 장치(210)는 외부 전자 장치(220)와 통신 연결(230)이 해제된 경우, 적어도 하나의 화면의 출력 시점(710)을 조정하는 동작 및 오디오 데이터(525)의 레코딩 시점(810)을 조정하는 동작을 변경할 수 있다. 예를 들어, 전자 장치(210)는 상기 외부 전자 장치(220)와 통신 연결(230)이 해제된 시점(t2)부터, 레이튼시(tL)를 이용한 적어도 하나의 화면의 출력 시점(710)의 조정 없이, 적어도 하나의 화면을 실시간으로 출력할 수 있다. 또 전자 장치(210)는 레코딩 동작을 수행하는 동안 통신 연결(230)이 해제된 것을 식별한 것에 기반하여, 레이튼시(tL)를 0으로 식별할 수 있다. 전자 장치(210)는 레이튼시(tL)가 0으로 식별된 것에 기반하여 레코딩 동작의 수행 시 오디오 데이터(525)의 레코딩 시점(810)을 조정하지 않고, 레코딩 동작을 계속해서 수행할 수 있다. 또는, 전자 장치(210)는 레코딩 동작을 수행하는 동안 통신 연결(230)이 해제된 것을 식별한 것에 기반하여 레이튼시(tL)의 값을 재식별(예: 0으로 식별)하는 동작 없이 오디오 데이터(525)의 레코딩 시점(810)을 조정하는 동작을 중단하고, 오디오 데이터(525)의 레코딩 시점(810)을 조정하는 동작이 중단된 상태에서 레코딩 동작을 계속해서 수행할 수 있다.According to various embodiments, the electronic device 210 identifies whether the communication connection 230 is formed while performing a recording operation in operation 1006 , and sets the latency to 0 when the communication connection 230 is not identified in operation 1007 . is identified, and a recording operation may be performed based on the identification of latency as 0 in operation 1008 . When the communication connection 230 is released while the electronic device 210 is performing a recording operation, the video data 515 for which the output timing 710 is not adjusted and the audio data 525 for which the recording timing 810 is not adjusted. can be used to continuously perform the recording operation. For example, the electronic device 210 may release the communication connection 230 from the external electronic device 220 while performing a recording operation in a state in which the communication connection 230 is established as shown in FIG. 12 . . When the communication connection 230 with the external electronic device 220 is disconnected, the electronic device 210 performs an operation of adjusting an output time 710 of at least one screen and a recording time 810 of the audio data 525 . You can change the action to be adjusted. For example, from a time point t2 at which the communication connection 230 with the external electronic device 220 is released, the electronic device 210 may output at least one screen using the latency tL. Without adjustment, at least one screen may be output in real time. Also, the electronic device 210 may identify the latency tL as 0 based on the identification that the communication connection 230 is released while performing the recording operation. The electronic device 210 may continue to perform the recording operation without adjusting the recording time 810 of the audio data 525 when the recording operation is performed based on the latency tL being identified as 0 . Alternatively, the electronic device 210 performs audio data without the operation of re-identifying (eg, identifying as 0) the value of the latency tL based on the identification that the communication connection 230 is released while performing the recording operation. The operation of adjusting the recording time 810 of 525 may be stopped, and the recording operation may be continuously performed while the operation of adjusting the recording time 810 of the audio data 525 is stopped.

다양한 실시예들에 따르면 전자 장치(210)는 1006 동작에서 레코딩 동작을 수행하는 동안에도 통신 연결의 형성 여부를 식별하는 동작을 계속하여 수행하고, 레코딩 동작의 수행 중에 통신 연결(230)이 식별되는 경우에는 계속하여 1003 동작 내지 1004 동작에서와 같이 식별된 통신 연결(230)과 연관된 레이튼시를 기반으로 레코딩 동작을 수행할 수 있다.According to various embodiments, the electronic device 210 continues to perform the operation of identifying whether a communication connection is formed even while performing the recording operation in operation 1006, and the communication connection 230 is identified during the recording operation. In this case, as in operations 1003 to 1004 , the recording operation may be performed based on the latency associated with the identified communication connection 230 .

이하에서는 다양한 실시예들에 따른 전자 장치(210)의 동작의 또 다른 예에 대해서 설명한다.Hereinafter, another example of the operation of the electronic device 210 according to various embodiments will be described.

다양한 실시예들에 따르면, 전자 장치(210)는 레코딩 동작을 수행한 이후 통신 연결(230)이 형성되는 경우, 통신 연결(230)이 형성된 시점부터 일정 시간 동안(예: 레이튼시에 대응하는 시간 동안)(이하, 빈 시간 구간) 생성되는 파일의 데이터를 처리할 수 있다. 상기 빈 시간 구간 동안, 레코딩 어플리케이션으로 레코딩을 위해 입력되는 화면에 대한 비디오 데이터(515)와 오디오에 대한 오디오 데이터(525)가 존재하지 않을 수 있다. 따라서, 전자 장치(210)는 상기 빈 시간 구간에 관련된 레코딩 동작을 수행할 수 있다. 데이터를 처리하는 동작은 이하에서 기술한다.According to various embodiments, when the communication connection 230 is formed after the electronic device 210 performs a recording operation, for a predetermined time (eg, a time corresponding to latency) from the time the communication connection 230 is formed. During) (hereinafter, empty time interval) can process the data of the generated file. During the empty time period, video data 515 for a screen and audio data 525 for audio input to a recording application for recording may not exist. Accordingly, the electronic device 210 may perform a recording operation related to the empty time period. The operation of processing data will be described below.

도 13은 다양한 실시예들에 따른 전자 장치의 동작의 또 다른 예를 설명하기 위한 흐름도(1300)이다. 다양한 실시예들에 따르면, 도 13에 도시되는 동작들은 도시되는 순서에 국한되지 않고 다양한 순서로 수행될 수 있다. 또한, 다양한 실시예들에 따르면 도 13에 도시되는 동작들 보다 더 많은 동작들이 수행되거나, 더 적은 적어도 하나의 동작이 수행될 수도 있다. 이하에서는, 도 14를 참조하여 도 13에 대해서 설명한다.13 is a flowchart 1300 for explaining another example of an operation of an electronic device according to various embodiments of the present disclosure. According to various embodiments, the operations illustrated in FIG. 13 are not limited to the illustrated order and may be performed in various orders. In addition, according to various embodiments, more operations than those illustrated in FIG. 13 or at least one fewer operations may be performed. Hereinafter, FIG. 13 will be described with reference to FIG. 14 .

도 14는 다양한 실시예들에 따른 전자 장치의 레코딩 동작을 수행한 이후 통신 연결이 형성되는 경우, 빈 시간 구간에 관련된 레코딩 동작을 수행하는 동작의 일 예를 설명하기 위한 도면이다.14 is a diagram for describing an example of an operation of performing a recording operation related to an empty time period when a communication connection is established after performing a recording operation of an electronic device according to various embodiments of the present disclosure;

다양한 실시예들에 따르면, 전자 장치(210)는 1301 동작에서 레코딩을 위한 이벤트를 식별하고, 레코딩 동작을 수행할 수 있다. 예를 들어 전자 장치(210)는 레코딩 어플리케이션(351)을 실행하고, 실행된 레코딩 어플리케이션(351)을 이용하여 레코딩 동작을 개시하기 위한 이벤트를 식별할 수 있다. 전자 장치(210)의 1301 동작은 상술한 전자 장치(210)의 401 동작과 같이 수행될 수 있으므로 중복되는 설명은 생략한다.According to various embodiments, the electronic device 210 may identify an event for recording in operation 1301 and perform a recording operation. For example, the electronic device 210 may execute a recording application 351 and identify an event for starting a recording operation using the executed recording application 351 . Since operation 1301 of the electronic device 210 may be performed like operation 401 of the electronic device 210 described above, a redundant description will be omitted.

다양한 실시예들에 따르면, 전자 장치(210)는 1302 동작에서 레코딩 동작을 수행하는 중에 외부 전자 장치(220)와의 통신 연결(230)을 형성할 수 있다. 전자 장치(210)는 도 14에 도시된 바와 같이, 제 1 시점(t1)에서 레코딩 동작을 개시하고, 제 1 시점(t1) 이후 제 2 시점(t2)에서 외부 전자 장치(220)와 통신 연결(230)을 형성할 수 있다.According to various embodiments, the electronic device 210 may establish a communication connection 230 with the external electronic device 220 while performing a recording operation in operation 1302 . As shown in FIG. 14 , the electronic device 210 starts a recording operation at a first time point t1 and communicates with the external electronic device 220 at a second time point t2 after the first time point t1. (230) can be formed.

다양한 실시예들에 따르면, 전자 장치(210)는 1303 동작에서 레이튼시(tL)에 기반하여 적어도 하나의 화면의 출력 시점(710)을 조정할 수 있다., 다양한 실시예들에 따르면, 전자 장치(210)는 1304 동작에서 레이튼시(tL)에 기반하여 오디오 데이터(525)의 레코딩 시점(810)을 조정할 수 있다. 다양한 실시예들에 따르면, 전자 장치(210)는 1305 동작에서 출력 시점(710)이 조정된 적어도 하나의 화면과 레코딩 시점(810)이 조정된 오디오 데이터(525)를 기반으로 레코딩 동작을 수행할 수 있다. 전자 장치(210)는 도 14에 도시된 바와 같이, 통신 연결이 형성된 시점(t2)부터 레이튼시(tL) 만큼 적어도 하나의 화면의 출력 시점(710)을 조정할 수 있다. 전자 장치(210)는 레코딩 어플리케이션(351)을 이용하여 출력 시점(710)이 조정된 적어도 하나의 화면에 대한 비디오 데이터(515)를 획득하고, 오디오 데이터(525)를 획득할 수 있다. 전자 장치(210)는 레이튼시(tL)의 값(tL=A) 만큼 획득된 오디오 데이터(525)의 레코딩 시점(810)을 뒤로 조정하고, 출력 시점(710)이 조정된 비디오 데이터(515) 및 레코딩 시점(810)이 조정된 오디오 데이터(525)를 이용하여 레코딩 동작을 수행할 수 있다. 전자 장치(210)의 1303 동작 내지 1305 동작은, 도 13 이전의 도면들에서 기술되었으므로 중복되는 설명은 생략한다.According to various embodiments, the electronic device 210 may adjust the output timing 710 of at least one screen based on the latency tL in operation 1303. According to various embodiments, the electronic device ( The 210 may adjust the recording time 810 of the audio data 525 based on the latency tL in operation 1304 . According to various embodiments, in operation 1305 , the electronic device 210 may perform a recording operation based on at least one screen to which the output time 710 is adjusted and the audio data 525 to which the recording time 810 is adjusted. can As shown in FIG. 14 , the electronic device 210 may adjust the output time 710 of at least one screen by the latency tL from the time t2 at which the communication connection is established. The electronic device 210 may acquire the video data 515 for at least one screen to which the output viewpoint 710 is adjusted, and acquire the audio data 525 by using the recording application 351 . The electronic device 210 adjusts the recording time 810 of the audio data 525 acquired by the latency tL value (tL=A) backward, and the video data 515 at which the output time 710 is adjusted. And a recording operation may be performed using the audio data 525 of which the recording time point 810 has been adjusted. Since operations 1303 to 1305 of the electronic device 210 have been described in the drawings before FIG. 13 , a redundant description thereof will be omitted.

다양한 실시예들에 따르면, 전자 장치(210)는 1306 동작에서 통신 연결(230)이 형성된 시점(t2) 이후, 빈 시간 구간(1510)에 대한 동작을 수행할 수 있다. 전자 장치(210)는 통신 연결(230)이 형성되는 시점(t2)부터 일정 시간 구간(예: 빈 시간 구간(1410))에서의 레코딩 동작을 위한 처리 동작을 수행할 수 있다. 도 14를 참조하면, 통신 연결(230)이 형성되는 시점(t2)부터 적어도 하나의 화면의 출력 시점(710)이 레이튼시(tL) 만큼 뒤로 조정되고, 오디오 데이터(525)의 레코딩 시점(810)이 레이튼시(tL) 만큼 조정됨에 따라서, 통신 연결이 형성된 시점(t2)부터 레이튼시(tL) 만큼의 시간 구간(빈 시간 구간(1410)) 동안 레코딩 어플리케이션(351)에 의해 먹싱되는 비디오 데이터(515) 및 오디오 데이터(525)가 존재하지 않을 수 있다. 다시 말해, 레코딩 어플리케이션(351)으로 빈 시간 구간(1410) 동안 레코딩을 위한 비디오 데이터(515) 및 오디오 데이터(525)가 획득되지 않을 수 있다. 상기 먹싱되는 비디오 데이터(515) 및 오디오 데이터(525)가 획득 되지 않게 됨에 따라서, 레코딩 동작에 의해 생성된 파일(540)이 재생되는 경우 빈 시간 구간(1410) 동안 적어도 하나의 화면 및/또는 오디오의 출력의 오류가 발생될 수 있다. 따라서 일 예로서, 상기 전자 장치(210)는 레코딩 동작을 수행하는 도중 통신 연결(230)이 형성되는 경우, 레코딩 동작을 빈 시간 구간(1410) 동안(즉, 레이튼시(tL) 만틈의 시간 구간 동안) 일시 정지할 수 있다. 전자 장치(210)는 빈 시간 구간(1410) 이후에 레코딩 동작을 다시 시작하고, 실시간으로 획득되는 출력 시점(710)이 조정된 적어도 하나의 화면에 대한 비디오 데이터(515) 및 레코딩 시점(810)이 조정된 오디오 데이터(525)를 획득하여 먹싱을 수행할 수 있다. 다른 예로서, 상기 전자 장치(210)는 레코딩 동작의 수행에 따라 생성된 파일(540)로부터, 통신이 형성된 제 1 시점(t1)부터 레이튼시(tL) 만큼의 시간 구간 동안의 데이터를 제거할 수도 있다.According to various embodiments, in operation 1306 , the electronic device 210 may perform an operation for an empty time period 1510 after a time t2 at which the communication connection 230 is formed. The electronic device 210 may perform a processing operation for a recording operation in a predetermined time period (eg, an empty time period 1410 ) from the time point t2 when the communication connection 230 is formed. Referring to FIG. 14 , the output time 710 of at least one screen is adjusted backward by the latency tL from the time t2 at which the communication connection 230 is formed, and the recording time 810 of the audio data 525 . ) is adjusted by the latency tL, video data muxed by the recording application 351 for a time period (empty time period 1410) equal to the latency tL from the time t2 when the communication connection is established 515 and audio data 525 may not be present. In other words, the video data 515 and the audio data 525 for recording may not be acquired during the empty time period 1410 by the recording application 351 . As the muxed video data 515 and audio data 525 are not acquired, at least one screen and/or audio during the empty time period 1410 when the file 540 generated by the recording operation is reproduced. An error in the output of Accordingly, as an example, when the communication connection 230 is formed while performing the recording operation, the electronic device 210 performs the recording operation during the empty time period 1410 (ie, the latency tL). while) can be paused. The electronic device 210 restarts the recording operation after the empty time period 1410, and video data 515 and recording time 810 for at least one screen to which the output time 710 obtained in real time is adjusted. Muxing may be performed by acquiring the adjusted audio data 525 . As another example, the electronic device 210 may remove data from the file 540 generated according to the performance of the recording operation for a time period from the first time point t1 at which communication is established to the latency tL. may be

이하에서는, 다양한 실시예들에 따른 전자 장치(210)의 동작의 또 다른 예에 대해서 설명한다.Hereinafter, another example of the operation of the electronic device 210 according to various embodiments will be described.

다양한 실시예들에 따르면, 전자 장치(210)는 통신 연결(230)이 형성된 이후 레코딩 동작을 개시하는 경우, 레코딩 동작을 개시하는 시점부터 일정 시간 구간 동안 획득되는 비디오 데이터(515)를 처리할 수 있다. 상기 레코딩 동작을 개시하는 시점에서 오디오 데이터(525)의 레코딩 시점이 레이튼시 만큼 뒤로 조정되므로, 레코딩 동작을 개시하는 시점부터 지정된 시간 구간 동안에는 먹싱을 위해 비디오 데이터(515)만이 존재할 수 있다. 따라서, 전자 장치(210)는 상기 레코딩 동작을 개시하는 시점부터 일정 시간 구간 동안에는 먹싱을 위해 비디오 데이터(515)를 처리할 수 있다. 이하에서 전자 장치(210)의 동작에 대해서 기술한다.According to various embodiments, when starting a recording operation after the communication connection 230 is established, the electronic device 210 may process the video data 515 acquired for a predetermined time period from the time the recording operation starts. have. Since the recording time of the audio data 525 is adjusted backward by the latency at the time of starting the recording operation, only the video data 515 may exist for muxing during a designated time period from the time of starting the recording operation. Accordingly, the electronic device 210 may process the video data 515 for muxing during a predetermined time period from the time the recording operation is started. Hereinafter, the operation of the electronic device 210 will be described.

도 15는 다양한 실시예들에 따른 전자 장치의 동작의 또 다른 예를 설명하기 위한 흐름도(1500)이다. 다양한 실시예들에 따르면, 도 15에 도시되는 동작들은 도시되는 순서에 국한되지 않고 다양한 순서로 수행될 수 있다. 또한, 다양한 실시예들에 따르면 도 15에 도시되는 동작들 보다 더 많은 동작들이 수행되거나, 더 적은 적어도 하나의 동작이 수행될 수도 있다. 이하에서는, 도 16을 참조하여 도 15에 대해서 설명한다.15 is a flowchart 1500 for explaining another example of an operation of an electronic device according to various embodiments of the present disclosure. According to various embodiments, the operations illustrated in FIG. 15 are not limited to the illustrated order and may be performed in various orders. In addition, according to various embodiments, more operations than those illustrated in FIG. 15 or at least one fewer operations may be performed. Hereinafter, FIG. 15 will be described with reference to FIG. 16 .

도 16은 다양한 실시예들에 따른 전자 장치의 통신 연결이 형성된 이후 레코딩 동작을 개시하는 경우, 레코딩 동작을 개시하는 시점부터 일정 시간 구간 동안 획득되는 비디오 데이터를 처리하는 동작의 일 예를 설명하기 위한 도면이다.16 is a diagram for explaining an example of an operation of processing video data acquired for a predetermined time period from a time point of starting a recording operation when a recording operation is started after a communication connection of an electronic device is established according to various embodiments of the present disclosure; It is a drawing.

다양한 실시예들에 따르면, 전자 장치(210)는 1501 동작에서 외부 전자 장치(220)와 통신 연결(230)을 형성할 수 있다. 전자 장치(210)는 도 16에 도시된 바와 같이 제 1 시점(t1)에서 외부 전자 장치(220)와 통신 연결(230)을 형성하고, 레이튼시(tL) 만큼 적어도 하나의 화면의 출력 시점(710)을 뒤로 조정할 수 있다.According to various embodiments, the electronic device 210 may establish a communication connection 230 with the external electronic device 220 in operation 1501 . As shown in FIG. 16 , the electronic device 210 forms a communication connection 230 with the external electronic device 220 at a first time point t1, and outputs at least one screen by the latency tL ( 710) can be adjusted backwards.

다양한 실시예들에 따르면, 전자 장치(210)는 1502 동작에서 통신 연결(230)이 형성된 후 레코딩을 위한 이벤트를 식별할 수 있다. 예를 들어 전자 장치(210)는 레코딩 어플리케이션(351)을 실행하고, 실행된 레코딩 어플리케이션(351)을 이용하여 레코딩 동작을 개시하기 위한 이벤트를 식별할 수 있다. 전자 장치(210)의 1502 동작은 상술한 전자 장치(210)의 401 동작과 같이 수행될 수 있으므로 중복되는 설명은 생략한다.According to various embodiments, the electronic device 210 may identify an event for recording after the communication connection 230 is established in operation 1502 . For example, the electronic device 210 may execute a recording application 351 and identify an event for starting a recording operation using the executed recording application 351 . Since operation 1502 of the electronic device 210 may be performed like operation 401 of the electronic device 210 described above, a redundant description will be omitted.

다양한 실시예들에 따르면, 전자 장치(210)는 1503 동작에서 레이튼시(tL)에 기반하여 오디오 데이터(525)의 레코딩 시점(810)을 조정하고, 1504 동작에서 출력 시점(710)이 조정된 적어도 하나의 화면과 레코딩 시점(810)이 조정된 오디오 데이터(525)를 기반으로, 레코딩 동작을 수행할 수 있다. 전자 장치(210)는 도 16에 도시된 바와 같이, 레코딩 동작이 개시되는 개시 시점(t2)에 출력 시점(710)이 조정된 적어도 하나의 화면에 대한 비디오 데이터(515)를 획득하고, 오디오 데이터(525)를 획득할 수 있다. 전자 장치(210)는 획득된 오디오 데이터(525)의 레코딩 시점(810)을 레이튼시(tL) 만큼 이후로 조정하고, 조정된 출력 시점(710)이 조정된 적어도 하나의 화면에 대한 비디오 데이터(515)와 레코딩 시점(810)이 조정된 오디오 데이터(525)를 먹싱하기 위한 동작을 수행할 수 있다.According to various embodiments, the electronic device 210 adjusts the recording time 810 of the audio data 525 based on the latency tL in operation 1503, and adjusts the output timing 710 at operation 1504. A recording operation may be performed based on at least one screen and the audio data 525 of which the recording time 810 is adjusted. As shown in FIG. 16 , the electronic device 210 acquires video data 515 for at least one screen whose output time 710 is adjusted at a start time t2 when a recording operation is started, and audio data (525) can be obtained. The electronic device 210 adjusts the recording time 810 of the acquired audio data 525 later by the latency tL, and adjusts the video data ( 515 ) and an operation for muxing the audio data 525 of which the recording time 810 has been adjusted may be performed.

다양한 실시예들에 따르면, 전자 장치(210)는 1505 동작에서 조정된 오디오 데이터(525)의 레코딩 시점(810)을 기반으로, 레코딩을 위해 획득된 비디오 데이터(515)의 적어도 일부를 처리할 수 있다. 도 16을 참조하면, 레코딩 동작의 개시 시점(t2)에서 획득된 오디오 데이터(525)의 레코딩 시점(810)이 레이튼시(tL) 만큼 뒤로 조정되므로, 레코딩 동작의 개시 시점(t2)부터 레이튼시(tL) 만큼의 시간 구간 동안에는 비디오 데이터(1610)만이 먹싱 될 수 있다. 따라서 일 예로서, 전자 장치(210)는 레코딩 동작의 개시 시점(t2)부터 레이튼시(tL) 만큼의 시간 구간 동안 레코딩 동작을 일시 정지하고, 레이튼시(tL) 만큼 시간의 이후부터 레코딩 동작을 수행하여 비디오 데이터(515)와 오디오 데이터(525)를 먹싱할 수 있다. 또 다른 에로서, 전자 장치(210)는 레코딩 동작의 수행에 의해 생성된 파일(540)의 최초 시점부터 레이튼시(tL) 만큼 시간 구간 동안의 데이터(예: 1610)를 제거할 수 있다.According to various embodiments, the electronic device 210 may process at least a portion of the video data 515 obtained for recording based on the recording time 810 of the audio data 525 adjusted in operation 1505 . have. Referring to FIG. 16 , since the recording time 810 of the audio data 525 acquired at the start time t2 of the recording operation is adjusted backward by the latency tL, the latency from the start time t2 of the recording operation is Only the video data 1610 may be muxed during a time period of (tL). Therefore, as an example, the electronic device 210 pauses the recording operation for a time period equal to the latency tL from the start time t2 of the recording operation, and starts the recording operation after the latency tL. This may be performed to mux the video data 515 and the audio data 525 . As another example, the electronic device 210 may remove data (eg, 1610 ) for a time period from the initial time point of the file 540 generated by performing the recording operation by the latency tL.

이하에서는, 다양한 실시예들에 따른 전자 장치(210)의 동작의 또 다른 예에 대해서 설명한다.Hereinafter, another example of the operation of the electronic device 210 according to various embodiments will be described.

다양한 실시예들에 따르면, 전자 장치(210)는 레코딩 어플리케이션을 실행하고 실행된 레코딩 어플리케이션을 이용하여 레코딩 동작을 수행할 수 있다. 전자 장치(210)는 레코딩 동작과 연관된 정보를 수신하기 위한 레코딩 어플리케이션의 인터페이스를 제공할 수 있다. 이하에서 전자 장치(210)의 동작에 대해서 기술한다.According to various embodiments, the electronic device 210 may execute a recording application and perform a recording operation using the executed recording application. The electronic device 210 may provide an interface of a recording application for receiving information related to a recording operation. Hereinafter, the operation of the electronic device 210 will be described.

도 17은 다양한 실시예들에 따른 전자 장치의 동작의 또 다른 예를 설명하기 위한 흐름도(1700)이다. 다양한 실시예들에 따르면, 도 17에 도시되는 동작들은 도시되는 순서에 국한되지 않고 다양한 순서로 수행될 수 있다. 또한, 다양한 실시예들에 따르면 도 17에 도시되는 동작들 보다 더 많은 동작들이 수행되거나, 더 적은 적어도 하나의 동작이 수행될 수도 있다. 이하에서는, 도 18을 참조하여 도 17에 대해서 설명한다.17 is a flowchart 1700 illustrating another example of an operation of an electronic device according to various embodiments of the present disclosure. According to various embodiments, the operations illustrated in FIG. 17 are not limited to the illustrated order and may be performed in various orders. In addition, according to various embodiments, more operations than those illustrated in FIG. 17 or at least one fewer operations may be performed. Hereinafter, FIG. 17 will be described with reference to FIG. 18 .

도 18은 다양한 실시예들에 따른 전자 장치의 레코딩 어플리케이션의 실행 및 레코딩 어플리케이션의 인터페이스를 제공하는 동작의 일 예를 설명하기 위한 도면이다.18 is a diagram for describing an example of an operation of executing a recording application of an electronic device and providing an interface of the recording application according to various embodiments of the present disclosure;

다양한 실시예들에 따르면 전자 장치(210)는 1701 동작에서 레코딩을 위한 제 1 어플리케이션을 실행할 수 있다. 예를 들어, 전자 장치(210)는 도 18의 1801에 도시된 바와 같이, 퀵 패널을 호출하기 위한 사용자의 입력에 응답하여, 복수 개의 기능들을 실행하기 위한 아이템들을 표시하는 퀵 패널(1805)을 표시할 수 있다. 상기 퀵 패널은 레코딩 동작을 수행하기 위한 레코딩 어플리케이션(351)(예: 도 3의 SRM(351))을 실행하기 위한 아이템(1810)을 포함할 수 있다. 전자 장치(210)는 상기 퀵 패널 상에서 상기 아이템(1810)을 선택하기 위한 사용자의 입력을 수신하고, 레코딩 어플리케이션(351)을 실행할 수 있다. 또 예를 들어, 상기 기재된 바에 국한되지 않고, 전자 장치(210)는 레코딩 어플리케이션(351)을 실행하기 위한 아이콘(미도시)을 표시하고, 상기 아이콘이 선택되는 경우 레코딩 어플리케이션(351)을 실행할 수도 있다.According to various embodiments, the electronic device 210 may execute a first application for recording in operation 1701 . For example, as shown in 1801 of FIG. 18 , the electronic device 210 displays a quick panel 1805 that displays items for executing a plurality of functions in response to a user input for calling the quick panel. can be displayed The quick panel may include an item 1810 for executing a recording application 351 (eg, SRM 351 of FIG. 3 ) for performing a recording operation. The electronic device 210 may receive a user input for selecting the item 1810 on the quick panel and execute a recording application 351 . Also, for example, without being limited thereto, the electronic device 210 may display an icon (not shown) for executing the recording application 351 , and execute the recording application 351 when the icon is selected. have.

다양한 실시예들에 따르면 전자 장치(210)는 1702 동작에서 레코딩을 위한 이벤트를 수신할 수 있다. 다양한 실시예들에 따르면 전자 장치(210)는 1703 동작에서 제 1 어플리케이션과 연관된 인터페이스를 디스플레이(217)에 표시할 수 있다. 이하에서는, 전자 장치(210)의 1702 동작 및 1703 동작에 따른, 전자 장치(210)의 레코딩과 관련된 이벤트를 수신하기 위한 인터페이스의 표시 및 레코딩 동작을 제어하기 위한 인터페이스를 표시하는 동작에 대해서 설명한다.According to various embodiments, the electronic device 210 may receive an event for recording in operation 1702 . According to various embodiments, the electronic device 210 may display an interface related to the first application on the display 217 in operation 1703 . Hereinafter, an operation of displaying an interface for receiving an event related to recording of the electronic device 210 and displaying an interface for controlling a recording operation according to operations 1702 and 1703 of the electronic device 210 will be described. .

다양한 실시예들에 따르면 전자 장치(210)는 레코딩 동작과 연관된 다양한 설정(예: 1811, 1812)을 수행할 수 있다. 전자 장치(210)는 도 18의 1802에 도시된 바와 같이, 레코딩 동작과 연관된 다양한 설정(예: 1811, 1812)을 위한 인터페이스의 호출(예: 레코딩 어플리케이션(351)의 실행 또는 퀵 패널(1805)에서 아이템(1810)에 대한 롱 프레스 입력)에 대한 응답으로, 다양한 설정(예: 1811, 1812)을 위한 인터페이스를 표시할 수 있다. 상기 다양한 설정은 레코딩 동작의 종류의 설정(1811) 및 레코딩되는 파일의 품질(예: video quality)의 설정(1812)을 포함할 수 있다. 상기 레코딩 동작의 종류(1811)는 비디오 데이터(515)만 레코딩 하는 동작, 비디오 데이터(515) 및 오디오 데이터(525)를 레코딩하는 동작 및 비디오 데이터(515), 오디오 데이터(525) 및 다른 오디오 데이터(예: 사용자 음성)를 레코딩하는 동작을 포함할 수 있다. 전자 장치(210)는 도 18의 1802의 인터페이스에서 다양한 설정이 수행되고 레코딩 동작을 개시하기 위한 입력이 수신되는 경우, 설정된 종류 및 품질의 레코딩 동작을 개시할 수 있다.According to various embodiments, the electronic device 210 may perform various settings (eg, 1811 and 1812 ) related to a recording operation. As shown in 1802 of FIG. 18 , the electronic device 210 calls an interface for various settings (eg, 1811, 1812) related to a recording operation (eg, execution of a recording application 351 or a quick panel 1805). In response to a long press input for the item 1810 ), an interface for various settings (eg, 1811 and 1812 ) may be displayed. The various settings may include a setting 1811 of a type of a recording operation and a setting 1812 of a quality (eg, video quality) of a file to be recorded. The type of recording operation 1811 includes an operation for recording only video data 515, an operation for recording video data 515 and audio data 525, and video data 515, audio data 525 and other audio data. It may include an action to record (eg, user voice). When various settings are performed in the interface 1802 of FIG. 18 and an input for starting a recording operation is received, the electronic device 210 may start a recording operation of a set type and quality.

다양한 실시예들에 따르면 전자 장치(210)는 레코딩 동작을 제어하기 위한 인터페이스를 표시할 수 있다. 예를 들어 전자 장치(210)는 도 18의 1803에 도시된 바와 같이 레코딩 동작을 개시하기 위한 입력이 수신되는 경우, 레코딩을 일시 정지하기 위한 인터페이스를 표시할 수 있다. 전자 장치(210)는 레코딩 동작을 개시하기 전까지 카운팅을 수행하고, 카운팅을 수행하는 동안 레코딩 동작을 일시 정지하기 위한 인터페이스를 표시할 수 있다. 전자 장치(210)는 카운팅을 스킵하고 레코딩을 개시하기 위한 아이콘(1830) 상에서 사용자 입력이 수신되는 경우, 레코딩 동작을 개시할 수 있다. 또 예를 들어 전자 장치(210)는 도 18의 1804에 도시된 바와 같이 레코딩 동작이 수행되는 동안, 레코딩 동작을 제어하기 위한 인터페이스(1840)를 표시할 수 있다. 일 실시예에 따르면, 상기 레코딩 동작을 제어하기 위한 인터페이스(1840)는 플로팅(floating) UI 형태로 제공될 수 있다. 예를 들어, 상기 인터페이스(1840)는 레코딩(또는 녹화) 시간을 나타내는 인터페이스를 표시하기 위한 아이콘(1841), 사용자의 입력에 대응하는 펜 입력을 표시하기 위한 아이콘(1842), 사용자를 촬영하기 위한 아이콘(1843), 및/또는 레코딩 동작을 종료하기 위한 아이콘(1844)을 포함할 수 있다. According to various embodiments, the electronic device 210 may display an interface for controlling a recording operation. For example, when an input for starting a recording operation is received as illustrated in 1803 of FIG. 18 , the electronic device 210 may display an interface for pausing recording. The electronic device 210 may perform counting before starting the recording operation, and display an interface for temporarily stopping the recording operation while the counting is performed. When a user input is received on the icon 1830 for skip counting and start recording, the electronic device 210 may start a recording operation. Also, for example, as shown in 1804 of FIG. 18 , the electronic device 210 may display an interface 1840 for controlling the recording operation while the recording operation is being performed. According to an embodiment, the interface 1840 for controlling the recording operation may be provided in the form of a floating UI. For example, the interface 1840 includes an icon 1841 for displaying an interface indicating a recording (or recording) time, an icon 1842 for displaying a pen input corresponding to a user input, and an icon 1842 for photographing a user. an icon 1843 , and/or an icon 1844 for terminating the recording operation.

이하에서는 다양한 실시예들에 따른 전자 장치(210)의 동작의 또 다른 예에 대해서 설명한다.Hereinafter, another example of the operation of the electronic device 210 according to various embodiments will be described.

다양한 실시예들에 따르면 전자 장치(210)는 적어도 하나의 어플리케이션의 실행 및/또는 구동에 따라 획득되는 비디오 데이터(515)와 오디오 데이터(525)뿐만 아니라, 전자 장치(210)의 입력 장치(예: 마이크)를 통해 획득되는 사용자 음성에 대한 오디오 데이터(525)를 레코딩 할 수 있다. 상기 전자 장치(210)는 통신 연결(230) 중인 상태에서 레코딩을 수행하는 경우, 미디어 파일의 재생에 따라 획득되는 오디오 데이터(525)와는 다른 상기 사용자 음성에 대한 오디오 데이터(525)의 레코딩 시점을 조정하지 않을 수 있다. 이하에서 전자 장치(210)의 동작에 대해서 기술한다.According to various embodiments, the electronic device 210 includes not only the video data 515 and audio data 525 obtained according to the execution and/or driving of at least one application, but also the input device (eg, the input device of the electronic device 210 ). : It is possible to record audio data 525 for a user's voice acquired through a microphone). When recording is performed while the communication connection 230 is in progress, the electronic device 210 determines a recording time point of the audio data 525 for the user's voice different from the audio data 525 obtained according to the reproduction of the media file. may not be adjusted. Hereinafter, the operation of the electronic device 210 will be described.

도 19는 다양한 실시예들에 따른 전자 장치의 동작의 또 다른 예를 설명하기 위한 흐름도(1900)이다. 다양한 실시예들에 따르면, 도 19에 도시되는 동작들은 도시되는 순서에 국한되지 않고 다양한 순서로 수행될 수 있다. 또한, 다양한 실시예들에 따르면 도 19에 도시되는 동작들 보다 더 많은 동작들이 수행되거나, 더 적은 적어도 하나의 동작이 수행될 수도 있다. 이하에서는, 도 20을 참조하여 도 19에 대해서 설명한다.19 is a flowchart 1900 for explaining another example of an operation of an electronic device according to various embodiments of the present disclosure. According to various embodiments, the operations illustrated in FIG. 19 are not limited to the illustrated order and may be performed in various orders. In addition, according to various embodiments, more operations than those illustrated in FIG. 19 or at least one fewer operations may be performed. Hereinafter, FIG. 19 will be described with reference to FIG. 20 .

도 20은 다양한 실시예들에 따른 전자 장치의 비디오 데이터와 오디오 데이터뿐만 아니라, 전자 장치의 입력 장치(예: 마이크)를 통해 획득되는 사용자 음성에 대한 오디오 데이터를 레코딩하는 동작의 일 예를 설명하기 위한 도면이다.20 illustrates an example of an operation of recording video data and audio data of an electronic device as well as audio data of a user voice acquired through an input device (eg, a microphone) of the electronic device according to various embodiments of the present disclosure; is a drawing for

다양한 실시예들에 따르면 전자 장치(210)는 1901 동작에서 레코딩을 위한 이벤트를 식별할 수 있다. 예를 들어 전자 장치(210)는 레코딩 어플리케이션(351)을 실행하고, 실행된 레코딩 어플리케이션(351)을 이용하여 레코딩 동작을 개시하기 위한 이벤트를 식별할 수 있다. 전자 장치(210)의 1901 동작은 상술한 전자 장치(210)의 401 동작 및 1701 동작과 같이 수행될 수 있으므로 중복되는 설명은 생략한다.According to various embodiments, the electronic device 210 may identify an event for recording in operation 1901 . For example, the electronic device 210 may execute a recording application 351 and identify an event for starting a recording operation using the executed recording application 351 . Operation 1901 of the electronic device 210 may be performed in the same manner as operations 401 and 1701 of the electronic device 210 described above, and thus a redundant description will be omitted.

다양한 실시예들에 따르면 전자 장치(210)는 1902 동작에서 외부 전자 장치(220)와 통신 연결(230)을 형성할 수 있다. 예를 들어 전자 장치(210)는 도 20에 도시된 바와 같이 외부 전자 장치(220)와 통신 연결(230)을 형성하고, 데이터(예: 오디오 데이터(525, 2005))를 송신 및/또는 수신할 수 있다.According to various embodiments, the electronic device 210 may establish a communication connection 230 with the external electronic device 220 in operation 1902 . For example, as shown in FIG. 20 , the electronic device 210 establishes a communication connection 230 with the external electronic device 220 , and transmits and/or receives data (eg, audio data 525 and 2005 ). can do.

다양한 실시예들에 따르면 전자 장치(210)는 1903 동작에서 통신 연결(230)에 기반하여, 실행 중인 적어도 하나의 어플리케이션에 의하여 제공되는 적어도 하나의 화면을 표시하면서 오디오 데이터(525)를 외부 전자 장치(220)로 전송할 수 있다. 예를 들어 전자 장치(210)는 도 20에 도시된 바와 같이 적어도 하나의 어플리케이션의 실행 및/또는 구동에 따라 획득되는 비디오 데이터(515)를 기반으로 디스플레이에 적어도 하나의 화면을 표시하고, 획득되는 오디오 데이터(525)를 외부 전자 장치(220)를 통해 송신할 수 있다. 전자 장치(210)의 1903 동작은 상술한 전자 장치(210)의 403 동작과 같이 수행될 수 있으므로 중복되는 설명은 생략한다.According to various embodiments, the electronic device 210 transmits the audio data 525 to the external electronic device while displaying at least one screen provided by at least one running application based on the communication connection 230 in operation 1903 . It can be transmitted to 220 . For example, as shown in FIG. 20 , the electronic device 210 displays at least one screen on the display based on the video data 515 obtained according to the execution and/or driving of at least one application, and Audio data 525 may be transmitted through the external electronic device 220 . Since operation 1903 of the electronic device 210 may be performed like operation 403 of the above-described electronic device 210 , a redundant description will be omitted.

다양한 실시예들에 따르면 전자 장치(210)는 1904 동작에서 음성 데이터를 외부 전자 장치(220)로부터 수신할 수 있다. 예를 들어, 전자 장치(210)는 도 20의 2001에 도시된 바와 같이 설정 창(1811, 1812)에서 비디오 데이터(515), 오디오 데이터(525) 및 사용자 음성에 대한 오디오 데이터(2005)를 레코딩 하기 위한 레코딩 동작의 종류(Media sounds and mic)를 설정하고, 레코딩 동작을 수행할 수 있다. 전자 장치(210)는 도 20의 2002에 도시된 바와 같이 레코딩 동작을 수행하는 동안, 외부 전자 장치(220)(예: 마이크)에 의해 획득된 사용자 음성에 대한 오디오 데이터(2005)를 수신할 수 있다.According to various embodiments, the electronic device 210 may receive voice data from the external electronic device 220 in operation 1904 . For example, as shown in 2001 of FIG. 20 , the electronic device 210 records video data 515 , audio data 525 , and audio data 2005 for user voice in setting windows 1811 and 1812 . A type of recording operation (Media sounds and mic) to be performed may be set, and the recording operation may be performed. As illustrated in 2002 of FIG. 20 , the electronic device 210 may receive audio data 2005 for a user voice acquired by the external electronic device 220 (eg, a microphone) while performing a recording operation. have.

다양한 실시예들에 따르면 전자 장치(210)는 1905 동작에서 레이튼시(tL)에 기반하여 출력 시점이 조정된 적어도 하나의 화면 및 레이튼시(tL)에 기반하여 레코딩 시점이 조정된 상기 오디오 데이터(525), 및 사용자의 음성에 대한 오디오 데이터(2005)를 이용하여 파일을 제공할 수 있다. 전자 장치(210)는 도 20의 2002에 도시된 바와 같이, 출력 시점이 조정된 적어도 하나의 화면에 대한 비디오 데이터(515), 멀티미디어 파일의 재생에 따라 획득되는 오디오 데이터(525), 및 외부 전자 장치(220)로부터 수신된 사용자 음성에 대한 오디오 데이터(2005)를 획득할 수 있다. 전자 장치(210)는 멀티미디어 파일의 재생에 따라 획득되는 오디오 데이터(525)의 레코딩 시점(810)을 레이튼시(tL) 만큼 뒤로 조정하면서, 사용자 음성에 대한 오디오 데이터(2005)의 레코딩 시점(810)을 유지할 수 있다. 전자 장치(210)가 사용자 음성에 대한 오디오 데이터(2005)를 외부 전자 장치(220)로부터 수신하는 경우, 외부 전자 장치(220)가 오디오 데이터(2005)를 전송한 시점(또는, 외부 전자 장치(220)가 사용자의 음성을 획득하여 오디오 데이터(2005)를 생성한 시점)부터 레이튼시(tL) 만큼 지연된 시점에 오디오 데이터(2005)를 수신할 수 있다. 즉, 오디오 데이터(2005)가 외부 전자 장치(220)로부터 전자 장치(210)로 전송되는 경우, 오디오 데이터(2005)의 전송이 레이튼시 만큼 지연될 수 있다. 따라서, 전자 장치(210)는 사용자 음성에 대한 오디오 데이터(2005)에 대해서는 레코딩 시점(810)을 유지할 수 있다.According to various embodiments, in operation 1905 , the electronic device 210 performs at least one screen whose output time is adjusted based on latency tL and the audio data whose recording time is adjusted based on latency tL ( 525), and audio data 2005 for the user's voice may be used to provide the file. As shown in 2002 of FIG. 20 , the electronic device 210 includes video data 515 for at least one screen whose output time is adjusted, audio data 525 acquired according to reproduction of a multimedia file, and an external electronic device. Audio data 2005 for the user's voice received from the device 220 may be obtained. The electronic device 210 adjusts the recording time 810 of the audio data 525 acquired according to the reproduction of the multimedia file backward by the latency tL, and the recording time 810 of the audio data 2005 for the user's voice. ) can be maintained. When the electronic device 210 receives the audio data 2005 for the user's voice from the external electronic device 220, when the external electronic device 220 transmits the audio data 2005 (or the external electronic device ( The audio data 2005 may be received at a time delayed by the latency tL from the time point 220 when the audio data 2005 is generated by acquiring the user's voice. That is, when the audio data 2005 is transmitted from the external electronic device 220 to the electronic device 210 , the transmission of the audio data 2005 may be delayed by a latency. Accordingly, the electronic device 210 may maintain the recording time 810 for the audio data 2005 for the user's voice.

다양한 실시예들에 따르면 전자 장치(210)는 레코딩 동작의 수행 시 실시간으로 획득되는 오디오 데이터(예: 525, 2005)의 종류를 식별하고, 식별된 종류에 따라서 오디오 데이터(예: 525, 2005) 별로 레코딩 시점(810)의 조정 여부를 결정할 수 있다. 각각의 오디오 데이터(예: 525, 2005)는 오디오 데이터(예: 525, 2005)가 획득된 출처(예: 전자 장치(210)에 저장된 멀티 미디어 파일, 전자 장치(210)에서 실행 및/또는 구동되는 어플리케이션, 외부 전자 장치(220), 사용자 등)를 나타내기 위한 정보를 포함할 수 있다. 전자 장치(210)는 오디오 데이터(예: 525, 2005)의 종류가 외부 전자 장치(220)에서 수신되는 것으로 결정(예: 2005)되는 경우, 오디오 데이터(2005)의 레코딩 시점(810)을 유지할 수 잇다. 또, 전자 장치(210)는 오디오 데이터(예: 525, 2005)의 종류가 외부 전자 장치(220)에서 수신된 것이 아닌 것으로 결정(예: 525)되는 경우, 오디오 데이터(525)의 레코딩 시점(810)을 조정할 수 있다. 이에 따라, 도 20의 2002에 도시된 바와 같이, 비디오 데이터(515) 및 오디오 데이터들(525, 2005)의 레코딩 시점(810)이 동일하게 될 수 있다.According to various embodiments, the electronic device 210 identifies a type of audio data (eg, 525, 2005) acquired in real time when a recording operation is performed, and according to the identified type, the audio data (eg, 525, 2005) Whether to adjust the recording time 810 may be determined for each. Each audio data (eg, 525, 2005) is executed and/or driven by a source from which the audio data (eg, 525, 2005) was obtained (eg, a multimedia file stored in the electronic device 210 , and the electronic device 210 ) It may include information for indicating an application to be used, the external electronic device 220, a user, etc.). When the type of audio data (eg, 525 and 2005) is determined (eg, 2005) to be received by the external electronic device 220 , the electronic device 210 maintains the recording time 810 of the audio data 2005 . can Also, when it is determined (eg, 525) that the type of audio data (eg, 525, 2005) is not received by the external electronic device 220, the electronic device 210 records the audio data 525 ( 810) can be adjusted. Accordingly, as shown in 2002 of FIG. 20 , the recording time 810 of the video data 515 and the audio data 525 and 2005 may be the same.

이하에서는 다양한 실시예들에 따른 전자 장치(210)의 동작의 또 다른 예에 대해서 설명한다.Hereinafter, another example of the operation of the electronic device 210 according to various embodiments will be described.

다양한 실시예들에 따르면 전자 장치(210)는 레코딩 동작의 수행 중에 지정된 이벤트를 식별하는 경우, 식별된 이벤트에 대응하는 동작을 수행할 수 있다.According to various embodiments, when a specified event is identified while performing a recording operation, the electronic device 210 may perform an operation corresponding to the identified event.

도 21은 다양한 실시예들에 따른 전자 장치의 동작의 또 다른 예를 설명하기 위한 흐름도(2100)이다. 다양한 실시예들에 따르면, 도 21에 도시되는 동작들은 도시되는 순서에 국한되지 않고 다양한 순서로 수행될 수 있다. 또한, 다양한 실시예들에 따르면 도 21에 도시되는 동작들 보다 더 많은 동작들이 수행되거나, 더 적은 적어도 하나의 동작이 수행될 수도 있다. 이하에서는, 도 22 내지 도 23을 참조하여 도 21에 대해서 설명한다.21 is a flowchart 2100 for explaining another example of an operation of an electronic device according to various embodiments of the present disclosure. According to various embodiments, the operations illustrated in FIG. 21 are not limited to the illustrated order and may be performed in various orders. In addition, according to various embodiments, more operations than those illustrated in FIG. 21 or at least one fewer operations may be performed. Hereinafter, FIG. 21 will be described with reference to FIGS. 22 to 23 .

도 22는 다양한 실시예들에 따른 전자 장치의 레코딩 동작의 수행 중에 콜을 수신하는 경우 수행되는 동작의 일 예를 설명하기 위한 도면이다. 도 23은 다양한 실시예들에 따른 전자 장치의 레코딩 동작의 수행 중에 알림을 획득하는 경우 수행되는 동작의 일 예를 설명하기 위한 도면이다.22 is a diagram for describing an example of an operation performed when a call is received while an electronic device performs a recording operation according to various embodiments of the present disclosure; 23 is a diagram for describing an example of an operation performed when a notification is obtained while an electronic device performs a recording operation according to various embodiments of the present disclosure;

다양한 실시예들에 따르면 전자 장치(210)는 2101동작에서 레코딩을 위한 이벤트 식별하할 수 있다. 다양한 실시예들에 따르면 전자 장치(210)는 2102 동작에서 레코딩 동작을 수행할 수 있다. 예를 들어 전자 장치(210)는 레코딩 어플리케이션(예: 도 3의 SRM(351))을 실행하고, 실행된 레코딩 어플리케이션을 이용하여 레코딩 동작을 개시하기 위한 이벤트를 식별할 수 있다. 전자 장치(210)는 레코딩 동작을 개시하기 위한 이벤트를 식별하는 경우 레코딩 동작을 수행할 수 있다.According to various embodiments, the electronic device 210 may identify an event for recording in operation 2101 . According to various embodiments, the electronic device 210 may perform a recording operation in operation 2102 . For example, the electronic device 210 may execute a recording application (eg, SRM 351 of FIG. 3 ) and identify an event for starting a recording operation using the executed recording application. The electronic device 210 may perform a recording operation when identifying an event for initiating a recording operation.

다양한 실시예들에 따르면 전자 장치(210)는 2103동작에서 지정된 이벤트를 식별할 수 있다. 다양한 실시예들에 따르면 전자 장치(210)는 2104 동작에서 식별된 지정된 이벤트에 대한 응답으로 레코딩과 관련된 동작 또는 레코딩된 파일(540)과 관련된 동작 중 적어도 하나를 수행할 수 있다. 상기 지정된 이벤트는 전자 장치(210)의 레코딩 동작의 수행 중 전자 장치(210)에서 지정된 동작(예: 콜 수신 동작, 알림 표시 동작 등)이 수행되는 경우 식별될 수 있다. 전자 장치(210)는 지정된 이벤트 별로 지정된 이벤트에 대응하는 동작과 관련된 정보를 저장하고, 상기 지정된 이벤트가 식별되는 경우 지정된 이벤트에 대응하는 동작을 수행하도록 설정될 수 있다. 이하에서는 지정된 이벤트 별로 수행되는 전자 장치(210)의 동작에 대해서 설명한다.According to various embodiments, the electronic device 210 may identify a specified event in operation 2103 . According to various embodiments, the electronic device 210 may perform at least one of a recording-related operation or a recorded file 540-related operation in response to the specified event identified in operation 2104 . The specified event may be identified when a specified operation (eg, a call reception operation, a notification display operation, etc.) is performed by the electronic device 210 while the recording operation of the electronic device 210 is being performed. The electronic device 210 may be configured to store information related to an operation corresponding to a specified event for each specified event, and to perform an operation corresponding to the specified event when the specified event is identified. Hereinafter, operations of the electronic device 210 performed for each designated event will be described.

예를 들어, 전자 장치(210)는 도 22에 도시된 바와 같이 레코딩 동작을 수행하는 동안 콜(call)이 수신(call receiving) 되는 경우, 콜을 수신하는 시간 구간(2210) 동안 오디오 데이터(525)를 레코딩하지 않을 수 있다. 전자 장치(210)는 도 22의 2201 내지 2202에 도시된 바와 같이 레코딩을 수행하는 도중에 콜을 수신(call receiving)할 수 있다. 전자 장치는 콜 동작이 개시된 시점부터 콜이 종료되는 시점(call termination)까지(2210), 콜 어플리케이션의 실행 및/또는 구동에 따라서 적어도 하나의 화면을 표시하고 획득되는 오디오 데이터(525)(예: 외부 전자 장치(220)로부터 수신되는 사용자의 음성에 대한 오디오 데이터(525))를 출력할 수 있다. 전자 장치(210)는 콜 동작이 개시된 시점부터 종료되는 시점까지(2210), 적어도 하나의 화면에 대한 비디오 데이터(515)를 레코딩 하면서, 오디오 데이터(525)를 레코딩하지 않을 수 있다. 전자 장치(210)는 도 22의 2203에 도시된 바와 같이 콜이 종료된 시점(call termination)부터는 콜 어플리케이션의 실행 및/또는 구동에 따른 동작을 중단하고, 비디오 데이터(515) 및 오디오 데이터(525)를 레코딩할 수 있다. 이에 따라 레코딩 동작에 의해 수신된 파일(540)이 재생되는 경우, 콜을 수신하는 시간 구간 동안(2210) 콜과 관련된 화면이 표시되되, 콜과 관련된 오디오는 출력되지 않을 수 있다.For example, as shown in FIG. 22 , when a call is received while performing a recording operation, the electronic device 210 receives audio data 525 during a time period 2210 for receiving a call. ) may not be recorded. As shown in 2201 to 2202 of FIG. 22 , the electronic device 210 may receive a call while performing recording. The electronic device displays at least one screen and obtains audio data 525 (eg: Audio data 525 of the user's voice received from the external electronic device 220 may be output. The electronic device 210 may not record the audio data 525 while recording the video data 515 for at least one screen from the time the call operation starts to the time it ends ( 2210 ). As shown in 2203 of FIG. 22 , the electronic device 210 stops the execution and/or operation of the call application from the point in time when the call is terminated, and the video data 515 and audio data 525 ) can be recorded. Accordingly, when the file 540 received by the recording operation is reproduced, a screen related to a call may be displayed during a time period for receiving a call ( 2210 ), but audio related to the call may not be output.

또 예를 들어, 전자 장치(210)는 도 23에 도시된 바와 같이 레코딩 동작을 수행하는 동안 알림이 발생되는 경우, 알림을 제공하는 동작이 개시된 시점부터 알림을 제공하는 동작이 종료되는 시점까지의 시간 구간 동안(2310)의, 비디오 데이터(515) 및 오디오 데이터(525)에 대해서 처리할 수 있다. 상기 알림은 외부 전자 장치(220)로부터 수신되는 메시지에 의한 팝업 메시지, 다양한 종류의 알림 어플리케이션(예: 알람 어플리케이션, 예약 어플리케이션 등)에 의해 생성되는 메시지를 포함할 수 있다. 전자 장치(210)는 도 23의 2301 내지 2302에 도시된 바와 같이 레코딩 동작을 수행하는 도중에, 알림의 발생을 식별할 수 있다. 전자 장치(210)는 도 23의 2302에도 도시된 바와 같이 상기 알림이 개시된 시점부터, 알림과 관련된 화면을 표시하고 알림과 관련된 오디오 데이터(525)를 출력할 수 있다. 이때 전자 장치(210)는 알림이 개시된 시점부터 종료되는 시점까지(2310) 레코딩된 오디오 데이터(525)에 대해서는 무음으로 처리할 수 있다. 또, 전자 장치(210)는 알림이 개시된 시점부터 종료되는 시점까지(2310), 알림을 제공하는 동작의 수행에 따라 표시되는 적어도 하나의 화면에 대한 비디오 데이터(515)를 레코딩 하면서, 알림을 제공하는 동작의 수행에 따라 획득되는 오디오 데이터(525)를 레코딩하지 않을 수 있다. 전자 장치(210)는 도 23의 2303에 도시된 바와 같이 알림이 종료된 시점부터는 알림을 제공하는 동작을 중단하고, 비디오 데이터(515) 및 오디오 데이터(525)를 레코딩할 수 있다.Also, for example, as shown in FIG. 23 , when a notification is generated while the electronic device 210 performs a recording operation, from the time when the operation of providing the notification is started to the time when the operation of providing the notification is finished. During the time period 2310 , video data 515 and audio data 525 may be processed. The notification may include a pop-up message based on a message received from the external electronic device 220 and a message generated by various types of notification applications (eg, an alarm application, a reservation application, etc.). As shown in 2301 to 2302 of FIG. 23 , the electronic device 210 may identify occurrence of a notification while performing a recording operation. As illustrated in 2302 of FIG. 23 , the electronic device 210 may display a screen related to the notification and output audio data 525 related to the notification from the time the notification is started. In this case, the electronic device 210 may process the recorded audio data 525 as silence from the time the notification is started to the time when the notification is ended ( 2310 ). In addition, the electronic device 210 provides a notification while recording video data 515 for at least one screen displayed according to the execution of an operation for providing a notification, from the time the notification is started to the time when the notification is ended ( 2310 ). The audio data 525 obtained according to the execution of the operation may not be recorded. As shown in 2303 of FIG. 23 , the electronic device 210 may stop providing a notification from a point in time when the notification is terminated, and record video data 515 and audio data 525 .

이하에서는 다양한 실시예들에 따른 전자 장치(210)의 동작의 또 다른 예에 대해서 설명한다.Hereinafter, another example of the operation of the electronic device 210 according to various embodiments will be described.

다양한 실시예들에 따르면 전자 장치(210)는 통신 연결(230)이 형성된 상태에서 레코딩 동작을 수행하는 경우, 레코딩 동작이 종료되는 시점에서 레코딩된 비디오 데이터(515) 및/또는 오디오 데이터(525)의 레코딩 시점을 조정할 수 있다.According to various embodiments, when the electronic device 210 performs a recording operation in a state in which the communication connection 230 is formed, video data 515 and/or audio data 525 recorded at the time the recording operation ends. You can adjust the recording time of

도 24는 다양한 실시예들에 따른 전자 장치의 동작의 또 다른 예를 설명하기 위한 흐름도(2400)이다. 다양한 실시예들에 따르면, 도 24에 도시되는 동작들은 도시되는 순서에 국한되지 않고 다양한 순서로 수행될 수 있다. 또한, 다양한 실시예들에 따르면 도 24에 도시되는 동작들 보다 더 많은 동작들이 수행되거나, 더 적은 적어도 하나의 동작이 수행될 수도 있다. 이하에서는, 도 25를 참조하여 도 24에 대해서 설명한다.24 is a flowchart 2400 for explaining another example of an operation of an electronic device according to various embodiments of the present disclosure. According to various embodiments, the operations illustrated in FIG. 24 are not limited to the illustrated order and may be performed in various orders. In addition, according to various embodiments, more operations than those illustrated in FIG. 24 or at least one fewer operations may be performed. Hereinafter, FIG. 24 will be described with reference to FIG. 25 .

도 25는 다양한 실시예들에 따른 전자 장치의 레코딩 완료 시, 레이튼시를 기반으로 비디오 데이터 또는 오디오 데이터 중 적어도 하나의 레코딩 시점을 조정하는 동작의 일 예를 설명하기 위한 도면이다.25 is a diagram for explaining an example of an operation of adjusting a recording time of at least one of video data or audio data based on latency when recording of an electronic device is completed, according to various embodiments of the present disclosure;

다양한 실시예들에 따르면 전자 장치(210)는 2401 동작에서 레코딩을 위한 이벤트를 식별할 수 있다. 예를 들어 전자 장치(210)는 레코딩 어플리케이션(351)을 실행하고, 실행된 레코딩 어플리케이션(351)을 이용하여 레코딩 동작을 개시하기 위한 이벤트를 식별할 수 있다. 전자 장치(210)의 2401 동작은 상술한 전자 장치(210)의 401 동작 및 1701 동작과 같이 수행될 수 있으므로 중복되는 설명은 생략한다.According to various embodiments, the electronic device 210 may identify an event for recording in operation 2401 . For example, the electronic device 210 may execute a recording application 351 and identify an event for starting a recording operation using the executed recording application 351 . Operation 2401 of the electronic device 210 may be performed in the same manner as operations 401 and 1701 of the electronic device 210 described above, and thus a redundant description will be omitted.

다양한 실시예들에 따르면 전자 장치(210)는 2402 동작에서 외부 전자 장치(220)와 통신 연결(230)을 형성할 수 있다. 예를 들어, 전자 장치(210)는 도 25에 도시된 바와 같이 외부 전자 장치(220)와 통신 연결(230)을 형성하고, 데이터(예: 오디오 데이터(525))를 송신 및/또는 수신할 수 있다.According to various embodiments, the electronic device 210 may establish a communication connection 230 with the external electronic device 220 in operation 2402 . For example, as shown in FIG. 25 , the electronic device 210 forms a communication connection 230 with the external electronic device 220 and transmits and/or receives data (eg, audio data 525 ). can

다양한 실시예들에 따르면 전자 장치(210)는 2403 동작에서 외부 전자 장치(220)를 통해 오디오를 출력하고 적어도 하나의 화면을 디스플레이에 표시하면서, 레코딩을 수행할 수 있다. 전자 장치(210)는 도 25에 도시된 바와 같이 레코딩 동작이 개시되는 경우, 실시간으로 비디오 데이터(515) 및 오디오 데이터(525)를 획득하고, 획득된 비디오 데이터(515) 및 오디오 데이터(525)를 레코딩 어플리케이션(351)에 입력할 수 있다. 레코딩 어플리케이션(351)은 레코딩 동작이 종료되는 시점까지 실시간으로 획득된 비디오 데이터(515) 및 오디오 데이터(525) 각각을 실시간으로 축적할 수 있다.According to various embodiments, in operation 2403 , the electronic device 210 may output audio through the external electronic device 220 and display at least one screen while performing recording. When a recording operation is started as shown in FIG. 25 , the electronic device 210 acquires video data 515 and audio data 525 in real time, and the obtained video data 515 and audio data 525 . may be input to the recording application 351 . The recording application 351 may accumulate each of the video data 515 and the audio data 525 acquired in real time in real time until the time when the recording operation ends.

다양한 실시예들에 따르면 전자 장치(210)는 2404 동작에서 레코딩 완료 시, 레이튼시(tL)를 기반으로 비디오 데이터(515) 또는 오디오 데이터(525) 중 적어도 하나의 레코딩 시점을 조정하고, 파일(540)을 제공할 수 있다. 전자 장치(210)는 도 25에 도시된 바와 같이 레코딩 동작이 종료된 시점에서, 출력 시간이 조정된 적어도 하나의 화면에 대한 비디오 데이터(515)의 레코딩 시점을 레이튼시(tL) 만큼 이전으로 조정(2510)하고, 레코딩 시점이 조정된 비디오 데이터(515)와 오디오 데이터(525)를 먹싱하여 파일(540)을 생성할 수 있다. 또는, 전자 장치(210)는 레코딩 동작이 종료된 시점에서, 출력 시간이 조정된 적어도 하나의 화면에 대한 오디오 데이터(525)의 레코딩 시점을 레이튼시(tL) 만큼 이전으로 조정하거나, 비디오 데이터(515)와 오디오 데이터(525) 모두의 레코딩 시점을 동기화되도록 조정할 수도 있다.According to various embodiments, upon completion of recording in operation 2404 , the electronic device 210 adjusts a recording time of at least one of the video data 515 and the audio data 525 based on the latency tL, and the file ( 540) can be provided. As shown in FIG. 25 , the electronic device 210 adjusts the recording time of the video data 515 for at least one screen whose output time is adjusted to the previous time by the latency tL at the time when the recording operation is finished, as shown in FIG. 25 . In step 2510 , the file 540 may be generated by muxing the video data 515 and the audio data 525 of which the recording time is adjusted. Alternatively, when the recording operation is finished, the electronic device 210 adjusts the recording time of the audio data 525 for at least one screen whose output time is adjusted to an earlier time by the latency tL, or the video data ( 515) and the recording time of both the audio data 525 may be adjusted to be synchronized.

한편, 다양한 실시예들을 전자 장치(210)가 시각적 컨텐트(화면)를 출력하고, 외부 전자 장치(220)가 청각적 컨텐트(오디오)를 출력하는 것으로 예를 들어 설명하였지만, 이에 국한되지 않고 전자 장치(210)와 외부 전자 장치(220)는 협업 동작에 따라 다양한 컨텐트를 출력할 수 있다. 즉, 상술된 다양한 실시예들에 대한 설명들은 상기 전자 장치(210)와 외부 전자 장치(220)의 협업 동작에 따라 다른 다양한 컨텐트를 출력하는 경우에도 준용될 수 있다.Meanwhile, although various embodiments have been described as an example in which the electronic device 210 outputs visual content (screen) and the external electronic device 220 outputs auditory content (audio), the present invention is not limited thereto. The 210 and the external electronic device 220 may output various contents according to a cooperative operation. That is, the descriptions of the various embodiments described above may be applied mutatis mutandis to a case in which various other contents are output according to a cooperative operation between the electronic device 210 and the external electronic device 220 .

다양한 실시예들에 따르면 전자 장치(예: 210)로서, 디스플레이, 적어도 하나의 통신 회로(예: 216), 상기 디스플레이 및 상기 적어도 하나의 통신 회로(예: 216)와 작동적으로 연결되는 적어도 하나의 프로세서(예: 130, 211)를 포함하고, 레코딩을 위한 이벤트를 식별하고, 상기 적어도 하나의 통신 회로(예: 216)를 이용하여 외부 전자 장치(예: 220)와 통신 연결(예: 230)을 형성하고, 상기 통신 연결(예: 230)에 기반하여, 실행 중인 적어도 하나의 어플리케이션에 의하여 제공되는 적어도 하나의 화면(예: 510)을 상기 디스플레이에 표시하면서, 오디오가 상기 외부 전자 장치(예: 220)에서 출력되도록 상기 오디오와 연관된 오디오 데이터(예: 525)를 적어도 하나의 통신 회로(예: 도 2b의 216)를 이용하여 상기 외부 전자 장치(예: 220)로 전송하되, 상기 적어도 하나의 화면(예: 510)의 출력 시점은 상기 통신 연결(예: 230)과 연관된 레이튼시(예: latency)에 기반하여 조정되고, 상기 이벤트 식별 및 상기 통신 연결(예: 230)에 기반하여, 상기 출력 시점(예: 710)이 조정된 적어도 하나의 화면 및 상기 레이튼시(tL)에 기반하여 레코딩 시점(예: 810)이 조정된 상기 오디오 데이터(예: 525)를 이용하여 파일을 제공하도록 설정된, 전자 장치(예: 210)가 제공될 수 있다.According to various embodiments, as an electronic device (eg, 210 ), at least one display, at least one communication circuit (eg, 216 ), and at least one operatively connected to the display and the at least one communication circuit (eg, 216 ) of a processor (eg, 130, 211), identifying an event for recording, and using the at least one communication circuit (eg, 216) to communicate with an external electronic device (eg, 220) (eg, 230) ), and based on the communication connection (eg, 230), at least one screen (eg, 510) provided by at least one application being executed is displayed on the display, while audio is transmitted to the external electronic device ( For example: 220), the audio data (eg, 525) associated with the audio is transmitted to the external electronic device (eg, 220) using at least one communication circuit (eg, 216 of FIG. 2B ), wherein the at least The output timing of one screen (eg 510) is adjusted based on the latency (eg latency) associated with the communication connection (eg 230), and based on the event identification and the communication connection (eg 230) , providing a file using at least one screen to which the output time (eg, 710) is adjusted and the audio data (eg, 525) to which the recording time (eg, 810) is adjusted based on the latency (tL) An electronic device (eg, 210 ) configured to do so may be provided.

다양한 실시예들에 따르면 상기 적어도 하나의 프로세서(예: 130, 211)는 상기 통신 연결(예: 230)이 형성된 것을 식별한 경우, 상기 통신 연결(예: 230)과 연관된 상기 레이튼시를 식별하고, 상기 레이튼시 만큼 상기 적어도 하나의 화면을 출력 시점을 조정하고, 상기 적어도 하나의 화면을 표시하도록 설정된, 전자 장치(예: 210)가 제공될 수 있다.According to various embodiments, when it is identified that the communication connection (eg, 230) is formed, the at least one processor (eg, 130, 211) identifies the latency associated with the communication connection (eg, 230), , an electronic device (eg, 210 ) configured to adjust an output time of the at least one screen by the latency and display the at least one screen may be provided.

다양한 실시예들에 따르면 상기 적어도 하나의 프로세서(예: 130, 211)는 상기 레코딩을 위한 이벤트가 식별된 경우, 레코딩을 위한 제 1 어플리케이션을 이용하여 상기 출력 시점이 조정된 적어도 하나의 화면에 대한 비디오 데이터(예: 515) 및 상기 오디오 데이터(예: 525)를 획득하고, 상기 제 1 어플리케이션을 이용하여, 상기 레이튼시 만큼 상기 획득된 오디오 데이터(예: 525)의 상기 레코딩 시점을 조정하고, 상기 출력 시점이 조정된 적어도 하나의 화면에 대한 비디오 데이터(예: 515)와 상기 레코딩 시점이 조정된 오디오 데이터(예: 525)를 먹싱(예: muxing)하여 상기 파일을 생성하도록 설정된, 전자 장치(예: 210)가 제공될 수 있다.According to various embodiments, when the event for recording is identified, the at least one processor (eg, 130 , 211 ) provides information about at least one screen whose output time is adjusted using a first application for recording. Acquire video data (eg 515) and audio data (eg 525), and adjust the recording time of the acquired audio data (eg 525) by the latency by using the first application, The electronic device is set to generate the file by muxing (eg, muxing) video data (eg, 515) of at least one screen whose output time is adjusted and audio data (eg, 525) of which the recording time is adjusted, to generate the file. (eg 210) may be provided.

다양한 실시예들에 따르면 상기 적어도 하나의 프로세서(예: 130, 211)는 상기 적어도 하나의 화면을 표시하고 상기 오디오 데이터(예: 525)를 전송하면서, 상기 출력 시점이 조정된 적어도 하나의 화면에 대한 비디오 데이터(예: 515)와 상기 레코딩 시점이 조정된 오디오 데이터(예: 525)를 먹싱하도록 설정된, 전자 장치(예: 210)가 제공될 수 있다.According to various embodiments, the at least one processor (eg, 130, 211) displays the at least one screen and transmits the audio data (eg, 525), while the output time is adjusted on the at least one screen. An electronic device (eg, 210 ) configured to mux video data (eg, 515 ) and audio data (eg, 525 ) of which the recording time is adjusted may be provided.

다양한 실시예들에 따르면 상기 적어도 하나의 프로세서(예: 130, 211)는 상기 파일이 재생되는 경우, 상기 비디오 데이터(예: 515)에 기반하여 적어도 하나의 제 1 화면을 상기 디스플레이에 표시하고 상기 오디오 데이터(예: 525)에 기반하여 제 1 오디오를 출력하도록 설정되고, 상기 표시되는 적어도 하나의 제 1 화면에 대한 시점과 상기 출력되는 오디오에 대한 시점은 서로 연관되는 전자 장치(예: 210)가 제공될 수 있다.According to various embodiments, when the file is played back, the at least one processor (eg, 130 or 211) displays at least one first screen on the display based on the video data (eg, 515), and An electronic device (eg, 210) that is set to output first audio based on audio data (eg, 525), and that a viewpoint for the displayed at least one first screen and a viewpoint for the output audio are related to each other (eg, 210) may be provided.

다양한 실시예들에 따르면 상기 적어도 하나의 프로세서(예: 130, 211)는 상기 통신 연결(예: 230)이 형성된 경우, 상기 적어도 하나의 통신 회로를 이용하여 상기 외부 전자 장치(예: 220)로부터 수신된 상기 레이튼시에 대한 정보를 수신하고, 상기 수신된 정보에 기반하여 상기 레이튼시를 식별하도록 설정된, 전자 장치(예: 210)가 제공될 수 있다.According to various embodiments, when the communication connection (eg, 230 ) is established, the at least one processor (eg, 130 , 211 ) receives information from the external electronic device (eg, 220 ) using the at least one communication circuit. An electronic device (eg, 210 ) configured to receive the received information on the latency and identify the latency based on the received information may be provided.

다양한 실시예들에 따르면 상기 적어도 하나의 프로세서(예: 130, 211)는 제 1 외부 전자 장치(예: 220)와 제 1 통신 연결(예: 230)이 형성된 경우, 상기 제 1 통신 연결(예: 230)과 연관된 제 1 레이튼시를 식별하고, 제 2 외부 전자 장치(예: 220)와 제 2 통신 연결(예: 230)이 형성된 경우, 상기 제 2 통신 연결(예: 230)과 연관된 상기 제 1 레이튼시와는 다른 제 2 레이튼시를 식별하도록 설정된, 전자 장치(예: 210)가 제공될 수 있다.According to various embodiments, when a first communication connection (eg, 230) is formed with a first external electronic device (eg, 220), the at least one processor (eg, 130 or 211) may connect the first communication connection (eg, 230). : Identifies the first latency associated with 230), and when a second communication connection (eg, 230) is formed with a second external electronic device (eg, 220), the second communication connection (eg, 230) is associated with the An electronic device (eg, 210 ) configured to identify a second latency different from the first latency may be provided.

다양한 실시예들에 따르면 상기 적어도 하나의 프로세서(예: 130, 211)는 상기 출력 시점이 조정된 적어도 하나의 화면에 대한 비디오 데이터(예: 515)와 상기 레코딩 시점이 조정된 오디오 데이터(예: 525)를 먹싱하는 중에, 상기 통신 연결(예: 230)이 해제된 것을 식별하고, 상기 통신 연결(예: 230)이 해제된 것을 식별한 것에 기반하여, 상기 먹싱되는 상기 오디오 데이터(예: 525)의 상기 레코딩 시점의 조정을 중단하도록 설정된, 전자 장치(예: 210)가 제공될 수 있다.According to various embodiments, the at least one processor (eg, 130 and 211 ) may include video data (eg, 515 ) of the at least one screen whose output time is adjusted and audio data (eg, the recording time of which is adjusted). 525), it is identified that the communication connection (eg, 230) is released, and based on identifying that the communication connection (eg, 230) is released, the muxed audio data (eg, 525) ), an electronic device (eg, 210 ) configured to stop adjusting the recording time may be provided.

다양한 실시예들에 따르면 상기 적어도 하나의 프로세서(예: 130, 211)는 상기 비디오 데이터(예: 515)와 상기 오디오 데이터(예: 525)의 먹싱을 수행하는 동안 상기 통신 연결(예: 230)이 형성되는 경우, 상기 통신 연결(예: 230)이 형성된 시점부터 상기 레이튼시 만큼의 시간 동안 상기 먹싱을 일시 중지하도록 설정된, 전자 장치(예: 210)가 제공될 수 있다.According to various embodiments, the at least one processor (eg, 130, 211) performs the communication connection (eg, 230) while performing muxing of the video data (eg, 515) and the audio data (eg, 525) In this case, an electronic device (eg, 210 ) configured to pause the muxing for a time corresponding to the latency from the time when the communication connection (eg, 230 ) is formed may be provided.

다양한 실시예들에 따르면 상기 레코딩을 위한 이벤트는 상기 제 1 어플리케이션을 이용한 상기 먹싱을 개시하기 위한 이벤트이고, 상기 적어도 하나의 프로세서는 상기 통신 연결(예: 230)이 형성된 이후 상기 비디오 데이터(예: 515)와 상기 오디오 데이터(예: 525)의 먹싱을 수행하는 경우, 상기 레코딩을 위한 이벤트를 식별한 시점부터 상기 레이튼시 만큼의 시간 동안 상기 먹싱을 일시 중지하도록 설정된, 전자 장치(예: 210)가 제공될 수 있다.According to various embodiments, the recording event is an event for starting the muxing using the first application, and the at least one processor performs the video data (eg: 515) and the audio data (eg, 525), an electronic device (eg, 210) that is set to pause the muxing for a time equal to the latency from the point in time when the event for recording is identified may be provided.

다양한 실시예들에 따르면 전자 장치(예: 210)의 동작 방법에 있어서, 레코딩을 위한 이벤트를 식별하는 동작, 외부 전자 장치(예: 220)와 통신 연결(예: 230)을 형성하는 동작, 상기 통신 연결(예: 230)에 기반하여, 실행 중인 적어도 하나의 어플리케이션에 의하여 제공되는 적어도 하나의 화면을 상기 디스플레이에 표시하면서, 오디오가 상기 외부 전자 장치(예: 220)에서 출력되도록 상기 오디오와 연관된 오디오 데이터(예: 525)를 적어도 하나의 통신 회로를 이용하여 상기 외부 전자 장치(예: 220)로 전송하는 동작-상기 적어도 하나의 화면의 출력 시점은 상기 통신 연결(예: 230)과 연관된 레이튼시(예: latency)에 기반하여 조정됨- 및 상기 이벤트 식별 및 상기 통신 연결(예: 230)에 기반하여, 상기 출력 시점이 조정된 적어도 하나의 화면 및 상기 레이튼시에 기반하여 레코딩 시점이 조정된 상기 오디오 데이터(예: 525)를 이용하여 파일을 제공하는 동작을 포함하는, 동작 방법이 제공될 수 있다.According to various embodiments, in a method of operating an electronic device (eg, 210 ), an operation of identifying an event for recording, an operation of forming a communication connection (eg, 230 ) with an external electronic device (eg, 220 ), and the Based on a communication connection (eg, 230 ), while displaying at least one screen provided by at least one application being executed on the display, audio associated with the audio is output from the external electronic device (eg, 220 ) Transmitting audio data (eg, 525) to the external electronic device (eg, 220) using at least one communication circuit - The output timing of the at least one screen is a latency associated with the communication connection (eg, 230) Adjusted based on time (eg latency) - and based on the event identification and the communication connection (eg 230 ), at least one screen for which the output timing is adjusted and the recording timing is adjusted based on the latency An operation method including an operation of providing a file using the obtained audio data (eg, 525 ) may be provided.

다양한 실시예들에 따르면 상기 통신 연결(예: 230)이 형성된 것을 식별한 경우, 상기 통신 연결(예: 230)과 연관된 상기 레이튼시를 식별하는 동작 및 상기 레이튼시 만큼 상기 적어도 하나의 화면을 출력 시점을 조정하고, 상기 적어도 하나의 화면을 표시하는 동작을 포함하는, 동작 방법이 제공될 수 있다.According to various embodiments, when it is identified that the communication connection (eg, 230) has been formed, an operation of identifying the latency associated with the communication connection (eg, 230) and outputting the at least one screen by the latency An operation method including adjusting a viewpoint and displaying the at least one screen may be provided.

다양한 실시예들에 따르면 상기 레코딩을 위한 이벤트가 식별된 경우, 상기 출력 시점이 조정된 적어도 하나의 화면에 대한 비디오 데이터(예: 515) 및 상기 오디오 데이터(예: 525)를 획득하는 동작을 포함하는, 동작 방법이 제공될 수 있다. According to various embodiments, when the event for recording is identified, the method includes obtaining video data (eg 515) and audio data (eg 525) for at least one screen whose output time is adjusted. A method of operation may be provided.

상기 레이튼시 만큼 상기 획득된 오디오 데이터(예: 525)의 상기 레코딩 시점을 조정하는 동작 및 상기 출력 시점이 조정된 적어도 하나의 화면에 대한 비디오 데이터(예: 515)와 상기 레코딩 시점이 조정된 오디오 데이터(예: 525)를 먹싱(예: muxing)하여 상기 파일을 생성하는 동작을 포함하는, 동작 방법이 제공될 수 있다.Adjusting the recording time of the acquired audio data (eg, 525) by the latency and video data (eg, 515) for at least one screen whose output timing is adjusted and the audio with the recording timing adjusted An operation method including an operation of generating the file by muxing (eg, muxing) data (eg, 525 ) may be provided.

다양한 실시예들에 따르면 상기 적어도 하나의 화면을 표시하고 상기 오디오 데이터(예: 525)를 전송하면서, 상기 출력 시점이 조정된 적어도 하나의 화면에 대한 비디오 데이터(예: 515)와 상기 레코딩 시점이 조정된 오디오 데이터(예: 525)를 먹싱하는 동작을 포함하는, 동작 방법이 제공될 수 있다.According to various embodiments, while displaying the at least one screen and transmitting the audio data (eg, 525), the video data (eg, 515) and the recording time of the at least one screen whose output time is adjusted are An operation method including an operation of muxing the adjusted audio data (eg, 525 ) may be provided.

다양한 실시예들에 따르면 상기 파일이 재생되는 경우, 상기 비디오 데이터(예: 515)에 기반하여 적어도 하나의 제 1 화면을 상기 디스플레이에 표시하고 상기 오디오 데이터(예: 525)에 기반하여 제 1 오디오를 출력하는 동작을 포함하고, 상기 표시되는 적어도 하나의 제 1 화면에 대한 시점과 상기 출력되는 오디오에 대한 시점은 서로 연관되는 동작 방법이 제공될 수 있다.According to various embodiments, when the file is played, at least one first screen is displayed on the display based on the video data (eg, 515), and first audio is displayed based on the audio data (eg, 525). An operation method may be provided in which a viewpoint for the displayed at least one first screen and a viewpoint for the outputted audio are related to each other, including outputting a .

다양한 실시예들에 따르면 상기 통신 연결(예: 230)이 형성된 경우, 상기 적어도 하나의 통신 회로를 이용하여 상기 외부 전자 장치(예: 220)로부터 수신된 상기 레이튼시에 대한 정보를 수신하는 동작 및 상기 수신된 정보에 기반하여 상기 레이튼시를 식별하는 동작을 포함하는, 동작 방법이 제공될 수 있다.According to various embodiments, when the communication connection (eg, 230) is formed, the operation of receiving the information on the latency received from the external electronic device (eg, 220) using the at least one communication circuit; A method of operation may be provided, comprising identifying the latency based on the received information.

다양한 실시예들에 따르면 제 1 외부 전자 장치(예: 220)와 제 1 통신 연결(예: 230)이 형성된 경우, 상기 제 1 통신 연결(예: 230)과 연관된 제 1 레이튼시를 식별하는 동작 및 제 2 외부 전자 장치(예: 220)와 제 2 통신 연결(예: 230)이 형성된 경우, 상기 제 2 통신 연결(예: 230)과 연관된 상기 제 1 레이튼시와는 다른 제 2 레이튼시를 식별하는 동작을 포함하는, 동작 방법이 제공될 수 있다.According to various embodiments, when a first communication connection (eg, 230) is formed with a first external electronic device (eg, 220), the operation of identifying a first latency associated with the first communication connection (eg, 230) and when a second communication connection (eg, 230) is formed with a second external electronic device (eg, 220), a second latency different from the first latency associated with the second communication connection (eg, 230) A method of operation may be provided, including the operation of identifying.

다양한 실시예들에 따르면 상기 출력 시점이 조정된 적어도 하나의 화면에 대한 비디오 데이터(예: 515)와 상기 레코딩 시점이 조정된 오디오 데이터(예: 525)를 먹싱하는 중에, 상기 통신 연결(예: 230)이 해제된 것을 식별하는 동작 및 상기 통신 연결(예: 230)이 해제된 것을 식별한 것에 기반하여, 상기 먹싱되는 상기 오디오 데이터(예: 525)의 상기 레코딩 시점의 조정을 중단하는 동작을 포함하는, 동작 방법이 제공될 수 있다.According to various embodiments, while muxing the video data (eg, 515) of the at least one screen whose output time is adjusted and the audio data (eg, 525) of which the recording time is adjusted, the communication connection (eg: 230) is released and based on identifying that the communication connection (eg, 230) is disconnected, the operation of stopping the adjustment of the recording time of the muxed audio data (eg, 525) A method of operation may be provided, comprising:

다양한 실시예들에 따르면 상기 비디오 데이터(예: 515)와 상기 오디오 데이터(예: 525)의 먹싱을 수행하는 동안 상기 통신 연결(예: 230)이 형성되는 경우, 상기 통신 연결(예: 230)이 형성된 시점부터 상기 레이튼시 만큼의 시간 동안 상기 먹싱을 일시 중지하는 동작을 포함하는, 동작 방법이 제공될 수 있다.According to various embodiments, when the communication connection (eg, 230) is formed while performing muxing of the video data (eg, 515) and the audio data (eg, 525), the communication connection (eg, 230) An operation method may be provided, including the operation of temporarily stopping the muxing for a time corresponding to the latency from the time when this is formed.

다양한 실시예들에 따르면 전자 장치(예: 210)로서, 디스플레이 적어도 하나의 통신 회로 적어도 하나의 프로세서를 포함하고, 외부 전자 장치(예: 220)와 통신 연결(예: 230)을 형성하고, 상기 통신 연결(예: 230)이 형성된 것에 기반하여 상기 통신 연결(예: 230)과 연관된 레이튼시(예: latency)를 식별하고, 레코딩을 위한 이벤트를 식별하고, 상기 레코딩을 위한 이벤트의 식별에 응답하여, 오디오 데이터(예: 525) 및 비디오 데이터(예: 515)를 획득하고, 상기 식별된 레이튼시에 기반하여, 상기 오디오 데이터(예: 525) 또는 상기 비디오 데이터(예: 515) 중 적어도 하나의 먹싱되는 시점을 조정하고, 상기 먹싱되는 시점을 조정한 것에 기반하여, 상기 오디오 데이터(예: 525) 및 상기 비디오 데이터(예: 515)의 먹싱을 수행하여 파일을 제공하도록 설정된, 전자 장치(예: 210)가 제공될 수 있다.According to various embodiments, as an electronic device (eg, 210), the display includes at least one communication circuit and at least one processor, forms a communication connection (eg, 230) with an external electronic device (eg, 220), and the Identifies a latency (eg, latency) associated with the communication connection (eg, 230) based on the establishment of a communication connection (eg, 230), identifies an event for recording, and responds to identification of the event for recording to obtain audio data (eg 525) and video data (eg 515), and based on the identified latency, at least one of the audio data (eg 525) or the video data (eg 515) An electronic device ( For example, 210) may be provided.

Claims (20)

전자 장치로서,
디스플레이;
적어도 하나의 통신 회로;
상기 디스플레이 및 상기 적어도 하나의 통신 회로와 작동적으로 연결되는 적어도 하나의 프로세서;를 포함하고,
레코딩을 위한 이벤트를 식별하고,
상기 적어도 하나의 통신 회로를 이용하여 외부 전자 장치와 통신 연결을 형성하고,
상기 통신 연결에 기반하여, 실행 중인 적어도 하나의 어플리케이션에 의하여 제공되는 적어도 하나의 화면을 상기 디스플레이에 표시하면서, 오디오가 상기 외부 전자 장치에서 출력되도록 상기 오디오와 연관된 오디오 데이터를 적어도 하나의 통신 회로를 이용하여 상기 외부 전자 장치로 전송하되, 상기 적어도 하나의 화면의 출력 시점은 상기 통신 연결과 연관된 레이튼시(latency)에 기반하여 조정되고,
상기 이벤트 식별 및 상기 통신 연결에 기반하여, 상기 출력 시점이 조정된 적어도 하나의 화면 및 상기 레이튼시에 기반하여 레코딩 시점이 조정된 상기 오디오 데이터를 이용하여 파일을 제공하도록 설정된,
전자 장치.
An electronic device comprising:
display;
at least one communication circuit;
at least one processor operatively coupled to the display and the at least one communication circuit;
identify events for recording;
forming a communication connection with an external electronic device using the at least one communication circuit;
at least one communication circuit configured to transmit audio data related to the audio to be output from the external electronic device while displaying at least one screen provided by at least one running application on the display based on the communication connection and transmitted to the external electronic device using, but the output timing of the at least one screen is adjusted based on the latency associated with the communication connection,
based on the event identification and the communication connection, set to provide a file using at least one screen whose output time is adjusted and the audio data whose recording time is adjusted based on the latency,
electronic device.
제 1 항에 있어서, 상기 적어도 하나의 프로세서는:
상기 통신 연결이 형성된 것을 식별한 경우, 상기 통신 연결과 연관된 상기 레이튼시를 식별하고,
상기 레이튼시 만큼 상기 적어도 하나의 화면을 출력 시점을 조정하고, 상기 적어도 하나의 화면을 표시하도록 설정된,
전자 장치.
The method of claim 1 , wherein the at least one processor comprises:
When identifying that the communication connection is established, identify the latency associated with the communication connection,
Set to adjust the output time of the at least one screen by the latency and display the at least one screen,
electronic device.
제 2 항에 있어서, 상기 적어도 하나의 프로세서는:
상기 레코딩을 위한 이벤트가 식별된 경우, 레코딩을 위한 제 1 어플리케이션을 이용하여 상기 출력 시점이 조정된 적어도 하나의 화면에 대한 비디오 데이터 및 상기 오디오 데이터를 획득하고,
상기 제 1 어플리케이션을 이용하여, 상기 레이튼시 만큼 상기 획득된 오디오 데이터의 상기 레코딩 시점을 조정하고,
상기 출력 시점이 조정된 적어도 하나의 화면에 대한 비디오 데이터와 상기 레코딩 시점이 조정된 오디오 데이터를 먹싱(muxing)하여 상기 파일을 생성하도록 설정된,
전자 장치.
3. The method of claim 2, wherein the at least one processor comprises:
When the event for recording is identified, using a first application for recording to obtain video data and the audio data for at least one screen whose output time is adjusted,
adjusting the recording time of the acquired audio data by the latency by using the first application;
set to generate the file by muxing video data for at least one screen whose output time is adjusted and audio data whose recording time is adjusted,
electronic device.
제 3 항에 있어서,
상기 적어도 하나의 프로세서는:
상기 적어도 하나의 화면을 표시하고 상기 오디오 데이터를 전송하면서, 상기 출력 시점이 조정된 적어도 하나의 화면에 대한 비디오 데이터와 상기 레코딩 시점이 조정된 오디오 데이터를 먹싱하도록 설정된,
전자 장치.
4. The method of claim 3,
The at least one processor comprises:
set to display the at least one screen and transmit the audio data, and to mux the video data for the at least one screen whose output time is adjusted and the audio data for which the recording time is adjusted,
electronic device.
제 3 항에 있어서,
상기 적어도 하나의 프로세서는:
상기 파일이 재생되는 경우, 상기 비디오 데이터에 기반하여 적어도 하나의 제 1 화면을 상기 디스플레이에 표시하고 상기 오디오 데이터에 기반하여 제 1 오디오를 출력하도록 설정되고,
상기 표시되는 적어도 하나의 제 1 화면에 대한 시점과 상기 출력되는 오디오에 대한 시점은 서로 연관되는
전자 장치.
4. The method of claim 3,
The at least one processor comprises:
when the file is played, display at least one first screen on the display based on the video data and output first audio based on the audio data;
A viewpoint for the displayed at least one first screen and a viewpoint for the output audio are related to each other
electronic device.
제 1 항에 있어서,
상기 적어도 하나의 프로세서는:
상기 통신 연결이 형성된 경우, 상기 적어도 하나의 통신 회로를 이용하여 상기 외부 전자 장치로부터 수신된 상기 레이튼시에 대한 정보를 수신하고,
상기 수신된 정보에 기반하여 상기 레이튼시를 식별하도록 설정된,
전자 장치.
The method of claim 1,
The at least one processor comprises:
When the communication connection is established, receiving the information on the latency received from the external electronic device using the at least one communication circuit,
configured to identify the latency based on the received information;
electronic device.
제 6 항에 있어서,
상기 적어도 하나의 프로세서는:
제 1 외부 전자 장치와 제 1 통신 연결이 형성된 경우, 상기 제 1 통신 연결과 연관된 제 1 레이튼시를 식별하고,
제 2 외부 전자 장치와 제 2 통신 연결이 형성된 경우, 상기 제 2 통신 연결과 연관된 상기 제 1 레이튼시와는 다른 제 2 레이튼시를 식별하도록 설정된,
전자 장치.
7. The method of claim 6,
The at least one processor comprises:
When a first communication connection is established with the first external electronic device, identifying a first latency associated with the first communication connection,
configured to identify a second latency different from the first latency associated with the second communication connection when a second communication connection is established with a second external electronic device;
electronic device.
제 3 항에 있어서,
상기 적어도 하나의 프로세서는:
상기 출력 시점이 조정된 적어도 하나의 화면에 대한 비디오 데이터와 상기 레코딩 시점이 조정된 오디오 데이터를 먹싱하는 중에, 상기 통신 연결이 해제된 것을 식별하고,
상기 통신 연결이 해제된 것을 식별한 것에 기반하여, 상기 먹싱되는 오디오 데이터의 상기 레코딩 시점의 조정을 중단하도록 설정된,
전자 장치.
4. The method of claim 3,
The at least one processor comprises:
Identifies that the communication connection is disconnected while muxing the video data for at least one screen whose output time is adjusted and the audio data whose recording time is adjusted,
Set to stop adjusting the recording time of the muxed audio data based on identifying that the communication connection is disconnected,
electronic device.
제 3 항에 있어서,
상기 적어도 하나의 프로세서는:
상기 비디오 데이터와 상기 오디오 데이터의 먹싱을 수행하는 동안 상기 통신 연결이 형성되는 경우, 상기 통신 연결이 형성된 시점부터 상기 레이튼시 만큼의 시간 동안 상기 먹싱을 일시 중지하도록 설정된,
전자 장치.
4. The method of claim 3,
The at least one processor comprises:
When the communication connection is formed while performing muxing of the video data and the audio data, the muxing is set to pause for a time equal to the latency from the time the communication connection is established,
electronic device.
제 3 항에 있어서, 상기 레코딩을 위한 이벤트는 상기 제 1 어플리케이션을 이용한 상기 먹싱을 개시하기 위한 이벤트이고,
상기 적어도 하나의 프로세서는:
상기 통신 연결이 형성된 이후 상기 비디오 데이터와 상기 오디오 데이터의 먹싱을 수행하는 경우, 상기 레코딩을 위한 이벤트를 식별한 시점부터 상기 레이튼시 만큼의 시간 동안 상기 먹싱을 일시 중지하도록 설정된,
전자 장치.
The method of claim 3, wherein the recording event is an event for starting the muxing using the first application,
The at least one processor comprises:
When performing muxing of the video data and the audio data after the communication connection is established, the muxing is set to pause for a time equal to the latency from the time when the event for the recording is identified,
electronic device.
전자 장치의 동작 방법에 있어서,
레코딩을 위한 이벤트를 식별하는 동작;
외부 전자 장치와 통신 연결을 형성하는 동작;
상기 통신 연결에 기반하여, 실행 중인 적어도 하나의 어플리케이션에 의하여 제공되는 적어도 하나의 화면을 상기 전자 장치의 디스플레이에 표시하면서, 오디오가 상기 외부 전자 장치에서 출력되도록 상기 오디오와 연관된 오디오 데이터를 적어도 하나의 통신 회로를 이용하여 상기 외부 전자 장치로 전송하는 동작-상기 적어도 하나의 화면의 출력 시점은 상기 통신 연결과 연관된 레이튼시(latency)에 기반하여 조정됨-; 및
상기 이벤트 식별 및 상기 통신 연결에 기반하여, 상기 출력 시점이 조정된 적어도 하나의 화면 및 상기 레이튼시에 기반하여 레코딩 시점이 조정된 상기 오디오 데이터를 이용하여 파일을 제공하는 동작;을 포함하는,
동작 방법.
A method of operating an electronic device, comprising:
identifying an event for recording;
establishing a communication connection with an external electronic device;
Based on the communication connection, while displaying at least one screen provided by at least one application being executed on the display of the electronic device, the audio data associated with the audio is outputted from the external electronic device by at least one transmitting to the external electronic device using a communication circuit, wherein an output time of the at least one screen is adjusted based on a latency associated with the communication connection; and
Based on the event identification and the communication connection, the operation of providing a file using at least one screen whose output time is adjusted and the audio data whose recording time is adjusted based on the latency;
how it works.
제 11 항에 있어서,
상기 통신 연결이 형성된 것을 식별한 경우, 상기 통신 연결과 연관된 상기 레이튼시를 식별하는 동작; 및
상기 레이튼시 만큼 상기 적어도 하나의 화면을 출력 시점을 조정하고, 상기 적어도 하나의 화면을 표시하는 동작;를 포함하는,
동작 방법.
12. The method of claim 11,
identifying the latency associated with the communication connection when it is identified that the communication connection is established; and
Including; adjusting an output time of the at least one screen by the latency and displaying the at least one screen;
how it works.
제 12 항에 있어서,
상기 레코딩을 위한 이벤트가 식별된 경우, 상기 출력 시점이 조정된 적어도 하나의 화면에 대한 비디오 데이터 및 상기 오디오 데이터를 획득하는 동작;
상기 레이튼시 만큼 상기 획득된 오디오 데이터의 상기 레코딩 시점을 조정하는 동작; 및
상기 출력 시점이 조정된 적어도 하나의 화면에 대한 비디오 데이터와 상기 레코딩 시점이 조정된 오디오 데이터를 먹싱(muxing)하여 상기 파일을 생성하는 동작;을 포함하는,
동작 방법.
13. The method of claim 12,
obtaining video data and the audio data for at least one screen whose output time is adjusted when the event for the recording is identified;
adjusting the recording time of the acquired audio data by the latency; and
The operation of generating the file by muxing the video data of the at least one screen whose output time is adjusted and the audio data of which the recording time is adjusted;
how it works.
제 13 항에 있어서,
상기 적어도 하나의 화면을 표시하고 상기 오디오 데이터를 전송하면서, 상기 출력 시점이 조정된 적어도 하나의 화면에 대한 비디오 데이터와 상기 레코딩 시점이 조정된 오디오 데이터를 먹싱하는 동작;을 포함하는,
동작 방법.
14. The method of claim 13,
Displaying the at least one screen and transmitting the audio data, muxing the video data of the at least one screen whose output time is adjusted and the audio data of which the recording time is adjusted;
how it works.
제 13 항에 있어서,
상기 파일이 재생되는 경우, 상기 비디오 데이터에 기반하여 적어도 하나의 제 1 화면을 상기 디스플레이에 표시하고 상기 오디오 데이터에 기반하여 제 1 오디오를 출력하는 동작;을 포함하고,
상기 표시되는 적어도 하나의 제 1 화면에 대한 시점과 상기 출력되는 오디오에 대한 시점은 서로 연관되는
동작 방법.
14. The method of claim 13,
When the file is reproduced, displaying at least one first screen on the display based on the video data and outputting a first audio based on the audio data;
A viewpoint for the displayed at least one first screen and a viewpoint for the output audio are related to each other
how it works.
제 11 항에 있어서,
상기 통신 연결이 형성된 경우, 상기 적어도 하나의 통신 회로를 이용하여 상기 외부 전자 장치로부터 수신된 상기 레이튼시에 대한 정보를 수신하는 동작; 및
상기 수신된 정보에 기반하여 상기 레이튼시를 식별하는 동작;을 포함하는,
동작 방법.
12. The method of claim 11,
receiving information about the latency received from the external electronic device using the at least one communication circuit when the communication connection is established; and
Including; identifying the latency based on the received information
how it works.
제 16 항에 있어서,
제 1 외부 전자 장치와 제 1 통신 연결이 형성된 경우, 상기 제 1 통신 연결과 연관된 제 1 레이튼시를 식별하는 동작; 및
제 2 외부 전자 장치와 제 2 통신 연결이 형성된 경우, 상기 제 2 통신 연결과 연관된 상기 제 1 레이튼시와는 다른 제 2 레이튼시를 식별하는 동작;을 포함하는,
동작 방법.
17. The method of claim 16,
identifying a first latency associated with the first communication connection when a first communication connection is established with the first external electronic device; and
When a second communication connection is established with a second external electronic device, identifying a second latency different from the first latency associated with the second communication connection;
how it works.
제 13 항에 있어서,
상기 출력 시점이 조정된 적어도 하나의 화면에 대한 비디오 데이터와 상기 레코딩 시점이 조정된 오디오 데이터를 먹싱하는 중에, 상기 통신 연결이 해제된 것을 식별하는 동작; 및
상기 통신 연결이 해제된 것을 식별한 것에 기반하여, 상기 먹싱되는 오디오 데이터의 상기 레코딩 시점의 조정을 중단하는 동작;을 포함하는,
동작 방법.
14. The method of claim 13,
identifying that the communication connection is disconnected while muxing the video data for the at least one screen whose output time has been adjusted and the audio data whose recording time has been adjusted; and
On the basis of identifying that the communication connection is disconnected, the operation of stopping the adjustment of the recording time of the muxed audio data; including,
how it works.
제 13 항에 있어서,
상기 비디오 데이터와 상기 오디오 데이터의 먹싱을 수행하는 동안 상기 통신 연결이 형성되는 경우, 상기 통신 연결이 형성된 시점부터 상기 레이튼시 만큼의 시간 동안 상기 먹싱을 일시 중지하는 동작;을 포함하는,
동작 방법.
14. The method of claim 13,
When the communication connection is formed while performing the muxing of the video data and the audio data, the operation of temporarily stopping the muxing for a time corresponding to the latency from the time the communication connection is established;
how it works.
전자 장치로서,
디스플레이;
적어도 하나의 통신 회로;
적어도 하나의 프로세서;를 포함하고,
외부 전자 장치와 통신 연결을 형성하고,
상기 통신 연결이 형성된 것에 기반하여 상기 통신 연결과 연관된 레이튼시(latency)를 식별하고,
레코딩을 위한 이벤트를 식별하고,
상기 레코딩을 위한 이벤트의 식별에 응답하여, 오디오 데이터 및 비디오 데이터를 획득하고,
상기 식별된 레이튼시에 기반하여, 상기 오디오 데이터의 먹싱되는 시점을 조정하고,
상기 오디오 데이터의 먹싱되는 시점을 조정한 것에 기반하여, 상기 먹싱되는 시점이 조정된 오디오 데이터 및 상기 비디오 데이터의 먹싱을 수행하여 파일을 제공하도록 설정된,
전자 장치.
An electronic device comprising:
display;
at least one communication circuit;
at least one processor;
establish a communication connection with an external electronic device;
identify a latency associated with the communication connection based on the establishment of the communication connection;
identify events for recording;
in response to identifying the event for recording, obtain audio data and video data;
Based on the identified latency, adjust the muxed timing of the audio data,
Set to provide a file by performing muxing of the audio data and the video data at which the muxing time is adjusted based on the adjustment of the muxing timing of the audio data,
electronic device.
KR1020200066731A 2020-06-02 2020-06-02 Electronic device for recording and method for operating thereof KR20210149549A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020200066731A KR20210149549A (en) 2020-06-02 2020-06-02 Electronic device for recording and method for operating thereof
PCT/KR2021/006830 WO2021246765A1 (en) 2020-06-02 2021-06-02 Electronic device for recording and operation method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200066731A KR20210149549A (en) 2020-06-02 2020-06-02 Electronic device for recording and method for operating thereof

Publications (1)

Publication Number Publication Date
KR20210149549A true KR20210149549A (en) 2021-12-09

Family

ID=78830091

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200066731A KR20210149549A (en) 2020-06-02 2020-06-02 Electronic device for recording and method for operating thereof

Country Status (2)

Country Link
KR (1) KR20210149549A (en)
WO (1) WO2021246765A1 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101450100B1 (en) * 2007-11-22 2014-10-15 삼성전자주식회사 Multimedia apparatus and synchronization method thereof
KR101945813B1 (en) * 2012-06-08 2019-02-08 엘지전자 주식회사 Image display apparatus, mobile terminal and method for operating the same
KR102137207B1 (en) * 2014-06-06 2020-07-23 삼성전자주식회사 Electronic device, contorl method thereof and system
JP6598408B2 (en) * 2016-03-08 2019-10-30 華為技術有限公司 Display method and terminal device
KR102589496B1 (en) * 2016-07-04 2023-10-16 삼성전자 주식회사 Method for displaying screen and electronic device implementing the same

Also Published As

Publication number Publication date
WO2021246765A1 (en) 2021-12-09

Similar Documents

Publication Publication Date Title
US11659227B2 (en) Audio and video processing method and apparatus, terminal and storage medium
US9112991B2 (en) Playing synchronized multichannel media on a combination of devices
WO2020253844A1 (en) Method and device for processing multimedia information, and storage medium
WO2021063249A1 (en) Control method for electronic device and electronic device
CN111638779A (en) Audio playing control method and device, electronic equipment and readable storage medium
CN111147919A (en) Play adjustment method, electronic equipment and computer readable storage medium
WO2022135527A1 (en) Video recording method and electronic device
US20230154500A1 (en) Electronic device, and method of synchronizing video data and audio data by using same
KR20210149549A (en) Electronic device for recording and method for operating thereof
US11368611B2 (en) Control method for camera device, camera device, camera system, and storage medium
KR20220017332A (en) Electronic device for processing audio data and method of opearating the same
KR20220014519A (en) Electronic device for synchronizing an output time point of content output by external electronic devices and method for the same
CN104869147A (en) Display Apparatus That Displays A Screen Synchronized With A Screen Of Another Apparatus
US20220295178A1 (en) Electronic device for audio input and method for operating the same
KR20220128127A (en) Electronic device and method for audio input
US20240049317A1 (en) Electronic device, method, and non-transitory computer readable storage medium for audio streaming in wireless environment
KR20230067443A (en) An electronic device and method for automatically generating edited video
WO2023146063A1 (en) Electronic device for generating haptic signals, and method therefor
KR20230057801A (en) Electronic device and method for operationg thereof
WO2022211389A1 (en) Electronic device for supporting audio sharing
KR20220123857A (en) Method for providing group call service and electronic device supporting the same
KR20230023306A (en) Electronic device for recording contents data and method of the same
CN113709652A (en) Audio playing control method and electronic equipment
KR20220022315A (en) Electronic device including a camera and a microphone
KR20230116525A (en) Electronic device for processing video and method for operation thereof