KR20220111552A - Electronic apparatus and controlling method thereof - Google Patents

Electronic apparatus and controlling method thereof Download PDF

Info

Publication number
KR20220111552A
KR20220111552A KR1020210014953A KR20210014953A KR20220111552A KR 20220111552 A KR20220111552 A KR 20220111552A KR 1020210014953 A KR1020210014953 A KR 1020210014953A KR 20210014953 A KR20210014953 A KR 20210014953A KR 20220111552 A KR20220111552 A KR 20220111552A
Authority
KR
South Korea
Prior art keywords
content
characteristic information
electronic device
playback
display
Prior art date
Application number
KR1020210014953A
Other languages
Korean (ko)
Inventor
오석재
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020210014953A priority Critical patent/KR20220111552A/en
Priority to PCT/KR2022/000135 priority patent/WO2022169116A1/en
Publication of KR20220111552A publication Critical patent/KR20220111552A/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43072Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of multiple content streams on the same device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • H04N21/4316Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for displaying supplemental content in a region of the screen, e.g. an advertisement in a separate window
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47202End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for requesting content on demand, e.g. video on demand
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/485End-user interface for client configuration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8455Structuring of content, e.g. decomposing content into time segments involving pointers to the content, e.g. pointers to the I-frames of the video stream

Abstract

An electronic apparatus includes: a communication interface, a display, and a processor that obtains first characteristic information corresponding to a first content when the first content is received from a first device through the communication interface, synchronizes playback timings of the first content and the second content based on the first characteristic information and the second characteristic information when the second characteristic information corresponding to the first content and the second content are received from a second device through the communication interface, and controls the display to display the synchronized first content and the synchronized second content.

Description

전자 장치 및 그 제어 방법{ELECTRONIC APPARATUS AND CONTROLLING METHOD THEREOF}ELECTRONIC APPARATUS AND CONTROLLING METHOD THEREOF

본 개시는 전자 장치 및 그 제어방법에 관한 것으로, 더욱 상세하게는 서로 다른 소스의 컨텐츠를 동시에 표시하는 전자 장치 및 그 제어방법에 대한 것이다.The present disclosure relates to an electronic device and a method for controlling the same, and more particularly, to an electronic device for simultaneously displaying contents from different sources and a method for controlling the same.

방송사는 저작권 컨텐츠(예를 들어, 축구 경기)를 권한 있는 시청자들에게 전송하고, 시청자들은 저작권이 있는 컨텐츠를 시청할 수 있다.Broadcasters transmit copyrighted content (eg, a soccer game) to authorized viewers, who can view the copyrighted content.

1인 미디어와 같이 개인 방송을 하는 상황이 많아지면서, 개인 방송 제작자가 저작권 컨텐츠와 개인 컨텐츠를 결합하여 새로운 시청자들에게 전송하는 상황이 있을 수 있다.As the number of situations in which personal broadcasting is conducted such as one-person media increases, there may be a situation in which a personal broadcasting producer combines copyrighted content and personal content and transmits it to new viewers.

개인 방송 제작자는 저작권 컨텐츠에 자신의 개인 컨텐츠를 오버레이하여 단일 스트림으로 재가공할 수 있다. 예를 들어, 개인 방송 제작자는 기존 저작권 컨텐츠에 카메라를 통해 획득되는 이미지, 실시간 채팅 등 추가 개인 컨텐츠를 결합할 수 있다.Personal broadcast producers can overlay their own personal content on copyrighted content and reprocess it into a single stream. For example, a personal broadcast producer may combine additional personal content such as images acquired through a camera and real-time chatting with existing copyrighted content.

개인 방송 제작자가 방송사로부터 수신한 저작권 컨텐츠를 시청하는 것은 저작권을 저촉하는 것이 아니라고 하더라도, 저작권 컨텐츠를 가공하거나 재배포하는 행위는 저작권을 저촉하는 것일 수 있다.Even if a personal broadcast producer does not infringe copyright when viewing copyrighted content received from a broadcaster, processing or redistributing copyrighted content may infringe copyright.

따라서, 개인 방송 제작자는 저작권 컨텐츠를 재가공 및 재배포하는 행위를 피하기 위하여 저작권 컨텐츠를 제외하고 개인 컨텐츠만을 시청자들에게 전송할 수 있다.Accordingly, a personal broadcast producer may transmit only personal content to viewers, excluding copyright content, in order to avoid reprocessing and redistribution of copyright content.

하지만, 시청자들은 저작권 컨텐츠와 개인 컨텐츠를 함께 시청하지 못하는 불편함이 있었다.However, viewers were inconvenient in not being able to watch both copyrighted content and personal content.

본 개시는 상술한 문제를 개선하기 위해 고안된 것으로, 본 개시의 목적은 서로 다른 컨텐츠를 별도의 기기로부터 수신하고 서로 다른 컨텐츠의 재생 시점을 동기화하는 전자 장치 및 그의 제어 방법을 제공함에 있다.The present disclosure has been devised to improve the above-described problems, and an object of the present disclosure is to provide an electronic device that receives different contents from separate devices and synchronizes playback times of different contents, and a method for controlling the same.

상술한 목적을 달성하기 위한 본 실시 예에 따른 전자 장치는 통신 인터페이스, 디스플레이 및 상기 통신 인터페이스를 통해 제1 기기로부터 제1 컨텐츠가 수신되면, 상기 제1 컨텐츠에 대응되는 제1 특징 정보를 획득하고, 상기 통신 인터페이스를 통해 제2 기기로부터 상기 제1 컨텐츠에 대응되는 제2 특징 정보 및 제2 컨텐츠가 수신되면, 상기 제1 특징 정보 및 상기 제2 특징 정보에 기초하여 상기 제1 컨텐츠 및 상기 제2 컨텐츠의 재생 시점을 동기화하고, 상기 재생 시점이 동기화된 상기 제1 컨텐츠 및 상기 제2 컨텐츠를 표시하도록 상기 디스플레이를 제어하는 프로세서를 포함한다.When first content is received from a first device through a communication interface, a display, and the communication interface, the electronic device according to the present embodiment for achieving the above object obtains first characteristic information corresponding to the first content, , when second characteristic information and second content corresponding to the first content are received from a second device through the communication interface, the first content and the second content are based on the first characteristic information and the second characteristic information and a processor that synchronizes the reproduction times of the two contents, and controls the display to display the first content and the second content with which the reproduction times are synchronized.

한편, 상기 프로세서는 상기 제1 컨텐츠를 상기 디스플레이의 제1 영역에 표시하도록 상기 디스플레이를 제어할 수 있고, 상기 제2 컨텐츠를 상기 디스플레이의 제2 영역에 표시하도록 상기 디스플레이를 제어할 수 있고, 상기 표시된 제1 컨텐츠에 대응되는 제1 특징 정보 및 상기 표시된 제2 컨텐츠에 대응되는 제2 특징 정보에 기초하여 상기 제1 컨텐츠 및 상기 제2 컨텐츠의 재생 시점을 동기화할 수 있다.Meanwhile, the processor may control the display to display the first content on a first area of the display, and control the display to display the second content on a second area of the display, The reproduction timing of the first content and the second content may be synchronized based on the first characteristic information corresponding to the displayed first content and the second characteristic information corresponding to the displayed second content.

한편, 상기 제1 특징 정보는 상기 전자 장치에서 획득된 상기 제1 컨텐츠의 제1 이미지 데이터 또는 상기 제1 컨텐츠의 제1 오디오 데이터 중 적어도 하나를 포함할 수 있고, 상기 제2 특징 정보는 상기 제2 기기에서 획득된 상기 제1 컨텐츠의 제2 이미지 데이터 또는 상기 제1 컨텐츠의 제2 오디오 데이터 중 적어도 하나를 포함할 수 있다.Meanwhile, the first characteristic information may include at least one of first image data of the first content and first audio data of the first content obtained by the electronic device, and the second characteristic information may include the first image data of the first content. It may include at least one of second image data of the first content acquired by the second device or second audio data of the first content.

한편, 상기 프로세서는 상기 제1 특징 정보 및 상기 제2 특징 정보가 일치하지 않으면, 상기 제1 컨텐츠 및 상기 제2 컨텐츠의 재생 시점을 동기화할 수 있다.Meanwhile, when the first characteristic information and the second characteristic information do not match, the processor may synchronize reproduction times of the first content and the second content.

한편, 상기 프로세서는 상기 제1 특징 정보 및 상기 제2 특징 정보가 일치하지 않으면, 상기 제1 컨텐츠 또는 상기 제2 컨텐츠 중 하나의 컨텐츠의 재생 설정을 변경할 수 있다.Meanwhile, when the first characteristic information and the second characteristic information do not match, the processor may change a reproduction setting of one of the first content and the second content.

한편, 상기 프로세서는 컨텐츠의 재생을 일시 정지, 컨텐츠의 재생 속도를 감소 또는 컨텐츠의 재생 속도를 증가시킴으로써 상기 제1 컨텐츠 또는 상기 제2 컨텐츠 중 하나의 컨텐츠의 재생 설정을 변경할 수 있다.Meanwhile, the processor may change the reproduction setting of one of the first content and the second content by temporarily stopping the reproduction of the contents, decreasing the reproduction speed of the contents, or increasing the reproduction speed of the contents.

한편, 상기 프로세서는 상기 제1 특징 정보 및 상기 제2 특징 정보에 기초하여 상기 제1 컨텐츠 및 상기 제2 컨텐츠 중 더 빠른 재생 시점을 갖는 컨텐츠를 식별할 수 있고, 상기 식별된 컨텐츠의 재생 설정을 변경할 수 있다.Meanwhile, the processor may identify a content having a faster playback time from among the first content and the second content based on the first characteristic information and the second characteristic information, and set the playback setting of the identified content. can be changed

한편, 전자 장치는 메모리를 더 포함할 수 있고, 상기 프로세서는 상기 식별된 컨텐츠를 상기 메모리에 저장할 수 있고, 상기 식별된 컨텐츠의 재생을 일시 정지하거나 상기 식별된 컨텐츠의 재생 속도를 감소시킴으로써 상기 식별된 컨텐츠의 재생 설정을 변경할 수 있다.Meanwhile, the electronic device may further include a memory, and the processor may store the identified content in the memory, and pause the reproduction of the identified content or decrease the playback speed of the identified content to identify the identified content. You can change the playback settings of the contents.

한편, 상기 프로세서는 상기 식별된 컨텐츠와 다른 컨텐츠의 재생 속도를 유지할 수 있다.Meanwhile, the processor may maintain a reproduction speed of content different from the identified content.

한편, 상기 프로세서는 상기 제1 컨텐츠에 대응되는 컨텐츠를 제공하는 적어도 하나의 기기를 포함하는 UI(User Interface)를 표시하도록 상기 디스플레이를 제어할 수 있고, 상기 UI를 통해 상기 제2 기기를 선택하기 위한 사용자 입력이 수신되면, 상기 제2 특징 정보 및 상기 제2 컨텐츠를 요청하는 제어 신호를 상기 제2 기기에 전송하도록 상기 통신 인터페이스를 제어할 수 있다.Meanwhile, the processor may control the display to display a user interface (UI) including at least one device that provides content corresponding to the first content, and selects the second device through the UI. Upon receiving a user input for , the communication interface may be controlled to transmit a control signal for requesting the second characteristic information and the second content to the second device.

본 개시의 일 실시 예에 따른 전자 장치의 제어 방법은 제1 기기로부터 제1 컨텐츠가 수신되면, 상기 제1 컨텐츠에 대응되는 제1 특징 정보를 획득하는 단계, 제2 기기로부터 상기 제1 컨텐츠에 대응되는 제2 특징 정보 및 제2 컨텐츠가 수신되면, 상기 제1 특징 정보 및 상기 제2 특징 정보에 기초하여 상기 제1 컨텐츠 및 상기 제2 컨텐츠의 재생 시점을 동기화하는 단계 및 상기 재생 시점이 동기화된 상기 제1 컨텐츠 및 상기 제2 컨텐츠를 표시하는 단계를 포함한다.A method of controlling an electronic device according to an embodiment of the present disclosure includes, when first content is received from a first device, acquiring first characteristic information corresponding to the first content, and accessing the first content from a second device. When the corresponding second characteristic information and the second content are received, synchronizing the playback timings of the first content and the second content based on the first characteristic information and the second characteristic information, and synchronizing the playback timings and displaying the first content and the second content.

한편, 제어 방법은 상기 제1 컨텐츠를 상기 전자 장치의 디스플레이의 제1 영역에 표시하는 단계, 상기 제2 컨텐츠를 상기 디스플레이의 제2 영역에 표시하는 단계를 더 포함할 수 있고, 상기 재생 시점을 동기화하는 단계는 상기 표시된 제1 컨텐츠에 대응되는 제1 특징 정보 및 상기 표시된 제2 컨텐츠에 대응되는 제2 특징 정보에 기초하여 상기 제1 컨텐츠 및 상기 제2 컨텐츠의 재생 시점을 동기화할 수 있다.Meanwhile, the control method may further include displaying the first content on a first area of the display of the electronic device and displaying the second content on a second area of the display, The synchronizing may include synchronizing playback times of the first content and the second content based on first characteristic information corresponding to the displayed first content and second characteristic information corresponding to the displayed second content.

한편, 상기 제1 특징 정보는 상기 전자 장치에서 획득된 상기 제1 컨텐츠의 제1 이미지 데이터 또는 상기 제1 컨텐츠의 제1 오디오 데이터 중 적어도 하나를 포함할 수 있고, 상기 제2 특징 정보는 상기 제2 기기에서 획득된 상기 제1 컨텐츠의 제2 이미지 데이터 또는 상기 제1 컨텐츠의 제2 오디오 데이터 중 적어도 하나를 포함할 수 있다.Meanwhile, the first characteristic information may include at least one of first image data of the first content and first audio data of the first content obtained by the electronic device, and the second characteristic information may include the first image data of the first content. It may include at least one of second image data of the first content acquired by the second device or second audio data of the first content.

한편, 상기 재생 시점을 동기화하는 단계는 상기 제1 특징 정보 및 상기 제2 특징 정보가 일치하지 않으면, 상기 제1 컨텐츠 및 상기 제2 컨텐츠의 재생 시점을 동기화할 수 있다.Meanwhile, in the synchronizing of the reproduction time, when the first characteristic information and the second characteristic information do not match, the reproduction time of the first content and the second content may be synchronized.

한편, 상기 재생 시점을 동기화하는 단계는 상기 제1 특징 정보 및 상기 제2 특징 정보가 일치하지 않으면, 상기 제1 컨텐츠 또는 상기 제2 컨텐츠 중 하나의 컨텐츠의 재생 설정을 변경할 수 있다.Meanwhile, in the synchronizing of the playback time, when the first characteristic information and the second characteristic information do not match, the playback setting of one of the first content and the second content may be changed.

한편, 상기 재생 시점을 동기화하는 단계는 컨텐츠의 재생을 일시 정지, 컨텐츠의 재생 속도를 감소 또는 컨텐츠의 재생 속도를 증가시킴으로써 상기 제1 컨텐츠 또는 상기 제2 컨텐츠 중 하나의 컨텐츠의 재생 설정을 변경할 수 있다.On the other hand, the synchronizing the playback time may change the playback setting of one of the first content or the second content by pausing the playback of the content, decreasing the playback speed of the content, or increasing the playback speed of the content. have.

한편, 상기 재생 시점을 동기화하는 단계는 상기 제1 특징 정보 및 상기 제2 특징 정보에 기초하여 상기 제1 컨텐츠 및 상기 제2 컨텐츠 중 더 빠른 재생 시점을 갖는 컨텐츠를 식별할 수 있고, 상기 식별된 컨텐츠의 재생 설정을 변경할 수 있다.Meanwhile, the synchronizing the playback time may include identifying a content having a faster playback time from among the first content and the second content based on the first characteristic information and the second characteristic information, You can change the content playback settings.

한편, 상기 재생 시점을 동기화하는 단계는 상기 식별된 컨텐츠를 메모리에 저장할 수 있고, 상기 식별된 컨텐츠의 재생을 일시 정지하거나 상기 식별된 컨텐츠의 재생 속도를 감소시킴으로써 상기 식별된 컨텐츠의 재생 설정을 변경할 수 있다.Meanwhile, the synchronizing the playback time may store the identified content in a memory, and change the playback setting of the identified content by pausing the playback of the identified content or reducing the playback speed of the identified content. can

한편, 상기 재생 시점을 동기화하는 단계는 상기 식별된 컨텐츠와 다른 컨텐츠의 재생 속도를 유지할 수 있다.Meanwhile, the synchronizing the playback timing may maintain the playback speed of the identified content and other content.

한편, 상기 제1 컨텐츠에 대응되는 컨텐츠를 제공하는 적어도 하나의 기기를 포함하는 UI(User Interface)를 표시하는 단계 및 상기 UI를 통해 상기 제2 기기를 선택하기 위한 사용자 입력이 수신되면, 상기 제2 특징 정보 및 상기 제2 컨텐츠를 요청하는 제어 신호를 상기 제2 기기에 전송하는 단계를 더 포함할 수 있다.On the other hand, displaying a user interface (UI) including at least one device providing content corresponding to the first content, and when a user input for selecting the second device is received through the UI, the second device The method may further include transmitting a control signal for requesting the second characteristic information and the second content to the second device.

도 1은 제1 기기로부터 수신한 제1 컨텐츠와 제2 기기로부터 수신한 제2 컨텐츠를 동시에 표시하는 전자 장치를 설명하기 위한 도면이다.
도 2는 제1 컨텐츠 및 제2 컨텐츠를 각각 설명하기 위한 도면이다.
도 3은 제1 컨텐츠 및 제2 컨텐츠의 동기화 여부를 설명하기 위한 도면이다.
도4는 본 개시의 일 실시 예에 따른 전자 장치를 도시한 블록도이다.
도 5는 도 4의 전자 장치의 구체적인 구성을 설명하기 위한 블록도이다.
도 6은 본 개시의 일 실시 예에 따른 전자 장치의 컨텐츠 표시 동작을 설명하기 위한 흐름도이다.
도 7은 본 개시의 일 실시 예에 따른 전자 장치의 컨텐츠 매칭 동작을 설명하기 위한 흐름도이다.
도 8은 도 7의 매칭 동작에서 표시되는 UI를 설명하기 위한 도면이다.
도 9는 본 개시의 일 실시 예에 따른 전자 장치의 제1 컨텐츠 및 제2 컨텐츠의 동기화 동작을 설명하기 위한 흐름도이다.
도 10은 본 개시의 일 실시 예에 따른 전자 장치의 컨텐츠 재생 설정 변경 동작을 설명하기 위한 흐름도이다.
도 11은 본 개시의 다른 실시 예에 따른 전자 장치의 컨텐츠 재생 설정 변경 동작을 설명하기 위한 흐름도이다.
도 12는 본 개시의 또 다른 실시 예에 따른 전자 장치의 컨텐츠 재생 설정 변경 동작을 설명하기 위한 흐름도이다.
도 13은 본 개시의 다양한 실시 예에 따른 전자 장치의 컨텐츠 재생 설정 변경 동작을 설명하기 위한 도면이다.
도 14는 제1 컨텐츠의 재생 시점이 제2 컨텐츠의 재생 시점보다 빠른 실시 예를 설명하기 위한 도면이다.
도 15는 제1 컨텐츠의 재생 시점이 제2 컨텐츠의 재생 시점보다 느린 실시 예를 설명하기 위한 도면이다.
도 16은 전자 장치, 제1 기기 및 제2 기기의 컨텐츠 동기화 동작을 설명하기 위한 시스템 흐름도이다.
도 17은 제2 기기의 제2 특징 정보를 획득하는 동작을 설명하기 위한 흐름도이다.
도 18은 본 개시의 일 실시 예에 따른 제2 기기의 제2 특징 정보를 획득하는 동작을 설명하기 위한 시스템 흐름도이다.
도 19는 본 개시의 일 실시 예에 따라, 제1 특징 정보 및 제2 특징 정보를 비교하여 재생 시점을 식별하는 동작을 설명하기 위한 도면이다.
도 20은 본 개시의 다른 실시 예에 따른 제2 기기의 제2 특징 정보를 획득하는 동작을 설명하기 위한 시스템 흐름도이다.
도 21은 본 개시의 다른 실시 예에 따라, 제1 특징 정보 및 제2 특징 정보를 비교하여 재생 시점을 식별하는 동작을 설명하기 위한 도면이다.
도 22는 본 개시의 또 다른 실시 예에 따라, 제1 특징 정보 및 제2 특징 정보를 비교하여 재생 시점을 식별하는 동작을 설명하기 위한 도면이다.
도 23은 본 개시의 일 실시 예에 따른 전자 장치의 제어 방법을 설명하기 위한 흐름도이다.
1 is a diagram for describing an electronic device that simultaneously displays first content received from a first device and second content received from a second device.
2 is a diagram for explaining first content and second content, respectively.
3 is a diagram for explaining whether the first content and the second content are synchronized.
4 is a block diagram illustrating an electronic device according to an embodiment of the present disclosure.
FIG. 5 is a block diagram illustrating a detailed configuration of the electronic device of FIG. 4 .
6 is a flowchart illustrating a content display operation of an electronic device according to an embodiment of the present disclosure.
7 is a flowchart illustrating a content matching operation of an electronic device according to an embodiment of the present disclosure.
FIG. 8 is a diagram for explaining a UI displayed in the matching operation of FIG. 7 .
9 is a flowchart illustrating an operation of synchronizing first content and second content of an electronic device according to an embodiment of the present disclosure.
10 is a flowchart illustrating an operation of changing a content reproduction setting of an electronic device according to an embodiment of the present disclosure.
11 is a flowchart illustrating an operation of changing a content reproduction setting of an electronic device according to another embodiment of the present disclosure.
12 is a flowchart illustrating an operation of changing a content reproduction setting of an electronic device according to another embodiment of the present disclosure.
13 is a diagram for explaining an operation of changing a content reproduction setting of an electronic device according to various embodiments of the present disclosure;
14 is a diagram for explaining an embodiment in which a playback time of a first content is earlier than a playback time of a second content.
15 is a diagram for explaining an embodiment in which a playback time of a first content is slower than a playback time of a second content.
16 is a system flow diagram for explaining contents synchronization operations of an electronic device, a first device, and a second device.
17 is a flowchart illustrating an operation of acquiring second characteristic information of a second device.
18 is a system flowchart illustrating an operation of acquiring second characteristic information of a second device according to an embodiment of the present disclosure.
19 is a diagram for explaining an operation of identifying a reproduction time point by comparing first characteristic information and second characteristic information, according to an embodiment of the present disclosure.
20 is a system flowchart for explaining an operation of acquiring second characteristic information of a second device according to another embodiment of the present disclosure.
21 is a diagram for explaining an operation of identifying a reproduction time point by comparing first characteristic information and second characteristic information, according to another embodiment of the present disclosure.
22 is a diagram for explaining an operation of identifying a reproduction time point by comparing first characteristic information and second characteristic information, according to another embodiment of the present disclosure;
23 is a flowchart illustrating a method of controlling an electronic device according to an embodiment of the present disclosure.

이하에서는 첨부 도면을 참조하여 본 개시를 상세히 설명한다.Hereinafter, the present disclosure will be described in detail with reference to the accompanying drawings.

본 개시의 실시 예에서 사용되는 용어는 본 개시에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 개시의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 개시에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 개시의 전반에 걸친 내용을 토대로 정의되어야 한다.The terms used in the embodiments of the present disclosure have been selected as currently widely used general terms as possible while considering the functions in the present disclosure, but these may vary depending on the intention or precedent of a person skilled in the art, the emergence of new technology, etc. . In addition, in a specific case, there is a term arbitrarily selected by the applicant, and in this case, the meaning will be described in detail in the description of the corresponding disclosure. Therefore, the terms used in the present disclosure should be defined based on the meaning of the term and the contents of the present disclosure, rather than the simple name of the term.

본 명세서에서, "가진다," "가질 수 있다," "포함한다," 또는 "포함할 수 있다" 등의 표현은 해당 특징(예: 수치, 기능, 동작, 또는 부품 등의 구성요소)의 존재를 가리키며, 추가적인 특징의 존재를 배제하지 않는다.In the present specification, expressions such as “have,” “may have,” “include,” or “may include” indicate the presence of a corresponding characteristic (eg, a numerical value, function, operation, or component such as a part). and does not exclude the presence of additional features.

A 또는/및 B 중 적어도 하나라는 표현은 "A" 또는 "B" 또는 "A 및 B" 중 어느 하나를 나타내는 것으로 이해되어야 한다.The expression “at least one of A and/or B” is to be understood as indicating either “A” or “B” or “A and B”.

본 명세서에서 사용된 "제1," "제2," "첫째," 또는 "둘째,"등의 표현들은 다양한 구성요소들을, 순서 및/또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다.As used herein, expressions such as "first," "second," "first," or "second," can modify various elements, regardless of order and/or importance, and refer to one element. It is used only to distinguish it from other components, and does not limit the components.

어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "(기능적으로 또는 통신적으로) 연결되어((operatively or communicatively) coupled with/to)" 있다거나 "접속되어(connected to)" 있다고 언급된 때에는, 어떤 구성요소가 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제3 구성요소)를 통하여 연결될 수 있다고 이해되어야 할 것이다.A component (eg, a first component) is "coupled with/to (operatively or communicatively)" to another component (eg, a second component) When referring to "connected to", it should be understood that a component may be directly connected to another component or may be connected through another component (eg, a third component).

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "구성되다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The singular expression includes the plural expression unless the context clearly dictates otherwise. In the present application, terms such as "comprises" or "consisting of" are intended to designate that the features, numbers, steps, operations, components, parts, or combinations thereof described in the specification exist, and are intended to indicate that one or more other It is to be understood that this does not preclude the possibility of addition or presence of features or numbers, steps, operations, components, parts, or combinations thereof.

본 개시에서 "모듈" 혹은 "부"는 적어도 하나의 기능이나 동작을 수행하며, 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다. 또한, 복수의 "모듈" 혹은 복수의 "부"는 특정한 하드웨어로 구현될 필요가 있는 "모듈" 혹은 "부"를 제외하고는 적어도 하나의 모듈로 일체화되어 적어도 하나의 프로세서(미도시)로 구현될 수 있다.In the present disclosure, a "module" or "unit" performs at least one function or operation, and may be implemented as hardware or software, or a combination of hardware and software. In addition, a plurality of “modules” or a plurality of “units” are integrated into at least one module and implemented with at least one processor (not shown) except for “modules” or “units” that need to be implemented with specific hardware. can be

본 명세서에서, 사용자라는 용어는 전자 장치를 사용하는 사람 또는 전자 장치를 사용하는 장치(예: 인공지능 전자 장치)를 지칭할 수 있다.In this specification, the term user may refer to a person who uses an electronic device or a device (eg, an artificial intelligence electronic device) using the electronic device.

이하 첨부된 도면들을 참조하여 본 개시의 일 실시 예를 보다 상세하게 설명한다.Hereinafter, an embodiment of the present disclosure will be described in more detail with reference to the accompanying drawings.

도 1은 제1 기기로부터 수신한 제1 컨텐츠와 제2 기기로부터 수신한 제2 컨텐츠를 동시에 표시하는 전자 장치를 설명하기 위한 도면이다.1 is a diagram for describing an electronic device that simultaneously displays first content received from a first device and second content received from a second device.

도 1을 참조하면, 시스템(1000)은 전자 장치(100), 제1 기기(200) 및 제2 기기(300)를 포함할 수 있다. 여기서, 전자 장치(100)는 제1 컨텐츠 및 제2 컨텐츠를 동시에 표시할 수 있다. 제1 컨텐츠는 제1 기기(200)로부터 수신된 컨텐츠이고 제2 컨텐츠는 제2 기기(300)로부터 수신된 컨텐츠일 수 있다.Referring to FIG. 1 , a system 1000 may include an electronic device 100 , a first device 200 , and a second device 300 . Here, the electronic device 100 may simultaneously display the first content and the second content. The first content may be content received from the first device 200 , and the second content may be content received from the second device 300 .

여기서, 전자 장치(100)는 컨텐츠를 시청하는 다양한 종류의 전자 기기를 의미할 수 있다. 예를 들어, 전자 장치(100)는 TV, 스마트폰, 테블릿, PC 등을 의미할 수 있다.Here, the electronic device 100 may refer to various types of electronic devices for viewing content. For example, the electronic device 100 may mean a TV, a smartphone, a tablet, a PC, or the like.

여기서, 제1 기기(200)는 제1 컨텐츠를 제공하는 서버를 의미할 수 있다. 여기서, 제1 컨텐츠는 다수의 시청자에게 제공되는 컨텐츠를 의미할 수 있다. 예를 들어, 제1 컨텐츠는 방송사에서 제공하는 컨텐츠 또는 OTT 서비스 회사에서 제공하는 컨텐츠를 의미할 수 있다.Here, the first device 200 may mean a server that provides the first content. Here, the first content may mean content provided to a plurality of viewers. For example, the first content may mean content provided by a broadcaster or content provided by an OTT service company.

여기서, 제2 기기(300)는 개인 방송을 제공하는 기기를 의미할 수 있다. 여기서, 제2 기기(300)는 제1 기기(200)에서 제공하는 제1 컨텐츠를 보면서 개인 방송을 생성 및 전송하는 기기를 의미할 수 있다. 여기서, 제2 컨텐츠는 개인 방송 컨텐츠를 의미할 수 있다. 예를 들어, 제2 컨텐츠는 개인 채널에서 제공하는 컨텐츠를 의미할 수 있다.Here, the second device 300 may mean a device that provides personal broadcasting. Here, the second device 300 may refer to a device that generates and transmits a personal broadcast while viewing the first content provided by the first device 200 . Here, the second content may mean personal broadcast content. For example, the second content may mean content provided by a personal channel.

전자 장치(100)는 제1 기기(200)로부터 제1 컨텐츠를 수신할 수 있고, 제2 기기(300)로부터 제2 컨텐츠를 수신할 수 있다. 그리고, 제1 컨텐츠 및 제2 컨텐츠를 동시에 표시할 수 있다.The electronic device 100 may receive the first content from the first device 200 and may receive the second content from the second device 300 . In addition, the first content and the second content may be displayed at the same time.

예를 들어, 제1 기기(200)는 축구 경기를 중계하는 방송사 서버이고 제1 컨텐츠는 축구 경기 컨텐츠라고 가정한다. 제2 기기(300)는 제1 기기(200)로부터 제1 컨텐츠를 수신하는 동시에 제2 컨텐츠를 생성할 수 있다. 여기서, 제2 컨텐츠는 제1 컨텐츠를 시청하는 제2 기기(300)의 사용자의 중계 컨텐츠일 수 있다. 전자 장치(100)는 제1 기기(200)로부터 공식 축구 컨텐츠를 수신하고, 제2 기기(300)로부터 개인 중계 컨텐츠를 수신할 수 있다. 그리고, 전자 장치(100)는 공식 축구 컨텐츠 및 개인 중계 컨텐츠를 동시에 표시할 수 있다.For example, it is assumed that the first device 200 is a broadcaster server that relays a soccer game, and the first content is soccer game content. The second device 300 may generate the second content while receiving the first content from the first device 200 . Here, the second content may be a relay content of a user of the second device 300 watching the first content. The electronic device 100 may receive official soccer content from the first device 200 and may receive personal relay content from the second device 300 . In addition, the electronic device 100 may simultaneously display the official soccer content and the personal relay content.

도 2는 제1 컨텐츠 및 제2 컨텐츠를 각각 설명하기 위한 도면이다.2 is a diagram for explaining first content and second content, respectively.

도 2를 참조하면, 일 실시 예에 따른 제1 컨텐츠의 타임 라인(201)을 설명한다. 제1 컨텐츠는 복수의 이미지(201-1, 201-2, 201-3) 및 복수의 오디오(미도시)를 포함할 수 있다. 제1 컨텐츠는 1초에 제1 이미지(201-1)가 표시되고, 2초에 제2 이미지(201-2)가 표시되고, 3초에 제3 이미지(201-3)가 표시될 수 있다.Referring to FIG. 2 , a timeline 201 of the first content according to an exemplary embodiment will be described. The first content may include a plurality of images 201-1, 201-2, and 201-3 and a plurality of audios (not shown). As for the first content, a first image 201-1 may be displayed at 1 second, a second image 201-2 may be displayed at 2 seconds, and a third image 201-3 may be displayed at 3 seconds. .

또한, 일 실시 예에 따른 제2 컨텐츠의 타임 라인(202)을 설명한다. 제2 컨텐츠는 복수의 이미지(202-1, 202-2, 202-3) 및 복수의 오디오(미도시)를 포함할 수 있다. 제2 컨텐츠는 1초에 제4 이미지(202-1)가 표시되고, 2초에 제5 이미지(202-2)가 표시되고, 3초에 제6 이미지(202-3)가 표시될 수 있다.Also, a timeline 202 of the second content according to an embodiment will be described. The second content may include a plurality of images 202-1, 202-2, 202-3 and a plurality of audios (not shown). As for the second content, a fourth image 202-1 may be displayed in 1 second, a fifth image 202-2 may be displayed in 2 seconds, and a sixth image 202-3 may be displayed in 3 seconds. .

여기서, 제2 기기(300)의 사용자는 제1 컨텐츠를 시청하면서 제2 컨텐츠를 생성할 수 있다. 따라서, 제1 컨텐츠의 타임 라인(201) 및 제2 컨텐츠의 타임 라인(202)이 서로 동기화 될 수 있다. 예를 들어, 도 1의 전자 장치(100)가 정상적으로 동기화 동작을 완료 하였다면, 제1 이미지(201-1) 및 제4 이미지(202-1)가 동시에 표시되고, 제2 이미지(201-2) 및 제5 이미지(202-2)가 동시에 표시되고, 제3 이미지(201-3) 및 제6 이미지(202-3)가 동시에 표시될 수 있다.Here, the user of the second device 300 may generate the second content while watching the first content. Accordingly, the timeline 201 of the first content and the timeline 202 of the second content may be synchronized with each other. For example, if the electronic device 100 of FIG. 1 normally completes the synchronization operation, the first image 201-1 and the fourth image 202-1 are simultaneously displayed and the second image 201-2 and a fifth image 202 - 2 may be simultaneously displayed, and a third image 201-3 and a sixth image 202 - 3 may be simultaneously displayed.

한편, 제2 컨텐츠는 이미지 정보 이외에 오디오 정보를 추가적으로 포함할 수 있다. 예를 들어, 제4 이미지(202-1)에 대응되는 오디오(202-4)는 “1명이 드리블을 합니다”일 수 있다. 제5 이미지(202-2)에 대응되는 오디오 (202-5)는 “2명이 볼 경합을 합니다”일 수 있다. 제6 이미지(202-3)에 대응되는 오디오 (202-6)는 “3명이 볼 경합을 합니다”일 수 있다.Meanwhile, the second content may additionally include audio information in addition to image information. For example, the audio 202-4 corresponding to the fourth image 202-1 may be “one person dribbles”. The audio 202 - 5 corresponding to the fifth image 202 - 2 may be "two people compete to see". The audio 202 - 6 corresponding to the sixth image 202 - 3 may be "three people compete for a ball".

도 3은 제1 컨텐츠 및 제2 컨텐츠의 동기화 여부를 설명하기 위한 도면이다.3 is a diagram for explaining whether the first content and the second content are synchronized.

도 3을 참조하면, 일 실시 예(305)에 따라, 제1 컨텐츠 및 제2 컨텐츠는 정상적으로 동기화 된 상태일 수 있다. 여기서, 전자 장치(100)는 제1 컨텐츠의 제1 이미지(201-1) 및 제2 컨텐츠의 제4 이미지(202-1)를 동시에 표시할 수 있다. 따라서, 전자 장치(100)의 사용자는 표시되는 제1 컨텐츠의 내용에 알맞은 제2 컨텐츠를 시청할 수 있다.Referring to FIG. 3 , according to an embodiment 305 , the first content and the second content may be in a normally synchronized state. Here, the electronic device 100 may simultaneously display the first image 201-1 of the first content and the fourth image 202-1 of the second content. Accordingly, the user of the electronic device 100 may view the second content suitable for the content of the displayed first content.

다른 실시 예(310)에 따라, 제1 컨텐츠 및 제2 컨텐츠는 동기화되지 않은 상태일 수 있다. 여기서, 전자 장치(100)는 제1 기기(200)로부터 수신한 제1 컨텐츠 및 제2 기기(300)로부터 수신한 제2 컨텐츠를 동기화하지 않고 그대로 표시할 수 있다. 여기서, 제1 컨텐츠 또는 제2 컨텐츠의 딜레이에 의하여 싱크가 맞지 않을 수 있다. 예를 들어, 한명의 축구 선수가 볼을 드리블을 하는 제1 컨텐츠의 제1 이미지(201-1)가 표시되는 동안, 전자 장치(100)는 제1 이미지(201-1)에 적합하지 않은 제2 컨텐츠의 제5 이미지(202-2)를 표시할 수 있다. 따라서, 전자 장치(100)의 사용자는 표시되는 제1 컨텐츠 및 제2 컨텐츠가 싱크가 일치하지 않는다고 느낄 수 있다.According to another embodiment 310, the first content and the second content may be out of synchronization. Here, the electronic device 100 may display the first content received from the first device 200 and the second content received from the second device 300 without synchronization. Here, the sync may not match due to the delay of the first content or the second content. For example, while a first image 201-1 of a first content in which one soccer player dribbles a ball is displayed, the electronic device 100 displays a second image 201-1 that is not suitable for the first image 201-1. A fifth image 202 - 2 of content may be displayed. Accordingly, the user of the electronic device 100 may feel that the displayed first content and the second content are not synchronized.

도 4는 본 개시의 일 실시 예에 따른 전자 장치를 도시한 블록도이다.4 is a block diagram illustrating an electronic device according to an embodiment of the present disclosure.

도 4를 참조하면, 전자 장치(100)는 통신 인터페이스(110), 디스플레이(120) 및 프로세서(130)로 구성될 수 있다.Referring to FIG. 4 , the electronic device 100 may include a communication interface 110 , a display 120 , and a processor 130 .

본 명세서의 다양한 실시 예들에 따른 전자 장치는, 예를 들면, 스마트폰, 태블릿 PC, 이동 전화기, 영상 전화기, 전자책 리더기, 데스크탑 PC, 랩탑 PC, 넷북 컴퓨터, 워크스테이션, 서버, PDA, PMP(portable multimedia player), MP3 플레이어, 의료기기, 카메라, 또는 웨어러블 장치 중 적어도 하나를 포함할 수 있다. 웨어러블 장치는 액세서리형(예: 시계, 반지, 팔찌, 발찌, 목걸이, 안경, 콘택트 렌즈, 또는 머리 착용형 장치(head-mounted-device(HMD)), 직물 또는 의류 일체형(예: 전자 의복), 신체 부착형(예: 스킨 패드 또는 문신), 또는 생체 이식형 회로 중 적어도 하나를 포함할 수 있다. 어떤 실시예들에서, 전자 장치는, 예를 들면, 텔레비전, DVD(digital video disk) 플레이어, 오디오, 냉장고, 에어컨, 청소기, 오븐, 전자레인지, 세탁기, 공기 청정기, 셋톱 박스, 홈 오토매이션 컨트롤 패널, 보안 컨트롤 패널, 미디어 박스(예: 삼성 HomeSyncTM, 애플TVTM, 또는 구글 TVTM), 게임 콘솔(예: XboxTM, PlayStationTM), 전자 사전, 전자 키, 캠코더, 또는 전자 액자 중 적어도 하나를 포함할 수 있다.Electronic devices according to various embodiments of the present specification may include, for example, a smartphone, a tablet PC, a mobile phone, a video phone, an e-book reader, a desktop PC, a laptop PC, a netbook computer, a workstation, a server, a PDA, a PMP ( portable multimedia player), an MP3 player, a medical device, a camera, or a wearable device. A wearable device may be an accessory (e.g., watch, ring, bracelet, anklet, necklace, eyewear, contact lens, or head-mounted-device (HMD)), a textile or clothing integral (e.g. electronic garment); It may include at least one of a body-worn (eg, skin pad or tattoo) or bioimplantable circuit In some embodiments, the electronic device may include, for example, a television, a digital video disk (DVD) player, Audio, refrigerator, air conditioner, vacuum cleaner, oven, microwave oven, washing machine, air purifier, set-top box, home automation control panel, security control panel, media box (e.g. Samsung HomeSyncTM, Apple TVTM, or Google TVTM), game console (eg, XboxTM, PlayStationTM), an electronic dictionary, an electronic key, a camcorder, or an electronic picture frame.

통신 인터페이스(110)는 다양한 유형의 통신 방식에 따라 다양한 유형의 외부 장치와 통신을 수행하는 구성이다. 통신 인터페이스(110)는 와이파이 모듈, 블루투스 모듈, 적외선 통신 모듈 및 무선 통신 모듈 등을 포함한다. 여기서, 각 통신 모듈은 적어도 하나의 하드웨어 칩 형태로 구현될 수 있다.The communication interface 110 is configured to communicate with various types of external devices according to various types of communication methods. The communication interface 110 includes a Wi-Fi module, a Bluetooth module, an infrared communication module, and a wireless communication module. Here, each communication module may be implemented in the form of at least one hardware chip.

통신 인터페이스(110)는 와이파이 모듈, 블루투스 모듈은 각각 와이파이 방식, 블루투스 방식으로 통신을 수행할 수 있다. 와이파이 모듈이나 블루투스 모듈을 이용하는 경우에는SSID 및 세션 키 등과 같은 각종 연결 정보를 먼저 송수신하여, 이를 이용하여 통신 연결한 후 각종 정보들을 송수신할 수 있다.The communication interface 110 may communicate with a Wi-Fi module and a Bluetooth module using a Wi-Fi method and a Bluetooth method, respectively. In the case of using a Wi-Fi module or a Bluetooth module, various types of connection information such as an SSID and a session key are first transmitted and received, and various types of information can be transmitted/received after communication connection using this.

적외선 통신 모듈은 가시 광선과 밀리미터파 사이에 있는 적외선을 이용하여 근거리에 무선으로 데이터를 전송하는 적외선 통신(IrDA, infrared Data Association)기술에 따라 통신을 수행한다.The infrared communication module communicates according to the infrared data association (IrDA) technology, which wirelessly transmits data in a short distance using infrared that is between visible light and millimeter wave.

무선 통신 모듈은 상술한 통신 방식 이외에 지그비(zigbee), 3G(3rd Generation), 3GPP(3rd Generation Partnership Project), LTE(Long Term Evolution), LTE-A(LTE Advanced), 4G(4th Generation), 5G(5th Generation)등과 같은 다양한 무선 통신 규격에 따라 통신을 수행하는 적어도 하나의 통신 칩을 포함할 수 있다.In addition to the above-described communication method, the wireless communication module includes Zigbee, 3rd Generation (3G), 3rd Generation Partnership Project (3GPP), Long Term Evolution (LTE), LTE Advanced (LTE-A), 4th Generation (4G), 5G It may include at least one communication chip that performs communication according to various wireless communication standards such as (5th Generation).

그 밖에 통신 인터페이스(110)는LAN(Local Area Network) 모듈, 이더넷 모듈, 페어 케이블, 동축 케이블, 광섬유 케이블 또는 UWB(Ultra Wide-Band) 모듈 등을 이용하여 통신을 수행하는 유선 통신 모듈 중 적어도 하나를 포함할 수 있다.In addition, the communication interface 110 is at least one of a wired communication module for performing communication using a LAN (Local Area Network) module, an Ethernet module, a pair cable, a coaxial cable, an optical fiber cable, or a UWB (Ultra Wide-Band) module, etc. may include.

디스플레이(120)는 LCD(Liquid Crystal Display), OLED(Organic Light Emitting Diodes) 디스플레이, PDP(Plasma Display Panel) 등과 같은 다양한 형태의 디스플레이로 구현될 수 있다. 디스플레이(120)내에는 a-si TFT, LTPS(low temperature poly silicon) TFT, OTFT(organic TFT) 등과 같은 형태로 구현될 수 있는 구동 회로, 백라이트 유닛 등도 함께 포함될 수 있다. 한편, 디스플레이(120)는 터치 센서와 결합된 터치 스크린, 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 등으로 구현될 수 있다.The display 120 may be implemented as various types of displays, such as a liquid crystal display (LCD), an organic light emitting diode (OLED) display, a plasma display panel (PDP), and the like. The display 120 may also include a driving circuit, a backlight unit, and the like, which may be implemented in the form of an a-si TFT, a low temperature poly silicon (LTPS) TFT, or an organic TFT (OTFT). Meanwhile, the display 120 may be implemented as a touch screen combined with a touch sensor, a flexible display, a three-dimensional display, or the like.

또한, 본 개시의 일 실시 예에 따른, 디스플레이(120)는 영상을 출력하는 디스플레이 패널뿐만 아니라, 디스플레이 패널을 하우징하는 베젤을 포함할 수 있다. 특히, 본 개시의 일 실시 예에 따른, 베젤은 사용자 인터렉션을 감지하기 위한 터치 센서(미도시)를 포함할 수 있다.Also, according to an embodiment of the present disclosure, the display 120 may include a bezel housing the display panel as well as a display panel for outputting an image. In particular, according to an embodiment of the present disclosure, the bezel may include a touch sensor (not shown) for detecting user interaction.

프로세서(130)는 전자 장치의 전반적인 제어 동작을 수행할 수 있다. 구체적으로, 프로세서(130)는 전자 장치의 전반적인 동작을 제어하는 기능을 한다.The processor 130 may perform an overall control operation of the electronic device. Specifically, the processor 130 functions to control the overall operation of the electronic device.

프로세서(130)는 디지털 신호를 처리하는 디지털 시그널 프로세서(digital signal processor(DSP), 마이크로 프로세서(microprocessor), TCON(Time controller)으로 구현될 수 있다. 다만, 이에 한정되는 것은 아니며, 중앙처리장치(central processing unit(CPU)), MCU(Micro Controller Unit), MPU(micro processing unit), 컨트롤러(controller), 어플리케이션 프로세서(application processor(AP)), GPU(graphics-processing unit) 또는 커뮤니케이션 프로세서(communication processor(CP)), ARM 프로세서 중 하나 또는 그 이상을 포함하거나, 해당 용어로 정의될 수 있다. 또한, 프로세서(130)는 프로세싱 알고리즘이 내장된 SoC(System on Chip), LSI(large scale integration)로 구현될 수도 있고, FPGA(Field Programmable gate array) 형태로 구현될 수도 있다. 또한, 프로세서(130)는 메모리에 저장된 컴퓨터 실행가능 명령어(computer executable instructions)를 실행함으로써 다양한 기능을 수행할 수 있다.The processor 130 may be implemented as a digital signal processor (DSP), a microprocessor (microprocessor), or a time controller (TCON) for processing a digital signal, but is not limited thereto, and a central processing unit ( central processing unit (CPU), micro controller unit (MPU), micro processing unit (MPU), controller, application processor (AP), graphics-processing unit (GPU) or communication processor (CP)), may include one or more of an ARM processor, or may be defined by a corresponding term In addition, the processor 130 is a SoC (System on Chip) or LSI (large scale integration) with a built-in processing algorithm. It may be implemented in the form of a field programmable gate array (FPGA), and the processor 130 may perform various functions by executing computer executable instructions stored in a memory.

프로세서(130)는 통신 인터페이스(110)를 통해 제1 기기(200)로부터 제1 컨텐츠가 수신되면, 제1 컨텐츠에 대응되는 제1 특징 정보를 획득할 수 있고, 통신 인터페이스(110)를 통해 제2 기기(300)로부터 제1 컨텐츠에 대응되는 제2 특징 정보 및 제2 컨텐츠가 수신되면, 제1 특징 정보 및 제2 특징 정보에 기초하여 제1 컨텐츠 및 제2 컨텐츠의 재생 시점을 동기화할 수 있고, 동기화된 제1 컨텐츠 및 동기화된 제2 컨텐츠를 표시하도록 디스플레이(120)를 제어할 수 있다.When the first content is received from the first device 200 through the communication interface 110 , the processor 130 may acquire first characteristic information corresponding to the first content, and may obtain the first characteristic information through the communication interface 110 . When the second feature information and the second content corresponding to the first content are received from the second device 300 , the playback timing of the first content and the second content may be synchronized based on the first feature information and the second feature information. and the display 120 may be controlled to display the synchronized first content and the synchronized second content.

여기서, 제1 기기(200)는 저작권이 있는 컨텐츠를 정당한 권리가 있는 시청자들에게 제공하는 컨텐츠 제공 서버를 의미할 수 있다.Here, the first device 200 may mean a content providing server that provides copyrighted content to viewers who have legitimate rights.

일 실시 예에 따라, 제1 기기(200)는 방송국 서버를 의미할 수 있다. 그리고, 제1 컨텐츠는 방송국 서버에서 제공되는 저작권 컨텐츠를 의미할 수 있다. 여기서, 제1 컨텐츠는 제1 기기(200)로부터 실시간으로 제공되는 컨텐츠를 의미할 수 있다. 예를 들어, 제1 컨텐츠는 권한 있는 시청자들에게 제공되는 축구 경기 컨텐츠를 의미할 수 있다.According to an embodiment, the first device 200 may mean a broadcasting station server. And, the first content may mean copyright content provided by a broadcasting station server. Here, the first content may mean content provided in real time from the first device 200 . For example, the first content may mean soccer game content provided to authorized viewers.

다른 실시 예에 따라, 제1 기기(200)는 OTT(Over The Top) 서버를 의미할 수 있다. 그리고, 제1 컨텐츠는 OTT 서버에서 제공되는 저작권 컨텐츠를 의미할 수 있다. 여기서, 제1 컨텐츠는 시청자의 요청에 응답하여 제공되는 컨텐츠를 의미할 수 있다. 예를 들어, 제1 컨텐츠는 시청자가 직접 선택한 영화 컨텐츠를 의미할 수 있다.According to another embodiment, the first device 200 may mean an over-the-top (OTT) server. And, the first content may mean copyright content provided by the OTT server. Here, the first content may mean content provided in response to a request of a viewer. For example, the first content may mean movie content directly selected by a viewer.

한편, 제2 기기(300)는 제1 기기(200)에서 제공하는 저작권 컨텐츠와 관련된 개인 컨텐츠를 제공하는 개인 컨텐츠 제작자의 기기 또는 개인 컨텐츠를 제공하는 서버를 의미할 수 있다.Meanwhile, the second device 300 may refer to a device of a personal content creator that provides personal content related to copyright content provided by the first device 200 or a server that provides personal content.

제2 기기(300)는 제1 기기(200)로부터 직접 제1 컨텐츠를 수신할 수 있고, 제1 컨텐츠와 관련된 제2 컨텐츠를 생성할 수 있다. 예를 들어, 제2 기기(300)는 제1 기기(200)로부터 수신된 축구 경기 컨텐츠를 시청하면서 개인 방송을 시작할 수 있다. 그리고, 제2 기기(300)는 개인 방송과 관련된 개인 컨텐츠를 사용자(또는 시청자)에게 전송할 수 있다.The second device 300 may receive the first content directly from the first device 200 and may generate second content related to the first content. For example, the second device 300 may start a personal broadcast while watching the soccer game content received from the first device 200 . In addition, the second device 300 may transmit personal content related to personal broadcasting to a user (or a viewer).

프로세서(130)는 제1 기기(200)로부터 제1 컨텐츠를 수신하고, 제2 기기(300)로부터 제2 컨텐츠를 수신하도록 통신 인터페이스(110)를 제어할 수 있다. 프로세서(130)는 제1 컨텐츠 및 제2 컨텐츠를 각각 별개의 기기(또는 소스)로부터 수신할 수 있다. 한편, 제1 컨텐츠를 메인 컨텐츠 제2 컨텐츠를 서브 컨텐츠로 기재할 수 있다.The processor 130 may control the communication interface 110 to receive the first content from the first device 200 and receive the second content from the second device 300 . The processor 130 may receive the first content and the second content from separate devices (or sources), respectively. Meanwhile, the first content may be described as the main content and the second content may be described as the sub content.

여기서, 프로세서(130)는 제1 기기(200)로부터 수신한 제1 컨텐츠에 기초하여 제1 컨텐츠에 대응되는 제1 특징 정보를 획득할 수 있다. 그리고, 프로세서(130)는 제2 기기(300)로부터 제1 컨텐츠에 대응되는 제2 특징 정보를 획득할 수 있다. 여기서, 제1 기기(200)로부터 수신되는 제1 특징 정보와 제2 기기(300) 수신되는 제2 특징 정보 모두 제1 컨텐츠에 기초하여 획득된 정보일 수 있다.Here, the processor 130 may acquire first characteristic information corresponding to the first content based on the first content received from the first device 200 . In addition, the processor 130 may acquire second characteristic information corresponding to the first content from the second device 300 . Here, both the first characteristic information received from the first device 200 and the second characteristic information received from the second device 300 may be information obtained based on the first content.

여기서, 특징 정보는 재생 시점을 특정할 수 있는 정보를 의미할 수 있다. 따라서, 특징 정보는 컨텐츠에서 획득되는 이미지 데이터 또는 오디오 데이터 중 하나의 데이터를 의미할 수 있다. 프로세서(130)는 컨텐츠에서 획득되는 데이터에 기초하여 재생 시점을 특정할 수 있다.Here, the feature information may refer to information that can specify a reproduction time point. Accordingly, the feature information may refer to one of image data and audio data obtained from content. The processor 130 may specify a playback time point based on data obtained from content.

여기서, 재생 시점은 현재 표시되는 프레임의 재생 시점을 의미할 수 있으며 복수의 프레임 중 어느 프레임이 재생되고 있는지 나타내는 정보를 의미할 수 있다.Here, the reproduction time may mean a reproduction time of the currently displayed frame, and may mean information indicating which frame among a plurality of frames is being reproduced.

일 예로, 컨텐츠가 실시간으로만 수신되고 재생 시점의 변경이 불가능한 컨텐츠(예를 들어, 실시간으로 중계되는 축구 경기)일 수 있다. 여기서, 재생 시점은 선후 관계의 시간 정보를 의미할 수 있다. 또한, 재생 시점은 절대적인 시간 정보(예를 들어, 표준시 13시 20분 15초)를 의미할 수 있다.As an example, the content may be received only in real time and may be content that cannot be changed at a playback time (eg, a soccer game relayed in real time). Here, the reproduction time point may mean time information of a precedence relation. Also, the playback time may mean absolute time information (eg, 13:20:15 standard time).

다른 예로, 컨텐츠 전체가 이미 저장되어 있고 재생 시점의 변경이 가능한 컨텐츠(예를 들어, 사용자 요청에 기초하여 제공되는 영화 컨텐츠)일 수 있다. 여기서, 재생 시점은 컨텐츠 전체의 재생 시간에서 현재 재생되는 프레임의 재생 경과 시점(예를 들어, 60분 중 15분 30초 경과)을 의미할 수 있다.As another example, it may be content (eg, movie content provided based on a user's request) in which the entire content is already stored and the playback time can be changed. Here, the reproduction time may mean a reproduction time (eg, 15 minutes and 30 seconds out of 60 minutes) of the currently reproduced frame in the reproduction time of the entire content.

한편, 프로세서(130)는 컨텐츠의 재생 시점을 개별적으로 특정하지 않고, 제1 컨텐츠 및 제2 컨텐츠 사이의 재생 시점 일치 여부만을 판단할 수 있다. 구체적으로, 프로세서(130)는 제1 특징 정보 및 제2 특징 정보를 비교할 수 있고, 제1 특징 정보 및 제2 특징 정보에 포함된 데이터 패턴을 비교하여 제1 컨텐츠가 제2 컨텐츠보다 얼마나 빨리(또는 느리게) 재생되고 있는지 식별할 수 있다.Meanwhile, the processor 130 may determine only whether the playback timings between the first content and the second content match, without individually specifying the playback timing of the content. Specifically, the processor 130 may compare the first characteristic information and the second characteristic information, compare the data pattern included in the first characteristic information and the second characteristic information, how quickly the first content than the second content ( or slow) can be identified.

여기서, 제1 특징 정보는 제1 컨텐츠에서 획득한 제1 데이터를 포함할 수 있다. 여기서, 제1 데이터는 제1 컨텐츠에 기초하여 획득되는 제1 이미지 데이터 또는 제1 오디오 데이터 중 적어도 하나를 포함할 수 있다.Here, the first characteristic information may include first data obtained from the first content. Here, the first data may include at least one of first image data and first audio data obtained based on the first content.

여기서, 제2 특징 정보는 제1 컨텐츠에서 획득한 제2 데이터 및 제2 데이터에 대응되는 제2 컨텐츠의 프레임 정보가 포함될 수 있다. 여기서, 제2 데이터는 제1 컨텐츠에 기초하여 획득되는 제2 이미지 데이터 또는 제2 오디오 데이터 중 적어도 하나를 포함할 수 있다.Here, the second characteristic information may include second data obtained from the first content and frame information of the second content corresponding to the second data. Here, the second data may include at least one of second image data and second audio data obtained based on the first content.

제2 기기(300)는 저작권 침해를 회피하기 위하여 제1 컨텐츠가 아니라 제1 컨텐츠에 기초하여 획득된 제2 데이터를 전자 장치(100)에 전송할 수 있다. 여기서, 제2 데이터는 원본 영상을 의미하는 것이 아니므로, 저작권을 침해를 회피할 수 있다. 다만, 제2 기기(300)는 제2 컨텐츠가 제1 컨텐츠의 어느 재생 시점에 대응되는지 시청자들에게 알려줄 필요성이 있다. 시청자들은 제1 컨텐츠 및 제2 컨텐츠의 싱크를 일치시켜야 하기 때문이다. 따라서, 제2 기기(300)는 제2 컨텐츠에 포함된 각각의 프레임들(또는 일부 기준 프레임들)과 제1 컨텐츠에서 획득되는 제2 데이터를 매칭한 정보를 제2 특징 정보로서 획득할 수 있다.The second device 300 may transmit the second data obtained based on the first content, not the first content, to the electronic device 100 in order to avoid copyright infringement. Here, since the second data does not mean the original image, copyright infringement can be avoided. However, there is a need for the second device 300 to inform viewers at which playback time point of the first content the second content corresponds. This is because viewers have to match the sync of the first content and the second content. Accordingly, the second device 300 may obtain information obtained by matching each frame (or some reference frames) included in the second content with the second data obtained from the first content as the second characteristic information. .

예를 들어, 제2 데이터가 이미지 데이터의 픽셀값이고, #112233, #223344, #334455, #445566, #556677라고 가정한다. 여기서, 제2 기기(300)는 #112233에 대응되는 제1 컨텐츠의 프레임이 제공되는 동안 제2 컨텐츠의 #01프레임을 생성하고, #223344에 대응되는 제1 컨텐츠의 프레임이 제공되는 동안 제2 컨텐츠의 #02프레임을 생성하고, #334455에 대응되는 제1 컨텐츠의 프레임이 제공되는 동안 제2 컨텐츠의 #03프레임을 생성하고, #445566에 대응되는 제1 컨텐츠의 프레임이 제공되는 동안 제2 컨텐츠의 #04프레임을 생성하고, #556677에 대응되는 제1 컨텐츠의 프레임이 제공되는 동안 제2 컨텐츠의 #05프레임을 생성하였다고 가정한다. 제2 기기(300)는 제1 컨텐츠의 제2 데이터인 #112233, #223344, #334455, #445566, #556677과 제2 컨텐츠의 프레임 정보인 #01, #02, #03, #04, #05를 매칭하여 제2 특징 정보를 획득할 수 있다.For example, it is assumed that the second data are pixel values of image data and are #112233, #223344, #334455, #445566, and #556677. Here, the second device 300 generates frame #01 of the second content while the frame of the first content corresponding to #112233 is provided, and while the frame of the first content corresponding to #223344 is provided, the second device 300 is provided. Frame #02 of the content is generated, frame #03 of the second content is generated while the frame of the first content corresponding to #334455 is provided, and frame #03 of the second content is generated while the frame of the first content corresponding to #445566 is provided. It is assumed that frame #04 of the content is generated and frame #05 of the second content is generated while the frame of the first content corresponding to #556677 is provided. The second device 300 includes the second data #112233, #223344, #334455, #445566, and #556677 of the first content and #01, #02, #03, #04, # which are frame information of the second content. 05 may be matched to obtain the second characteristic information.

프로세서(130)는 제2 특징 정보에 포함된 제2 데이터 및 제2 컨텐츠의 프레임 정보에 기초하여 제2 컨텐츠의 재생 시점이 제1 컨텐츠의 어느 재생 시점에 대응되는 것인지 식별할 수 있다.The processor 130 may identify which playback timing of the first content corresponds to the playback timing of the second content based on the second data included in the second characteristic information and frame information of the second content.

예를 들어, 디스플레이(120)에서 제2 컨텐츠의 #03 프레임이 표시된다면, 프로세서(130)는 제1 컨텐츠의 #334455에 대응되어야 한다고 식별할 수 있다. 프로세서(130)는 제1 기기(200)를 통해 수신된 제1 컨텐츠의 표시 프레임에 대응되는 픽셀값이 #334455이면, 프로세서(130)는 제1 컨텐츠 및 제2 컨텐츠의 재생 시점이 일치하는 것으로 식별 할 수 있다. 다만, 제1 기기(200)를 통해 수신된 제1 컨텐츠의 표시 프레임에 대응되는 픽셀값이 #334455가 아니라면, 프로세서(130)는 제1 컨텐츠 및 제2 컨텐츠의 재생 시점이 불일치하는 것으로 식별하고, 재생 시점의 동기화가 필요하다고 판단할 수 있다.For example, if frame #03 of the second content is displayed on the display 120 , the processor 130 may identify that it should correspond to #334455 of the first content. When the pixel value corresponding to the display frame of the first content received through the first device 200 is #334455, the processor 130 determines that the playback timings of the first content and the second content match. can be identified However, if the pixel value corresponding to the display frame of the first content received through the first device 200 is not #334455, the processor 130 identifies that the playback timing of the first content and the second content do not match, , it may be determined that synchronization of the playback time is necessary.

본 개시의 재생 시점 동기화 동작은 제1 컨텐츠와 제2 컨텐츠의 싱크를 일치시키는 것이다. 여기서, 싱크를 일치시키기 위해 기준이 되는 정보는 제1 컨텐츠로부터 획득되는 특징 정보일 수 있다.The playback time synchronization operation of the present disclosure is to match the synchronization of the first content and the second content. Here, the information as a reference for matching the sync may be characteristic information obtained from the first content.

구체적으로, 프로세서(130)는 제1 컨텐츠 및 제2 컨텐츠를 동시에 표시할 수 있으며, 제1 컨텐츠와 제2 컨텐츠의 재생 시점이 일치하는지 여부를 판단하기 위해 제1 컨텐츠의 재생 시점을 나타내는 제1 특징 정보와 제2 컨텐츠의 재생 시점을 나타내는 제2 특징 정보를 나타낼 수 있다. 여기서, 비교 기준이 되는 것은 제1 특징 정보에 포함된 제1 컨텐츠에 대응되는 제1 데이터 및 제2 특징 정보에 포함된 제1 컨텐츠에 대응되는 제2 데이터일 수 있다.Specifically, the processor 130 may display the first content and the second content at the same time, and in order to determine whether the playback timing of the first content and the second content match, the first content indicating the playback timing of the first content The characteristic information and the second characteristic information indicating the playback time of the second content may be displayed. Here, the comparison criterion may be first data corresponding to the first content included in the first characteristic information and second data corresponding to the first content included in the second characteristic information.

한편, 제2 특징 정보는 제1 컨텐츠 및 제2 컨텐츠의 재생 시간을 동기화 시키기는 동작 중 제2 컨텐츠의 재생 시간(제2 재생 시간)을 특정하기 위하여 이용되는 정보일 수 있다. 구체적으로, 제2 특징 정보는 제1 컨텐츠에 대응되는 데이터 및 데이터에 매칭되는 제2 컨텐츠의 프레임 정보를 포함할 수 있다.Meanwhile, the second characteristic information may be information used to specify a reproduction time (second reproduction time) of the second content during an operation of synchronizing the reproduction times of the first content and the second content. Specifically, the second characteristic information may include data corresponding to the first content and frame information of the second content matching the data.

제1 컨텐츠 및 제2 컨텐츠를 동기화하는 실시 예는 도 14 내지 도 23에서 구체적으로 설명한다. 또한, 제1 특징 정보 및 제2 특징 정보와 관련된 실시 예는 도 19 및 도 21에서 구체적으로 설명한다.An embodiment of synchronizing the first content and the second content will be described in detail with reference to FIGS. 14 to 23 . In addition, embodiments related to the first characteristic information and the second characteristic information will be described in detail with reference to FIGS. 19 and 21 .

한편, 프로세서(130)는 제1 컨텐츠를 디스플레이(120)의 제1 영역에 표시하도록 디스플레이(120)를 제어할 수 있고, 제2 컨텐츠를 디스플레이(120)의 제2 영역에 표시하도록 디스플레이(120)를 제어할 수 있고, 표시된 제1 컨텐츠에 대응되는 제1 특징 정보 및 표시된 제2 컨텐츠에 대응되는 제2 특징 정보에 기초하여 제1 컨텐츠 및 제2 컨텐츠의 재생 시점을 동기화할 수 있다.Meanwhile, the processor 130 may control the display 120 to display the first content on the first area of the display 120 , and the display 120 to display the second content on the second area of the display 120 . ) can be controlled, and playback times of the first content and the second content can be synchronized based on the first characteristic information corresponding to the displayed first content and the second characteristic information corresponding to the displayed second content.

디스플레이(120)는 복수의 영역을 포함할 수 있다. 구체적으로, 디스플레이(120)는 제1 영역 및 제2 영역을 포함할 수 있다. 프로세서(130)는 디스플레이(120)의 제1 영역에 제1 컨텐츠를 표시하고, 디스플레이(120)의 제2 영역에 제2 컨텐츠를 표시할 수 있다. 일 실시 예에 따라, 제1 영역 및 제2 영역은 전체 디스플레이 영역을 독립적으로 분리한 영역일 수 있다. 도 1의 전자 장치(100)는 디스플레이의 좌측 영역과 우측 영역으로 구분하여 각 컨텐츠를 별개의 영역에 표시할 수 있다. 다른 실시 예에 따라, 제1 영역 및 제2 영역은 적어도 일부 영역이 중첩되는 영역일 수 있다. 예를 들어, 제1 영역 안에 제2 영역의 전부 또는 일부가 포함될 수 있으며, 제2 영역 안에 제1 영역의 전부 또는 일부가 포함될 수 있다.The display 120 may include a plurality of areas. Specifically, the display 120 may include a first area and a second area. The processor 130 may display the first content on the first area of the display 120 and display the second content on the second area of the display 120 . According to an embodiment, the first area and the second area may be areas in which the entire display area is independently separated. The electronic device 100 of FIG. 1 may divide the display into a left area and a right area and display each content in a separate area. According to another exemplary embodiment, the first area and the second area may be areas in which at least some areas overlap. For example, all or part of the second area may be included in the first area, and all or part of the first area may be included in the second area.

여기서, 프로세서(130)는 현재 제1 영역에 표시되는 제1 컨텐츠에 대응되는 제1 특징 정보를 획득하고, 현재 제2 영역에 표시되는 제2 컨텐츠에 대응되는 제2 특징 정보를 획득할 수 있다. 여기서, 특징 정보는 각 프레임에 대응되는 정보일 수 있다. 따라서, 현재 재생되는 컨텐츠의 프레임에 따라 특징 정보도 상이할 수 있다.Here, the processor 130 may obtain first characteristic information corresponding to the first content currently displayed in the first area, and obtain second characteristic information corresponding to the second content currently displayed in the second area. . Here, the feature information may be information corresponding to each frame. Accordingly, the characteristic information may also be different depending on the frame of the currently reproduced content.

여기서, 프로세서(130)는 표시되는 제1 컨텐츠의 프레임에 대응되는 제1 특징 정보(제1 데이터) 및 표시되는 제2 컨텐츠의 프레임에 대응되는 제2 특징 정보(제2 데이터)를 획득할 수 있다. 그리고, 프로세서(130)는 획득된 제1 데이터 및 제2 데이터에 기초하여 제1 컨텐츠 및 제2 컨텐츠의 재생 시점을 동기화 할 수 있다. 동기화 동작에 대한 구체적인 설명은 도 9 내지 도 12에서 후술한다.Here, the processor 130 may obtain the first characteristic information (first data) corresponding to the frame of the displayed first content and the second characteristic information (the second data) corresponding to the frame of the displayed second content. have. In addition, the processor 130 may synchronize the playback timing of the first content and the second content based on the acquired first data and the second data. A detailed description of the synchronization operation will be described later with reference to FIGS. 9 to 12 .

한편, 제1 특징 정보는 전자 장치(100)에서 획득된 제1 컨텐츠의 제1 이미지 데이터 또는 제1 컨텐츠의 제1 오디오 데이터 중 적어도 하나를 포함할 수 있고, 제2 특징 정보는 제2 기기(300)에서 획득된 제1 컨텐츠의 제2 이미지 데이터 또는 제1 컨텐츠의 제2 오디오 데이터 중 적어도 하나를 포함할 수 있다.Meanwhile, the first characteristic information may include at least one of first image data of the first content obtained by the electronic device 100 or first audio data of the first content, and the second characteristic information may include the second device ( 300) may include at least one of the second image data of the first content and the second audio data of the first content.

프로세서(130)는 제1 기기(200)로부터 제1 컨텐츠를 수신하고, 수신된 제1 컨텐츠에 기초하여 제1 컨텐츠에 대응되는 제1 이미지 데이터 또는 제1 오디오 데이터 중 적어도 하나를 획득할 수 있다.The processor 130 may receive the first content from the first device 200 and acquire at least one of first image data and first audio data corresponding to the first content based on the received first content. .

또한, 제2 기기(300)는 제1 기기(200)로부터 제1 컨텐츠를 수신하고, 수신된 제1 컨텐츠에 기초하여 제1 컨텐츠에 대응되는 제2 이미지 데이터 또는 제2 오디오 데이터 중 적어도 하나를 획득할 수 있다.In addition, the second device 300 receives the first content from the first device 200 , and generates at least one of second image data or second audio data corresponding to the first content based on the received first content. can be obtained

여기서, 제1 이미지 데이터 및 제2 이미지 데이터는 제1 컨텐츠에 포함된 복수의 프레임 중 적어도 하나의 프레임에 대응되는 픽셀값을 의미할 수 있다. 제1 오디오 데이터 및 제2 오디오 데이터는 제1 컨텐츠에 포함된 복수의 프레임 중 적어도 하나의 프레임에 대응되는 소리 크기값 또는 소리 파형일 수 있다.Here, the first image data and the second image data may mean pixel values corresponding to at least one frame among a plurality of frames included in the first content. The first audio data and the second audio data may be a sound level value or a sound waveform corresponding to at least one frame among a plurality of frames included in the first content.

한편, 상술한 이미지 데이터 및 오디오 데이터는 기 결정된 해쉬함수에 의하여 변환될 수 있다. 이미지 데이터 자체 또는 오디오 데이터 자체는 데이터 크기가 크므로, 비교 동작을 위하여 데이터를 변형할 수 있다.Meanwhile, the above-described image data and audio data may be converted by a predetermined hash function. Since the image data itself or the audio data itself has a large data size, the data may be transformed for a comparison operation.

한편, 프로세서(130)는 제1 특징 정보 및 제2 특징 정보가 일치하지 않으면, 제1 컨텐츠 및 제2 컨텐츠의 재생 시점을 동기화할 수 있다.Meanwhile, when the first characteristic information and the second characteristic information do not match, the processor 130 may synchronize the reproduction timing of the first content and the second content.

여기서, 프로세서(130)는 표시되는 제1 컨텐츠의 프레임에 대응되는 정보(제1 데이터)와 표시되는 제2 컨텐츠의 프레임에 대응되는 정보(제2 데이터)가 일치하지 않으면, 제1 컨텐츠 및 제2 컨텐츠의 싱크가 불일치한다고 식별할 수 있다. 그리고, 프로세서(130)는 제1 컨텐츠 및 제2 컨텐츠의 재생 시점을 동기화할 수 있다.Here, when the information (first data) corresponding to the frame of the displayed first content does not match the information (the second data) corresponding to the frame of the displayed second content, the processor 130 determines the first content and the second content. 2 It can be identified that the sync of the content is inconsistent. In addition, the processor 130 may synchronize playback times of the first content and the second content.

한편, 프로세서(130)는 제1 특징 정보 및 제2 특징 정보가 일치하지 않으면, 제1 컨텐츠 또는 제2 컨텐츠 중 하나의 컨텐츠의 재생 설정을 변경할 수 있다.Meanwhile, when the first characteristic information and the second characteristic information do not match, the processor 130 may change the reproduction setting of one of the first content and the second content.

여기서, 제1 특징 정보에 포함된 제1 데이터 및 제2 특징 정보에 포함된 제2 데이터가 일치하지 않으면, 프로세서(130)는 제1 컨텐츠 또는 제2 컨텐츠 중 하나의 컨텐츠의 재생 설정을 변경하고, 제1 컨텐츠 및 제2 컨텐츠의 재생 시점을 동기화(또는 일치)할 수 있다.Here, if the first data included in the first characteristic information and the second data included in the second characteristic information do not match, the processor 130 changes the reproduction setting of one of the first content and the second content, , the playback times of the first content and the second content may be synchronized (or matched).

한편, 프로세서(130)는 컨텐츠의 재생을 일시 정지, 컨텐츠의 재생 속도를 감소 또는 컨텐츠의 재생 속도를 증가시킴으로써 제1 컨텐츠 또는 제2 컨텐츠 중 하나의 컨텐츠의 재생 설정을 변경할 수 있다.Meanwhile, the processor 130 may change the reproduction setting of one of the first content and the second content by pausing the reproduction of the contents, decreasing the reproduction speed of the contents, or increasing the reproduction speed of the contents.

여기서, 재생 설정을 변경하는 동작은 컨텐츠의 재생을 일시 정지 동작, 컨텐츠의 재생 속도를 증가시키는 동작 또는 컨텐츠의 재생 속도를 감소시키는 동작 중 하나의 동작을 의미할 수 있다.Here, the operation of changing the reproduction setting may mean one of an operation of pausing the reproduction of content, an operation of increasing the reproduction speed of the content, or an operation of decreasing the reproduction speed of the content.

한편, 프로세서(130)는 제1 특징 정보 및 제2 특징 정보에 기초하여 제1 컨텐츠 및 제2 컨텐츠 중 더 빠른 재생 시점을 갖는 컨텐츠를 식별할 수 있고, 식별된 컨텐츠의 재생 설정을 변경할 수 있다.Meanwhile, the processor 130 may identify a content having a faster playback time from among the first content and the second content based on the first characteristic information and the second characteristic information, and may change the playback setting of the identified content. .

여기서, 프로세서(130)는 제1 컨텐츠의 제1 재생 시점과 제2 컨텐츠의 제2 재생 시점을 비교할 수 있다. 그리고, 프로세서(130)는 제1 재생 시점 및 제2 재생 시점 중 더 빠른 재생 시점을 식별하고, 식별된 재생 시점에 대응되는 컨텐츠를 식별할 수 있다. 그리고, 프로세서(130)는 재생 시점이 더 빠른 컨텐츠의 재생 설정을 변경할 수 있다.Here, the processor 130 may compare the first playback timing of the first content with the second playback timing of the second content. In addition, the processor 130 may identify a faster reproduction time among the first reproduction time and the second reproduction time, and identify the content corresponding to the identified reproduction time. In addition, the processor 130 may change the playback setting of the content having a faster playback time.

재생 시점이 더 빠른 컨텐츠의 재생 설정을 변경하는 이유는, 제1 기기(200) 및 제2 기기(300)에 별도의 재생 시점 변경을 요청하지 않더라도 전자 장치(100) 자체적으로 제1 컨텐츠 및 제2 컨텐츠의 재생 시점을 동기화할 수 있기 때문이다.The reason for changing the playback setting of the content having a faster playback time is that the electronic device 100 itself provides the first content and second 2 This is because the playback time of the contents can be synchronized.

제1 컨텐츠 및 제2 컨텐츠의 재생 시점을 동기화 시키는 가장 쉬운 방법은, 제1 기기(200) 또는 제2 기기(300) 각각에 변경된 재생 시점에 기초하는 컨텐츠를 요청하는 방법이다. 예를 들어, 전자 장치(100)는 10초에 해당하는 프레임이 아닌 12초에 해당하는 프레임을 요청하고, 12초에 해당하는 프레임을 수신할 수 있다.The easiest way to synchronize the playback timings of the first content and the second content is to request the first device 200 or the second device 300 for content based on the changed playback timing, respectively. For example, the electronic device 100 may request a frame corresponding to 12 seconds instead of a frame corresponding to 10 seconds, and receive a frame corresponding to 12 seconds.

하지만, 컨텐츠를 제공하는 각 기기에 변경된 재생 시점에 대응되는 컨텐츠를 요청하는 것은 각 기기가 전체 재생 시점에 대응되는 컨텐츠를 저장하고 있을 때만 가능한다. 예를 들어, 제1 기기(200) 또는 제2 기기(300)가 60분의 영화 컨텐츠 데이터를 모두 저장하고 있어야 변경된 재생 시점에 대응되는 컨텐츠를 전송할 수 있다. 만약, 실시간으로 중계되는 스포츠 경기 또는 재생 시점을 변경하는 서비스 기능을 별도로 제공하지 않는 경우, 프로세서(130)는 제1 컨텐츠 및 제2 컨텐츠의 재생 시점을 동기화하기 어려울 수 있다.However, it is possible to request content corresponding to the changed playback time from each device providing the content only when each device stores the content corresponding to the entire playback timing. For example, the first device 200 or the second device 300 must store all 60 minutes of movie content data to transmit the content corresponding to the changed playback time. If a service function for changing a playing time or a sports game broadcast in real time is not separately provided, it may be difficult for the processor 130 to synchronize the playback timing of the first content and the second content.

한편, 전자 장치(100)는 메모리(140)를 더 포함할 수 있고, 프로세서(130)는 식별된 컨텐츠(제1 컨텐츠 또는 제2 컨텐츠 중 재생 시점이 더 빠른 컨텐츠)를 메모리(140)에 저장할 수 있고, 식별된 컨텐츠의 재생을 일시 정지하거나 식별된 컨텐츠의 재생 속도를 감소시킴으로써 식별된 컨텐츠의 재생 설정을 변경할 수 있다.Meanwhile, the electronic device 100 may further include a memory 140 , and the processor 130 stores the identified content (the first content or the second content having a faster playback time) in the memory 140 . Also, the playback setting of the identified content may be changed by pausing the playback of the identified content or decreasing the playback speed of the identified content.

프로세서(130)가 식별된 컨텐츠를 메모리(140) 중 특정 공간에 저장하는 것을 의미할 수 있다. 여기서, 특정 공간은 비일시적 저장 공간을 의미할 수 있으며, 기 결정된 이벤트가 발생하기 전까지 저장되는 공간을 의미할 수 있다.This may mean that the processor 130 stores the identified content in a specific space of the memory 140 . Here, the specific space may mean a non-transitory storage space, and may mean a space stored until a predetermined event occurs.

일반적으로, 스트리밍으로 표시되는 데이터는 전자 장치(100)에 수신되는 순간 특정 하드웨어에 저장되지만, 계속하여 메모리(140)에 저장되는 것은 아닐 수 있다. 예를 들어, 프로세서(130)는 스트리밍 데이터를 디스플레이(120)에 표시한 후 표시된 스트리밍 데이터를 삭제할 수 있다.In general, data displayed as streaming is stored in specific hardware as soon as it is received by the electronic device 100 , but may not be continuously stored in the memory 140 . For example, the processor 130 may delete the displayed streaming data after displaying the streaming data on the display 120 .

하지만, 본 개시의 일 실시 예에 따른 전자 장치(100)는 식별된 컨텐츠에 대응되는 스트리밍 데이터를 메모리(140)에 저장할 수 있다. 그리고, 저장된 스트리밍 데이터는 기 결정된 이벤트가 식별되기 전까지 계속하여 메모리(140)에 저장될 수 있다.However, the electronic device 100 according to an embodiment of the present disclosure may store streaming data corresponding to the identified content in the memory 140 . And, the stored streaming data may be continuously stored in the memory 140 until a predetermined event is identified.

여기서, 기 결정된 이벤트는 제1 컨텐츠 및 제2 컨텐츠의 재생 시점이 동기화 되는 이벤트를 의미할 수 있다. 제1 컨텐츠 및 제2 컨텐츠의 재생 시점이 동기화 되면 더 이상 컨텐츠를 메모리(140)에 별도로 계속하여 저장할 필요성이 없기 때문이다.Here, the predetermined event may refer to an event in which playback times of the first content and the second content are synchronized. This is because when the playback timings of the first content and the second content are synchronized, it is no longer necessary to separately and continuously store the content in the memory 140 .

한편, 프로세서(130)는 기 결정된 이벤트가 발생하기 전까지 재생 시점이 빠른 컨텐츠를 수신하여 저장할 수 있다. 여기서, 프로세서(130)는 재생 시점이 빠른 컨텐츠의 재생을 일시 정지하거나 재생 속도를 감소시킬 수 있다. 재생 시점이 빠른 컨텐츠의 재생을 멈추거나 늦춤으로써 프로세서(130)는 제1 컨텐츠 및 제2 컨텐츠의 재생 시점을 일치시킬 수 있다.On the other hand, the processor 130 may receive and store the content having a faster playback time until a predetermined event occurs. Here, the processor 130 may pause or decrease the playback speed of the content having a fast playback time. By stopping or delaying the playback of the content having a faster playback time, the processor 130 may match the playback timing of the first content and the second content.

한편, 프로세서(130)는 식별된 컨텐츠와 다른 컨텐츠의 재생 속도를 유지할 수 있다.Meanwhile, the processor 130 may maintain the playback speed of the identified content and other content.

여기서, 프로세서(130)는 제1 컨텐츠 및 제2 컨텐츠의 재생 시점의 차이를 획득할 수 있고, 획득된 재생 시점의 차이에 기초하여 식별된 컨텐츠의 재생 설정을 변경할 수 있다. 재생 시점의 차이가 식별되면, 프로세서(130)는 제1 컨텐츠의 재생 속도와 제2 컨텐츠의 재생 속도를 상이하게 변경할 수 있다.Here, the processor 130 may obtain a difference between the reproduction time points of the first content and the second content, and may change the reproduction setting of the identified content based on the obtained difference between the reproduction time points. When the difference between the playback timings is identified, the processor 130 may change the playback speed of the first content and the playback speed of the second content differently.

여기서, 제1 컨텐츠의 재생 시점이 제2 컨텐츠의 재생 시점보다 빠르다고 가정한다.Here, it is assumed that the playback timing of the first content is earlier than the playback timing of the second content.

여기서, 프로세서(130)는 제1 컨텐츠의 재생을 일시 정지하는 동안 제2 컨텐츠의 재생 속도를 유지할 수 있다. 예를 들어, 제1 컨텐츠 및 제2 컨텐츠의 재생 시점 차이가 1초라고 가정하면, 프로세서(130)는 1초 동안 제1 컨텐츠를 일시 정지하고 제2 컨텐츠는 정배속(1배속)으로 재생하여 재생 시점을 일치시킬 수 있다.Here, the processor 130 may maintain the playback speed of the second content while temporarily stopping the playback of the first content. For example, assuming that the playback time difference between the first content and the second content is 1 second, the processor 130 pauses the first content for 1 second and reproduces the second content at the normal speed (1x speed). The playback timing can be matched.

또한, 프로세서(130)는 제1 컨텐츠의 재생 속도를 감소시키는 동안 제2 컨텐츠의 재생 속도를 유지할 수 있다. 예를 들어, 제1 컨텐츠 및 제2 컨텐츠의 재생 시점 차이가 1초라고 가정하면, 프로세서(130)는 2초 동안 제1 컨텐츠를 0.5배속으로 재생하고 제2 컨텐츠는 정배속(1배속)으로 재생하여 재생 시점을 일치시킬 수 있다.Also, the processor 130 may maintain the playback speed of the second content while decreasing the playback speed of the first content. For example, assuming that the playback timing difference between the first content and the second content is 1 second, the processor 130 plays the first content at 0.5x speed for 2 seconds and the second content at the normal speed (1x speed) for 2 seconds. It can be played back to match the playback timing.

한편, 프로세서(130)는 제1 컨텐츠에 대응되는 컨텐츠를 제공하는 적어도 하나의 기기를 포함하는 UI(User Interface)를 표시하도록 디스플레이(120)를 제어할 수 있고, UI를 통해 제2 기기(300)를 선택하기 위한 사용자 입력이 수신되면, 제2 특징 정보 및 제2 컨텐츠를 요청하는 제어 신호를 제2 기기(300)에 전송하도록 통신 인터페이스(110)를 제어할 수 있다.Meanwhile, the processor 130 may control the display 120 to display a user interface (UI) including at least one device that provides content corresponding to the first content, and the second device 300 through the UI. When a user input for selecting ) is received, the communication interface 110 may be controlled to transmit a control signal requesting the second characteristic information and the second content to the second device 300 .

여기서, 복수의 컨텐츠 중 제1 컨텐츠를 선택하는 제1 사용자 입력이 수신되면, 프로세서(130)는 제1 사용자 입력에 대응되는 제1 컨텐츠를 제1 기기(200)에 요청할 수 있다. 여기서, 제1 사용자 입력은 특정 채널 번호를 변경하거나 특정 컨텐츠를 요청하는 사용자 입력일 수 있다.Here, when a first user input for selecting a first content from among a plurality of content is received, the processor 130 may request the first content corresponding to the first user input from the first device 200 . Here, the first user input may be a user input for changing a specific channel number or requesting specific content.

또한, 제1 컨텐츠(메인 컨텐츠)와 관련된 컨텐츠(서브 컨텐츠)를 요청하는 제2 사용자 입력이 수신되면, 프로세서(130)는 제1 컨텐츠에 대응되는 적어도 하나의 서브 컨텐츠를 식별할 수 있다. 그리고, 프로세서(130)는 식별된 복수의 서브 컨텐츠에 대응되는 정보를 포함하는 UI를 표시할 수 있다. 여기서, UI는 도 8의 UI(802)일 수 있다. 여기서, 제2 사용자 입력은 제1 컨텐츠 이외에 별도의 서브 컨텐츠를 추가로 요청하는 사용자 입력을 의미할 수 있다.Also, when a second user input requesting content (sub content) related to the first content (main content) is received, the processor 130 may identify at least one sub content corresponding to the first content. In addition, the processor 130 may display a UI including information corresponding to the plurality of identified sub-contents. Here, the UI may be the UI 802 of FIG. 8 . Here, the second user input may mean a user input for additionally requesting a separate sub content in addition to the first content.

또한, UI(802)에 표시된 복수의 서브 컨텐츠 중 하나의 서브 컨텐츠(제2 컨텐츠)를 선택하는 제3 사용자 입력이 수신되면, 프로세서(130)는 제3 사용자 입력에 대응되는 제2 컨텐츠 및 제2 특징 정보를 요청하는 제어 신호를 생성할 수 있다. 그리고, 프로세서(130)는 생성된 제어 신호를 제2 기기(300)에 전송할 수 있다. 여기서, 제3 사용자 입력은 복수의 서브 컨텐츠 중 하나의 서브 컨텐츠를 사용자 입력을 의미할 수 있다.In addition, when a third user input for selecting one sub-content (second content) from among the plurality of sub-contents displayed on the UI 802 is received, the processor 130 generates the second content and the second content corresponding to the third user input. 2 It is possible to generate a control signal requesting feature information. In addition, the processor 130 may transmit the generated control signal to the second device 300 . Here, the third user input may mean a user input of one sub content among the plurality of sub content.

한편, 프로세서(130)는 임계 시간마다 제1 컨텐츠 및 제2 컨텐츠의 재생 시점이 일치하는지 여부를 식별할 수 있다. 상황에 따라 딜레이가 중간에 발생하는 경우가 있기 때문이다. 따라서, 프로세서(130)는 임계 시간마다 제1 특징 정보 및 제2 특징 정보를 비교하여 제1 컨텐츠 및 제2 컨텐츠의 재생 시점이 동기화 되어 있는지 판단하고, 동기화 동작을 수행할 수 있다.Meanwhile, the processor 130 may identify whether the reproduction time points of the first content and the second content coincide with each other for each threshold time. This is because, depending on the situation, a delay may occur in the middle. Accordingly, the processor 130 may compare the first characteristic information and the second characteristic information at every threshold time to determine whether the reproduction times of the first content and the second content are synchronized, and perform a synchronization operation.

본 개시의 다양한 실시 예에 따른 전자 장치(100)는 제1 컨텐츠(메인 컨텐츠)와 제2 컨텐츠(서브 컨텐츠)를 동시에 표시하면서, 재생 시점을 동기화할 수 있다. 시청자는 메인 컨텐츠이외에 서브 컨텐츠를 동시에 시청하면서 재생 시점이 불일치하는 불편함을 느끼지 않을 수 있다.The electronic device 100 according to various embodiments of the present disclosure may display the first content (main content) and the second content (sub content) at the same time while synchronizing the playback time. The viewer may not feel the inconvenience of inconsistency in playback timing while simultaneously watching sub content in addition to the main content.

한편, 이상에서는 전자 장치(100)를 구성하는 간단한 구성에 대해서만 도시하고 설명하였지만, 구현 시에는 다양한 구성이 추가로 구비될 수 있다. 이에 대해서는 도 5를 참조하여 이하에서 설명한다.Meanwhile, although only a simple configuration constituting the electronic device 100 has been illustrated and described above, various configurations may be additionally provided in implementation. This will be described below with reference to FIG. 5 .

도 5는 도 4의 전자 장치의 구체적인 구성을 설명하기 위한 블록도이다.FIG. 5 is a block diagram illustrating a detailed configuration of the electronic device of FIG. 4 .

도 5를 참조하면, 전자 장치(100)는 통신 인터페이스(110), 디스플레이(120), 프로세서(130), 메모리(140), 조작 인터페이스(150), 입출력 인터페이스(160), 마이크(170) 및 스피커(180)로 구성될 수 있다.Referring to FIG. 5 , the electronic device 100 includes a communication interface 110 , a display 120 , a processor 130 , a memory 140 , an operation interface 150 , an input/output interface 160 , a microphone 170 and The speaker 180 may be configured.

한편, 통신 인터페이스(110), 디스플레이(120) 및 프로세서(130)의 동작 중에서 앞서 설명한 것과 동일한 동작에 대해서는 중복 설명은 생략한다.Meanwhile, redundant descriptions of the same operations as described above among the operations of the communication interface 110 , the display 120 , and the processor 130 will be omitted.

메모리(140)는 프로세서(130)에 포함된 롬(ROM)(예를 들어, EEPROM(electrically erasable programmable read-only memory)), 램(RAM) 등의 내부 메모리로 구현되거나, 프로세서(130)와 별도의 메모리로 구현될 수도 있다. 이 경우, 메모리(140)는 데이터 저장 용도에 따라 전자 장치(100)에 임베디드된 메모리 형태로 구현되거나, 전자 장치(100)에 탈부착이 가능한 메모리 형태로 구현될 수도 있다. 예를 들어, 전자 장치(100)의 구동을 위한 데이터의 경우 전자 장치(100)에 임베디드된 메모리에 저장되고, 전자 장치(100)의 확장 기능을 위한 데이터의 경우 전자 장치(100)에 탈부착이 가능한 메모리에 저장될 수 있다.The memory 140 is implemented as an internal memory such as a ROM (eg, electrically erasable programmable read-only memory (EEPROM)) included in the processor 130 , a RAM, or the like, or with the processor 130 . It may be implemented as a separate memory. In this case, the memory 140 may be implemented in the form of a memory embedded in the electronic device 100 or may be implemented in the form of a memory detachable from the electronic device 100 according to the purpose of data storage. For example, data for driving the electronic device 100 is stored in a memory embedded in the electronic device 100 , and data for an extended function of the electronic device 100 is detachable from the electronic device 100 . It can be stored in any available memory.

한편, 전자 장치(100)에 임베디드된 메모리의 경우 휘발성 메모리(예: DRAM(dynamic RAM), SRAM(static RAM), 또는 SDRAM(synchronous dynamic RAM) 등), 비휘발성 메모리(non-volatile Memory)(예: OTPROM(one time programmable ROM), PROM(programmable ROM), EPROM(erasable and programmable ROM), EEPROM(electrically erasable and programmable ROM), mask ROM, flash ROM, 플래시 메모리(예: NAND flash 또는 NOR flash 등), 하드 드라이브, 또는 솔리드 스테이트 드라이브(solid state drive(SSD)) 중 적어도 하나로 구현되고, 전자 장치(100)에 탈부착이 가능한 메모리의 경우 메모리 카드(예를 들어, CF(compact flash), SD(secure digital), Micro-SD(micro secure digital), Mini-SD(mini secure digital), xD(extreme digital), MMC(multi-media card) 등), USB 포트에 연결 가능한 외부 메모리(예를 들어, USB 메모리) 등과 같은 형태로 구현될 수 있다.Meanwhile, in the case of a memory embedded in the electronic device 100 , a volatile memory (eg, dynamic RAM (DRAM), static RAM (SRAM), or synchronous dynamic RAM (SDRAM), etc.), non-volatile memory (non-volatile memory) ( Examples: one time programmable ROM (OTPROM), programmable ROM (PROM), erasable and programmable ROM (EPROM), electrically erasable and programmable ROM (EEPROM), mask ROM, flash ROM, flash memory (such as NAND flash or NOR flash, etc.) ), a hard drive, or a solid state drive (SSD), and in the case of a removable memory in the electronic device 100, a memory card (eg, a compact flash (CF), SD ( secure digital), Micro-SD (micro secure digital), Mini-SD (mini secure digital), xD (extreme digital), MMC (multi-media card), etc.), external memory that can be connected to the USB port (e.g., USB memory) and the like.

조작 인터페이스(150)는 버튼, 터치 패드, 마우스 및 키보드와 같은 장치로 구현되거나, 상술한 디스플레이 기능 및 조작 입력 기능도 함께 수행 가능한 터치 스크린으로도 구현될 수 있다. 여기서, 버튼은 전자 장치(100)의 본체 외관의 전면부나 측면부, 배면부 등의 임의의 영역에 형성된 기계적 버튼, 터치 패드, 휠 등과 같은 다양한 유형의 버튼이 될 수 있다.The manipulation interface 150 may be implemented as a device such as a button, a touch pad, a mouse, and a keyboard, or may be implemented as a touch screen capable of performing the above-described display function and manipulation input function together. Here, the button may be various types of buttons such as a mechanical button, a touch pad, a wheel, etc. formed in an arbitrary area such as the front, side, or rear of the exterior of the main body of the electronic device 100 .

입출력 인터페이스(160)는 HDMI(High Definition Multimedia Interface), MHL (Mobile High-Definition Link), USB (Universal Serial Bus), DP(Display Port), 썬더볼트(Thunderbolt), VGA(Video Graphics Array)포트, RGB 포트, D-SUB(D-subminiature), DVI(Digital Visual Interface) 중 어느 하나의 인터페이스일 수 있다.Input/output interface 160 is HDMI (High Definition Multimedia Interface), MHL (Mobile High-Definition Link), USB (Universal Serial Bus), DP (Display Port), Thunderbolt (Thunderbolt), VGA (Video Graphics Array) port, The interface may be any one of an RGB port, a D-subminiature (D-SUB), and a digital visual interface (DVI).

입출력 인터페이스(160)는 오디오 및 비디오 신호 중 적어도 하나를 입출력 할 수 있다.The input/output interface 160 may input/output at least one of audio and video signals.

구현 예에 따라, 입출력 인터페이스(160)는 오디오 신호만을 입출력하는 포트와 비디오 신호만을 입출력하는 포트를 별개의 포트로 포함하거나, 오디오 신호 및 비디오 신호를 모두 입출력하는 하나의 포트로 구현될 수 있다.Depending on the implementation, the input/output interface 160 may include a port for inputting and outputting only an audio signal and a port for inputting and outputting only a video signal as separate ports, or may be implemented as a single port for inputting and outputting both an audio signal and a video signal.

전자 장치(100)는 마이크(170)를 더 포함할 수 있다. 마이크는 사용자 음성이나 기타 소리를 입력 받아 오디오 데이터로 변환하기 위한 구성이다.The electronic device 100 may further include a microphone 170 . A microphone is a component for receiving a user's voice or other sound and converting it into audio data.

마이크(170)는 활성화 상태에서 사용자의 음성을 수신할 수 있다. 예를 들어, 마이크(170)는 전자 장치(100)의 상측이나 전면 방향, 측면 방향 등에 일체형으로 형성될 수 있다. 마이크(170)는 아날로그 형태의 사용자 음성을 수집하는 마이크, 수집된 사용자 음성을 증폭하는 앰프 회로, 증폭된 사용자 음성을 샘플링하여 디지털 신호로 변환하는 A/D 변환회로, 변환된 디지털 신호로부터 노이즈 성분을 제거하는 필터 회로 등과 같은 다양한 구성을 포함할 수 있다.The microphone 170 may receive a user's voice in an activated state. For example, the microphone 170 may be integrally formed in the upper side, the front direction, the side direction, or the like of the electronic device 100 . The microphone 170 includes a microphone for collecting analog user voice, an amplifier circuit for amplifying the collected user voice, an A/D conversion circuit for sampling the amplified user voice and converting it into a digital signal, and a noise component from the converted digital signal. It may include various configurations such as a filter circuit that removes the

전자 장치(100)는 스피커(180)를 포함할 수 있다. 스피커(180)는 입출력 인터페이스에서 처리된 각종 오디오 데이터뿐만 아니라 각종 알림 음이나 음성 메시지 등을 출력하는 구성요소일 수 있다.The electronic device 100 may include a speaker 180 . The speaker 180 may be a component that outputs various types of audio data processed in the input/output interface, as well as various notification sounds or voice messages.

도 6은 본 개시의 일 실시 예에 따른 전자 장치의 컨텐츠 표시 동작을 설명하기 위한 흐름도이다.6 is a flowchart illustrating a content display operation of an electronic device according to an embodiment of the present disclosure.

도 6을 참조하면, 전자 장치(100)는 제1 컨텐츠를 표시할 수 있다 (S605). 여기서, 제1 컨텐츠는 제1 기기(200)로부터 수신된 컨텐츠를 의미할 수 있다.Referring to FIG. 6 , the electronic device 100 may display the first content (S605). Here, the first content may mean content received from the first device 200 .

또한, 전자 장치(100)는 제1 컨텐츠 및 제2 컨텐츠를 매칭할 수 있다 (S610). 제1 컨텐츠가 수신되면, 전자 장치(100)는 제1 컨텐츠과 관련된 복수의 컨텐츠를 식별할 수 있다. 그리고, 전자 장치(100)는 식별된 복수의 컨텐츠를 포함하는 UI를 표시할 수 있다. 그리고, 표시된 UI를 통해 복수의 컨텐츠 중 하나의 컨텐츠(제2 컨텐츠)를 선택하는 사용자 입력이 수신되면, 전자 장치(100)는 사용자 입력에 대응되는 하나의 컨텐츠(제2 컨텐츠)와 제1 컨텐츠를 매칭할 수 있다. 여기서, 매칭 동작은 제1 컨텐츠와 함께 표시할 컨텐츠를 사용자가 직접 결정하는 동작을 의미할 수 있다.Also, the electronic device 100 may match the first content and the second content ( S610 ). When the first content is received, the electronic device 100 may identify a plurality of content related to the first content. In addition, the electronic device 100 may display a UI including a plurality of identified contents. Then, when a user input for selecting one content (second content) from among a plurality of content is received through the displayed UI, the electronic device 100 displays one content (second content) and the first content corresponding to the user input. can match. Here, the matching operation may refer to an operation in which the user directly determines the content to be displayed together with the first content.

예를 들어, 축구 경기(제1 컨텐츠)를 사용자가 선택하면, 전자 장치(100)는 축구 경기(제1 컨텐츠)와 관련된 복수의 개인 방송 컨텐츠를 식별할 수 있다. 그리고, 전자 장치(100)는 복수의 개인 방송 컨텐츠 중 사용자 입력에 대응되는 하나의 컨텐츠(제2 컨텐츠)를 식별할 수 있다.For example, when the user selects a soccer game (first content), the electronic device 100 may identify a plurality of personal broadcast content related to the soccer game (first content). In addition, the electronic device 100 may identify one content (second content) corresponding to a user input among a plurality of personal broadcast content.

또한, 전자 장치(100)는 제1 컨텐츠 및 제2 컨텐츠의 재생 시점을 동기화할 수 있다 (S615). 여기서, 전자 장치(100)는 제1 컨텐츠를 제1 기기(200)로부터 수신하고 제2 컨텐츠를 제2 기기(300)로부터 수신하므로, 제1 컨텐츠 및 제2 컨텐츠의 싱크가 맞지 않을 수 있다. 따라서, 전자 장치(100)는 싱크를 맞추기 위하여 동기화 동작을 수행할 수 있다.Also, the electronic device 100 may synchronize the playback timings of the first content and the second content ( S615 ). Here, since the electronic device 100 receives the first content from the first device 200 and receives the second content from the second device 300 , the sync between the first content and the second content may not match. Accordingly, the electronic device 100 may perform a synchronization operation in order to synchronize.

또한, 전자 장치(100)는 동기화 동작이 완료되면, 제1 컨텐츠 및 제2 컨텐츠를 표시할 수 있다 (S620). 여기서, 전자 장치(100)는 제1 컨텐츠를 디스플레이(120)의 제1 영역에 표시하고, 제2 컨텐츠를 디스플레이(120)의 제2 영역에 표시할 수 있다.Also, when the synchronization operation is completed, the electronic device 100 may display the first content and the second content (S620). Here, the electronic device 100 may display the first content on the first area of the display 120 and display the second content on the second area of the display 120 .

도 7은 본 개시의 일 실시 예에 따른 전자 장치의 컨텐츠 매칭 동작을 설명하기 위한 흐름도이다.7 is a flowchart illustrating a content matching operation of an electronic device according to an embodiment of the present disclosure.

도 7을 참조하면, 도6의 S610 단계는 제1 컨텐츠와 매칭 가능한 복수의 컨텐츠를 표시하는 단계 (S705), 복수의 컨텐츠 중 하나의 컨텐츠를 선택하기 위한 사용자 입력을 수신하는 단계 (S710) 및 사용자 입력에 대응되는 제2 컨텐츠를 제1 컨텐츠와 매칭하는 단계 (S715)를 포함할 수 있다.Referring to FIG. 7 , step S610 of FIG. 6 includes displaying a plurality of contents matching the first content ( S705 ), receiving a user input for selecting one content from among the plurality of contents ( S710 ), and It may include matching the second content corresponding to the user input with the first content (S715).

도 8은 도 7의 매칭 동작에서 표시되는 UI를 설명하기 위한 도면이다.FIG. 8 is a diagram for explaining a UI displayed in the matching operation of FIG. 7 .

도 8을 참조하면, 전자 장치(100)는 S705 단계에서 디스플레이(120)에 제1 컨텐츠에 대응되는 이미지(801) 및 제1 컨텐츠와 매칭 가능한 복수의 컨텐츠를 포함하는 UI(802)를 동시에 표시할 수 있다. 여기서, 이미지(801)는 디스플레이(120)의 제1 영역에 표시되고, UI (802)는 디스플레이(120)의 제2 영역에 표시될 수 있다.Referring to FIG. 8 , the electronic device 100 simultaneously displays an image 801 corresponding to the first content and a UI 802 including a plurality of content matching the first content on the display 120 in step S705 . can do. Here, the image 801 may be displayed on the first area of the display 120 , and the UI 802 may be displayed on the second area of the display 120 .

도 9는 본 개시의 일 실시 예에 따른 전자 장치의 제1 컨텐츠 및 제2 컨텐츠의 동기화 동작을 설명하기 위한 흐름도이다.9 is a flowchart illustrating an operation of synchronizing first content and second content of an electronic device according to an embodiment of the present disclosure.

도 9를 참조하면, 전자 장치(100)는 제1 특징 정보 및 제2 특징 정보를 획득할 수 있다 (S905). 또한, 전자 장치(100)는 제1 특징 정보 및 제2 특징 정보가 일치하는지 식별할 수 있다 (S910).Referring to FIG. 9 , the electronic device 100 may obtain first characteristic information and second characteristic information ( S905 ). Also, the electronic device 100 may identify whether the first characteristic information and the second characteristic information match ( S910 ).

여기서, 제1 특징 정보 및 제2 특징 정보가 일치하면 (S910-Y), 전자 장치(100)는 제1 컨텐츠 및 제2 컨텐츠를 표시할 수 있다 (S930).Here, when the first characteristic information and the second characteristic information match (S910-Y), the electronic device 100 may display the first content and the second content (S930).

한편, 제1 특징 정보 및 제2 특징 정보가 일치하지 않으면 (S910-N), 전자 장치(100)는 제1 컨텐츠 및 제2 컨텐츠 중 재생 시점의 변경이 가능한 컨텐츠가 존재하는지 여부를 식별할 수 있다 (S915). 여기서, 재생 시점의 변경은 현재 재생되는 프레임의 시점을 변경하는 것을 의미할 수 있다. 예를 들어, 재생 시점의 변경은 컨텐츠의 타임 라인에서 2초에서 4초로 변경하는 것을 의미할 수 있다. 재생 시점이 변경되면 표시되는 이미지 출력되는 오디오가 상이해지는 것을 의미할 수 있다. 녹화 방송 컨텐츠 또는 OTT 관련 컨텐츠는 재생 시점의 변경이 가능할 수 있지만, 라이브 컨텐츠는 재생 시점의 변경이 불가능할 수 있다. 또한, 예외적으로, 라이브 컨텐츠라고 하더라도 컨텐츠를 제공하는 기기에서 별도로 재생 시점의 변경 기능을 제공할 수 있다.On the other hand, if the first characteristic information and the second characteristic information do not match (S910-N), the electronic device 100 may identify whether there is a content whose playback time can be changed among the first content and the second content. There is (S915). Here, changing the playback timing may mean changing the timing of the currently played frame. For example, changing the playback time may mean changing from 2 seconds to 4 seconds in the timeline of the content. When the playback time is changed, it may mean that the displayed image and output audio are different. The playback timing of recorded broadcast content or OTT-related content may be changeable, but the playback timing of live content may not be changeable. Also, as an exception, even for live content, the device providing the content may separately provide a function of changing the playback time.

여기서, 제1 컨텐츠 및 제2 컨텐츠 중 재생 시점 변경이 가능한 컨텐츠가 하나라도 존재하면 (S915-Y), 전자 장치(100)는 재생 시점 변경이 가능한 컨텐츠의 재생 설정을 변경할 수 있다 (S920). 그리고, 전자 장치(100)는 제1 컨텐츠 및 제2 컨텐츠를 표시할 수 있다 (S930). S920 단계의 구체적인 동작은 도 10에서 후술한다.Here, if at least one of the first content and the second content, which can change the playback time, exists (S915-Y), the electronic device 100 may change the playback setting of the content whose playback time can be changed (S920). Then, the electronic device 100 may display the first content and the second content (S930). A detailed operation of step S920 will be described later with reference to FIG. 10 .

한편, 제1 컨텐츠 및 제2 컨텐츠 중 재생 시점 변경이 가능한 컨텐츠가 존재하지 않으면 (S915-N), 전자 장치(100)는 재생 시점이 빠른 컨텐츠의 재생 설정을 변경할 수 있다 (S925). 그리고, 전자 장치(100)는 제1 컨텐츠 및 제2 컨텐츠를 표시할 수 있다 (S930). S925 단계의 구체적인 동작은 도 11 및 도 12에서 후술한다.Meanwhile, if there is no content capable of changing the playback time among the first content and the second content (S915-N), the electronic device 100 may change the playback setting of the content having a faster playback time (S925). Then, the electronic device 100 may display the first content and the second content (S930). A detailed operation of step S925 will be described later with reference to FIGS. 11 and 12 .

도 10은 본 개시의 일 실시 예에 따른 전자 장치의 컨텐츠 재생 설정 변경 동작을 설명하기 위한 흐름도이다.10 is a flowchart illustrating an operation of changing a content reproduction setting of an electronic device according to an embodiment of the present disclosure.

도 10을 참조하면, 제1 특징 정보 및 제2 특징 정보가 일치하지 않으면 (도9의 S910-N), 전자 장치(100)는 제1 컨텐츠의 제1 재생 시점을 변경할 수 있는지 식별할 수 있다 (S1005). 여기서, 제1 컨텐츠의 제1 재생 시점이 변경될 수 있는 것으로 식별되면 (S1005-Y), 전자 장치(100)는 제1 컨텐츠의 제1 재생 시점을 변경할 수 있다 (S1010). 그리고, 전자 장치(100)는 제1 컨텐츠 및 제2 컨텐츠를 표시할 수 있다 (S1015).Referring to FIG. 10 , if the first characteristic information and the second characteristic information do not match ( S910 -N in FIG. 9 ), the electronic device 100 may identify whether the first playback time of the first content can be changed. (S1005). Here, if it is identified that the first playback time of the first content can be changed (S1005-Y), the electronic device 100 may change the first playback time of the first content (S1010). Then, the electronic device 100 may display the first content and the second content (S1015).

한편, 제1 컨텐츠의 제1 재생 시점이 변경될 수 없는 것으로 식별되면 (S1005-N), 전자 장치(100)는 제2 컨텐츠의 제2 재생 시점이 변경될 수 있는지 식별할 수 있다 (S1020). 여기서, 제2 컨텐츠의 제2 재생 시점이 변경될 수 있는 것으로 식별되면 (S1020-Y), 전자 장치(100)는 제2 컨텐츠의 제2 재생 시점을 변경할 수 있다 (S1025). 그리고, 전자 장치(100)는 제1 컨텐츠 및 제2 컨텐츠를 표시할 수 있다 (S1015).Meanwhile, if it is identified that the first playback time of the first content cannot be changed (S1005-N), the electronic device 100 may identify whether the second playback time of the second content can be changed (S1020) . Here, if it is identified that the second reproduction time of the second content can be changed (S1020-Y), the electronic device 100 may change the second reproduction time of the second content (S1025). Then, the electronic device 100 may display the first content and the second content (S1015).

한편, 제2 컨텐츠의 제2 재생 시점이 변경될 수 없는 것으로 식별되면 (S1020-N), 전자 장치(100)는 재생 시점이 빠른 컨텐츠의 재생 설정을 변경할 수 있다 (S1030). 그리고, 전자 장치(100)는 제1 컨텐츠 및 제2 컨텐츠를 표시할 수 있다 (S1015). 여기서, S1030 단계는 도 9의 S925 단계에 대응될 수 있다.On the other hand, if it is identified that the second playback time of the second content cannot be changed (S1020-N), the electronic device 100 may change the playback setting of the content having an earlier playback time (S1030). Then, the electronic device 100 may display the first content and the second content (S1015). Here, step S1030 may correspond to step S925 of FIG. 9 .

도 11은 본 개시의 다른 실시 예에 따른 전자 장치의 컨텐츠 재생 설정 변경 동작을 설명하기 위한 흐름도이다.11 is a flowchart illustrating an operation of changing a content reproduction setting of an electronic device according to another embodiment of the present disclosure.

도 11을 참조하면, 재생 시점을 변경할 수 있는 컨텐츠가 식별되지 않으면 (도9의 S915-N), 전자 장치(100)는 제1 컨텐츠의 제1 재생 시점이 제2 컨텐츠의 제2 재생 시점보다 빠른지 여부를 식별할 수 있다 (S1105).Referring to FIG. 11 , if the content that can change the playback time is not identified ( S915-N in FIG. 9 ), the electronic device 100 determines that the first playback time of the first content is higher than the second playback time of the second content. It can be identified whether it is fast (S1105).

여기서, 제1 컨텐츠의 제1 재생 시점이 제2 컨텐츠의 제2 재생 시점보다 빠르다고 식별되면 (S1105-Y), 전자 장치(100)는 제1 컨텐츠를 메모리(140)에 저장할 수 있다 (S1110). 그리고, 전자 장치(100)는 제1 컨텐츠의 재생을 일시 정지하고 제2 컨텐츠를 계속하여 표시할 수 있다 (S1115). 그리고, 전자 장치(100)는 제1 특징 정보 및 제2 특징 정보가 일치하는지 여부를 식별할 수 있다 (S1120). 여기서, 제1 특징 정보 및 제2 특징 정보가 일치하면 (S1120-Y), 전자 장치(100)는 제1 컨텐츠 및 제2 컨텐츠를 표시할 수 있다 (S1125). 그리고, 전자 장치(100)는 메모리(140)에 저장된 컨텐츠(제1 컨텐츠)를 삭제할 수 있다. 여기서, 제1 특징 정보 및 제2 특징 정보가 일치하지 않으면 (S1120-N), 전자 장치(100)는 반복하여 제1 컨텐츠의 재생을 일시 정지하고 제2 컨텐츠를 계속하여 표시하는 S1115 단계를 수행할 수 있다.Here, if it is identified that the first reproduction time of the first content is earlier than the second reproduction time of the second content (S1105-Y), the electronic device 100 may store the first content in the memory 140 (S1110) . Then, the electronic device 100 may pause the reproduction of the first content and continue to display the second content (S1115). Then, the electronic device 100 may identify whether the first characteristic information and the second characteristic information match (S1120). Here, if the first characteristic information and the second characteristic information match (S1120-Y), the electronic device 100 may display the first content and the second content (S1125). In addition, the electronic device 100 may delete content (first content) stored in the memory 140 . Here, if the first characteristic information and the second characteristic information do not match (S1120-N), the electronic device 100 repeatedly stops the reproduction of the first content and continuously displays the second content ( S1115 ). can do.

한편, S1115 단계에서 제1 컨텐츠를 일시 정지 하는 동안 제1 기기(200)로부터 계속하여 제1 컨텐츠를 수신할 수 있다. 제1 특징 정보 및 제2 특징 정보가 일치하면, 전자 장치(100)는 제1 컨텐츠 및 제2 컨텐츠의 싱크가 일치한다고 식별할 수 있다. 그리고, 전자 장치(100)는 제1 컨텐츠 및 제2 컨텐츠를 수신하자마자 바로 표시할 수 있다. 하지만, 제1 특징 정보 및 제2 특징 정보가 일치하지 않으면, 전자 장치(100)는 제1 컨텐츠 및 제2 컨텐츠의 싱크가 일치하지 않는다고 식별할 수 있다. 그리고, 전자 장치(100)는 싱크를 맞추기 위해(일치 시키기 위해) 재생 시점이 빠르다고 판단한 제1 컨텐츠의 재생을 일시 정지할 수 있다. 다만, 여기서 제1 컨텐츠가 계속 수신되고 있으므로, 전자 장치(100)는 제1 컨텐츠를 메모리(140)의 비휘발성 영역에 저장할 수 있다. 여기서, 전자 장치(100)는 제1 특징 정보 및 제2 특징 정보가 일치할 때까지 제1 컨텐츠의 재생을 일시 정지할 수 있다.Meanwhile, while the first content is paused in step S1115 , the first content may be continuously received from the first device 200 . If the first characteristic information and the second characteristic information match, the electronic device 100 may identify that the sync of the first content and the second content match. In addition, the electronic device 100 may immediately display the first content and the second content as soon as it is received. However, if the first characteristic information and the second characteristic information do not match, the electronic device 100 may identify that the syncs of the first content and the second content do not match. In addition, the electronic device 100 may pause the reproduction of the first content determined to have a fast reproduction time in order to synchronize (to match). However, since the first content is continuously being received here, the electronic device 100 may store the first content in the nonvolatile area of the memory 140 . Here, the electronic device 100 may pause the reproduction of the first content until the first characteristic information and the second characteristic information match.

한편, 제1 컨텐츠의 제1 재생 시점이 제2 컨텐츠의 제2 재생 시점보다 느리다고 식별되면 (S1105-N), 제2 컨텐츠를 메모리(140)에 저장할 수 있다 (S1130). 그리고, 전자 장치(100)는 제2 컨텐츠의 재생을 일시 정지하고 제1 컨텐츠를 계속하여 표시할 수 있다 (S1135). 그리고, 전자 장치(100)는 제1 특징 정보 및 제2 특징 정보가 일치하는지 여부를 식별할 수 있다 (S1140). 여기서, 제1 특징 정보 및 제2 특징 정보가 일치하면 (S1140-Y), 전자 장치(100)는 제2 컨텐츠 및 제1 컨텐츠를 표시할 수 있다 (S1125). 그리고, 전자 장치(100)는 메모리(140)에 저장된 컨텐츠(제2 컨텐츠)를 삭제할 수 있다. 여기서, 제1 특징 정보 및 제2 특징 정보가 일치하지 않으면 (S1140-N), 전자 장치(100)는 반복하여 제2 컨텐츠의 재생을 일시 정지하고 제1 컨텐츠를 계속하여 표시하는 S1135 단계를 수행할 수 있다.Meanwhile, if it is identified that the first reproduction time of the first content is slower than the second reproduction time of the second content (S1105-N), the second content may be stored in the memory 140 (S1130). Then, the electronic device 100 may pause the reproduction of the second content and continue to display the first content ( S1135 ). Then, the electronic device 100 may identify whether the first characteristic information and the second characteristic information match ( S1140 ). Here, when the first characteristic information and the second characteristic information match (S1140-Y), the electronic device 100 may display the second content and the first content (S1125). In addition, the electronic device 100 may delete content (second content) stored in the memory 140 . Here, if the first characteristic information and the second characteristic information do not match ( S1140 -N ), the electronic device 100 repeatedly performs step S1135 of pausing the reproduction of the second content and continuously displaying the first content. can do.

한편, S1135 단계에서 제2 컨텐츠를 일시 정지 하는 동안 제2 기기(300)로부터 계속하여 제2 컨텐츠를 수신할 수 있다. 제1 특징 정보 및 제2 특징 정보가 일치하면, 전자 장치(100)는 제1 컨텐츠 및 제2 컨텐츠의 싱크가 일치한다고 식별할 수 있다. 그리고, 전자 장치(100)는 제1 컨텐츠 및 제2 컨텐츠를 수신하자마자 바로 표시할 수 있다. 하지만, 제1 특징 정보 및 제2 특징 정보가 일치하지 않으면, 전자 장치(100)는 제1 컨텐츠 및 제2 컨텐츠의 싱크가 일치하지 않는다고 식별할 수 있다. 그리고, 전자 장치(100)는 싱크를 맞추기 위해(일치 시키기 위해) 재생 시점이 빠르다고 판단한 제2 컨텐츠의 재생을 일시 정지할 수 있다. 다만, 여기서 제2 컨텐츠가 계속 수신되고 있으므로, 전자 장치(100)는 제2 컨텐츠를 메모리(140)의 비휘발성 영역에 저장할 수 있다. 여기서, 전자 장치(100)는 제1 특징 정보 및 제2 특징 정보가 일치할 때까지 제2 컨텐츠의 재생을 일시 정지할 수 있다.Meanwhile, while the second content is paused in step S1135 , the second content may be continuously received from the second device 300 . If the first characteristic information and the second characteristic information match, the electronic device 100 may identify that the sync of the first content and the second content match. In addition, the electronic device 100 may immediately display the first content and the second content as soon as it is received. However, if the first characteristic information and the second characteristic information do not match, the electronic device 100 may identify that the syncs of the first content and the second content do not match. In addition, the electronic device 100 may pause the reproduction of the second content determined that the reproduction time is fast in order to synchronize (to match). However, since the second content is continuously being received here, the electronic device 100 may store the second content in the nonvolatile area of the memory 140 . Here, the electronic device 100 may pause the reproduction of the second content until the first characteristic information and the second characteristic information match.

도 12는 본 개시의 또 다른 실시 예에 따른 전자 장치의 컨텐츠 재생 설정 변경 동작을 설명하기 위한 흐름도이다.12 is a flowchart illustrating an operation of changing a content reproduction setting of an electronic device according to another embodiment of the present disclosure.

도 12를 참조하면, S1205, S1210, S1220, S1225, S1226, S1230, S1240 단계는 도 11의 S1105, S1110, S1120, S1125, S1126, S1130, S1140 단계에 대응될 수 있다. 따라서, 중복 설명을 생략한다.12 , steps S1205, S1210, S1220, S1225, S1226, S1230, and S1240 may correspond to steps S1105, S1110, S1120, S1125, S1126, S1130, and S1140 of FIG. 11 . Therefore, redundant description is omitted.

한편, 도 12의 S1215 단계는 도 11의 S1115 단계 대신에 수행될 수 있으며, 도 12의 S1235 단계는 도 11의 S1135 단계 대신에 수행될 수 있다.Meanwhile, step S1215 of FIG. 12 may be performed instead of step S1115 of FIG. 11 , and step S1235 of FIG. 12 may be performed instead of step S1135 of FIG. 11 .

구체적으로, 전자 장치(100)는 S1210 단계 이후에 제1 컨텐츠의 재생 속도를 감속하여 표시하고 제2 컨텐츠의 재생 속도를 유지하여 표시할 수 있다. 예를 들어, 전자 장치(100)는 제1 컨텐츠를 0.8배속으로 재생하고, 제2 컨텐츠를 기존 배속인 1배속으로 재생할 수 있다.Specifically, after step S1210 , the electronic device 100 may display the first content by reducing the playback speed and maintain the playback speed of the second content to be displayed. For example, the electronic device 100 may reproduce the first content at 0.8x speed and reproduce the second content at 1x speed, which is the existing double speed.

또한, 전자 장치(100)는 S1230 단계 이후에 제2 컨텐츠의 재생 속도를 감속하여 표시하고, 제1 컨텐츠의 재생 속도를 유지하여 표시할 수 있다. 예를 들어, 전자 장치(100)는 제2 컨텐츠를 0.8배속으로 재생하고, 제1 컨텐츠를 기존 배속인 1배속으로 재생할 수 있다.Also, after step S1230 , the electronic device 100 may display the second content by reducing the playback speed, and maintain the playback speed of the first content to be displayed. For example, the electronic device 100 may reproduce the second content at 0.8x speed and reproduce the first content at 1x speed, which is the existing double speed.

도 11과 달리 도 12의 실시 예의 전자 장치(100)는 컨텐츠를 일시 정지하지 않고 재생 속도를 감소시킬 수 있다. 따라서, 사용자 입장에선 싱크를 일치시키는 동작이 자연스럽게 느껴질 수 있다.Unlike FIG. 11 , the electronic device 100 of the embodiment of FIG. 12 may decrease the playback speed without pausing the content. Therefore, from the user's point of view, the operation of synchronizing the sync may feel natural.

도 13은 본 개시의 다양한 실시 예에 따른 전자 장치의 컨텐츠 재생 설정 변경 동작을 설명하기 위한 도면이다.13 is a diagram for explaining an operation of changing a content reproduction setting of an electronic device according to various embodiments of the present disclosure;

도 13을 참조하면, 표(1305)는 4개의 실시 예에 따른 전자 장치(100)의 재생 설정 동작을 포함할 수 있다. 제1 실시 예에 따라, 제1 컨텐츠의 재생 시점 변경이 가능하고, 제2 컨텐츠의 재생 시점 변경이 가능할 수 있다. 여기서, 전자 장치(100)는 제1 컨텐츠 또는 제2 컨텐츠 중 적어도 하나의 컨텐츠의 재생 설정을 변경할 수 있다. 여기서, 재생 설정의 변경 동작은 재생의 일시 정지, 재생 속도의 증가 또는 재생 속도의 감소를 의미할 수 있다.Referring to FIG. 13 , a table 1305 may include playback setting operations of the electronic device 100 according to four embodiments. According to the first embodiment, it is possible to change the playback time of the first content and change the playback timing of the second content. Here, the electronic device 100 may change the reproduction setting of at least one of the first content and the second content. Here, the operation of changing the reproduction setting may mean a pause in reproduction, an increase in the reproduction speed, or a decrease in the reproduction speed.

또한, 제2 실시 예에 따라, 제1 컨텐츠의 재생 시점 변경이 가능하고, 제2 컨텐츠의 재생 시점 변경이 불가능할 수 있다. 여기서, 전자 장치(100)는 재생 시점 변경이 가능한 제1 컨텐츠의 재생 설정을 변경할 수 있다.Also, according to the second embodiment, it is possible to change the playback time of the first content, but it may not be possible to change the playback time of the second content. Here, the electronic device 100 may change the reproduction setting of the first content that can change the reproduction time.

또한, 제3 실시 예에 따라, 제1 컨텐츠의 재생 시점 변경이 불가능하고, 제2 컨텐츠의 재생 시점 변경이 가능할 수 있다. 여기서, 전자 장치(100)는 재생 시점 변경이 가능한 제2 컨텐츠의 재생 설정을 변경할 수 있다.Also, according to the third exemplary embodiment, it may be impossible to change the playback time of the first content, and it may be possible to change the playback timing of the second content. Here, the electronic device 100 may change the reproduction setting of the second content that can change the reproduction time.

또한, 제4 실시 예에 따라, 제1 컨텐츠의 재생 시점 변경이 불가능하고, 제2 컨텐츠의 재생 시점 변경이 불가능할 수 있다. 여기서, 전자 장치(100)는 재생 시점이 빠른 컨텐츠를 메모리(140)에 저장한 후 저장된 컨텐츠의 재생 설정을 변경할 수 있다.Also, according to the fourth embodiment, it may be impossible to change the playback time of the first content and it may not be possible to change the playback timing of the second content. Here, the electronic device 100 may store the content having a faster playback time in the memory 140 and then change the playback setting of the stored content.

도 14는 제1 컨텐츠의 재생 시점이 제2 컨텐츠의 재생 시점보다 빠른 실시 예를 설명하기 위한 도면이다.14 is a diagram for explaining an embodiment in which a playback time of a first content is earlier than a playback time of a second content.

도 14를 참조하면, 일 실시 예(1405)에 따라, 제1 컨텐츠의 제1 재생 시점이 제2 컨텐츠의 제2 재생 시점보다 빠를 수 있다. 제2 컨텐츠의 생성 및 전송에 딜레이가 발생할 수 있기 때문이다.Referring to FIG. 14 , according to an embodiment 1405 , a first playback time of the first content may be earlier than a second playback time of the second content. This is because a delay may occur in generation and transmission of the second content.

제1 컨텐츠의 제1 재생 시점이 제2 컨텐츠의 제2 재생 시점보다 1초만큼 빠르다고 가정한다.It is assumed that the first reproduction time of the first content is earlier than the second reproduction time of the second content by 1 second.

여기서, 전자 장치(100)는 제1 컨텐츠의 제1 이미지(201-1) 및 제2 컨텐츠의 로딩 이미지(1410)를 동시에 표시할 수 있다. 1초 경과 후, 전자 장치(100)는 제1 컨텐츠의 제2 이미지(201-2) 및 제2 컨텐츠의 제4 이미지(202-1)를 동시에 표시할 수 있다. 다시 1초 경과 후, 전자 장치(100)는 제1 컨텐츠의 제3 이미지(201-3) 및 제2 컨텐츠의 제5 이미지(202-2)를 동시에 표시할 수 있다.Here, the electronic device 100 may simultaneously display the first image 201-1 of the first content and the loading image 1410 of the second content. After one second has elapsed, the electronic device 100 may simultaneously display the second image 201 - 2 of the first content and the fourth image 202-1 of the second content. After one second has elapsed, the electronic device 100 may simultaneously display the third image 201-3 of the first content and the fifth image 202-2 of the second content.

전자 장치(100)는 제1 컨텐츠의 제1 재생 시점이 제2 컨텐츠의 제2 재생 시점보다 1초만큼 빠르게 재생하고 있으므로, 사용자는 1초에 해당하는 간격만큼 싱크가 맞지 않다고 느낄 수 있다.Since the electronic device 100 reproduces the first reproduction time of the first content faster than the second reproduction time of the second content by one second, the user may feel that the synchronization is out of sync by an interval corresponding to one second.

도 15는 제1 컨텐츠의 재생 시점이 제2 컨텐츠의 재생 시점보다 느린 실시 예를 설명하기 위한 도면이다.15 is a diagram for explaining an embodiment in which a playback time of a first content is slower than a playback time of a second content.

도 15를 참조하면, 다른 실시 예(1505)에 따라, 제2 컨텐츠의 제2 재생 시점이 제1 컨텐츠의 제1 재생 시점보다 빠를 수 있다. 제1 컨텐츠의 전송에 딜레이가 발생할 수 있기 때문이다.Referring to FIG. 15 , according to another embodiment 1505 , the second playback time of the second content may be earlier than the first playback time of the first content. This is because a delay may occur in the transmission of the first content.

제2 컨텐츠의 제2 재생 시점이 제1 컨텐츠의 제1 재생 시점보다 1초만큼 빠르다고 가정한다.It is assumed that the second reproduction time of the second content is earlier than the first reproduction time of the first content by 1 second.

여기서, 전자 장치(100)는 제1 컨텐츠의 제1 이미지(201-1) 및 제2 컨텐츠의 제5 이미지(202-2)를 동시에 표시할 수 있다. 1초 경과 후, 전자 장치(100)는 제1 컨텐츠의 제2 이미지(201-2) 및 제2 컨텐츠의 제6 이미지(202-3)를 동시에 표시할 수 있다. 다시 1초 경과 후, 전자 장치(100)는 제1 컨텐츠의 제3 이미지(201-3) 및 제2 컨텐츠의 제7 이미지(202-4)를 동시에 표시할 수 있다.Here, the electronic device 100 may simultaneously display the first image 201-1 of the first content and the fifth image 202-2 of the second content. After one second has elapsed, the electronic device 100 may simultaneously display the second image 201 - 2 of the first content and the sixth image 202 - 3 of the second content. After one second has elapsed, the electronic device 100 may simultaneously display the third image 201-3 of the first content and the seventh image 202-4 of the second content.

전자 장치(100)는 제2 컨텐츠의 제2 재생 시점이 제1 컨텐츠의 제1 재생 시점보다 1초만큼 빠르게 재생하고 있으므로, 사용자는 1초에 해당하는 간격만큼 싱크가 맞지 않다고 느낄 수 있다.Since the electronic device 100 reproduces the second reproduction time of the second content faster by 1 second than the first reproduction time of the first content, the user may feel that the synchronization is out of sync by an interval corresponding to one second.

도 16은 전자 장치, 제1 기기 및 제2 기기의 컨텐츠 동기화 동작을 설명하기 위한 시스템 흐름도이다.16 is a system flow diagram for explaining contents synchronization operations of an electronic device, a first device, and a second device.

도 16을 참조하면, 제1 기기(200)는 제1 컨텐츠를 저장할 수 있다 (S1605). 그리고, 제1 기기(200)는 제2 기기(300)에 제1 컨텐츠를 전송할 수 있다 (S1610). 그리고, 제1 기기(200)는 전자 장치(100)에 제1 컨텐츠를 전송할 수 있다 (S1615).Referring to FIG. 16 , the first device 200 may store the first content ( S1605 ). Then, the first device 200 may transmit the first content to the second device 300 (S1610). Then, the first device 200 may transmit the first content to the electronic device 100 (S1615).

여기서, 전자 장치(100)는 제1 컨텐츠에 대응되는 제1 특징 정보를 획득할 수 있다 (S1620).Here, the electronic device 100 may obtain first characteristic information corresponding to the first content (S1620).

한편, 제2 기기(300)는 제1 컨텐츠를 수신한 이후, 제1 컨텐츠와 관련된 제2 컨텐츠를 생성할 수 있다 (S1625). 그리고, 제2 기기(300)는 제1 기기(200)로부터 수신된 제1 컨텐츠에 기초하여 제1 컨텐츠에 대응되는 제2 특징 정보를 획득할 수 있다 (S1630). 그리고, 제2 기기(300)는 제2 특징 정보 및 제2 컨텐츠를 전자 장치(100)에 전송할 수 있다 (S1635). 여기서, 제2 기기(300)가 제1 컨텐츠 대신에 제1 컨텐츠에 대응되는 제2 특징 정보를 전송하는 이유는 저작권 문제 때문일 수 있다. 제2 기기(300)는 제1 기기(200)로부터 제1 컨텐츠를 수신할 수 있지만, 제1 컨텐츠를 타인에게 무단 배포할 권리가 없을 수 있다. 따라서, 제2 기기(300)는 제1 컨텐츠를 전자 장치(100)에 전송할 수 없다. 하지만, 동기화 동작을 위해 전자 장치(100)는 제2 컨텐츠가 제1 컨텐츠와 어떻게 동기화 되는지 판단하여야 한다. 따라서, 전자 장치(100)는 제2 기기(300)로부터 제1 컨텐츠 대신에 제1 컨텐츠에 대응되는 제2 특징 정보를 수신할 수 있다.Meanwhile, after receiving the first content, the second device 300 may generate second content related to the first content ( S1625 ). In addition, the second device 300 may acquire second characteristic information corresponding to the first content based on the first content received from the first device 200 ( S1630 ). Then, the second device 300 may transmit the second characteristic information and the second content to the electronic device 100 (S1635). Here, the reason why the second device 300 transmits the second characteristic information corresponding to the first content instead of the first content may be due to a copyright problem. The second device 300 may receive the first content from the first device 200 , but may not have the right to distribute the first content to others without permission. Accordingly, the second device 300 cannot transmit the first content to the electronic device 100 . However, for the synchronization operation, the electronic device 100 must determine how the second content is synchronized with the first content. Accordingly, the electronic device 100 may receive the second characteristic information corresponding to the first content instead of the first content from the second device 300 .

전자 장치(100)는 S1620 단계를 통해 획득한 제1 특징 정보 및 S1635 단계를 통해 획득한 제2 특징 정보에 기초하여 제1 컨텐츠 및 제2 컨텐츠의 재생 시점을 동기화 할 수 있다 (S1640). 그리고, 전자 장치(100)는 제1 컨텐츠 및 제2 컨텐츠를 표시할 수 있다 (S1645).The electronic device 100 may synchronize the playback timing of the first content and the second content based on the first characteristic information acquired in step S1620 and the second characteristic information acquired in step S1635 ( S1640 ). Then, the electronic device 100 may display the first content and the second content (S1645).

도 17은 제2 기기의 제2 특징 정보를 획득하는 동작을 설명하기 위한 흐름도이다.17 is a flowchart illustrating an operation of acquiring second characteristic information of a second device.

도 17을 참조하면, 제2 기기(300)는 제1 기기(200)로부터 제1 컨텐츠를 수신할 수 있다 (S1705). 그리고, 제2 기기(300)는 제1 컨텐츠와 관련된 제2 컨텐츠를 생성할 수 있다 (S1710). 그리고, 제2 기기(300)는 제1 기기(200)로부터 수신된 제1 컨텐츠에 기초하여 제1 컨텐츠에 대응되는 제2 특징 정보를 획득할 수 있다 (S1715). 그리고, 제2 기기(300)는 제2 컨텐츠 및 제2 특징 정보를 전자 장치(100)에 전송할 수 있다 (S1720).Referring to FIG. 17 , the second device 300 may receive the first content from the first device 200 ( S1705 ). Then, the second device 300 may generate second content related to the first content (S1710). Then, the second device 300 may acquire second characteristic information corresponding to the first content based on the first content received from the first device 200 ( S1715 ). Then, the second device 300 may transmit the second content and the second characteristic information to the electronic device 100 ( S1720 ).

일 실시 예에 따라, 제2 기기(300)는 직접 제1 컨텐츠를 수신하고, 제1 컨텐츠에 대응되는 제2 특징 정보를 획득할 수 있다. 예를 들어, 제2 기기(300)는 통신 인터페이스를 통해 제1 기기(200)로부터 제1 컨텐츠를 수신할 수 있다. 여기서, 제1 특징 정보는 방송 유형, 시청 채널 또는 컨텐츠 타임 스탬프 중 적어도 하나를 포함할 수 있다.According to an embodiment, the second device 300 may directly receive the first content and acquire second characteristic information corresponding to the first content. For example, the second device 300 may receive the first content from the first device 200 through the communication interface. Here, the first characteristic information may include at least one of a broadcast type, a viewing channel, and a content time stamp.

다른 실시 예에 따라, 제2 기기(300)는 제1 컨텐츠를 수신하지 않고 제1 컨텐츠에 대응되는 제2 특징 정보를 획득할 수 있다. 예를 들어, 제2 기기(300)는 카메라 또는 마이크를 통해 재생 중인 제1 컨텐츠에 대한 정보를 획득할 수 있다. 구체적으로, 제2 기기(300)는 제2 기기(300)의 마이크를 통해 별도의 기기에서 재생 중인 제1 컨텐츠의 오디오 데이터를 획득할 수 있다. 또한, 제2 기기(300) 는 제2 기기(300)의 카메라를 통해 별도의 기기에서 재생 중인 제1 컨텐츠의 이미지 데이터를 획득할 수 있다. 따라서, 제2 기기(300)는 직접 제1 컨텐츠를 수신하지 않아도 제1 컨텐츠에 대응되는 제2 특징 정보를 획득할 수 있다.According to another embodiment, the second device 300 may acquire the second characteristic information corresponding to the first content without receiving the first content. For example, the second device 300 may acquire information about the first content being reproduced through a camera or a microphone. Specifically, the second device 300 may acquire audio data of the first content being reproduced in a separate device through the microphone of the second device 300 . Also, the second device 300 may acquire image data of the first content being reproduced in a separate device through the camera of the second device 300 . Accordingly, the second device 300 may acquire the second characteristic information corresponding to the first content without directly receiving the first content.

도 18은 본 개시의 일 실시 예에 따른 제2 기기의 제2 특징 정보를 획득하는 동작을 설명하기 위한 시스템 흐름도이다.18 is a system flowchart illustrating an operation of acquiring second characteristic information of a second device according to an embodiment of the present disclosure.

도 18을 참조하면, 제1 기기(200)는 제1 컨텐츠를 저장할 수 있다 (S1805). 그리고, 제1 기기(200)는 제2 기기(300)에 제1 컨텐츠를 전송할 수 있다 (S1810). 그리고, 제1 기기(200)는 전자 장치(100)에 제1 컨텐츠를 전송할 수 있다 (S1815).Referring to FIG. 18 , the first device 200 may store the first content (S1805). Then, the first device 200 may transmit the first content to the second device 300 (S1810). Then, the first device 200 may transmit the first content to the electronic device 100 (S1815).

여기서, 전자 장치(100)는 제1 기기(200)로부터 수신된 제1 컨텐츠에 기초하여 제1 컨텐츠의 제1 이미지 데이터를 제1 특징 정보로서 획득할 수 있다 (S1820).Here, the electronic device 100 may acquire the first image data of the first content as the first characteristic information based on the first content received from the first device 200 ( S1820 ).

한편, 제2 기기(300)는 제1 기기(200)로부터 수신된 제1 컨텐츠에 기초하여 제1 컨텐츠의 제2 이미지 데이터를 획득할 수 있다 (S1825). 그리고, 제2 기기(300)는 제1 컨텐츠와 관련된 제2 컨텐츠를 생성할 수 있다 (S1830). 그리고, 제2 기기(300)는 제1 컨텐츠의 제2 이미지 데이터 및 제2 컨텐츠를 매칭하여 제2 특징 정보를 획득할 수 있다 (S1835). 그리고, 제2 기기(300)는 제2 특징 정보 및 제2 컨텐츠를 전자 장치(100)에 전송할 수 있다 (S1840).Meanwhile, the second device 300 may acquire second image data of the first content based on the first content received from the first device 200 ( S1825 ). Then, the second device 300 may generate second content related to the first content (S1830). Then, the second device 300 may obtain the second characteristic information by matching the second image data of the first content and the second content (S1835). Then, the second device 300 may transmit the second characteristic information and the second content to the electronic device 100 ( S1840 ).

전자 장치(100)는 S1820 단계를 통해 획득한 제1 특징 정보 및 S1840 단계를 통해 획득한 제2 특징 정보에 기초하여 제1 컨텐츠 및 제2 컨텐츠의 재생 시점을 동기화 할 수 있다 (S1845). 그리고, 전자 장치(100)는 제1 컨텐츠 및 제2 컨텐츠를 표시할 수 있다 (S1850).The electronic device 100 may synchronize the playback timing of the first content and the second content based on the first characteristic information acquired in step S1820 and the second characteristic information acquired in step S1840 ( S1845 ). Then, the electronic device 100 may display the first content and the second content (S1850).

도 19는 본 개시의 일 실시 예에 따라, 제1 특징 정보 및 제2 특징 정보를 비교하여 재생 시점을 식별하는 동작을 설명하기 위한 도면이다.19 is a diagram for explaining an operation of identifying a reproduction time point by comparing first characteristic information and second characteristic information, according to an embodiment of the present disclosure.

도 19를 참조하면, 표(1905)는 전자 장치(100)에서 획득한 제1 특징 정보 및 제2 기기(300)로부터 수신된 제2 특징 정보를 포함할 수 있다. 여기서, 제1 특징 정보 및 제2 특징 정보는 이미지 데이터에 대응되는 값을 포함할 수 있다. 여기서, 이미지 데이터에 대응되는 값은 픽셀값을 의미할 수 있다. 제1 특징 정보에 포함된 제1 컨텐츠의 프레임 단위(예를 들어, 1초)의 픽셀값이 #223344, #334455, #445566, #556677, #667788이라고 가정한다. 그리고, 제2 특징 정보에 포함된 제1 컨텐츠의 프레임 단위(예를 들어, 1초)의 픽셀값이 #112233, #223344, #334455, #445566, #556677이라고 가정한다. 여기서, 제2 특징 정보는 제1 컨텐츠에 기초하여 획득된 정보이지만, 제2 컨텐츠의 재생 시점을 대표하는 정보일 수 있다. 제2 특징 정보는 제2 컨텐츠를 생성하는 제2 기기(300)에 의해 획득된 정보이며, 제2 특징 정보에는 제2 컨텐츠의 재생 시점과 관련된 정보가 포함될 수 있다.Referring to FIG. 19 , a table 1905 may include first characteristic information obtained from the electronic device 100 and second characteristic information received from the second device 300 . Here, the first characteristic information and the second characteristic information may include values corresponding to image data. Here, the value corresponding to the image data may mean a pixel value. It is assumed that pixel values of the frame unit (eg, 1 second) of the first content included in the first feature information are #223344, #334455, #445566, #556677, and #667788. Also, it is assumed that pixel values of the frame unit (eg, 1 second) of the first content included in the second characteristic information are #112233, #223344, #334455, #445566, and #556677. Here, the second characteristic information is information obtained based on the first content, but may be information representing a reproduction time of the second content. The second characteristic information is information obtained by the second device 300 that generates the second content, and the second characteristic information may include information related to a reproduction time of the second content.

구체적으로, 제1 특징 정보는 제1 컨텐츠에 대응되는 제1 데이터(픽셀값)을 포함할 수 있다. 그리고, 제2 특징 정보는 제1 컨텐츠에 대응되는 제2 데이터(픽셀값) 및 제2 데이터에 대응되는 제2 컨텐츠의 프레임 정보를 포함할 수 있다. 제2 기기(300)는 제2 컨텐츠의 프레임 각각과 제1 컨텐츠의 픽셀값을 매칭시켜 제2 특징 정보를 획득할 수 있다.Specifically, the first characteristic information may include first data (pixel values) corresponding to the first content. In addition, the second characteristic information may include second data (pixel values) corresponding to the first content and frame information of the second content corresponding to the second data. The second device 300 may obtain the second characteristic information by matching each frame of the second content with a pixel value of the first content.

예를 들어, 제2 데이터가 이미지 데이터의 픽셀값이고, #112233, #223344, #334455, #445566, #556677라고 가정한다. 여기서, 제2 기기(300)는 #112233에 대응되는 제1 컨텐츠의 프레임이 제공되는 동안 제2 컨텐츠의 #01프레임을 생성하고, #223344에 대응되는 제1 컨텐츠의 프레임이 제공되는 동안 제2 컨텐츠의 #02프레임을 생성하고, #334455에 대응되는 제1 컨텐츠의 프레임이 제공되는 동안 제2 컨텐츠의 #03프레임을 생성하고, #445566에 대응되는 제1 컨텐츠의 프레임이 제공되는 동안 제2 컨텐츠의 #04프레임을 생성하고, #556677에 대응되는 제1 컨텐츠의 프레임이 제공되는 동안 제2 컨텐츠의 #05프레임을 생성할 수 있다.For example, it is assumed that the second data are pixel values of image data and are #112233, #223344, #334455, #445566, and #556677. Here, the second device 300 generates frame #01 of the second content while the frame of the first content corresponding to #112233 is provided, and while the frame of the first content corresponding to #223344 is provided, the second device 300 is provided. Frame #02 of the content is generated, frame #03 of the second content is generated while the frame of the first content corresponding to #334455 is provided, and frame #03 of the second content is generated while the frame of the first content corresponding to #445566 is provided. Frame #04 of the content may be generated, and frame #05 of the second content may be generated while the frame of the first content corresponding to #556677 is provided.

전자 장치(100)가 획득한 제1 특징 정보 및 제2 특징 정보는 모두 제1 컨텐츠에 관한 것이지만, 특징 정보를 추출한 주체가 다를 수 있다. 주체가 다르더라도, 동일한 추출 방법을 이용하는 경우, 동일한 특징 정보가 추출될 수 있다. 다만, 딜레이 발생에 의하여 일부 싱크가 맞지 않을 수 있다.Although both the first characteristic information and the second characteristic information obtained by the electronic device 100 relate to the first content, the subject from which the characteristic information is extracted may be different. Even if the subject is different, the same feature information may be extracted when the same extraction method is used. However, some syncs may not match due to the occurrence of a delay.

전자 장치(100)는 제1 특징 정보 및 제2 특징 정보를 비교함으로써 싱크를 맞출 수 있다. 표(1905)를 참조하면, 전자 장치(100)는 제1 특징 정보 및 제2 특징 정보에 기초하여 픽셀값의 변화 패턴을 획득할 수 있고, 획득된 픽셀값의 변화 패턴에 기초하여 제1 컨텐츠 및 제2 컨텐츠의 재생 시점 차이를 식별할 수 있다. 전자 장치(100)는 표(1905)에 기초하여 제1 컨텐츠가 제2 컨텐츠보다 1초 빠르게 재생됨을 식별할 수 있다.The electronic device 100 may synchronize by comparing the first characteristic information and the second characteristic information. Referring to the table 1905 , the electronic device 100 may obtain a pixel value change pattern based on the first characteristic information and the second characteristic information, and first content based on the acquired pixel value change pattern. and a difference in playback timing of the second content may be identified. The electronic device 100 may identify that the first content is reproduced 1 second faster than the second content based on the table 1905 .

도 20은 본 개시의 다른 실시 예에 따른 제2 기기의 제2 특징 정보를 획득하는 동작을 설명하기 위한 시스템 흐름도이다.20 is a system flowchart for explaining an operation of acquiring second characteristic information of a second device according to another embodiment of the present disclosure.

도 20을 참조하면, 제1 기기(200)는 제1 컨텐츠를 저장할 수 있다 (S2005). 그리고, 제1 기기(200)는 제2 기기(300)에 제1 컨텐츠를 전송할 수 있다 (S2010). 그리고, 제1 기기(200)는 전자 장치(100)에 제1 컨텐츠를 전송할 수 있다 (S2015).Referring to FIG. 20 , the first device 200 may store the first content (S2005). Then, the first device 200 may transmit the first content to the second device 300 (S2010). Then, the first device 200 may transmit the first content to the electronic device 100 (S2015).

여기서, 전자 장치(100)는 제1 기기(200)로부터 수신된 제1 컨텐츠에 기초하여 제1 컨텐츠의 제1 오디오 데이터를 제1 특징 정보로서 획득할 수 있다 (S2020).Here, the electronic device 100 may acquire the first audio data of the first content as the first characteristic information based on the first content received from the first device 200 ( S2020 ).

한편, 제2 기기(300)는 제1 기기(200)로부터 수신된 제1 컨텐츠에 기초하여 제1 컨텐츠의 제2 오디오 데이터를 획득할 수 있다 (S2025). 그리고, 제2 기기(300)는 제1 컨텐츠와 관련된 제2 컨텐츠를 생성할 수 있다 (S2030). 그리고, 제2 기기(300)는 제1 컨텐츠의 제2 오디오 데이터 및 제2 컨텐츠를 매칭하여 제2 특징 정보를 획득할 수 있다 (S2035). 그리고, 제2 기기(300)는 제2 특징 정보 및 제2 컨텐츠를 전자 장치(100)에 전송할 수 있다 (S2040).Meanwhile, the second device 300 may acquire second audio data of the first content based on the first content received from the first device 200 ( S2025 ). Then, the second device 300 may generate second content related to the first content (S2030). Then, the second device 300 may obtain the second characteristic information by matching the second audio data of the first content and the second content ( S2035 ). Then, the second device 300 may transmit the second characteristic information and the second content to the electronic device 100 (S2040).

전자 장치(100)는 S2020 단계를 통해 획득한 제1 특징 정보 및 S2040 단계를 통해 획득한 제2 특징 정보에 기초하여 제1 컨텐츠 및 제2 컨텐츠의 재생 시점을 동기화 할 수 있다 (S2045). 그리고, 전자 장치(100)는 제1 컨텐츠 및 제2 컨텐츠를 표시할 수 있다 (S2050).The electronic device 100 may synchronize the playback timing of the first content and the second content based on the first characteristic information acquired in step S2020 and the second characteristic information acquired in step S2040 ( S2045 ). Then, the electronic device 100 may display the first content and the second content (S2050).

도 21은 본 개시의 다른 실시 예에 따라, 제1 특징 정보 및 제2 특징 정보를 비교하여 재생 시점을 식별하는 동작을 설명하기 위한 도면이다.21 is a diagram for explaining an operation of identifying a reproduction time point by comparing first characteristic information and second characteristic information, according to another embodiment of the present disclosure.

도 21을 참조하면, 표(2105)는 전자 장치(100)에서 획득한 제1 특징 정보 및 제2 기기(300)로부터 수신된 제2 특징 정보를 포함할 수 있다. 여기서, 제1 특징 정보 및 제2 특징 정보는 오디오 데이터에 대응되는 값을 포함할 수 있다. 여기서, 오디오 데이터에 대응되는 값은 소리 크기값을 의미할 수 있다. 제1 특징 정보에 포함된 제1 컨텐츠의 프레임 단위(예를 들어, 1초)의 소리 크기값이 20dB, 30dB, 40dB, 50dB, 60dB이라고 가정한다. 그리고, 제2 특징 정보에 포함된 제1 컨텐츠의 프레임 단위(예를 들어, 1초)의 소리 크기값이 10dB, 20dB, 30dB, 40dB, 50dB 이라고 가정한다. 여기서, 제2 특징 정보는 제1 컨텐츠에 기초하여 획득된 정보이지만, 제2 컨텐츠의 재생 시점을 대표하는 정보일 수 있다. 제2 특징 정보는 제2 컨텐츠를 생성하는 제2 기기(300)에 의해 획득된 정보이며, 제2 특징 정보에는 제2 컨텐츠의 재생 시점과 관련된 정보가 포함될 수 있다.Referring to FIG. 21 , a table 2105 may include first characteristic information obtained from the electronic device 100 and second characteristic information received from the second device 300 . Here, the first characteristic information and the second characteristic information may include values corresponding to audio data. Here, the value corresponding to the audio data may mean a sound level value. It is assumed that the sound level values of the frame unit (eg, 1 second) of the first content included in the first characteristic information are 20 dB, 30 dB, 40 dB, 50 dB, and 60 dB. In addition, it is assumed that the sound level values of the frame unit (eg, 1 second) of the first content included in the second characteristic information are 10 dB, 20 dB, 30 dB, 40 dB, and 50 dB. Here, the second characteristic information is information obtained based on the first content, but may be information representing a reproduction time of the second content. The second characteristic information is information obtained by the second device 300 that generates the second content, and the second characteristic information may include information related to a reproduction time of the second content.

구체적으로, 제1 특징 정보는 제1 컨텐츠에 대응되는 제1 데이터(소리 크기값)을 포함할 수 있다. 그리고, 제2 특징 정보는 제1 컨텐츠에 대응되는 제2 데이터(소리 크기값) 및 제2 데이터에 대응되는 제2 컨텐츠의 프레임 정보를 포함할 수 있다. 제2 기기(300)는 제2 컨텐츠의 프레임 각각과 제1 컨텐츠의 소리 크기값을 매칭시켜 제2 특징 정보를 획득할 수 있다.Specifically, the first characteristic information may include first data (a sound volume value) corresponding to the first content. In addition, the second characteristic information may include second data (a loudness value) corresponding to the first content and frame information of the second content corresponding to the second data. The second device 300 may obtain the second characteristic information by matching each frame of the second content with the loudness value of the first content.

예를 들어, 제2 데이터가 이미지 데이터의 소리 크기값이고, 10dB, 20dB, 30dB, 40dB, 50dB라고 가정한다. 여기서, 제2 기기(300)는 10dB에 대응되는 제1 컨텐츠의 프레임이 제공되는 동안 제2 컨텐츠의 #01프레임을 생성하고, 20dB에 대응되는 제1 컨텐츠의 프레임이 제공되는 동안 제2 컨텐츠의 #02프레임을 생성하고, 30dB에 대응되는 제1 컨텐츠의 프레임이 제공되는 동안 제2 컨텐츠의 #03프레임을 생성하고, 40dB에 대응되는 제1 컨텐츠의 프레임이 제공되는 동안 제2 컨텐츠의 #04프레임을 생성하고, 50dB에 대응되는 제1 컨텐츠의 프레임이 제공되는 동안 제2 컨텐츠의 #05프레임을 생성할 수 있다.For example, it is assumed that the second data is a sound level value of image data and is 10dB, 20dB, 30dB, 40dB, or 50dB. Here, the second device 300 generates frame #01 of the second content while the frame of the first content corresponding to 10 dB is provided, and generates the frame #01 of the second content while the frame of the first content corresponding to 20 dB is provided. Frame #02 is generated, frame #03 of the second content is generated while the frame of the first content corresponding to 30dB is provided, and frame #04 of the second content is provided while the frame of the first content corresponding to 40dB is provided. A frame may be generated, and frame #05 of the second content may be generated while the frame of the first content corresponding to 50 dB is provided.

전자 장치(100)가 획득한 제1 특징 정보 및 제2 특징 정보는 모두 제1 컨텐츠에 관한 것이지만, 특징 정보를 추출한 주체가 다를 수 있다. 주체가 다르더라도, 동일한 추출 방법을 이용하는 경우, 동일한 특징 정보가 추출될 수 있다. 다만, 딜레이 발생에 의하여 일부 싱크가 맞지 않을 수 있다.Although both the first characteristic information and the second characteristic information obtained by the electronic device 100 relate to the first content, the subject from which the characteristic information is extracted may be different. Even if the subject is different, the same feature information may be extracted when the same extraction method is used. However, some syncs may not match due to the occurrence of a delay.

전자 장치(100)는 제1 특징 정보 및 제2 특징 정보를 비교함으로써 싱크를 맞출 수 있다. 표(2105)를 참조하면, 전자 장치(100)는 제1 특징 정보 및 제2 특징 정보에 기초하여 소리 크기값의 변화 패턴을 획득할 수 있고, 획득된 소리 크기값의 변화 패턴에 기초하여 제1 컨텐츠 및 제2 컨텐츠의 재생 시점 차이를 식별할 수 있다. 전자 장치(100)는 표(2105)에 기초하여 제1 컨텐츠가 제2 컨텐츠보다 1초 빠르게 재생됨을 식별할 수 있다.The electronic device 100 may synchronize by comparing the first characteristic information and the second characteristic information. Referring to table 2105 , the electronic device 100 may obtain a change pattern of a sound level value based on the first characteristic information and the second characteristic information, and based on the obtained change pattern of the sound level value, the electronic device 100 may It is possible to identify a difference between the playback timings of the first content and the second content. The electronic device 100 may identify that the first content is reproduced 1 second faster than the second content based on the table 2105 .

도 22는 본 개시의 또 다른 실시 예에 따라, 제1 특징 정보 및 제2 특징 정보를 비교하여 재생 시점을 식별하는 동작을 설명하기 위한 도면이다.22 is a diagram for explaining an operation of identifying a reproduction time point by comparing first characteristic information and second characteristic information, according to another embodiment of the present disclosure;

도 22를 참조하면, 그래프(2201)는 제1 특징 정보에 포함된 제1 컨텐츠의 소리 파형일 수 있다. 그리고 그래프(2202)는 제2 특징 정보에 포함된 제1 컨텐츠의 소리 파형일 수 있다.Referring to FIG. 22 , a graph 2201 may be a sound waveform of the first content included in the first characteristic information. The graph 2202 may be a sound waveform of the first content included in the second characteristic information.

전자 장치(100)는 제1 특징 정보 및 제2 특징 정보에 기초하여 제1 컨텐츠의 제2 컨텐츠의 재생 시점 차이를 식별할 수 있다. 그래프(2201) 및 그래프(2202)에 기초하여 전체적인 파형이 그래프(2201)가 빠름을 식별할 수 있다. 따라서, 전자 장치(100)는 제1 컨텐츠가 제2 컨텐츠보다 재생 시점이 1초 빠르게 재생되고 있음을 식별할 수 있다.The electronic device 100 may identify a difference in reproduction timing between the first content and the second content based on the first feature information and the second feature information. Based on the graph 2201 and the graph 2202, the overall waveform may identify that the graph 2201 is fast. Accordingly, the electronic device 100 may identify that the first content is being reproduced 1 second earlier than the second content.

도 23은 본 개시의 일 실시 예에 따른 전자 장치의 제어 방법을 설명하기 위한 흐름도이다.23 is a flowchart illustrating a method of controlling an electronic device according to an embodiment of the present disclosure.

도 23을 참조하면, 전자 장치(100)의 제어 방법은 제1 기기(200)로부터 제1 컨텐츠가 수신되면, 제1 컨텐츠에 대응되는 제1 특징 정보를 획득하는 단계 (S2305), 제2 기기(300)로부터 제1 컨텐츠에 대응되는 제2 특징 정보 및 제2 컨텐츠가 수신되면, 제1 특징 정보 및 제2 특징 정보에 기초하여 제1 컨텐츠 및 제2 컨텐츠의 재생 시점을 동기화하는 단계 (S2310) 및 재생 시점이 동기화된 제1 컨텐츠 및 동기화된 제2 컨텐츠를 표시하는 단계 (S2315)를 포함한다.Referring to FIG. 23 , in the method of controlling the electronic device 100 , when the first content is received from the first device 200 , obtaining first characteristic information corresponding to the first content ( S2305 ), the second device When the second characteristic information and the second content corresponding to the first content are received from the 300 , the step of synchronizing the reproduction timing of the first content and the second content based on the first characteristic information and the second characteristic information ( S2310 ) ) and displaying the synchronized first content and the synchronized second content (S2315).

한편, 제어 방법은 제1 컨텐츠를 전자 장치(100)의 디스플레이(120)의 제1 영역에 표시하는 단계, 제2 컨텐츠를 디스플레이(120)의 제2 영역에 표시하는 단계를 더 포함할 수 있고, 재생 시점을 동기화하는 단계 (S2310)는 표시된 제1 컨텐츠에 대응되는 제1 특징 정보 및 표시된 제2 컨텐츠에 대응되는 제2 특징 정보에 기초하여 제1 컨텐츠 및 제2 컨텐츠의 재생 시점을 동기화할 수 있다.Meanwhile, the control method may further include displaying the first content on the first area of the display 120 of the electronic device 100 and displaying the second content on the second area of the display 120 , , the step of synchronizing the playback time (S2310) is to synchronize the playback timing of the first content and the second content based on the first characteristic information corresponding to the displayed first content and the second characteristic information corresponding to the displayed second content. can

한편, 제1 특징 정보는 전자 장치(100)에서 획득된 제1 컨텐츠의 제1 이미지 데이터 또는 제1 컨텐츠의 제1 오디오 데이터 중 적어도 하나를 포함할 수 있고, 제2 특징 정보는 제2 기기(300)에서 획득된 제1 컨텐츠의 제2 이미지 데이터 또는 제1 컨텐츠의 제2 오디오 데이터 중 적어도 하나를 포함할 수 있다.Meanwhile, the first characteristic information may include at least one of first image data of the first content obtained by the electronic device 100 or first audio data of the first content, and the second characteristic information may include the second device ( 300) may include at least one of the second image data of the first content and the second audio data of the first content.

한편, 재생 시점을 동기화하는 단계 (S2310)는 제1 특징 정보 및 제2 특징 정보가 일치하지 않으면, 제1 컨텐츠 및 제2 컨텐츠의 재생 시점을 동기화할 수 있다.Meanwhile, in the step of synchronizing the playback timing ( S2310 ), when the first characteristic information and the second characteristic information do not match, the playback timing of the first content and the second content may be synchronized.

한편, 재생 시점을 동기화하는 단계 (S2310)는 제1 특징 정보 및 제2 특징 정보가 일치하지 않으면, 제1 컨텐츠 또는 제2 컨텐츠 중 하나의 컨텐츠의 재생 설정을 변경할 수 있다.Meanwhile, in the step of synchronizing the playback time ( S2310 ), if the first characteristic information and the second characteristic information do not match, the playback setting of one of the first content and the second content may be changed.

한편, 재생 시점을 동기화하는 단계 (S2310)는 컨텐츠의 재생을 일시 정지, 컨텐츠의 재생 속도를 감소 또는 컨텐츠의 재생 속도를 증가시킴으로써 제1 컨텐츠 또는 제2 컨텐츠 중 하나의 컨텐츠의 재생 설정을 변경할 수 있다.Meanwhile, in the step of synchronizing the playback time ( S2310 ), the playback setting of one of the first content or the second content may be changed by pausing the playback of the content, decreasing the playback speed of the content, or increasing the playback speed of the content. have.

한편, 재생 시점을 동기화하는 단계 (S2310)는 제1 특징 정보 및 제2 특징 정보에 기초하여 제1 컨텐츠 및 제2 컨텐츠 중 더 빠른 재생 시점을 갖는 컨텐츠를 식별할 수 있고, 식별된 컨텐츠의 재생 설정을 변경할 수 있다.Meanwhile, in the step of synchronizing the playback timing ( S2310 ), it is possible to identify a content having a faster playback timing from among the first content and the second content based on the first characteristic information and the second characteristic information, and to reproduce the identified content. You can change the settings.

한편, 재생 시점을 동기화하는 단계 (S2310)는 식별된 컨텐츠를 메모리(140)에 저장할 수 있고, 식별된 컨텐츠의 재생을 일시 정지하거나 식별된 컨텐츠의 재생 속도를 감소시킴으로써 식별된 컨텐츠의 재생 설정을 변경할 수 있다.On the other hand, in the step of synchronizing the playback time (S2310), the identified content may be stored in the memory 140, and the playback setting of the identified content may be set by pausing the playback of the identified content or reducing the playback speed of the identified content. can be changed

한편, 재생 시점을 동기화하는 단계 (S2310)는 식별된 컨텐츠와 다른 컨텐츠의 재생 속도를 유지할 수 있다.Meanwhile, in the step of synchronizing the playback time ( S2310 ), the playback speed of the identified content and other content may be maintained.

한편, 제1 컨텐츠에 대응되는 컨텐츠를 제공하는 적어도 하나의 기기를 포함하는 UI(User Interface)를 표시하는 단계 및 UI를 통해 제2 기기(300)를 선택하기 위한 사용자 입력이 수신되면, 제2 특징 정보 및 제2 컨텐츠를 요청하는 제어 신호를 제2 기기(300)에 전송하는 단계를 더 포함할 수 있다.On the other hand, when a user input for selecting the second device 300 is received through the step of displaying a UI (User Interface) including at least one device providing content corresponding to the first content, and the second device 300 is received, the second The method may further include transmitting a control signal requesting the feature information and the second content to the second device 300 .

한편, 도 23과 같은 전자 장치의 제어 방법은 도 4 또는 도 5의 구성을 가지는 전자 장치 상에서 실행될 수 있으며, 그 밖의 구성을 가지는 전자 장치 상에서도 실행될 수 있다.Meanwhile, the method of controlling the electronic device shown in FIG. 23 may be executed on the electronic device having the configuration of FIG. 4 or FIG. 5 , and may also be executed on the electronic device having other configurations.

한편, 상술한 본 개시의 다양한 실시 예들에 따른 방법들은, 기존 전자 장치에 설치 가능한 어플리케이션 형태로 구현될 수 있다.Meanwhile, the above-described methods according to various embodiments of the present disclosure may be implemented in the form of an application that can be installed in an existing electronic device.

또한, 상술한 본 개시의 다양한 실시 예들에 따른 방법들은, 기존 전자 장치에 대한 소프트웨어 업그레이드, 또는 하드웨어 업그레이드 만으로도 구현될 수 있다.In addition, the above-described methods according to various embodiments of the present disclosure may be implemented only by software upgrade or hardware upgrade of an existing electronic device.

또한, 상술한 본 개시의 다양한 실시 예들은 전자 장치에 구비된 임베디드 서버, 또는 전자 장치 및 디스플레이 장치 중 적어도 하나의 외부 서버를 통해 수행되는 것도 가능하다.In addition, various embodiments of the present disclosure described above may be performed through an embedded server provided in an electronic device, or an external server of at least one of an electronic device and a display device.

한편, 본 개시의 일시 예에 따르면, 이상에서 설명된 다양한 실시 예들은 기기(machine)(예: 컴퓨터)로 읽을 수 있는 저장 매체(machine-readable storage media)에 저장된 명령어를 포함하는 소프트웨어로 구현될 수 있다. 기기는, 저장 매체로부터 저장된 명령어를 호출하고, 호출된 명령어에 따라 동작이 가능한 장치로서, 개시된 실시 예들에 따른 전자 장치를 포함할 수 있다. 명령이 프로세서에 의해 실행될 경우, 프로세서가 직접, 또는 프로세서의 제어 하에 다른 구성요소들을 이용하여 명령에 해당하는 기능을 수행할 수 있다. 명령은 컴파일러 또는 인터프리터에 의해 생성 또는 실행되는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장 매체는, 비일시적(non-transitory) 저장 매체의 형태로 제공될 수 있다. 여기서, '비일시적'은 저장 매체가 신호(signal)를 포함하지 않으며 실재(tangible)한다는 것을 의미할 뿐 데이터가 저장 매체에 반영구적 또는 임시적으로 저장됨을 구분하지 않는다.Meanwhile, according to a temporary example of the present disclosure, the various embodiments described above may be implemented as software including instructions stored in a machine-readable storage media readable by a machine (eg, a computer). can The device is a device capable of calling a stored command from a storage medium and operating according to the called command, and may include the electronic device according to the disclosed embodiments. When the instruction is executed by the processor, the processor may perform a function corresponding to the instruction by using other components directly or under the control of the processor. Instructions may include code generated or executed by a compiler or interpreter. The device-readable storage medium may be provided in the form of a non-transitory storage medium. Here, 'non-transitory' means that the storage medium does not include a signal and is tangible, and does not distinguish that data is semi-permanently or temporarily stored in the storage medium.

또한, 본 개시의 일 실시 예에 따르면, 이상에서 설명된 다양한 실시 예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 온라인으로 배포될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.In addition, according to an embodiment of the present disclosure, the method according to the various embodiments described above may be provided by being included in a computer program product. Computer program products may be traded between sellers and buyers as commodities. The computer program product may be distributed in the form of a machine-readable storage medium (eg, compact disc read only memory (CD-ROM)) or online through an application store (eg, Play Store™). In the case of online distribution, at least a part of the computer program product may be temporarily stored or temporarily generated in a storage medium such as a memory of a server of a manufacturer, a server of an application store, or a relay server.

또한, 상술한 다양한 실시 예들에 따른 구성 요소(예: 모듈 또는 프로그램) 각각은 단수 또는 복수의 개체로 구성될 수 있으며, 전술한 해당 서브 구성 요소들 중 일부 서브 구성 요소가 생략되거나, 또는 다른 서브 구성 요소가 다양한 실시 예에 더 포함될 수 있다. 대체적으로 또는 추가적으로, 일부 구성 요소들(예: 모듈 또는 프로그램)은 하나의 개체로 통합되어, 통합되기 이전의 각각의 해당 구성 요소에 의해 수행되는 기능을 동일 또는 유사하게 수행할 수 있다. 다양한 실시 예들에 따른, 모듈, 프로그램 또는 다른 구성 요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱하게 실행되거나, 적어도 일부 동작이 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다.In addition, each of the components (eg, modules or programs) according to the above-described various embodiments may be composed of a single or a plurality of entities, and some sub-components of the above-described corresponding sub-components may be omitted, or other sub-components may be omitted. Components may be further included in various embodiments. Alternatively or additionally, some components (eg, a module or a program) may be integrated into a single entity to perform the same or similar functions performed by each corresponding component prior to integration. According to various embodiments, operations performed by a module, program, or other component may be sequentially, parallel, repetitively or heuristically executed, or at least some operations may be executed in a different order, omitted, or other operations may be added. can

이상에서는 본 개시의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 개시는 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 개시의 요지를 벗어남이 없이 당해 개시에 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형 실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 개시의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.In the above, preferred embodiments of the present disclosure have been illustrated and described, but the present disclosure is not limited to the specific embodiments described above, and it is common in the technical field pertaining to the present disclosure without departing from the gist of the present disclosure as claimed in the claims. Various modifications may be made by those having the knowledge of

100: 전자 장치
110: 통신 인터페이스
120: 디스플레이
130: 프로세서
100: electronic device
110: communication interface
120: display
130: processor

Claims (20)

전자 장치에 있어서,
통신 인터페이스;
디스플레이; 및
상기 통신 인터페이스를 통해 제1 기기로부터 제1 컨텐츠가 수신되면, 상기 제1 컨텐츠에 대응되는 제1 특징 정보를 획득하고,
상기 통신 인터페이스를 통해 제2 기기로부터 상기 제1 컨텐츠에 대응되는 제2 특징 정보 및 제2 컨텐츠가 수신되면, 상기 제1 특징 정보 및 상기 제2 특징 정보에 기초하여 상기 제1 컨텐츠 및 상기 제2 컨텐츠의 재생 시점을 동기화하고,
상기 재생 시점이 동기화된 상기 제1 컨텐츠 및 상기 제2 컨텐츠를 표시하도록 상기 디스플레이를 제어하는 프로세서;를 포함하는, 전자 장치.
In an electronic device,
communication interface;
display; and
When the first content is received from the first device through the communication interface, acquiring first characteristic information corresponding to the first content,
When second characteristic information and second content corresponding to the first content are received from a second device through the communication interface, the first content and the second content are based on the first characteristic information and the second characteristic information Synchronize the playback time of content,
The electronic device including a;
제1항에 있어서,
상기 프로세서는,
상기 제1 컨텐츠를 상기 디스플레이의 제1 영역에 표시하도록 상기 디스플레이를 제어하고,
상기 제2 컨텐츠를 상기 디스플레이의 제2 영역에 표시하도록 상기 디스플레이를 제어하고,
상기 표시된 제1 컨텐츠에 대응되는 제1 특징 정보 및 상기 표시된 제2 컨텐츠에 대응되는 제2 특징 정보에 기초하여 상기 제1 컨텐츠 및 상기 제2 컨텐츠의 재생 시점을 동기화하는, 전자 장치.
According to claim 1,
The processor is
controlling the display to display the first content on a first area of the display;
controlling the display to display the second content on a second area of the display;
An electronic device for synchronizing the reproduction timing of the first content and the second content based on first characteristic information corresponding to the displayed first content and second characteristic information corresponding to the displayed second content.
제1항에 있어서,
상기 제1 특징 정보는,
상기 전자 장치에서 획득된 상기 제1 컨텐츠의 제1 이미지 데이터 또는 상기 제1 컨텐츠의 제1 오디오 데이터 중 적어도 하나를 포함하고,
상기 제2 특징 정보는,
상기 제2 기기에서 획득된 상기 제1 컨텐츠의 제2 이미지 데이터 또는 상기 제1 컨텐츠의 제2 오디오 데이터 중 적어도 하나를 포함하는, 전자 장치.
According to claim 1,
The first characteristic information is
and at least one of first image data of the first content acquired by the electronic device and first audio data of the first content,
The second characteristic information,
The electronic device comprising at least one of second image data of the first content and second audio data of the first content acquired by the second device.
제1항에 있어서,
상기 프로세서는,
상기 제1 특징 정보 및 상기 제2 특징 정보가 일치하지 않으면, 상기 제1 컨텐츠 및 상기 제2 컨텐츠의 재생 시점을 동기화하는, 전자 장치.
According to claim 1,
The processor is
When the first characteristic information and the second characteristic information do not match, the electronic device synchronizes playback times of the first content and the second content.
제2항에 있어서,
상기 프로세서는,
상기 제1 특징 정보 및 상기 제2 특징 정보가 일치하지 않으면, 상기 제1 컨텐츠 또는 상기 제2 컨텐츠 중 하나의 컨텐츠의 재생 설정을 변경하는, 전자 장치.
3. The method of claim 2,
The processor is
If the first characteristic information and the second characteristic information do not match, change a reproduction setting of one of the first content and the second content.
제5항에 있어서,
상기 프로세서는,
컨텐츠의 재생을 일시 정지, 컨텐츠의 재생 속도를 감소 또는 컨텐츠의 재생 속도를 증가시킴으로써 상기 제1 컨텐츠 또는 상기 제2 컨텐츠 중 하나의 컨텐츠의 재생 설정을 변경하는, 전자 장치.
6. The method of claim 5,
The processor is
An electronic device for changing a playback setting of one of the first content and the second content by pausing the playback of the content, decreasing the playback speed of the content, or increasing the playback speed of the content.
제5항에 있어서,
상기 프로세서는,
상기 제1 특징 정보 및 상기 제2 특징 정보에 기초하여 상기 제1 컨텐츠 및 상기 제2 컨텐츠 중 더 빠른 재생 시점을 갖는 컨텐츠를 식별하고,
상기 식별된 컨텐츠의 재생 설정을 변경하는, 전자 장치.
6. The method of claim 5,
The processor is
Identifying a content having a faster playback time from among the first content and the second content based on the first characteristic information and the second characteristic information,
An electronic device for changing a reproduction setting of the identified content.
제7항에 있어서,
메모리;를 더 포함하고,
상기 프로세서는,
상기 식별된 컨텐츠를 상기 메모리에 저장하고,
상기 식별된 컨텐츠의 재생을 일시 정지하거나 상기 식별된 컨텐츠의 재생 속도를 감소시킴으로써 상기 식별된 컨텐츠의 재생 설정을 변경하는, 전자 장치.
8. The method of claim 7,
memory; further comprising
The processor is
storing the identified content in the memory;
and changing a playback setting of the identified content by pausing the playback of the identified content or decreasing a playback speed of the identified content.
제8항에 있어서,
상기 프로세서는,
상기 식별된 컨텐츠와 다른 컨텐츠의 재생 속도를 유지하는, 전자 장치.
9. The method of claim 8,
The processor is
An electronic device that maintains a playback speed of content different from the identified content.
제1항에 있어서,
상기 프로세서는,
상기 제1 컨텐츠에 대응되는 컨텐츠를 제공하는 적어도 하나의 기기를 포함하는 UI(User Interface)를 표시하도록 상기 디스플레이를 제어하고,
상기 UI를 통해 상기 제2 기기를 선택하기 위한 사용자 입력이 수신되면, 상기 제2 특징 정보 및 상기 제2 컨텐츠를 요청하는 제어 신호를 상기 제2 기기에 전송하도록 상기 통신 인터페이스를 제어하는, 전자 장치.
According to claim 1,
The processor is
controlling the display to display a UI (User Interface) including at least one device that provides content corresponding to the first content;
When a user input for selecting the second device is received through the UI, the electronic device controls the communication interface to transmit a control signal for requesting the second characteristic information and the second content to the second device. .
전자 장치의 제어 방법에 있어서,
제1 기기로부터 제1 컨텐츠가 수신되면, 상기 제1 컨텐츠에 대응되는 제1 특징 정보를 획득하는 단계;
제2 기기로부터 상기 제1 컨텐츠에 대응되는 제2 특징 정보 및 제2 컨텐츠가 수신되면, 상기 제1 특징 정보 및 상기 제2 특징 정보에 기초하여 상기 제1 컨텐츠 및 상기 제2 컨텐츠의 재생 시점을 동기화하는 단계; 및
상기 재생 시점이 동기화된 상기 제1 컨텐츠 및 상기 제2 컨텐츠를 표시하는 단계;를 포함하는, 제어 방법.
A method for controlling an electronic device, comprising:
when the first content is received from the first device, obtaining first characteristic information corresponding to the first content;
When the second characteristic information and the second content corresponding to the first content are received from the second device, the playback time of the first content and the second content is determined based on the first characteristic information and the second characteristic information. synchronizing; and
Displaying the first content and the second content in which the playback time is synchronized; including, a control method.
제11항에 있어서,
상기 제1 컨텐츠를 상기 전자 장치의 디스플레이의 제1 영역에 표시하는 단계;
상기 제2 컨텐츠를 상기 디스플레이의 제2 영역에 표시하는 단계; 를 더 포함하고,
상기 재생 시점을 동기화하는 단계는,
상기 표시된 제1 컨텐츠에 대응되는 제1 특징 정보 및 상기 표시된 제2 컨텐츠에 대응되는 제2 특징 정보에 기초하여 상기 제1 컨텐츠 및 상기 제2 컨텐츠의 재생 시점을 동기화하는, 제어 방법.
12. The method of claim 11,
displaying the first content on a first area of a display of the electronic device;
displaying the second content on a second area of the display; further comprising,
The step of synchronizing the playback time includes:
A control method for synchronizing reproduction times of the first content and the second content based on first characteristic information corresponding to the displayed first content and second characteristic information corresponding to the displayed second content.
제11항에 있어서,
상기 제1 특징 정보는,
상기 전자 장치에서 획득된 상기 제1 컨텐츠의 제1 이미지 데이터 또는 상기 제1 컨텐츠의 제1 오디오 데이터 중 적어도 하나를 포함하고,
상기 제2 특징 정보는,
상기 제2 기기에서 획득된 상기 제1 컨텐츠의 제2 이미지 데이터 또는 상기 제1 컨텐츠의 제2 오디오 데이터 중 적어도 하나를 포함하는, 제어 방법.
12. The method of claim 11,
The first characteristic information is
and at least one of first image data of the first content acquired by the electronic device and first audio data of the first content,
The second characteristic information,
A control method comprising at least one of second image data of the first content and second audio data of the first content obtained by the second device.
제11항에 있어서,
상기 재생 시점을 동기화하는 단계는,
상기 제1 특징 정보 및 상기 제2 특징 정보가 일치하지 않으면, 상기 제1 컨텐츠 및 상기 제2 컨텐츠의 재생 시점을 동기화하는, 제어 방법.
12. The method of claim 11,
The step of synchronizing the playback time includes:
When the first characteristic information and the second characteristic information do not match, the playback time of the first content and the second content is synchronized.
제12항에 있어서,
상기 재생 시점을 동기화하는 단계는,
상기 제1 특징 정보 및 상기 제2 특징 정보가 일치하지 않으면, 상기 제1 컨텐츠 또는 상기 제2 컨텐츠 중 하나의 컨텐츠의 재생 설정을 변경하는, 제어 방법.
13. The method of claim 12,
The step of synchronizing the playback time includes:
If the first characteristic information and the second characteristic information do not match, changing a reproduction setting of one of the first content and the second content.
제15항에 있어서,
상기 재생 시점을 동기화하는 단계는,
컨텐츠의 재생을 일시 정지, 컨텐츠의 재생 속도를 감소 또는 컨텐츠의 재생 속도를 증가시킴으로써 상기 제1 컨텐츠 또는 상기 제2 컨텐츠 중 하나의 컨텐츠의 재생 설정을 변경하는, 제어 방법.
16. The method of claim 15,
The step of synchronizing the playback time includes:
A control method for changing a playback setting of one of the first content and the second content by pausing the playback of the content, decreasing the playback speed of the content, or increasing the playback speed of the content.
제15항에 있어서,
상기 재생 시점을 동기화하는 단계는,
상기 제1 특징 정보 및 상기 제2 특징 정보에 기초하여 상기 제1 컨텐츠 및 상기 제2 컨텐츠 중 더 빠른 재생 시점을 갖는 컨텐츠를 식별하고,
상기 식별된 컨텐츠의 재생 설정을 변경하는, 제어 방법.
16. The method of claim 15,
The step of synchronizing the playback time includes:
Identifying a content having a faster playback time from among the first content and the second content based on the first characteristic information and the second characteristic information,
A control method for changing a reproduction setting of the identified content.
제17항에 있어서,
상기 재생 시점을 동기화하는 단계는,
상기 식별된 컨텐츠를 메모리에 저장하고,
상기 식별된 컨텐츠의 재생을 일시 정지하거나 상기 식별된 컨텐츠의 재생 속도를 감소시킴으로써 상기 식별된 컨텐츠의 재생 설정을 변경하는, 제어 방법.
18. The method of claim 17,
The step of synchronizing the playback time includes:
storing the identified content in a memory;
The control method of changing the playback setting of the identified content by pausing the playback of the identified content or reducing the playback speed of the identified content.
제18항에 있어서,
상기 재생 시점을 동기화하는 단계는,
상기 식별된 컨텐츠와 다른 컨텐츠의 재생 속도를 유지하는, 제어 방법.
19. The method of claim 18,
The step of synchronizing the playback time includes:
A control method for maintaining a playback speed of content different from the identified content.
제11항에 있어서,
상기 제1 컨텐츠에 대응되는 컨텐츠를 제공하는 적어도 하나의 기기를 포함하는 UI(User Interface)를 표시하는 단계; 및
상기 UI를 통해 상기 제2 기기를 선택하기 위한 사용자 입력이 수신되면, 상기 제2 특징 정보 및 상기 제2 컨텐츠를 요청하는 제어 신호를 상기 제2 기기에 전송하는 단계;를 더 포함하는, 제어 방법.
12. The method of claim 11,
displaying a user interface (UI) including at least one device providing content corresponding to the first content; and
When a user input for selecting the second device is received through the UI, transmitting a control signal for requesting the second characteristic information and the second content to the second device; .
KR1020210014953A 2021-02-02 2021-02-02 Electronic apparatus and controlling method thereof KR20220111552A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020210014953A KR20220111552A (en) 2021-02-02 2021-02-02 Electronic apparatus and controlling method thereof
PCT/KR2022/000135 WO2022169116A1 (en) 2021-02-02 2022-01-05 Electronic device and control method therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210014953A KR20220111552A (en) 2021-02-02 2021-02-02 Electronic apparatus and controlling method thereof

Publications (1)

Publication Number Publication Date
KR20220111552A true KR20220111552A (en) 2022-08-09

Family

ID=82742253

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210014953A KR20220111552A (en) 2021-02-02 2021-02-02 Electronic apparatus and controlling method thereof

Country Status (2)

Country Link
KR (1) KR20220111552A (en)
WO (1) WO2022169116A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102624659B1 (en) * 2023-06-01 2024-01-15 주식회사 스크리나 Method for adjusting sync of content by referring to environment information of personal broadcasting and server using the same
KR102636562B1 (en) * 2023-12-01 2024-02-14 주식회사라이브아레나 Device for providing content through spherical display

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101279848B1 (en) * 2011-06-27 2013-06-28 인피언컨설팅 주식회사 Method for merging broadcating contents with related news contents using smart device
KR101967818B1 (en) * 2011-08-12 2019-04-10 삼성전자주식회사 Receiver and the receiving method thereof
KR101885215B1 (en) * 2011-12-30 2018-08-06 삼성전자주식회사 Display apparatus and display method using the same
JP6349977B2 (en) * 2013-10-21 2018-07-04 ソニー株式会社 Information processing apparatus and method, and program
RU2673560C1 (en) * 2016-10-31 2018-11-28 Бейджин Сяоми Мобайл Софтвеа Ко., Лтд. Method and system for displaying multimedia information, standardized server and direct broadcast terminal

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102624659B1 (en) * 2023-06-01 2024-01-15 주식회사 스크리나 Method for adjusting sync of content by referring to environment information of personal broadcasting and server using the same
KR102636562B1 (en) * 2023-12-01 2024-02-14 주식회사라이브아레나 Device for providing content through spherical display

Also Published As

Publication number Publication date
WO2022169116A1 (en) 2022-08-11

Similar Documents

Publication Publication Date Title
US10992451B2 (en) Audio and video playback system and method for playing audio data applied thereto
KR20220111552A (en) Electronic apparatus and controlling method thereof
KR20200063777A (en) Display apparatus and controlling method thereof
EP3169075A1 (en) Audio and video playback device
US20170195614A1 (en) Method and electronic device for playing video
US9996893B2 (en) Display apparatus constituting multi display system and control method thereof
KR102646030B1 (en) Image providing apparatus, controlling method thereof and image providing system
WO2017101361A1 (en) Audio playback control device, video display device and audio and video playback system
WO2020038344A1 (en) Method and device for audio and video synchronization, and display apparatus
US11412341B2 (en) Electronic apparatus and controlling method thereof
US8681205B2 (en) Systems and methods for controlling a three dimensional (3D) compatible viewing device
JP2015088203A (en) Content creation method, content creation device, and content creation program
KR102553250B1 (en) Electronic apparatus, method for controlling thereof and the computer readable recording medium
US11758204B2 (en) Electronic device and control method therefor
KR20160093404A (en) Method and Apparatus for Multimedia Contents Service with Character Selective Audio Zoom In
US20210019113A1 (en) Display apparatus and controlling method thereof
US11259080B2 (en) Sensing based audio signal injection
KR102118523B1 (en) Electronic apparatus and controlling method thereof
US10477269B2 (en) Transmission apparatus, transmission method, reception apparatus, and reception method
US20210044875A1 (en) Electronic device and control method therefor
JPWO2016163329A1 (en) Transmitting apparatus, transmitting method, receiving apparatus, and receiving method
KR102659863B1 (en) Electronic apparatus and controlling method thereof
US11545158B2 (en) Electronic apparatus, method for controlling mobile apparatus by electronic apparatus and computer readable recording medium
WO2023160100A1 (en) Display device, external device, and audio playing and sound effect processing method
EP4117297A1 (en) Electronic apparatus and controlling method therefor