KR20220111552A - Electronic apparatus and controlling method thereof - Google Patents
Electronic apparatus and controlling method thereof Download PDFInfo
- Publication number
- KR20220111552A KR20220111552A KR1020210014953A KR20210014953A KR20220111552A KR 20220111552 A KR20220111552 A KR 20220111552A KR 1020210014953 A KR1020210014953 A KR 1020210014953A KR 20210014953 A KR20210014953 A KR 20210014953A KR 20220111552 A KR20220111552 A KR 20220111552A
- Authority
- KR
- South Korea
- Prior art keywords
- content
- characteristic information
- electronic device
- playback
- display
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/4302—Content synchronisation processes, e.g. decoder synchronisation
- H04N21/4307—Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
- H04N21/43072—Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of multiple content streams on the same device
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/431—Generation of visual interfaces for content selection or interaction; Content or additional data rendering
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/431—Generation of visual interfaces for content selection or interaction; Content or additional data rendering
- H04N21/4312—Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
- H04N21/4316—Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for displaying supplemental content in a region of the screen, e.g. an advertisement in a separate window
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/472—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/472—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
- H04N21/47202—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for requesting content on demand, e.g. video on demand
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/485—End-user interface for client configuration
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/83—Generation or processing of protective or descriptive data associated with content; Content structuring
- H04N21/845—Structuring of content, e.g. decomposing content into time segments
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/83—Generation or processing of protective or descriptive data associated with content; Content structuring
- H04N21/845—Structuring of content, e.g. decomposing content into time segments
- H04N21/8455—Structuring of content, e.g. decomposing content into time segments involving pointers to the content, e.g. pointers to the I-frames of the video stream
Abstract
Description
본 개시는 전자 장치 및 그 제어방법에 관한 것으로, 더욱 상세하게는 서로 다른 소스의 컨텐츠를 동시에 표시하는 전자 장치 및 그 제어방법에 대한 것이다.The present disclosure relates to an electronic device and a method for controlling the same, and more particularly, to an electronic device for simultaneously displaying contents from different sources and a method for controlling the same.
방송사는 저작권 컨텐츠(예를 들어, 축구 경기)를 권한 있는 시청자들에게 전송하고, 시청자들은 저작권이 있는 컨텐츠를 시청할 수 있다.Broadcasters transmit copyrighted content (eg, a soccer game) to authorized viewers, who can view the copyrighted content.
1인 미디어와 같이 개인 방송을 하는 상황이 많아지면서, 개인 방송 제작자가 저작권 컨텐츠와 개인 컨텐츠를 결합하여 새로운 시청자들에게 전송하는 상황이 있을 수 있다.As the number of situations in which personal broadcasting is conducted such as one-person media increases, there may be a situation in which a personal broadcasting producer combines copyrighted content and personal content and transmits it to new viewers.
개인 방송 제작자는 저작권 컨텐츠에 자신의 개인 컨텐츠를 오버레이하여 단일 스트림으로 재가공할 수 있다. 예를 들어, 개인 방송 제작자는 기존 저작권 컨텐츠에 카메라를 통해 획득되는 이미지, 실시간 채팅 등 추가 개인 컨텐츠를 결합할 수 있다.Personal broadcast producers can overlay their own personal content on copyrighted content and reprocess it into a single stream. For example, a personal broadcast producer may combine additional personal content such as images acquired through a camera and real-time chatting with existing copyrighted content.
개인 방송 제작자가 방송사로부터 수신한 저작권 컨텐츠를 시청하는 것은 저작권을 저촉하는 것이 아니라고 하더라도, 저작권 컨텐츠를 가공하거나 재배포하는 행위는 저작권을 저촉하는 것일 수 있다.Even if a personal broadcast producer does not infringe copyright when viewing copyrighted content received from a broadcaster, processing or redistributing copyrighted content may infringe copyright.
따라서, 개인 방송 제작자는 저작권 컨텐츠를 재가공 및 재배포하는 행위를 피하기 위하여 저작권 컨텐츠를 제외하고 개인 컨텐츠만을 시청자들에게 전송할 수 있다.Accordingly, a personal broadcast producer may transmit only personal content to viewers, excluding copyright content, in order to avoid reprocessing and redistribution of copyright content.
하지만, 시청자들은 저작권 컨텐츠와 개인 컨텐츠를 함께 시청하지 못하는 불편함이 있었다.However, viewers were inconvenient in not being able to watch both copyrighted content and personal content.
본 개시는 상술한 문제를 개선하기 위해 고안된 것으로, 본 개시의 목적은 서로 다른 컨텐츠를 별도의 기기로부터 수신하고 서로 다른 컨텐츠의 재생 시점을 동기화하는 전자 장치 및 그의 제어 방법을 제공함에 있다.The present disclosure has been devised to improve the above-described problems, and an object of the present disclosure is to provide an electronic device that receives different contents from separate devices and synchronizes playback times of different contents, and a method for controlling the same.
상술한 목적을 달성하기 위한 본 실시 예에 따른 전자 장치는 통신 인터페이스, 디스플레이 및 상기 통신 인터페이스를 통해 제1 기기로부터 제1 컨텐츠가 수신되면, 상기 제1 컨텐츠에 대응되는 제1 특징 정보를 획득하고, 상기 통신 인터페이스를 통해 제2 기기로부터 상기 제1 컨텐츠에 대응되는 제2 특징 정보 및 제2 컨텐츠가 수신되면, 상기 제1 특징 정보 및 상기 제2 특징 정보에 기초하여 상기 제1 컨텐츠 및 상기 제2 컨텐츠의 재생 시점을 동기화하고, 상기 재생 시점이 동기화된 상기 제1 컨텐츠 및 상기 제2 컨텐츠를 표시하도록 상기 디스플레이를 제어하는 프로세서를 포함한다.When first content is received from a first device through a communication interface, a display, and the communication interface, the electronic device according to the present embodiment for achieving the above object obtains first characteristic information corresponding to the first content, , when second characteristic information and second content corresponding to the first content are received from a second device through the communication interface, the first content and the second content are based on the first characteristic information and the second characteristic information and a processor that synchronizes the reproduction times of the two contents, and controls the display to display the first content and the second content with which the reproduction times are synchronized.
한편, 상기 프로세서는 상기 제1 컨텐츠를 상기 디스플레이의 제1 영역에 표시하도록 상기 디스플레이를 제어할 수 있고, 상기 제2 컨텐츠를 상기 디스플레이의 제2 영역에 표시하도록 상기 디스플레이를 제어할 수 있고, 상기 표시된 제1 컨텐츠에 대응되는 제1 특징 정보 및 상기 표시된 제2 컨텐츠에 대응되는 제2 특징 정보에 기초하여 상기 제1 컨텐츠 및 상기 제2 컨텐츠의 재생 시점을 동기화할 수 있다.Meanwhile, the processor may control the display to display the first content on a first area of the display, and control the display to display the second content on a second area of the display, The reproduction timing of the first content and the second content may be synchronized based on the first characteristic information corresponding to the displayed first content and the second characteristic information corresponding to the displayed second content.
한편, 상기 제1 특징 정보는 상기 전자 장치에서 획득된 상기 제1 컨텐츠의 제1 이미지 데이터 또는 상기 제1 컨텐츠의 제1 오디오 데이터 중 적어도 하나를 포함할 수 있고, 상기 제2 특징 정보는 상기 제2 기기에서 획득된 상기 제1 컨텐츠의 제2 이미지 데이터 또는 상기 제1 컨텐츠의 제2 오디오 데이터 중 적어도 하나를 포함할 수 있다.Meanwhile, the first characteristic information may include at least one of first image data of the first content and first audio data of the first content obtained by the electronic device, and the second characteristic information may include the first image data of the first content. It may include at least one of second image data of the first content acquired by the second device or second audio data of the first content.
한편, 상기 프로세서는 상기 제1 특징 정보 및 상기 제2 특징 정보가 일치하지 않으면, 상기 제1 컨텐츠 및 상기 제2 컨텐츠의 재생 시점을 동기화할 수 있다.Meanwhile, when the first characteristic information and the second characteristic information do not match, the processor may synchronize reproduction times of the first content and the second content.
한편, 상기 프로세서는 상기 제1 특징 정보 및 상기 제2 특징 정보가 일치하지 않으면, 상기 제1 컨텐츠 또는 상기 제2 컨텐츠 중 하나의 컨텐츠의 재생 설정을 변경할 수 있다.Meanwhile, when the first characteristic information and the second characteristic information do not match, the processor may change a reproduction setting of one of the first content and the second content.
한편, 상기 프로세서는 컨텐츠의 재생을 일시 정지, 컨텐츠의 재생 속도를 감소 또는 컨텐츠의 재생 속도를 증가시킴으로써 상기 제1 컨텐츠 또는 상기 제2 컨텐츠 중 하나의 컨텐츠의 재생 설정을 변경할 수 있다.Meanwhile, the processor may change the reproduction setting of one of the first content and the second content by temporarily stopping the reproduction of the contents, decreasing the reproduction speed of the contents, or increasing the reproduction speed of the contents.
한편, 상기 프로세서는 상기 제1 특징 정보 및 상기 제2 특징 정보에 기초하여 상기 제1 컨텐츠 및 상기 제2 컨텐츠 중 더 빠른 재생 시점을 갖는 컨텐츠를 식별할 수 있고, 상기 식별된 컨텐츠의 재생 설정을 변경할 수 있다.Meanwhile, the processor may identify a content having a faster playback time from among the first content and the second content based on the first characteristic information and the second characteristic information, and set the playback setting of the identified content. can be changed
한편, 전자 장치는 메모리를 더 포함할 수 있고, 상기 프로세서는 상기 식별된 컨텐츠를 상기 메모리에 저장할 수 있고, 상기 식별된 컨텐츠의 재생을 일시 정지하거나 상기 식별된 컨텐츠의 재생 속도를 감소시킴으로써 상기 식별된 컨텐츠의 재생 설정을 변경할 수 있다.Meanwhile, the electronic device may further include a memory, and the processor may store the identified content in the memory, and pause the reproduction of the identified content or decrease the playback speed of the identified content to identify the identified content. You can change the playback settings of the contents.
한편, 상기 프로세서는 상기 식별된 컨텐츠와 다른 컨텐츠의 재생 속도를 유지할 수 있다.Meanwhile, the processor may maintain a reproduction speed of content different from the identified content.
한편, 상기 프로세서는 상기 제1 컨텐츠에 대응되는 컨텐츠를 제공하는 적어도 하나의 기기를 포함하는 UI(User Interface)를 표시하도록 상기 디스플레이를 제어할 수 있고, 상기 UI를 통해 상기 제2 기기를 선택하기 위한 사용자 입력이 수신되면, 상기 제2 특징 정보 및 상기 제2 컨텐츠를 요청하는 제어 신호를 상기 제2 기기에 전송하도록 상기 통신 인터페이스를 제어할 수 있다.Meanwhile, the processor may control the display to display a user interface (UI) including at least one device that provides content corresponding to the first content, and selects the second device through the UI. Upon receiving a user input for , the communication interface may be controlled to transmit a control signal for requesting the second characteristic information and the second content to the second device.
본 개시의 일 실시 예에 따른 전자 장치의 제어 방법은 제1 기기로부터 제1 컨텐츠가 수신되면, 상기 제1 컨텐츠에 대응되는 제1 특징 정보를 획득하는 단계, 제2 기기로부터 상기 제1 컨텐츠에 대응되는 제2 특징 정보 및 제2 컨텐츠가 수신되면, 상기 제1 특징 정보 및 상기 제2 특징 정보에 기초하여 상기 제1 컨텐츠 및 상기 제2 컨텐츠의 재생 시점을 동기화하는 단계 및 상기 재생 시점이 동기화된 상기 제1 컨텐츠 및 상기 제2 컨텐츠를 표시하는 단계를 포함한다.A method of controlling an electronic device according to an embodiment of the present disclosure includes, when first content is received from a first device, acquiring first characteristic information corresponding to the first content, and accessing the first content from a second device. When the corresponding second characteristic information and the second content are received, synchronizing the playback timings of the first content and the second content based on the first characteristic information and the second characteristic information, and synchronizing the playback timings and displaying the first content and the second content.
한편, 제어 방법은 상기 제1 컨텐츠를 상기 전자 장치의 디스플레이의 제1 영역에 표시하는 단계, 상기 제2 컨텐츠를 상기 디스플레이의 제2 영역에 표시하는 단계를 더 포함할 수 있고, 상기 재생 시점을 동기화하는 단계는 상기 표시된 제1 컨텐츠에 대응되는 제1 특징 정보 및 상기 표시된 제2 컨텐츠에 대응되는 제2 특징 정보에 기초하여 상기 제1 컨텐츠 및 상기 제2 컨텐츠의 재생 시점을 동기화할 수 있다.Meanwhile, the control method may further include displaying the first content on a first area of the display of the electronic device and displaying the second content on a second area of the display, The synchronizing may include synchronizing playback times of the first content and the second content based on first characteristic information corresponding to the displayed first content and second characteristic information corresponding to the displayed second content.
한편, 상기 제1 특징 정보는 상기 전자 장치에서 획득된 상기 제1 컨텐츠의 제1 이미지 데이터 또는 상기 제1 컨텐츠의 제1 오디오 데이터 중 적어도 하나를 포함할 수 있고, 상기 제2 특징 정보는 상기 제2 기기에서 획득된 상기 제1 컨텐츠의 제2 이미지 데이터 또는 상기 제1 컨텐츠의 제2 오디오 데이터 중 적어도 하나를 포함할 수 있다.Meanwhile, the first characteristic information may include at least one of first image data of the first content and first audio data of the first content obtained by the electronic device, and the second characteristic information may include the first image data of the first content. It may include at least one of second image data of the first content acquired by the second device or second audio data of the first content.
한편, 상기 재생 시점을 동기화하는 단계는 상기 제1 특징 정보 및 상기 제2 특징 정보가 일치하지 않으면, 상기 제1 컨텐츠 및 상기 제2 컨텐츠의 재생 시점을 동기화할 수 있다.Meanwhile, in the synchronizing of the reproduction time, when the first characteristic information and the second characteristic information do not match, the reproduction time of the first content and the second content may be synchronized.
한편, 상기 재생 시점을 동기화하는 단계는 상기 제1 특징 정보 및 상기 제2 특징 정보가 일치하지 않으면, 상기 제1 컨텐츠 또는 상기 제2 컨텐츠 중 하나의 컨텐츠의 재생 설정을 변경할 수 있다.Meanwhile, in the synchronizing of the playback time, when the first characteristic information and the second characteristic information do not match, the playback setting of one of the first content and the second content may be changed.
한편, 상기 재생 시점을 동기화하는 단계는 컨텐츠의 재생을 일시 정지, 컨텐츠의 재생 속도를 감소 또는 컨텐츠의 재생 속도를 증가시킴으로써 상기 제1 컨텐츠 또는 상기 제2 컨텐츠 중 하나의 컨텐츠의 재생 설정을 변경할 수 있다.On the other hand, the synchronizing the playback time may change the playback setting of one of the first content or the second content by pausing the playback of the content, decreasing the playback speed of the content, or increasing the playback speed of the content. have.
한편, 상기 재생 시점을 동기화하는 단계는 상기 제1 특징 정보 및 상기 제2 특징 정보에 기초하여 상기 제1 컨텐츠 및 상기 제2 컨텐츠 중 더 빠른 재생 시점을 갖는 컨텐츠를 식별할 수 있고, 상기 식별된 컨텐츠의 재생 설정을 변경할 수 있다.Meanwhile, the synchronizing the playback time may include identifying a content having a faster playback time from among the first content and the second content based on the first characteristic information and the second characteristic information, You can change the content playback settings.
한편, 상기 재생 시점을 동기화하는 단계는 상기 식별된 컨텐츠를 메모리에 저장할 수 있고, 상기 식별된 컨텐츠의 재생을 일시 정지하거나 상기 식별된 컨텐츠의 재생 속도를 감소시킴으로써 상기 식별된 컨텐츠의 재생 설정을 변경할 수 있다.Meanwhile, the synchronizing the playback time may store the identified content in a memory, and change the playback setting of the identified content by pausing the playback of the identified content or reducing the playback speed of the identified content. can
한편, 상기 재생 시점을 동기화하는 단계는 상기 식별된 컨텐츠와 다른 컨텐츠의 재생 속도를 유지할 수 있다.Meanwhile, the synchronizing the playback timing may maintain the playback speed of the identified content and other content.
한편, 상기 제1 컨텐츠에 대응되는 컨텐츠를 제공하는 적어도 하나의 기기를 포함하는 UI(User Interface)를 표시하는 단계 및 상기 UI를 통해 상기 제2 기기를 선택하기 위한 사용자 입력이 수신되면, 상기 제2 특징 정보 및 상기 제2 컨텐츠를 요청하는 제어 신호를 상기 제2 기기에 전송하는 단계를 더 포함할 수 있다.On the other hand, displaying a user interface (UI) including at least one device providing content corresponding to the first content, and when a user input for selecting the second device is received through the UI, the second device The method may further include transmitting a control signal for requesting the second characteristic information and the second content to the second device.
도 1은 제1 기기로부터 수신한 제1 컨텐츠와 제2 기기로부터 수신한 제2 컨텐츠를 동시에 표시하는 전자 장치를 설명하기 위한 도면이다.
도 2는 제1 컨텐츠 및 제2 컨텐츠를 각각 설명하기 위한 도면이다.
도 3은 제1 컨텐츠 및 제2 컨텐츠의 동기화 여부를 설명하기 위한 도면이다.
도4는 본 개시의 일 실시 예에 따른 전자 장치를 도시한 블록도이다.
도 5는 도 4의 전자 장치의 구체적인 구성을 설명하기 위한 블록도이다.
도 6은 본 개시의 일 실시 예에 따른 전자 장치의 컨텐츠 표시 동작을 설명하기 위한 흐름도이다.
도 7은 본 개시의 일 실시 예에 따른 전자 장치의 컨텐츠 매칭 동작을 설명하기 위한 흐름도이다.
도 8은 도 7의 매칭 동작에서 표시되는 UI를 설명하기 위한 도면이다.
도 9는 본 개시의 일 실시 예에 따른 전자 장치의 제1 컨텐츠 및 제2 컨텐츠의 동기화 동작을 설명하기 위한 흐름도이다.
도 10은 본 개시의 일 실시 예에 따른 전자 장치의 컨텐츠 재생 설정 변경 동작을 설명하기 위한 흐름도이다.
도 11은 본 개시의 다른 실시 예에 따른 전자 장치의 컨텐츠 재생 설정 변경 동작을 설명하기 위한 흐름도이다.
도 12는 본 개시의 또 다른 실시 예에 따른 전자 장치의 컨텐츠 재생 설정 변경 동작을 설명하기 위한 흐름도이다.
도 13은 본 개시의 다양한 실시 예에 따른 전자 장치의 컨텐츠 재생 설정 변경 동작을 설명하기 위한 도면이다.
도 14는 제1 컨텐츠의 재생 시점이 제2 컨텐츠의 재생 시점보다 빠른 실시 예를 설명하기 위한 도면이다.
도 15는 제1 컨텐츠의 재생 시점이 제2 컨텐츠의 재생 시점보다 느린 실시 예를 설명하기 위한 도면이다.
도 16은 전자 장치, 제1 기기 및 제2 기기의 컨텐츠 동기화 동작을 설명하기 위한 시스템 흐름도이다.
도 17은 제2 기기의 제2 특징 정보를 획득하는 동작을 설명하기 위한 흐름도이다.
도 18은 본 개시의 일 실시 예에 따른 제2 기기의 제2 특징 정보를 획득하는 동작을 설명하기 위한 시스템 흐름도이다.
도 19는 본 개시의 일 실시 예에 따라, 제1 특징 정보 및 제2 특징 정보를 비교하여 재생 시점을 식별하는 동작을 설명하기 위한 도면이다.
도 20은 본 개시의 다른 실시 예에 따른 제2 기기의 제2 특징 정보를 획득하는 동작을 설명하기 위한 시스템 흐름도이다.
도 21은 본 개시의 다른 실시 예에 따라, 제1 특징 정보 및 제2 특징 정보를 비교하여 재생 시점을 식별하는 동작을 설명하기 위한 도면이다.
도 22는 본 개시의 또 다른 실시 예에 따라, 제1 특징 정보 및 제2 특징 정보를 비교하여 재생 시점을 식별하는 동작을 설명하기 위한 도면이다.
도 23은 본 개시의 일 실시 예에 따른 전자 장치의 제어 방법을 설명하기 위한 흐름도이다.1 is a diagram for describing an electronic device that simultaneously displays first content received from a first device and second content received from a second device.
2 is a diagram for explaining first content and second content, respectively.
3 is a diagram for explaining whether the first content and the second content are synchronized.
4 is a block diagram illustrating an electronic device according to an embodiment of the present disclosure.
FIG. 5 is a block diagram illustrating a detailed configuration of the electronic device of FIG. 4 .
6 is a flowchart illustrating a content display operation of an electronic device according to an embodiment of the present disclosure.
7 is a flowchart illustrating a content matching operation of an electronic device according to an embodiment of the present disclosure.
FIG. 8 is a diagram for explaining a UI displayed in the matching operation of FIG. 7 .
9 is a flowchart illustrating an operation of synchronizing first content and second content of an electronic device according to an embodiment of the present disclosure.
10 is a flowchart illustrating an operation of changing a content reproduction setting of an electronic device according to an embodiment of the present disclosure.
11 is a flowchart illustrating an operation of changing a content reproduction setting of an electronic device according to another embodiment of the present disclosure.
12 is a flowchart illustrating an operation of changing a content reproduction setting of an electronic device according to another embodiment of the present disclosure.
13 is a diagram for explaining an operation of changing a content reproduction setting of an electronic device according to various embodiments of the present disclosure;
14 is a diagram for explaining an embodiment in which a playback time of a first content is earlier than a playback time of a second content.
15 is a diagram for explaining an embodiment in which a playback time of a first content is slower than a playback time of a second content.
16 is a system flow diagram for explaining contents synchronization operations of an electronic device, a first device, and a second device.
17 is a flowchart illustrating an operation of acquiring second characteristic information of a second device.
18 is a system flowchart illustrating an operation of acquiring second characteristic information of a second device according to an embodiment of the present disclosure.
19 is a diagram for explaining an operation of identifying a reproduction time point by comparing first characteristic information and second characteristic information, according to an embodiment of the present disclosure.
20 is a system flowchart for explaining an operation of acquiring second characteristic information of a second device according to another embodiment of the present disclosure.
21 is a diagram for explaining an operation of identifying a reproduction time point by comparing first characteristic information and second characteristic information, according to another embodiment of the present disclosure.
22 is a diagram for explaining an operation of identifying a reproduction time point by comparing first characteristic information and second characteristic information, according to another embodiment of the present disclosure;
23 is a flowchart illustrating a method of controlling an electronic device according to an embodiment of the present disclosure.
이하에서는 첨부 도면을 참조하여 본 개시를 상세히 설명한다.Hereinafter, the present disclosure will be described in detail with reference to the accompanying drawings.
본 개시의 실시 예에서 사용되는 용어는 본 개시에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 개시의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 개시에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 개시의 전반에 걸친 내용을 토대로 정의되어야 한다.The terms used in the embodiments of the present disclosure have been selected as currently widely used general terms as possible while considering the functions in the present disclosure, but these may vary depending on the intention or precedent of a person skilled in the art, the emergence of new technology, etc. . In addition, in a specific case, there is a term arbitrarily selected by the applicant, and in this case, the meaning will be described in detail in the description of the corresponding disclosure. Therefore, the terms used in the present disclosure should be defined based on the meaning of the term and the contents of the present disclosure, rather than the simple name of the term.
본 명세서에서, "가진다," "가질 수 있다," "포함한다," 또는 "포함할 수 있다" 등의 표현은 해당 특징(예: 수치, 기능, 동작, 또는 부품 등의 구성요소)의 존재를 가리키며, 추가적인 특징의 존재를 배제하지 않는다.In the present specification, expressions such as “have,” “may have,” “include,” or “may include” indicate the presence of a corresponding characteristic (eg, a numerical value, function, operation, or component such as a part). and does not exclude the presence of additional features.
A 또는/및 B 중 적어도 하나라는 표현은 "A" 또는 "B" 또는 "A 및 B" 중 어느 하나를 나타내는 것으로 이해되어야 한다.The expression “at least one of A and/or B” is to be understood as indicating either “A” or “B” or “A and B”.
본 명세서에서 사용된 "제1," "제2," "첫째," 또는 "둘째,"등의 표현들은 다양한 구성요소들을, 순서 및/또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다.As used herein, expressions such as "first," "second," "first," or "second," can modify various elements, regardless of order and/or importance, and refer to one element. It is used only to distinguish it from other components, and does not limit the components.
어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "(기능적으로 또는 통신적으로) 연결되어((operatively or communicatively) coupled with/to)" 있다거나 "접속되어(connected to)" 있다고 언급된 때에는, 어떤 구성요소가 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제3 구성요소)를 통하여 연결될 수 있다고 이해되어야 할 것이다.A component (eg, a first component) is "coupled with/to (operatively or communicatively)" to another component (eg, a second component) When referring to "connected to", it should be understood that a component may be directly connected to another component or may be connected through another component (eg, a third component).
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "구성되다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The singular expression includes the plural expression unless the context clearly dictates otherwise. In the present application, terms such as "comprises" or "consisting of" are intended to designate that the features, numbers, steps, operations, components, parts, or combinations thereof described in the specification exist, and are intended to indicate that one or more other It is to be understood that this does not preclude the possibility of addition or presence of features or numbers, steps, operations, components, parts, or combinations thereof.
본 개시에서 "모듈" 혹은 "부"는 적어도 하나의 기능이나 동작을 수행하며, 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다. 또한, 복수의 "모듈" 혹은 복수의 "부"는 특정한 하드웨어로 구현될 필요가 있는 "모듈" 혹은 "부"를 제외하고는 적어도 하나의 모듈로 일체화되어 적어도 하나의 프로세서(미도시)로 구현될 수 있다.In the present disclosure, a "module" or "unit" performs at least one function or operation, and may be implemented as hardware or software, or a combination of hardware and software. In addition, a plurality of “modules” or a plurality of “units” are integrated into at least one module and implemented with at least one processor (not shown) except for “modules” or “units” that need to be implemented with specific hardware. can be
본 명세서에서, 사용자라는 용어는 전자 장치를 사용하는 사람 또는 전자 장치를 사용하는 장치(예: 인공지능 전자 장치)를 지칭할 수 있다.In this specification, the term user may refer to a person who uses an electronic device or a device (eg, an artificial intelligence electronic device) using the electronic device.
이하 첨부된 도면들을 참조하여 본 개시의 일 실시 예를 보다 상세하게 설명한다.Hereinafter, an embodiment of the present disclosure will be described in more detail with reference to the accompanying drawings.
도 1은 제1 기기로부터 수신한 제1 컨텐츠와 제2 기기로부터 수신한 제2 컨텐츠를 동시에 표시하는 전자 장치를 설명하기 위한 도면이다.1 is a diagram for describing an electronic device that simultaneously displays first content received from a first device and second content received from a second device.
도 1을 참조하면, 시스템(1000)은 전자 장치(100), 제1 기기(200) 및 제2 기기(300)를 포함할 수 있다. 여기서, 전자 장치(100)는 제1 컨텐츠 및 제2 컨텐츠를 동시에 표시할 수 있다. 제1 컨텐츠는 제1 기기(200)로부터 수신된 컨텐츠이고 제2 컨텐츠는 제2 기기(300)로부터 수신된 컨텐츠일 수 있다.Referring to FIG. 1 , a
여기서, 전자 장치(100)는 컨텐츠를 시청하는 다양한 종류의 전자 기기를 의미할 수 있다. 예를 들어, 전자 장치(100)는 TV, 스마트폰, 테블릿, PC 등을 의미할 수 있다.Here, the
여기서, 제1 기기(200)는 제1 컨텐츠를 제공하는 서버를 의미할 수 있다. 여기서, 제1 컨텐츠는 다수의 시청자에게 제공되는 컨텐츠를 의미할 수 있다. 예를 들어, 제1 컨텐츠는 방송사에서 제공하는 컨텐츠 또는 OTT 서비스 회사에서 제공하는 컨텐츠를 의미할 수 있다.Here, the
여기서, 제2 기기(300)는 개인 방송을 제공하는 기기를 의미할 수 있다. 여기서, 제2 기기(300)는 제1 기기(200)에서 제공하는 제1 컨텐츠를 보면서 개인 방송을 생성 및 전송하는 기기를 의미할 수 있다. 여기서, 제2 컨텐츠는 개인 방송 컨텐츠를 의미할 수 있다. 예를 들어, 제2 컨텐츠는 개인 채널에서 제공하는 컨텐츠를 의미할 수 있다.Here, the
전자 장치(100)는 제1 기기(200)로부터 제1 컨텐츠를 수신할 수 있고, 제2 기기(300)로부터 제2 컨텐츠를 수신할 수 있다. 그리고, 제1 컨텐츠 및 제2 컨텐츠를 동시에 표시할 수 있다.The
예를 들어, 제1 기기(200)는 축구 경기를 중계하는 방송사 서버이고 제1 컨텐츠는 축구 경기 컨텐츠라고 가정한다. 제2 기기(300)는 제1 기기(200)로부터 제1 컨텐츠를 수신하는 동시에 제2 컨텐츠를 생성할 수 있다. 여기서, 제2 컨텐츠는 제1 컨텐츠를 시청하는 제2 기기(300)의 사용자의 중계 컨텐츠일 수 있다. 전자 장치(100)는 제1 기기(200)로부터 공식 축구 컨텐츠를 수신하고, 제2 기기(300)로부터 개인 중계 컨텐츠를 수신할 수 있다. 그리고, 전자 장치(100)는 공식 축구 컨텐츠 및 개인 중계 컨텐츠를 동시에 표시할 수 있다.For example, it is assumed that the
도 2는 제1 컨텐츠 및 제2 컨텐츠를 각각 설명하기 위한 도면이다.2 is a diagram for explaining first content and second content, respectively.
도 2를 참조하면, 일 실시 예에 따른 제1 컨텐츠의 타임 라인(201)을 설명한다. 제1 컨텐츠는 복수의 이미지(201-1, 201-2, 201-3) 및 복수의 오디오(미도시)를 포함할 수 있다. 제1 컨텐츠는 1초에 제1 이미지(201-1)가 표시되고, 2초에 제2 이미지(201-2)가 표시되고, 3초에 제3 이미지(201-3)가 표시될 수 있다.Referring to FIG. 2 , a
또한, 일 실시 예에 따른 제2 컨텐츠의 타임 라인(202)을 설명한다. 제2 컨텐츠는 복수의 이미지(202-1, 202-2, 202-3) 및 복수의 오디오(미도시)를 포함할 수 있다. 제2 컨텐츠는 1초에 제4 이미지(202-1)가 표시되고, 2초에 제5 이미지(202-2)가 표시되고, 3초에 제6 이미지(202-3)가 표시될 수 있다.Also, a
여기서, 제2 기기(300)의 사용자는 제1 컨텐츠를 시청하면서 제2 컨텐츠를 생성할 수 있다. 따라서, 제1 컨텐츠의 타임 라인(201) 및 제2 컨텐츠의 타임 라인(202)이 서로 동기화 될 수 있다. 예를 들어, 도 1의 전자 장치(100)가 정상적으로 동기화 동작을 완료 하였다면, 제1 이미지(201-1) 및 제4 이미지(202-1)가 동시에 표시되고, 제2 이미지(201-2) 및 제5 이미지(202-2)가 동시에 표시되고, 제3 이미지(201-3) 및 제6 이미지(202-3)가 동시에 표시될 수 있다.Here, the user of the
한편, 제2 컨텐츠는 이미지 정보 이외에 오디오 정보를 추가적으로 포함할 수 있다. 예를 들어, 제4 이미지(202-1)에 대응되는 오디오(202-4)는 “1명이 드리블을 합니다”일 수 있다. 제5 이미지(202-2)에 대응되는 오디오 (202-5)는 “2명이 볼 경합을 합니다”일 수 있다. 제6 이미지(202-3)에 대응되는 오디오 (202-6)는 “3명이 볼 경합을 합니다”일 수 있다.Meanwhile, the second content may additionally include audio information in addition to image information. For example, the audio 202-4 corresponding to the fourth image 202-1 may be “one person dribbles”. The audio 202 - 5 corresponding to the fifth image 202 - 2 may be "two people compete to see". The audio 202 - 6 corresponding to the sixth image 202 - 3 may be "three people compete for a ball".
도 3은 제1 컨텐츠 및 제2 컨텐츠의 동기화 여부를 설명하기 위한 도면이다.3 is a diagram for explaining whether the first content and the second content are synchronized.
도 3을 참조하면, 일 실시 예(305)에 따라, 제1 컨텐츠 및 제2 컨텐츠는 정상적으로 동기화 된 상태일 수 있다. 여기서, 전자 장치(100)는 제1 컨텐츠의 제1 이미지(201-1) 및 제2 컨텐츠의 제4 이미지(202-1)를 동시에 표시할 수 있다. 따라서, 전자 장치(100)의 사용자는 표시되는 제1 컨텐츠의 내용에 알맞은 제2 컨텐츠를 시청할 수 있다.Referring to FIG. 3 , according to an
다른 실시 예(310)에 따라, 제1 컨텐츠 및 제2 컨텐츠는 동기화되지 않은 상태일 수 있다. 여기서, 전자 장치(100)는 제1 기기(200)로부터 수신한 제1 컨텐츠 및 제2 기기(300)로부터 수신한 제2 컨텐츠를 동기화하지 않고 그대로 표시할 수 있다. 여기서, 제1 컨텐츠 또는 제2 컨텐츠의 딜레이에 의하여 싱크가 맞지 않을 수 있다. 예를 들어, 한명의 축구 선수가 볼을 드리블을 하는 제1 컨텐츠의 제1 이미지(201-1)가 표시되는 동안, 전자 장치(100)는 제1 이미지(201-1)에 적합하지 않은 제2 컨텐츠의 제5 이미지(202-2)를 표시할 수 있다. 따라서, 전자 장치(100)의 사용자는 표시되는 제1 컨텐츠 및 제2 컨텐츠가 싱크가 일치하지 않는다고 느낄 수 있다.According to another
도 4는 본 개시의 일 실시 예에 따른 전자 장치를 도시한 블록도이다.4 is a block diagram illustrating an electronic device according to an embodiment of the present disclosure.
도 4를 참조하면, 전자 장치(100)는 통신 인터페이스(110), 디스플레이(120) 및 프로세서(130)로 구성될 수 있다.Referring to FIG. 4 , the
본 명세서의 다양한 실시 예들에 따른 전자 장치는, 예를 들면, 스마트폰, 태블릿 PC, 이동 전화기, 영상 전화기, 전자책 리더기, 데스크탑 PC, 랩탑 PC, 넷북 컴퓨터, 워크스테이션, 서버, PDA, PMP(portable multimedia player), MP3 플레이어, 의료기기, 카메라, 또는 웨어러블 장치 중 적어도 하나를 포함할 수 있다. 웨어러블 장치는 액세서리형(예: 시계, 반지, 팔찌, 발찌, 목걸이, 안경, 콘택트 렌즈, 또는 머리 착용형 장치(head-mounted-device(HMD)), 직물 또는 의류 일체형(예: 전자 의복), 신체 부착형(예: 스킨 패드 또는 문신), 또는 생체 이식형 회로 중 적어도 하나를 포함할 수 있다. 어떤 실시예들에서, 전자 장치는, 예를 들면, 텔레비전, DVD(digital video disk) 플레이어, 오디오, 냉장고, 에어컨, 청소기, 오븐, 전자레인지, 세탁기, 공기 청정기, 셋톱 박스, 홈 오토매이션 컨트롤 패널, 보안 컨트롤 패널, 미디어 박스(예: 삼성 HomeSyncTM, 애플TVTM, 또는 구글 TVTM), 게임 콘솔(예: XboxTM, PlayStationTM), 전자 사전, 전자 키, 캠코더, 또는 전자 액자 중 적어도 하나를 포함할 수 있다.Electronic devices according to various embodiments of the present specification may include, for example, a smartphone, a tablet PC, a mobile phone, a video phone, an e-book reader, a desktop PC, a laptop PC, a netbook computer, a workstation, a server, a PDA, a PMP ( portable multimedia player), an MP3 player, a medical device, a camera, or a wearable device. A wearable device may be an accessory (e.g., watch, ring, bracelet, anklet, necklace, eyewear, contact lens, or head-mounted-device (HMD)), a textile or clothing integral (e.g. electronic garment); It may include at least one of a body-worn (eg, skin pad or tattoo) or bioimplantable circuit In some embodiments, the electronic device may include, for example, a television, a digital video disk (DVD) player, Audio, refrigerator, air conditioner, vacuum cleaner, oven, microwave oven, washing machine, air purifier, set-top box, home automation control panel, security control panel, media box (e.g. Samsung HomeSyncTM, Apple TVTM, or Google TVTM), game console (eg, XboxTM, PlayStationTM), an electronic dictionary, an electronic key, a camcorder, or an electronic picture frame.
통신 인터페이스(110)는 다양한 유형의 통신 방식에 따라 다양한 유형의 외부 장치와 통신을 수행하는 구성이다. 통신 인터페이스(110)는 와이파이 모듈, 블루투스 모듈, 적외선 통신 모듈 및 무선 통신 모듈 등을 포함한다. 여기서, 각 통신 모듈은 적어도 하나의 하드웨어 칩 형태로 구현될 수 있다.The
통신 인터페이스(110)는 와이파이 모듈, 블루투스 모듈은 각각 와이파이 방식, 블루투스 방식으로 통신을 수행할 수 있다. 와이파이 모듈이나 블루투스 모듈을 이용하는 경우에는SSID 및 세션 키 등과 같은 각종 연결 정보를 먼저 송수신하여, 이를 이용하여 통신 연결한 후 각종 정보들을 송수신할 수 있다.The
적외선 통신 모듈은 가시 광선과 밀리미터파 사이에 있는 적외선을 이용하여 근거리에 무선으로 데이터를 전송하는 적외선 통신(IrDA, infrared Data Association)기술에 따라 통신을 수행한다.The infrared communication module communicates according to the infrared data association (IrDA) technology, which wirelessly transmits data in a short distance using infrared that is between visible light and millimeter wave.
무선 통신 모듈은 상술한 통신 방식 이외에 지그비(zigbee), 3G(3rd Generation), 3GPP(3rd Generation Partnership Project), LTE(Long Term Evolution), LTE-A(LTE Advanced), 4G(4th Generation), 5G(5th Generation)등과 같은 다양한 무선 통신 규격에 따라 통신을 수행하는 적어도 하나의 통신 칩을 포함할 수 있다.In addition to the above-described communication method, the wireless communication module includes Zigbee, 3rd Generation (3G), 3rd Generation Partnership Project (3GPP), Long Term Evolution (LTE), LTE Advanced (LTE-A), 4th Generation (4G), 5G It may include at least one communication chip that performs communication according to various wireless communication standards such as (5th Generation).
그 밖에 통신 인터페이스(110)는LAN(Local Area Network) 모듈, 이더넷 모듈, 페어 케이블, 동축 케이블, 광섬유 케이블 또는 UWB(Ultra Wide-Band) 모듈 등을 이용하여 통신을 수행하는 유선 통신 모듈 중 적어도 하나를 포함할 수 있다.In addition, the
디스플레이(120)는 LCD(Liquid Crystal Display), OLED(Organic Light Emitting Diodes) 디스플레이, PDP(Plasma Display Panel) 등과 같은 다양한 형태의 디스플레이로 구현될 수 있다. 디스플레이(120)내에는 a-si TFT, LTPS(low temperature poly silicon) TFT, OTFT(organic TFT) 등과 같은 형태로 구현될 수 있는 구동 회로, 백라이트 유닛 등도 함께 포함될 수 있다. 한편, 디스플레이(120)는 터치 센서와 결합된 터치 스크린, 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 등으로 구현될 수 있다.The
또한, 본 개시의 일 실시 예에 따른, 디스플레이(120)는 영상을 출력하는 디스플레이 패널뿐만 아니라, 디스플레이 패널을 하우징하는 베젤을 포함할 수 있다. 특히, 본 개시의 일 실시 예에 따른, 베젤은 사용자 인터렉션을 감지하기 위한 터치 센서(미도시)를 포함할 수 있다.Also, according to an embodiment of the present disclosure, the
프로세서(130)는 전자 장치의 전반적인 제어 동작을 수행할 수 있다. 구체적으로, 프로세서(130)는 전자 장치의 전반적인 동작을 제어하는 기능을 한다.The
프로세서(130)는 디지털 신호를 처리하는 디지털 시그널 프로세서(digital signal processor(DSP), 마이크로 프로세서(microprocessor), TCON(Time controller)으로 구현될 수 있다. 다만, 이에 한정되는 것은 아니며, 중앙처리장치(central processing unit(CPU)), MCU(Micro Controller Unit), MPU(micro processing unit), 컨트롤러(controller), 어플리케이션 프로세서(application processor(AP)), GPU(graphics-processing unit) 또는 커뮤니케이션 프로세서(communication processor(CP)), ARM 프로세서 중 하나 또는 그 이상을 포함하거나, 해당 용어로 정의될 수 있다. 또한, 프로세서(130)는 프로세싱 알고리즘이 내장된 SoC(System on Chip), LSI(large scale integration)로 구현될 수도 있고, FPGA(Field Programmable gate array) 형태로 구현될 수도 있다. 또한, 프로세서(130)는 메모리에 저장된 컴퓨터 실행가능 명령어(computer executable instructions)를 실행함으로써 다양한 기능을 수행할 수 있다.The
프로세서(130)는 통신 인터페이스(110)를 통해 제1 기기(200)로부터 제1 컨텐츠가 수신되면, 제1 컨텐츠에 대응되는 제1 특징 정보를 획득할 수 있고, 통신 인터페이스(110)를 통해 제2 기기(300)로부터 제1 컨텐츠에 대응되는 제2 특징 정보 및 제2 컨텐츠가 수신되면, 제1 특징 정보 및 제2 특징 정보에 기초하여 제1 컨텐츠 및 제2 컨텐츠의 재생 시점을 동기화할 수 있고, 동기화된 제1 컨텐츠 및 동기화된 제2 컨텐츠를 표시하도록 디스플레이(120)를 제어할 수 있다.When the first content is received from the
여기서, 제1 기기(200)는 저작권이 있는 컨텐츠를 정당한 권리가 있는 시청자들에게 제공하는 컨텐츠 제공 서버를 의미할 수 있다.Here, the
일 실시 예에 따라, 제1 기기(200)는 방송국 서버를 의미할 수 있다. 그리고, 제1 컨텐츠는 방송국 서버에서 제공되는 저작권 컨텐츠를 의미할 수 있다. 여기서, 제1 컨텐츠는 제1 기기(200)로부터 실시간으로 제공되는 컨텐츠를 의미할 수 있다. 예를 들어, 제1 컨텐츠는 권한 있는 시청자들에게 제공되는 축구 경기 컨텐츠를 의미할 수 있다.According to an embodiment, the
다른 실시 예에 따라, 제1 기기(200)는 OTT(Over The Top) 서버를 의미할 수 있다. 그리고, 제1 컨텐츠는 OTT 서버에서 제공되는 저작권 컨텐츠를 의미할 수 있다. 여기서, 제1 컨텐츠는 시청자의 요청에 응답하여 제공되는 컨텐츠를 의미할 수 있다. 예를 들어, 제1 컨텐츠는 시청자가 직접 선택한 영화 컨텐츠를 의미할 수 있다.According to another embodiment, the
한편, 제2 기기(300)는 제1 기기(200)에서 제공하는 저작권 컨텐츠와 관련된 개인 컨텐츠를 제공하는 개인 컨텐츠 제작자의 기기 또는 개인 컨텐츠를 제공하는 서버를 의미할 수 있다.Meanwhile, the
제2 기기(300)는 제1 기기(200)로부터 직접 제1 컨텐츠를 수신할 수 있고, 제1 컨텐츠와 관련된 제2 컨텐츠를 생성할 수 있다. 예를 들어, 제2 기기(300)는 제1 기기(200)로부터 수신된 축구 경기 컨텐츠를 시청하면서 개인 방송을 시작할 수 있다. 그리고, 제2 기기(300)는 개인 방송과 관련된 개인 컨텐츠를 사용자(또는 시청자)에게 전송할 수 있다.The
프로세서(130)는 제1 기기(200)로부터 제1 컨텐츠를 수신하고, 제2 기기(300)로부터 제2 컨텐츠를 수신하도록 통신 인터페이스(110)를 제어할 수 있다. 프로세서(130)는 제1 컨텐츠 및 제2 컨텐츠를 각각 별개의 기기(또는 소스)로부터 수신할 수 있다. 한편, 제1 컨텐츠를 메인 컨텐츠 제2 컨텐츠를 서브 컨텐츠로 기재할 수 있다.The
여기서, 프로세서(130)는 제1 기기(200)로부터 수신한 제1 컨텐츠에 기초하여 제1 컨텐츠에 대응되는 제1 특징 정보를 획득할 수 있다. 그리고, 프로세서(130)는 제2 기기(300)로부터 제1 컨텐츠에 대응되는 제2 특징 정보를 획득할 수 있다. 여기서, 제1 기기(200)로부터 수신되는 제1 특징 정보와 제2 기기(300) 수신되는 제2 특징 정보 모두 제1 컨텐츠에 기초하여 획득된 정보일 수 있다.Here, the
여기서, 특징 정보는 재생 시점을 특정할 수 있는 정보를 의미할 수 있다. 따라서, 특징 정보는 컨텐츠에서 획득되는 이미지 데이터 또는 오디오 데이터 중 하나의 데이터를 의미할 수 있다. 프로세서(130)는 컨텐츠에서 획득되는 데이터에 기초하여 재생 시점을 특정할 수 있다.Here, the feature information may refer to information that can specify a reproduction time point. Accordingly, the feature information may refer to one of image data and audio data obtained from content. The
여기서, 재생 시점은 현재 표시되는 프레임의 재생 시점을 의미할 수 있으며 복수의 프레임 중 어느 프레임이 재생되고 있는지 나타내는 정보를 의미할 수 있다.Here, the reproduction time may mean a reproduction time of the currently displayed frame, and may mean information indicating which frame among a plurality of frames is being reproduced.
일 예로, 컨텐츠가 실시간으로만 수신되고 재생 시점의 변경이 불가능한 컨텐츠(예를 들어, 실시간으로 중계되는 축구 경기)일 수 있다. 여기서, 재생 시점은 선후 관계의 시간 정보를 의미할 수 있다. 또한, 재생 시점은 절대적인 시간 정보(예를 들어, 표준시 13시 20분 15초)를 의미할 수 있다.As an example, the content may be received only in real time and may be content that cannot be changed at a playback time (eg, a soccer game relayed in real time). Here, the reproduction time point may mean time information of a precedence relation. Also, the playback time may mean absolute time information (eg, 13:20:15 standard time).
다른 예로, 컨텐츠 전체가 이미 저장되어 있고 재생 시점의 변경이 가능한 컨텐츠(예를 들어, 사용자 요청에 기초하여 제공되는 영화 컨텐츠)일 수 있다. 여기서, 재생 시점은 컨텐츠 전체의 재생 시간에서 현재 재생되는 프레임의 재생 경과 시점(예를 들어, 60분 중 15분 30초 경과)을 의미할 수 있다.As another example, it may be content (eg, movie content provided based on a user's request) in which the entire content is already stored and the playback time can be changed. Here, the reproduction time may mean a reproduction time (eg, 15 minutes and 30 seconds out of 60 minutes) of the currently reproduced frame in the reproduction time of the entire content.
한편, 프로세서(130)는 컨텐츠의 재생 시점을 개별적으로 특정하지 않고, 제1 컨텐츠 및 제2 컨텐츠 사이의 재생 시점 일치 여부만을 판단할 수 있다. 구체적으로, 프로세서(130)는 제1 특징 정보 및 제2 특징 정보를 비교할 수 있고, 제1 특징 정보 및 제2 특징 정보에 포함된 데이터 패턴을 비교하여 제1 컨텐츠가 제2 컨텐츠보다 얼마나 빨리(또는 느리게) 재생되고 있는지 식별할 수 있다.Meanwhile, the
여기서, 제1 특징 정보는 제1 컨텐츠에서 획득한 제1 데이터를 포함할 수 있다. 여기서, 제1 데이터는 제1 컨텐츠에 기초하여 획득되는 제1 이미지 데이터 또는 제1 오디오 데이터 중 적어도 하나를 포함할 수 있다.Here, the first characteristic information may include first data obtained from the first content. Here, the first data may include at least one of first image data and first audio data obtained based on the first content.
여기서, 제2 특징 정보는 제1 컨텐츠에서 획득한 제2 데이터 및 제2 데이터에 대응되는 제2 컨텐츠의 프레임 정보가 포함될 수 있다. 여기서, 제2 데이터는 제1 컨텐츠에 기초하여 획득되는 제2 이미지 데이터 또는 제2 오디오 데이터 중 적어도 하나를 포함할 수 있다.Here, the second characteristic information may include second data obtained from the first content and frame information of the second content corresponding to the second data. Here, the second data may include at least one of second image data and second audio data obtained based on the first content.
제2 기기(300)는 저작권 침해를 회피하기 위하여 제1 컨텐츠가 아니라 제1 컨텐츠에 기초하여 획득된 제2 데이터를 전자 장치(100)에 전송할 수 있다. 여기서, 제2 데이터는 원본 영상을 의미하는 것이 아니므로, 저작권을 침해를 회피할 수 있다. 다만, 제2 기기(300)는 제2 컨텐츠가 제1 컨텐츠의 어느 재생 시점에 대응되는지 시청자들에게 알려줄 필요성이 있다. 시청자들은 제1 컨텐츠 및 제2 컨텐츠의 싱크를 일치시켜야 하기 때문이다. 따라서, 제2 기기(300)는 제2 컨텐츠에 포함된 각각의 프레임들(또는 일부 기준 프레임들)과 제1 컨텐츠에서 획득되는 제2 데이터를 매칭한 정보를 제2 특징 정보로서 획득할 수 있다.The
예를 들어, 제2 데이터가 이미지 데이터의 픽셀값이고, #112233, #223344, #334455, #445566, #556677라고 가정한다. 여기서, 제2 기기(300)는 #112233에 대응되는 제1 컨텐츠의 프레임이 제공되는 동안 제2 컨텐츠의 #01프레임을 생성하고, #223344에 대응되는 제1 컨텐츠의 프레임이 제공되는 동안 제2 컨텐츠의 #02프레임을 생성하고, #334455에 대응되는 제1 컨텐츠의 프레임이 제공되는 동안 제2 컨텐츠의 #03프레임을 생성하고, #445566에 대응되는 제1 컨텐츠의 프레임이 제공되는 동안 제2 컨텐츠의 #04프레임을 생성하고, #556677에 대응되는 제1 컨텐츠의 프레임이 제공되는 동안 제2 컨텐츠의 #05프레임을 생성하였다고 가정한다. 제2 기기(300)는 제1 컨텐츠의 제2 데이터인 #112233, #223344, #334455, #445566, #556677과 제2 컨텐츠의 프레임 정보인 #01, #02, #03, #04, #05를 매칭하여 제2 특징 정보를 획득할 수 있다.For example, it is assumed that the second data are pixel values of image data and are #112233, #223344, #334455, #445566, and #556677. Here, the
프로세서(130)는 제2 특징 정보에 포함된 제2 데이터 및 제2 컨텐츠의 프레임 정보에 기초하여 제2 컨텐츠의 재생 시점이 제1 컨텐츠의 어느 재생 시점에 대응되는 것인지 식별할 수 있다.The
예를 들어, 디스플레이(120)에서 제2 컨텐츠의 #03 프레임이 표시된다면, 프로세서(130)는 제1 컨텐츠의 #334455에 대응되어야 한다고 식별할 수 있다. 프로세서(130)는 제1 기기(200)를 통해 수신된 제1 컨텐츠의 표시 프레임에 대응되는 픽셀값이 #334455이면, 프로세서(130)는 제1 컨텐츠 및 제2 컨텐츠의 재생 시점이 일치하는 것으로 식별 할 수 있다. 다만, 제1 기기(200)를 통해 수신된 제1 컨텐츠의 표시 프레임에 대응되는 픽셀값이 #334455가 아니라면, 프로세서(130)는 제1 컨텐츠 및 제2 컨텐츠의 재생 시점이 불일치하는 것으로 식별하고, 재생 시점의 동기화가 필요하다고 판단할 수 있다.For example, if
본 개시의 재생 시점 동기화 동작은 제1 컨텐츠와 제2 컨텐츠의 싱크를 일치시키는 것이다. 여기서, 싱크를 일치시키기 위해 기준이 되는 정보는 제1 컨텐츠로부터 획득되는 특징 정보일 수 있다.The playback time synchronization operation of the present disclosure is to match the synchronization of the first content and the second content. Here, the information as a reference for matching the sync may be characteristic information obtained from the first content.
구체적으로, 프로세서(130)는 제1 컨텐츠 및 제2 컨텐츠를 동시에 표시할 수 있으며, 제1 컨텐츠와 제2 컨텐츠의 재생 시점이 일치하는지 여부를 판단하기 위해 제1 컨텐츠의 재생 시점을 나타내는 제1 특징 정보와 제2 컨텐츠의 재생 시점을 나타내는 제2 특징 정보를 나타낼 수 있다. 여기서, 비교 기준이 되는 것은 제1 특징 정보에 포함된 제1 컨텐츠에 대응되는 제1 데이터 및 제2 특징 정보에 포함된 제1 컨텐츠에 대응되는 제2 데이터일 수 있다.Specifically, the
한편, 제2 특징 정보는 제1 컨텐츠 및 제2 컨텐츠의 재생 시간을 동기화 시키기는 동작 중 제2 컨텐츠의 재생 시간(제2 재생 시간)을 특정하기 위하여 이용되는 정보일 수 있다. 구체적으로, 제2 특징 정보는 제1 컨텐츠에 대응되는 데이터 및 데이터에 매칭되는 제2 컨텐츠의 프레임 정보를 포함할 수 있다.Meanwhile, the second characteristic information may be information used to specify a reproduction time (second reproduction time) of the second content during an operation of synchronizing the reproduction times of the first content and the second content. Specifically, the second characteristic information may include data corresponding to the first content and frame information of the second content matching the data.
제1 컨텐츠 및 제2 컨텐츠를 동기화하는 실시 예는 도 14 내지 도 23에서 구체적으로 설명한다. 또한, 제1 특징 정보 및 제2 특징 정보와 관련된 실시 예는 도 19 및 도 21에서 구체적으로 설명한다.An embodiment of synchronizing the first content and the second content will be described in detail with reference to FIGS. 14 to 23 . In addition, embodiments related to the first characteristic information and the second characteristic information will be described in detail with reference to FIGS. 19 and 21 .
한편, 프로세서(130)는 제1 컨텐츠를 디스플레이(120)의 제1 영역에 표시하도록 디스플레이(120)를 제어할 수 있고, 제2 컨텐츠를 디스플레이(120)의 제2 영역에 표시하도록 디스플레이(120)를 제어할 수 있고, 표시된 제1 컨텐츠에 대응되는 제1 특징 정보 및 표시된 제2 컨텐츠에 대응되는 제2 특징 정보에 기초하여 제1 컨텐츠 및 제2 컨텐츠의 재생 시점을 동기화할 수 있다.Meanwhile, the
디스플레이(120)는 복수의 영역을 포함할 수 있다. 구체적으로, 디스플레이(120)는 제1 영역 및 제2 영역을 포함할 수 있다. 프로세서(130)는 디스플레이(120)의 제1 영역에 제1 컨텐츠를 표시하고, 디스플레이(120)의 제2 영역에 제2 컨텐츠를 표시할 수 있다. 일 실시 예에 따라, 제1 영역 및 제2 영역은 전체 디스플레이 영역을 독립적으로 분리한 영역일 수 있다. 도 1의 전자 장치(100)는 디스플레이의 좌측 영역과 우측 영역으로 구분하여 각 컨텐츠를 별개의 영역에 표시할 수 있다. 다른 실시 예에 따라, 제1 영역 및 제2 영역은 적어도 일부 영역이 중첩되는 영역일 수 있다. 예를 들어, 제1 영역 안에 제2 영역의 전부 또는 일부가 포함될 수 있으며, 제2 영역 안에 제1 영역의 전부 또는 일부가 포함될 수 있다.The
여기서, 프로세서(130)는 현재 제1 영역에 표시되는 제1 컨텐츠에 대응되는 제1 특징 정보를 획득하고, 현재 제2 영역에 표시되는 제2 컨텐츠에 대응되는 제2 특징 정보를 획득할 수 있다. 여기서, 특징 정보는 각 프레임에 대응되는 정보일 수 있다. 따라서, 현재 재생되는 컨텐츠의 프레임에 따라 특징 정보도 상이할 수 있다.Here, the
여기서, 프로세서(130)는 표시되는 제1 컨텐츠의 프레임에 대응되는 제1 특징 정보(제1 데이터) 및 표시되는 제2 컨텐츠의 프레임에 대응되는 제2 특징 정보(제2 데이터)를 획득할 수 있다. 그리고, 프로세서(130)는 획득된 제1 데이터 및 제2 데이터에 기초하여 제1 컨텐츠 및 제2 컨텐츠의 재생 시점을 동기화 할 수 있다. 동기화 동작에 대한 구체적인 설명은 도 9 내지 도 12에서 후술한다.Here, the
한편, 제1 특징 정보는 전자 장치(100)에서 획득된 제1 컨텐츠의 제1 이미지 데이터 또는 제1 컨텐츠의 제1 오디오 데이터 중 적어도 하나를 포함할 수 있고, 제2 특징 정보는 제2 기기(300)에서 획득된 제1 컨텐츠의 제2 이미지 데이터 또는 제1 컨텐츠의 제2 오디오 데이터 중 적어도 하나를 포함할 수 있다.Meanwhile, the first characteristic information may include at least one of first image data of the first content obtained by the
프로세서(130)는 제1 기기(200)로부터 제1 컨텐츠를 수신하고, 수신된 제1 컨텐츠에 기초하여 제1 컨텐츠에 대응되는 제1 이미지 데이터 또는 제1 오디오 데이터 중 적어도 하나를 획득할 수 있다.The
또한, 제2 기기(300)는 제1 기기(200)로부터 제1 컨텐츠를 수신하고, 수신된 제1 컨텐츠에 기초하여 제1 컨텐츠에 대응되는 제2 이미지 데이터 또는 제2 오디오 데이터 중 적어도 하나를 획득할 수 있다.In addition, the
여기서, 제1 이미지 데이터 및 제2 이미지 데이터는 제1 컨텐츠에 포함된 복수의 프레임 중 적어도 하나의 프레임에 대응되는 픽셀값을 의미할 수 있다. 제1 오디오 데이터 및 제2 오디오 데이터는 제1 컨텐츠에 포함된 복수의 프레임 중 적어도 하나의 프레임에 대응되는 소리 크기값 또는 소리 파형일 수 있다.Here, the first image data and the second image data may mean pixel values corresponding to at least one frame among a plurality of frames included in the first content. The first audio data and the second audio data may be a sound level value or a sound waveform corresponding to at least one frame among a plurality of frames included in the first content.
한편, 상술한 이미지 데이터 및 오디오 데이터는 기 결정된 해쉬함수에 의하여 변환될 수 있다. 이미지 데이터 자체 또는 오디오 데이터 자체는 데이터 크기가 크므로, 비교 동작을 위하여 데이터를 변형할 수 있다.Meanwhile, the above-described image data and audio data may be converted by a predetermined hash function. Since the image data itself or the audio data itself has a large data size, the data may be transformed for a comparison operation.
한편, 프로세서(130)는 제1 특징 정보 및 제2 특징 정보가 일치하지 않으면, 제1 컨텐츠 및 제2 컨텐츠의 재생 시점을 동기화할 수 있다.Meanwhile, when the first characteristic information and the second characteristic information do not match, the
여기서, 프로세서(130)는 표시되는 제1 컨텐츠의 프레임에 대응되는 정보(제1 데이터)와 표시되는 제2 컨텐츠의 프레임에 대응되는 정보(제2 데이터)가 일치하지 않으면, 제1 컨텐츠 및 제2 컨텐츠의 싱크가 불일치한다고 식별할 수 있다. 그리고, 프로세서(130)는 제1 컨텐츠 및 제2 컨텐츠의 재생 시점을 동기화할 수 있다.Here, when the information (first data) corresponding to the frame of the displayed first content does not match the information (the second data) corresponding to the frame of the displayed second content, the
한편, 프로세서(130)는 제1 특징 정보 및 제2 특징 정보가 일치하지 않으면, 제1 컨텐츠 또는 제2 컨텐츠 중 하나의 컨텐츠의 재생 설정을 변경할 수 있다.Meanwhile, when the first characteristic information and the second characteristic information do not match, the
여기서, 제1 특징 정보에 포함된 제1 데이터 및 제2 특징 정보에 포함된 제2 데이터가 일치하지 않으면, 프로세서(130)는 제1 컨텐츠 또는 제2 컨텐츠 중 하나의 컨텐츠의 재생 설정을 변경하고, 제1 컨텐츠 및 제2 컨텐츠의 재생 시점을 동기화(또는 일치)할 수 있다.Here, if the first data included in the first characteristic information and the second data included in the second characteristic information do not match, the
한편, 프로세서(130)는 컨텐츠의 재생을 일시 정지, 컨텐츠의 재생 속도를 감소 또는 컨텐츠의 재생 속도를 증가시킴으로써 제1 컨텐츠 또는 제2 컨텐츠 중 하나의 컨텐츠의 재생 설정을 변경할 수 있다.Meanwhile, the
여기서, 재생 설정을 변경하는 동작은 컨텐츠의 재생을 일시 정지 동작, 컨텐츠의 재생 속도를 증가시키는 동작 또는 컨텐츠의 재생 속도를 감소시키는 동작 중 하나의 동작을 의미할 수 있다.Here, the operation of changing the reproduction setting may mean one of an operation of pausing the reproduction of content, an operation of increasing the reproduction speed of the content, or an operation of decreasing the reproduction speed of the content.
한편, 프로세서(130)는 제1 특징 정보 및 제2 특징 정보에 기초하여 제1 컨텐츠 및 제2 컨텐츠 중 더 빠른 재생 시점을 갖는 컨텐츠를 식별할 수 있고, 식별된 컨텐츠의 재생 설정을 변경할 수 있다.Meanwhile, the
여기서, 프로세서(130)는 제1 컨텐츠의 제1 재생 시점과 제2 컨텐츠의 제2 재생 시점을 비교할 수 있다. 그리고, 프로세서(130)는 제1 재생 시점 및 제2 재생 시점 중 더 빠른 재생 시점을 식별하고, 식별된 재생 시점에 대응되는 컨텐츠를 식별할 수 있다. 그리고, 프로세서(130)는 재생 시점이 더 빠른 컨텐츠의 재생 설정을 변경할 수 있다.Here, the
재생 시점이 더 빠른 컨텐츠의 재생 설정을 변경하는 이유는, 제1 기기(200) 및 제2 기기(300)에 별도의 재생 시점 변경을 요청하지 않더라도 전자 장치(100) 자체적으로 제1 컨텐츠 및 제2 컨텐츠의 재생 시점을 동기화할 수 있기 때문이다.The reason for changing the playback setting of the content having a faster playback time is that the
제1 컨텐츠 및 제2 컨텐츠의 재생 시점을 동기화 시키는 가장 쉬운 방법은, 제1 기기(200) 또는 제2 기기(300) 각각에 변경된 재생 시점에 기초하는 컨텐츠를 요청하는 방법이다. 예를 들어, 전자 장치(100)는 10초에 해당하는 프레임이 아닌 12초에 해당하는 프레임을 요청하고, 12초에 해당하는 프레임을 수신할 수 있다.The easiest way to synchronize the playback timings of the first content and the second content is to request the
하지만, 컨텐츠를 제공하는 각 기기에 변경된 재생 시점에 대응되는 컨텐츠를 요청하는 것은 각 기기가 전체 재생 시점에 대응되는 컨텐츠를 저장하고 있을 때만 가능한다. 예를 들어, 제1 기기(200) 또는 제2 기기(300)가 60분의 영화 컨텐츠 데이터를 모두 저장하고 있어야 변경된 재생 시점에 대응되는 컨텐츠를 전송할 수 있다. 만약, 실시간으로 중계되는 스포츠 경기 또는 재생 시점을 변경하는 서비스 기능을 별도로 제공하지 않는 경우, 프로세서(130)는 제1 컨텐츠 및 제2 컨텐츠의 재생 시점을 동기화하기 어려울 수 있다.However, it is possible to request content corresponding to the changed playback time from each device providing the content only when each device stores the content corresponding to the entire playback timing. For example, the
한편, 전자 장치(100)는 메모리(140)를 더 포함할 수 있고, 프로세서(130)는 식별된 컨텐츠(제1 컨텐츠 또는 제2 컨텐츠 중 재생 시점이 더 빠른 컨텐츠)를 메모리(140)에 저장할 수 있고, 식별된 컨텐츠의 재생을 일시 정지하거나 식별된 컨텐츠의 재생 속도를 감소시킴으로써 식별된 컨텐츠의 재생 설정을 변경할 수 있다.Meanwhile, the
프로세서(130)가 식별된 컨텐츠를 메모리(140) 중 특정 공간에 저장하는 것을 의미할 수 있다. 여기서, 특정 공간은 비일시적 저장 공간을 의미할 수 있으며, 기 결정된 이벤트가 발생하기 전까지 저장되는 공간을 의미할 수 있다.This may mean that the
일반적으로, 스트리밍으로 표시되는 데이터는 전자 장치(100)에 수신되는 순간 특정 하드웨어에 저장되지만, 계속하여 메모리(140)에 저장되는 것은 아닐 수 있다. 예를 들어, 프로세서(130)는 스트리밍 데이터를 디스플레이(120)에 표시한 후 표시된 스트리밍 데이터를 삭제할 수 있다.In general, data displayed as streaming is stored in specific hardware as soon as it is received by the
하지만, 본 개시의 일 실시 예에 따른 전자 장치(100)는 식별된 컨텐츠에 대응되는 스트리밍 데이터를 메모리(140)에 저장할 수 있다. 그리고, 저장된 스트리밍 데이터는 기 결정된 이벤트가 식별되기 전까지 계속하여 메모리(140)에 저장될 수 있다.However, the
여기서, 기 결정된 이벤트는 제1 컨텐츠 및 제2 컨텐츠의 재생 시점이 동기화 되는 이벤트를 의미할 수 있다. 제1 컨텐츠 및 제2 컨텐츠의 재생 시점이 동기화 되면 더 이상 컨텐츠를 메모리(140)에 별도로 계속하여 저장할 필요성이 없기 때문이다.Here, the predetermined event may refer to an event in which playback times of the first content and the second content are synchronized. This is because when the playback timings of the first content and the second content are synchronized, it is no longer necessary to separately and continuously store the content in the
한편, 프로세서(130)는 기 결정된 이벤트가 발생하기 전까지 재생 시점이 빠른 컨텐츠를 수신하여 저장할 수 있다. 여기서, 프로세서(130)는 재생 시점이 빠른 컨텐츠의 재생을 일시 정지하거나 재생 속도를 감소시킬 수 있다. 재생 시점이 빠른 컨텐츠의 재생을 멈추거나 늦춤으로써 프로세서(130)는 제1 컨텐츠 및 제2 컨텐츠의 재생 시점을 일치시킬 수 있다.On the other hand, the
한편, 프로세서(130)는 식별된 컨텐츠와 다른 컨텐츠의 재생 속도를 유지할 수 있다.Meanwhile, the
여기서, 프로세서(130)는 제1 컨텐츠 및 제2 컨텐츠의 재생 시점의 차이를 획득할 수 있고, 획득된 재생 시점의 차이에 기초하여 식별된 컨텐츠의 재생 설정을 변경할 수 있다. 재생 시점의 차이가 식별되면, 프로세서(130)는 제1 컨텐츠의 재생 속도와 제2 컨텐츠의 재생 속도를 상이하게 변경할 수 있다.Here, the
여기서, 제1 컨텐츠의 재생 시점이 제2 컨텐츠의 재생 시점보다 빠르다고 가정한다.Here, it is assumed that the playback timing of the first content is earlier than the playback timing of the second content.
여기서, 프로세서(130)는 제1 컨텐츠의 재생을 일시 정지하는 동안 제2 컨텐츠의 재생 속도를 유지할 수 있다. 예를 들어, 제1 컨텐츠 및 제2 컨텐츠의 재생 시점 차이가 1초라고 가정하면, 프로세서(130)는 1초 동안 제1 컨텐츠를 일시 정지하고 제2 컨텐츠는 정배속(1배속)으로 재생하여 재생 시점을 일치시킬 수 있다.Here, the
또한, 프로세서(130)는 제1 컨텐츠의 재생 속도를 감소시키는 동안 제2 컨텐츠의 재생 속도를 유지할 수 있다. 예를 들어, 제1 컨텐츠 및 제2 컨텐츠의 재생 시점 차이가 1초라고 가정하면, 프로세서(130)는 2초 동안 제1 컨텐츠를 0.5배속으로 재생하고 제2 컨텐츠는 정배속(1배속)으로 재생하여 재생 시점을 일치시킬 수 있다.Also, the
한편, 프로세서(130)는 제1 컨텐츠에 대응되는 컨텐츠를 제공하는 적어도 하나의 기기를 포함하는 UI(User Interface)를 표시하도록 디스플레이(120)를 제어할 수 있고, UI를 통해 제2 기기(300)를 선택하기 위한 사용자 입력이 수신되면, 제2 특징 정보 및 제2 컨텐츠를 요청하는 제어 신호를 제2 기기(300)에 전송하도록 통신 인터페이스(110)를 제어할 수 있다.Meanwhile, the
여기서, 복수의 컨텐츠 중 제1 컨텐츠를 선택하는 제1 사용자 입력이 수신되면, 프로세서(130)는 제1 사용자 입력에 대응되는 제1 컨텐츠를 제1 기기(200)에 요청할 수 있다. 여기서, 제1 사용자 입력은 특정 채널 번호를 변경하거나 특정 컨텐츠를 요청하는 사용자 입력일 수 있다.Here, when a first user input for selecting a first content from among a plurality of content is received, the
또한, 제1 컨텐츠(메인 컨텐츠)와 관련된 컨텐츠(서브 컨텐츠)를 요청하는 제2 사용자 입력이 수신되면, 프로세서(130)는 제1 컨텐츠에 대응되는 적어도 하나의 서브 컨텐츠를 식별할 수 있다. 그리고, 프로세서(130)는 식별된 복수의 서브 컨텐츠에 대응되는 정보를 포함하는 UI를 표시할 수 있다. 여기서, UI는 도 8의 UI(802)일 수 있다. 여기서, 제2 사용자 입력은 제1 컨텐츠 이외에 별도의 서브 컨텐츠를 추가로 요청하는 사용자 입력을 의미할 수 있다.Also, when a second user input requesting content (sub content) related to the first content (main content) is received, the
또한, UI(802)에 표시된 복수의 서브 컨텐츠 중 하나의 서브 컨텐츠(제2 컨텐츠)를 선택하는 제3 사용자 입력이 수신되면, 프로세서(130)는 제3 사용자 입력에 대응되는 제2 컨텐츠 및 제2 특징 정보를 요청하는 제어 신호를 생성할 수 있다. 그리고, 프로세서(130)는 생성된 제어 신호를 제2 기기(300)에 전송할 수 있다. 여기서, 제3 사용자 입력은 복수의 서브 컨텐츠 중 하나의 서브 컨텐츠를 사용자 입력을 의미할 수 있다.In addition, when a third user input for selecting one sub-content (second content) from among the plurality of sub-contents displayed on the
한편, 프로세서(130)는 임계 시간마다 제1 컨텐츠 및 제2 컨텐츠의 재생 시점이 일치하는지 여부를 식별할 수 있다. 상황에 따라 딜레이가 중간에 발생하는 경우가 있기 때문이다. 따라서, 프로세서(130)는 임계 시간마다 제1 특징 정보 및 제2 특징 정보를 비교하여 제1 컨텐츠 및 제2 컨텐츠의 재생 시점이 동기화 되어 있는지 판단하고, 동기화 동작을 수행할 수 있다.Meanwhile, the
본 개시의 다양한 실시 예에 따른 전자 장치(100)는 제1 컨텐츠(메인 컨텐츠)와 제2 컨텐츠(서브 컨텐츠)를 동시에 표시하면서, 재생 시점을 동기화할 수 있다. 시청자는 메인 컨텐츠이외에 서브 컨텐츠를 동시에 시청하면서 재생 시점이 불일치하는 불편함을 느끼지 않을 수 있다.The
한편, 이상에서는 전자 장치(100)를 구성하는 간단한 구성에 대해서만 도시하고 설명하였지만, 구현 시에는 다양한 구성이 추가로 구비될 수 있다. 이에 대해서는 도 5를 참조하여 이하에서 설명한다.Meanwhile, although only a simple configuration constituting the
도 5는 도 4의 전자 장치의 구체적인 구성을 설명하기 위한 블록도이다.FIG. 5 is a block diagram illustrating a detailed configuration of the electronic device of FIG. 4 .
도 5를 참조하면, 전자 장치(100)는 통신 인터페이스(110), 디스플레이(120), 프로세서(130), 메모리(140), 조작 인터페이스(150), 입출력 인터페이스(160), 마이크(170) 및 스피커(180)로 구성될 수 있다.Referring to FIG. 5 , the
한편, 통신 인터페이스(110), 디스플레이(120) 및 프로세서(130)의 동작 중에서 앞서 설명한 것과 동일한 동작에 대해서는 중복 설명은 생략한다.Meanwhile, redundant descriptions of the same operations as described above among the operations of the
메모리(140)는 프로세서(130)에 포함된 롬(ROM)(예를 들어, EEPROM(electrically erasable programmable read-only memory)), 램(RAM) 등의 내부 메모리로 구현되거나, 프로세서(130)와 별도의 메모리로 구현될 수도 있다. 이 경우, 메모리(140)는 데이터 저장 용도에 따라 전자 장치(100)에 임베디드된 메모리 형태로 구현되거나, 전자 장치(100)에 탈부착이 가능한 메모리 형태로 구현될 수도 있다. 예를 들어, 전자 장치(100)의 구동을 위한 데이터의 경우 전자 장치(100)에 임베디드된 메모리에 저장되고, 전자 장치(100)의 확장 기능을 위한 데이터의 경우 전자 장치(100)에 탈부착이 가능한 메모리에 저장될 수 있다.The
한편, 전자 장치(100)에 임베디드된 메모리의 경우 휘발성 메모리(예: DRAM(dynamic RAM), SRAM(static RAM), 또는 SDRAM(synchronous dynamic RAM) 등), 비휘발성 메모리(non-volatile Memory)(예: OTPROM(one time programmable ROM), PROM(programmable ROM), EPROM(erasable and programmable ROM), EEPROM(electrically erasable and programmable ROM), mask ROM, flash ROM, 플래시 메모리(예: NAND flash 또는 NOR flash 등), 하드 드라이브, 또는 솔리드 스테이트 드라이브(solid state drive(SSD)) 중 적어도 하나로 구현되고, 전자 장치(100)에 탈부착이 가능한 메모리의 경우 메모리 카드(예를 들어, CF(compact flash), SD(secure digital), Micro-SD(micro secure digital), Mini-SD(mini secure digital), xD(extreme digital), MMC(multi-media card) 등), USB 포트에 연결 가능한 외부 메모리(예를 들어, USB 메모리) 등과 같은 형태로 구현될 수 있다.Meanwhile, in the case of a memory embedded in the
조작 인터페이스(150)는 버튼, 터치 패드, 마우스 및 키보드와 같은 장치로 구현되거나, 상술한 디스플레이 기능 및 조작 입력 기능도 함께 수행 가능한 터치 스크린으로도 구현될 수 있다. 여기서, 버튼은 전자 장치(100)의 본체 외관의 전면부나 측면부, 배면부 등의 임의의 영역에 형성된 기계적 버튼, 터치 패드, 휠 등과 같은 다양한 유형의 버튼이 될 수 있다.The
입출력 인터페이스(160)는 HDMI(High Definition Multimedia Interface), MHL (Mobile High-Definition Link), USB (Universal Serial Bus), DP(Display Port), 썬더볼트(Thunderbolt), VGA(Video Graphics Array)포트, RGB 포트, D-SUB(D-subminiature), DVI(Digital Visual Interface) 중 어느 하나의 인터페이스일 수 있다.Input/
입출력 인터페이스(160)는 오디오 및 비디오 신호 중 적어도 하나를 입출력 할 수 있다.The input/
구현 예에 따라, 입출력 인터페이스(160)는 오디오 신호만을 입출력하는 포트와 비디오 신호만을 입출력하는 포트를 별개의 포트로 포함하거나, 오디오 신호 및 비디오 신호를 모두 입출력하는 하나의 포트로 구현될 수 있다.Depending on the implementation, the input/
전자 장치(100)는 마이크(170)를 더 포함할 수 있다. 마이크는 사용자 음성이나 기타 소리를 입력 받아 오디오 데이터로 변환하기 위한 구성이다.The
마이크(170)는 활성화 상태에서 사용자의 음성을 수신할 수 있다. 예를 들어, 마이크(170)는 전자 장치(100)의 상측이나 전면 방향, 측면 방향 등에 일체형으로 형성될 수 있다. 마이크(170)는 아날로그 형태의 사용자 음성을 수집하는 마이크, 수집된 사용자 음성을 증폭하는 앰프 회로, 증폭된 사용자 음성을 샘플링하여 디지털 신호로 변환하는 A/D 변환회로, 변환된 디지털 신호로부터 노이즈 성분을 제거하는 필터 회로 등과 같은 다양한 구성을 포함할 수 있다.The
전자 장치(100)는 스피커(180)를 포함할 수 있다. 스피커(180)는 입출력 인터페이스에서 처리된 각종 오디오 데이터뿐만 아니라 각종 알림 음이나 음성 메시지 등을 출력하는 구성요소일 수 있다.The
도 6은 본 개시의 일 실시 예에 따른 전자 장치의 컨텐츠 표시 동작을 설명하기 위한 흐름도이다.6 is a flowchart illustrating a content display operation of an electronic device according to an embodiment of the present disclosure.
도 6을 참조하면, 전자 장치(100)는 제1 컨텐츠를 표시할 수 있다 (S605). 여기서, 제1 컨텐츠는 제1 기기(200)로부터 수신된 컨텐츠를 의미할 수 있다.Referring to FIG. 6 , the
또한, 전자 장치(100)는 제1 컨텐츠 및 제2 컨텐츠를 매칭할 수 있다 (S610). 제1 컨텐츠가 수신되면, 전자 장치(100)는 제1 컨텐츠과 관련된 복수의 컨텐츠를 식별할 수 있다. 그리고, 전자 장치(100)는 식별된 복수의 컨텐츠를 포함하는 UI를 표시할 수 있다. 그리고, 표시된 UI를 통해 복수의 컨텐츠 중 하나의 컨텐츠(제2 컨텐츠)를 선택하는 사용자 입력이 수신되면, 전자 장치(100)는 사용자 입력에 대응되는 하나의 컨텐츠(제2 컨텐츠)와 제1 컨텐츠를 매칭할 수 있다. 여기서, 매칭 동작은 제1 컨텐츠와 함께 표시할 컨텐츠를 사용자가 직접 결정하는 동작을 의미할 수 있다.Also, the
예를 들어, 축구 경기(제1 컨텐츠)를 사용자가 선택하면, 전자 장치(100)는 축구 경기(제1 컨텐츠)와 관련된 복수의 개인 방송 컨텐츠를 식별할 수 있다. 그리고, 전자 장치(100)는 복수의 개인 방송 컨텐츠 중 사용자 입력에 대응되는 하나의 컨텐츠(제2 컨텐츠)를 식별할 수 있다.For example, when the user selects a soccer game (first content), the
또한, 전자 장치(100)는 제1 컨텐츠 및 제2 컨텐츠의 재생 시점을 동기화할 수 있다 (S615). 여기서, 전자 장치(100)는 제1 컨텐츠를 제1 기기(200)로부터 수신하고 제2 컨텐츠를 제2 기기(300)로부터 수신하므로, 제1 컨텐츠 및 제2 컨텐츠의 싱크가 맞지 않을 수 있다. 따라서, 전자 장치(100)는 싱크를 맞추기 위하여 동기화 동작을 수행할 수 있다.Also, the
또한, 전자 장치(100)는 동기화 동작이 완료되면, 제1 컨텐츠 및 제2 컨텐츠를 표시할 수 있다 (S620). 여기서, 전자 장치(100)는 제1 컨텐츠를 디스플레이(120)의 제1 영역에 표시하고, 제2 컨텐츠를 디스플레이(120)의 제2 영역에 표시할 수 있다.Also, when the synchronization operation is completed, the
도 7은 본 개시의 일 실시 예에 따른 전자 장치의 컨텐츠 매칭 동작을 설명하기 위한 흐름도이다.7 is a flowchart illustrating a content matching operation of an electronic device according to an embodiment of the present disclosure.
도 7을 참조하면, 도6의 S610 단계는 제1 컨텐츠와 매칭 가능한 복수의 컨텐츠를 표시하는 단계 (S705), 복수의 컨텐츠 중 하나의 컨텐츠를 선택하기 위한 사용자 입력을 수신하는 단계 (S710) 및 사용자 입력에 대응되는 제2 컨텐츠를 제1 컨텐츠와 매칭하는 단계 (S715)를 포함할 수 있다.Referring to FIG. 7 , step S610 of FIG. 6 includes displaying a plurality of contents matching the first content ( S705 ), receiving a user input for selecting one content from among the plurality of contents ( S710 ), and It may include matching the second content corresponding to the user input with the first content (S715).
도 8은 도 7의 매칭 동작에서 표시되는 UI를 설명하기 위한 도면이다.FIG. 8 is a diagram for explaining a UI displayed in the matching operation of FIG. 7 .
도 8을 참조하면, 전자 장치(100)는 S705 단계에서 디스플레이(120)에 제1 컨텐츠에 대응되는 이미지(801) 및 제1 컨텐츠와 매칭 가능한 복수의 컨텐츠를 포함하는 UI(802)를 동시에 표시할 수 있다. 여기서, 이미지(801)는 디스플레이(120)의 제1 영역에 표시되고, UI (802)는 디스플레이(120)의 제2 영역에 표시될 수 있다.Referring to FIG. 8 , the
도 9는 본 개시의 일 실시 예에 따른 전자 장치의 제1 컨텐츠 및 제2 컨텐츠의 동기화 동작을 설명하기 위한 흐름도이다.9 is a flowchart illustrating an operation of synchronizing first content and second content of an electronic device according to an embodiment of the present disclosure.
도 9를 참조하면, 전자 장치(100)는 제1 특징 정보 및 제2 특징 정보를 획득할 수 있다 (S905). 또한, 전자 장치(100)는 제1 특징 정보 및 제2 특징 정보가 일치하는지 식별할 수 있다 (S910).Referring to FIG. 9 , the
여기서, 제1 특징 정보 및 제2 특징 정보가 일치하면 (S910-Y), 전자 장치(100)는 제1 컨텐츠 및 제2 컨텐츠를 표시할 수 있다 (S930).Here, when the first characteristic information and the second characteristic information match (S910-Y), the
한편, 제1 특징 정보 및 제2 특징 정보가 일치하지 않으면 (S910-N), 전자 장치(100)는 제1 컨텐츠 및 제2 컨텐츠 중 재생 시점의 변경이 가능한 컨텐츠가 존재하는지 여부를 식별할 수 있다 (S915). 여기서, 재생 시점의 변경은 현재 재생되는 프레임의 시점을 변경하는 것을 의미할 수 있다. 예를 들어, 재생 시점의 변경은 컨텐츠의 타임 라인에서 2초에서 4초로 변경하는 것을 의미할 수 있다. 재생 시점이 변경되면 표시되는 이미지 출력되는 오디오가 상이해지는 것을 의미할 수 있다. 녹화 방송 컨텐츠 또는 OTT 관련 컨텐츠는 재생 시점의 변경이 가능할 수 있지만, 라이브 컨텐츠는 재생 시점의 변경이 불가능할 수 있다. 또한, 예외적으로, 라이브 컨텐츠라고 하더라도 컨텐츠를 제공하는 기기에서 별도로 재생 시점의 변경 기능을 제공할 수 있다.On the other hand, if the first characteristic information and the second characteristic information do not match (S910-N), the
여기서, 제1 컨텐츠 및 제2 컨텐츠 중 재생 시점 변경이 가능한 컨텐츠가 하나라도 존재하면 (S915-Y), 전자 장치(100)는 재생 시점 변경이 가능한 컨텐츠의 재생 설정을 변경할 수 있다 (S920). 그리고, 전자 장치(100)는 제1 컨텐츠 및 제2 컨텐츠를 표시할 수 있다 (S930). S920 단계의 구체적인 동작은 도 10에서 후술한다.Here, if at least one of the first content and the second content, which can change the playback time, exists (S915-Y), the
한편, 제1 컨텐츠 및 제2 컨텐츠 중 재생 시점 변경이 가능한 컨텐츠가 존재하지 않으면 (S915-N), 전자 장치(100)는 재생 시점이 빠른 컨텐츠의 재생 설정을 변경할 수 있다 (S925). 그리고, 전자 장치(100)는 제1 컨텐츠 및 제2 컨텐츠를 표시할 수 있다 (S930). S925 단계의 구체적인 동작은 도 11 및 도 12에서 후술한다.Meanwhile, if there is no content capable of changing the playback time among the first content and the second content (S915-N), the
도 10은 본 개시의 일 실시 예에 따른 전자 장치의 컨텐츠 재생 설정 변경 동작을 설명하기 위한 흐름도이다.10 is a flowchart illustrating an operation of changing a content reproduction setting of an electronic device according to an embodiment of the present disclosure.
도 10을 참조하면, 제1 특징 정보 및 제2 특징 정보가 일치하지 않으면 (도9의 S910-N), 전자 장치(100)는 제1 컨텐츠의 제1 재생 시점을 변경할 수 있는지 식별할 수 있다 (S1005). 여기서, 제1 컨텐츠의 제1 재생 시점이 변경될 수 있는 것으로 식별되면 (S1005-Y), 전자 장치(100)는 제1 컨텐츠의 제1 재생 시점을 변경할 수 있다 (S1010). 그리고, 전자 장치(100)는 제1 컨텐츠 및 제2 컨텐츠를 표시할 수 있다 (S1015).Referring to FIG. 10 , if the first characteristic information and the second characteristic information do not match ( S910 -N in FIG. 9 ), the
한편, 제1 컨텐츠의 제1 재생 시점이 변경될 수 없는 것으로 식별되면 (S1005-N), 전자 장치(100)는 제2 컨텐츠의 제2 재생 시점이 변경될 수 있는지 식별할 수 있다 (S1020). 여기서, 제2 컨텐츠의 제2 재생 시점이 변경될 수 있는 것으로 식별되면 (S1020-Y), 전자 장치(100)는 제2 컨텐츠의 제2 재생 시점을 변경할 수 있다 (S1025). 그리고, 전자 장치(100)는 제1 컨텐츠 및 제2 컨텐츠를 표시할 수 있다 (S1015).Meanwhile, if it is identified that the first playback time of the first content cannot be changed (S1005-N), the
한편, 제2 컨텐츠의 제2 재생 시점이 변경될 수 없는 것으로 식별되면 (S1020-N), 전자 장치(100)는 재생 시점이 빠른 컨텐츠의 재생 설정을 변경할 수 있다 (S1030). 그리고, 전자 장치(100)는 제1 컨텐츠 및 제2 컨텐츠를 표시할 수 있다 (S1015). 여기서, S1030 단계는 도 9의 S925 단계에 대응될 수 있다.On the other hand, if it is identified that the second playback time of the second content cannot be changed (S1020-N), the
도 11은 본 개시의 다른 실시 예에 따른 전자 장치의 컨텐츠 재생 설정 변경 동작을 설명하기 위한 흐름도이다.11 is a flowchart illustrating an operation of changing a content reproduction setting of an electronic device according to another embodiment of the present disclosure.
도 11을 참조하면, 재생 시점을 변경할 수 있는 컨텐츠가 식별되지 않으면 (도9의 S915-N), 전자 장치(100)는 제1 컨텐츠의 제1 재생 시점이 제2 컨텐츠의 제2 재생 시점보다 빠른지 여부를 식별할 수 있다 (S1105).Referring to FIG. 11 , if the content that can change the playback time is not identified ( S915-N in FIG. 9 ), the
여기서, 제1 컨텐츠의 제1 재생 시점이 제2 컨텐츠의 제2 재생 시점보다 빠르다고 식별되면 (S1105-Y), 전자 장치(100)는 제1 컨텐츠를 메모리(140)에 저장할 수 있다 (S1110). 그리고, 전자 장치(100)는 제1 컨텐츠의 재생을 일시 정지하고 제2 컨텐츠를 계속하여 표시할 수 있다 (S1115). 그리고, 전자 장치(100)는 제1 특징 정보 및 제2 특징 정보가 일치하는지 여부를 식별할 수 있다 (S1120). 여기서, 제1 특징 정보 및 제2 특징 정보가 일치하면 (S1120-Y), 전자 장치(100)는 제1 컨텐츠 및 제2 컨텐츠를 표시할 수 있다 (S1125). 그리고, 전자 장치(100)는 메모리(140)에 저장된 컨텐츠(제1 컨텐츠)를 삭제할 수 있다. 여기서, 제1 특징 정보 및 제2 특징 정보가 일치하지 않으면 (S1120-N), 전자 장치(100)는 반복하여 제1 컨텐츠의 재생을 일시 정지하고 제2 컨텐츠를 계속하여 표시하는 S1115 단계를 수행할 수 있다.Here, if it is identified that the first reproduction time of the first content is earlier than the second reproduction time of the second content (S1105-Y), the
한편, S1115 단계에서 제1 컨텐츠를 일시 정지 하는 동안 제1 기기(200)로부터 계속하여 제1 컨텐츠를 수신할 수 있다. 제1 특징 정보 및 제2 특징 정보가 일치하면, 전자 장치(100)는 제1 컨텐츠 및 제2 컨텐츠의 싱크가 일치한다고 식별할 수 있다. 그리고, 전자 장치(100)는 제1 컨텐츠 및 제2 컨텐츠를 수신하자마자 바로 표시할 수 있다. 하지만, 제1 특징 정보 및 제2 특징 정보가 일치하지 않으면, 전자 장치(100)는 제1 컨텐츠 및 제2 컨텐츠의 싱크가 일치하지 않는다고 식별할 수 있다. 그리고, 전자 장치(100)는 싱크를 맞추기 위해(일치 시키기 위해) 재생 시점이 빠르다고 판단한 제1 컨텐츠의 재생을 일시 정지할 수 있다. 다만, 여기서 제1 컨텐츠가 계속 수신되고 있으므로, 전자 장치(100)는 제1 컨텐츠를 메모리(140)의 비휘발성 영역에 저장할 수 있다. 여기서, 전자 장치(100)는 제1 특징 정보 및 제2 특징 정보가 일치할 때까지 제1 컨텐츠의 재생을 일시 정지할 수 있다.Meanwhile, while the first content is paused in step S1115 , the first content may be continuously received from the
한편, 제1 컨텐츠의 제1 재생 시점이 제2 컨텐츠의 제2 재생 시점보다 느리다고 식별되면 (S1105-N), 제2 컨텐츠를 메모리(140)에 저장할 수 있다 (S1130). 그리고, 전자 장치(100)는 제2 컨텐츠의 재생을 일시 정지하고 제1 컨텐츠를 계속하여 표시할 수 있다 (S1135). 그리고, 전자 장치(100)는 제1 특징 정보 및 제2 특징 정보가 일치하는지 여부를 식별할 수 있다 (S1140). 여기서, 제1 특징 정보 및 제2 특징 정보가 일치하면 (S1140-Y), 전자 장치(100)는 제2 컨텐츠 및 제1 컨텐츠를 표시할 수 있다 (S1125). 그리고, 전자 장치(100)는 메모리(140)에 저장된 컨텐츠(제2 컨텐츠)를 삭제할 수 있다. 여기서, 제1 특징 정보 및 제2 특징 정보가 일치하지 않으면 (S1140-N), 전자 장치(100)는 반복하여 제2 컨텐츠의 재생을 일시 정지하고 제1 컨텐츠를 계속하여 표시하는 S1135 단계를 수행할 수 있다.Meanwhile, if it is identified that the first reproduction time of the first content is slower than the second reproduction time of the second content (S1105-N), the second content may be stored in the memory 140 (S1130). Then, the
한편, S1135 단계에서 제2 컨텐츠를 일시 정지 하는 동안 제2 기기(300)로부터 계속하여 제2 컨텐츠를 수신할 수 있다. 제1 특징 정보 및 제2 특징 정보가 일치하면, 전자 장치(100)는 제1 컨텐츠 및 제2 컨텐츠의 싱크가 일치한다고 식별할 수 있다. 그리고, 전자 장치(100)는 제1 컨텐츠 및 제2 컨텐츠를 수신하자마자 바로 표시할 수 있다. 하지만, 제1 특징 정보 및 제2 특징 정보가 일치하지 않으면, 전자 장치(100)는 제1 컨텐츠 및 제2 컨텐츠의 싱크가 일치하지 않는다고 식별할 수 있다. 그리고, 전자 장치(100)는 싱크를 맞추기 위해(일치 시키기 위해) 재생 시점이 빠르다고 판단한 제2 컨텐츠의 재생을 일시 정지할 수 있다. 다만, 여기서 제2 컨텐츠가 계속 수신되고 있으므로, 전자 장치(100)는 제2 컨텐츠를 메모리(140)의 비휘발성 영역에 저장할 수 있다. 여기서, 전자 장치(100)는 제1 특징 정보 및 제2 특징 정보가 일치할 때까지 제2 컨텐츠의 재생을 일시 정지할 수 있다.Meanwhile, while the second content is paused in step S1135 , the second content may be continuously received from the
도 12는 본 개시의 또 다른 실시 예에 따른 전자 장치의 컨텐츠 재생 설정 변경 동작을 설명하기 위한 흐름도이다.12 is a flowchart illustrating an operation of changing a content reproduction setting of an electronic device according to another embodiment of the present disclosure.
도 12를 참조하면, S1205, S1210, S1220, S1225, S1226, S1230, S1240 단계는 도 11의 S1105, S1110, S1120, S1125, S1126, S1130, S1140 단계에 대응될 수 있다. 따라서, 중복 설명을 생략한다.12 , steps S1205, S1210, S1220, S1225, S1226, S1230, and S1240 may correspond to steps S1105, S1110, S1120, S1125, S1126, S1130, and S1140 of FIG. 11 . Therefore, redundant description is omitted.
한편, 도 12의 S1215 단계는 도 11의 S1115 단계 대신에 수행될 수 있으며, 도 12의 S1235 단계는 도 11의 S1135 단계 대신에 수행될 수 있다.Meanwhile, step S1215 of FIG. 12 may be performed instead of step S1115 of FIG. 11 , and step S1235 of FIG. 12 may be performed instead of step S1135 of FIG. 11 .
구체적으로, 전자 장치(100)는 S1210 단계 이후에 제1 컨텐츠의 재생 속도를 감속하여 표시하고 제2 컨텐츠의 재생 속도를 유지하여 표시할 수 있다. 예를 들어, 전자 장치(100)는 제1 컨텐츠를 0.8배속으로 재생하고, 제2 컨텐츠를 기존 배속인 1배속으로 재생할 수 있다.Specifically, after step S1210 , the
또한, 전자 장치(100)는 S1230 단계 이후에 제2 컨텐츠의 재생 속도를 감속하여 표시하고, 제1 컨텐츠의 재생 속도를 유지하여 표시할 수 있다. 예를 들어, 전자 장치(100)는 제2 컨텐츠를 0.8배속으로 재생하고, 제1 컨텐츠를 기존 배속인 1배속으로 재생할 수 있다.Also, after step S1230 , the
도 11과 달리 도 12의 실시 예의 전자 장치(100)는 컨텐츠를 일시 정지하지 않고 재생 속도를 감소시킬 수 있다. 따라서, 사용자 입장에선 싱크를 일치시키는 동작이 자연스럽게 느껴질 수 있다.Unlike FIG. 11 , the
도 13은 본 개시의 다양한 실시 예에 따른 전자 장치의 컨텐츠 재생 설정 변경 동작을 설명하기 위한 도면이다.13 is a diagram for explaining an operation of changing a content reproduction setting of an electronic device according to various embodiments of the present disclosure;
도 13을 참조하면, 표(1305)는 4개의 실시 예에 따른 전자 장치(100)의 재생 설정 동작을 포함할 수 있다. 제1 실시 예에 따라, 제1 컨텐츠의 재생 시점 변경이 가능하고, 제2 컨텐츠의 재생 시점 변경이 가능할 수 있다. 여기서, 전자 장치(100)는 제1 컨텐츠 또는 제2 컨텐츠 중 적어도 하나의 컨텐츠의 재생 설정을 변경할 수 있다. 여기서, 재생 설정의 변경 동작은 재생의 일시 정지, 재생 속도의 증가 또는 재생 속도의 감소를 의미할 수 있다.Referring to FIG. 13 , a table 1305 may include playback setting operations of the
또한, 제2 실시 예에 따라, 제1 컨텐츠의 재생 시점 변경이 가능하고, 제2 컨텐츠의 재생 시점 변경이 불가능할 수 있다. 여기서, 전자 장치(100)는 재생 시점 변경이 가능한 제1 컨텐츠의 재생 설정을 변경할 수 있다.Also, according to the second embodiment, it is possible to change the playback time of the first content, but it may not be possible to change the playback time of the second content. Here, the
또한, 제3 실시 예에 따라, 제1 컨텐츠의 재생 시점 변경이 불가능하고, 제2 컨텐츠의 재생 시점 변경이 가능할 수 있다. 여기서, 전자 장치(100)는 재생 시점 변경이 가능한 제2 컨텐츠의 재생 설정을 변경할 수 있다.Also, according to the third exemplary embodiment, it may be impossible to change the playback time of the first content, and it may be possible to change the playback timing of the second content. Here, the
또한, 제4 실시 예에 따라, 제1 컨텐츠의 재생 시점 변경이 불가능하고, 제2 컨텐츠의 재생 시점 변경이 불가능할 수 있다. 여기서, 전자 장치(100)는 재생 시점이 빠른 컨텐츠를 메모리(140)에 저장한 후 저장된 컨텐츠의 재생 설정을 변경할 수 있다.Also, according to the fourth embodiment, it may be impossible to change the playback time of the first content and it may not be possible to change the playback timing of the second content. Here, the
도 14는 제1 컨텐츠의 재생 시점이 제2 컨텐츠의 재생 시점보다 빠른 실시 예를 설명하기 위한 도면이다.14 is a diagram for explaining an embodiment in which a playback time of a first content is earlier than a playback time of a second content.
도 14를 참조하면, 일 실시 예(1405)에 따라, 제1 컨텐츠의 제1 재생 시점이 제2 컨텐츠의 제2 재생 시점보다 빠를 수 있다. 제2 컨텐츠의 생성 및 전송에 딜레이가 발생할 수 있기 때문이다.Referring to FIG. 14 , according to an
제1 컨텐츠의 제1 재생 시점이 제2 컨텐츠의 제2 재생 시점보다 1초만큼 빠르다고 가정한다.It is assumed that the first reproduction time of the first content is earlier than the second reproduction time of the second content by 1 second.
여기서, 전자 장치(100)는 제1 컨텐츠의 제1 이미지(201-1) 및 제2 컨텐츠의 로딩 이미지(1410)를 동시에 표시할 수 있다. 1초 경과 후, 전자 장치(100)는 제1 컨텐츠의 제2 이미지(201-2) 및 제2 컨텐츠의 제4 이미지(202-1)를 동시에 표시할 수 있다. 다시 1초 경과 후, 전자 장치(100)는 제1 컨텐츠의 제3 이미지(201-3) 및 제2 컨텐츠의 제5 이미지(202-2)를 동시에 표시할 수 있다.Here, the
전자 장치(100)는 제1 컨텐츠의 제1 재생 시점이 제2 컨텐츠의 제2 재생 시점보다 1초만큼 빠르게 재생하고 있으므로, 사용자는 1초에 해당하는 간격만큼 싱크가 맞지 않다고 느낄 수 있다.Since the
도 15는 제1 컨텐츠의 재생 시점이 제2 컨텐츠의 재생 시점보다 느린 실시 예를 설명하기 위한 도면이다.15 is a diagram for explaining an embodiment in which a playback time of a first content is slower than a playback time of a second content.
도 15를 참조하면, 다른 실시 예(1505)에 따라, 제2 컨텐츠의 제2 재생 시점이 제1 컨텐츠의 제1 재생 시점보다 빠를 수 있다. 제1 컨텐츠의 전송에 딜레이가 발생할 수 있기 때문이다.Referring to FIG. 15 , according to another
제2 컨텐츠의 제2 재생 시점이 제1 컨텐츠의 제1 재생 시점보다 1초만큼 빠르다고 가정한다.It is assumed that the second reproduction time of the second content is earlier than the first reproduction time of the first content by 1 second.
여기서, 전자 장치(100)는 제1 컨텐츠의 제1 이미지(201-1) 및 제2 컨텐츠의 제5 이미지(202-2)를 동시에 표시할 수 있다. 1초 경과 후, 전자 장치(100)는 제1 컨텐츠의 제2 이미지(201-2) 및 제2 컨텐츠의 제6 이미지(202-3)를 동시에 표시할 수 있다. 다시 1초 경과 후, 전자 장치(100)는 제1 컨텐츠의 제3 이미지(201-3) 및 제2 컨텐츠의 제7 이미지(202-4)를 동시에 표시할 수 있다.Here, the
전자 장치(100)는 제2 컨텐츠의 제2 재생 시점이 제1 컨텐츠의 제1 재생 시점보다 1초만큼 빠르게 재생하고 있으므로, 사용자는 1초에 해당하는 간격만큼 싱크가 맞지 않다고 느낄 수 있다.Since the
도 16은 전자 장치, 제1 기기 및 제2 기기의 컨텐츠 동기화 동작을 설명하기 위한 시스템 흐름도이다.16 is a system flow diagram for explaining contents synchronization operations of an electronic device, a first device, and a second device.
도 16을 참조하면, 제1 기기(200)는 제1 컨텐츠를 저장할 수 있다 (S1605). 그리고, 제1 기기(200)는 제2 기기(300)에 제1 컨텐츠를 전송할 수 있다 (S1610). 그리고, 제1 기기(200)는 전자 장치(100)에 제1 컨텐츠를 전송할 수 있다 (S1615).Referring to FIG. 16 , the
여기서, 전자 장치(100)는 제1 컨텐츠에 대응되는 제1 특징 정보를 획득할 수 있다 (S1620).Here, the
한편, 제2 기기(300)는 제1 컨텐츠를 수신한 이후, 제1 컨텐츠와 관련된 제2 컨텐츠를 생성할 수 있다 (S1625). 그리고, 제2 기기(300)는 제1 기기(200)로부터 수신된 제1 컨텐츠에 기초하여 제1 컨텐츠에 대응되는 제2 특징 정보를 획득할 수 있다 (S1630). 그리고, 제2 기기(300)는 제2 특징 정보 및 제2 컨텐츠를 전자 장치(100)에 전송할 수 있다 (S1635). 여기서, 제2 기기(300)가 제1 컨텐츠 대신에 제1 컨텐츠에 대응되는 제2 특징 정보를 전송하는 이유는 저작권 문제 때문일 수 있다. 제2 기기(300)는 제1 기기(200)로부터 제1 컨텐츠를 수신할 수 있지만, 제1 컨텐츠를 타인에게 무단 배포할 권리가 없을 수 있다. 따라서, 제2 기기(300)는 제1 컨텐츠를 전자 장치(100)에 전송할 수 없다. 하지만, 동기화 동작을 위해 전자 장치(100)는 제2 컨텐츠가 제1 컨텐츠와 어떻게 동기화 되는지 판단하여야 한다. 따라서, 전자 장치(100)는 제2 기기(300)로부터 제1 컨텐츠 대신에 제1 컨텐츠에 대응되는 제2 특징 정보를 수신할 수 있다.Meanwhile, after receiving the first content, the
전자 장치(100)는 S1620 단계를 통해 획득한 제1 특징 정보 및 S1635 단계를 통해 획득한 제2 특징 정보에 기초하여 제1 컨텐츠 및 제2 컨텐츠의 재생 시점을 동기화 할 수 있다 (S1640). 그리고, 전자 장치(100)는 제1 컨텐츠 및 제2 컨텐츠를 표시할 수 있다 (S1645).The
도 17은 제2 기기의 제2 특징 정보를 획득하는 동작을 설명하기 위한 흐름도이다.17 is a flowchart illustrating an operation of acquiring second characteristic information of a second device.
도 17을 참조하면, 제2 기기(300)는 제1 기기(200)로부터 제1 컨텐츠를 수신할 수 있다 (S1705). 그리고, 제2 기기(300)는 제1 컨텐츠와 관련된 제2 컨텐츠를 생성할 수 있다 (S1710). 그리고, 제2 기기(300)는 제1 기기(200)로부터 수신된 제1 컨텐츠에 기초하여 제1 컨텐츠에 대응되는 제2 특징 정보를 획득할 수 있다 (S1715). 그리고, 제2 기기(300)는 제2 컨텐츠 및 제2 특징 정보를 전자 장치(100)에 전송할 수 있다 (S1720).Referring to FIG. 17 , the
일 실시 예에 따라, 제2 기기(300)는 직접 제1 컨텐츠를 수신하고, 제1 컨텐츠에 대응되는 제2 특징 정보를 획득할 수 있다. 예를 들어, 제2 기기(300)는 통신 인터페이스를 통해 제1 기기(200)로부터 제1 컨텐츠를 수신할 수 있다. 여기서, 제1 특징 정보는 방송 유형, 시청 채널 또는 컨텐츠 타임 스탬프 중 적어도 하나를 포함할 수 있다.According to an embodiment, the
다른 실시 예에 따라, 제2 기기(300)는 제1 컨텐츠를 수신하지 않고 제1 컨텐츠에 대응되는 제2 특징 정보를 획득할 수 있다. 예를 들어, 제2 기기(300)는 카메라 또는 마이크를 통해 재생 중인 제1 컨텐츠에 대한 정보를 획득할 수 있다. 구체적으로, 제2 기기(300)는 제2 기기(300)의 마이크를 통해 별도의 기기에서 재생 중인 제1 컨텐츠의 오디오 데이터를 획득할 수 있다. 또한, 제2 기기(300) 는 제2 기기(300)의 카메라를 통해 별도의 기기에서 재생 중인 제1 컨텐츠의 이미지 데이터를 획득할 수 있다. 따라서, 제2 기기(300)는 직접 제1 컨텐츠를 수신하지 않아도 제1 컨텐츠에 대응되는 제2 특징 정보를 획득할 수 있다.According to another embodiment, the
도 18은 본 개시의 일 실시 예에 따른 제2 기기의 제2 특징 정보를 획득하는 동작을 설명하기 위한 시스템 흐름도이다.18 is a system flowchart illustrating an operation of acquiring second characteristic information of a second device according to an embodiment of the present disclosure.
도 18을 참조하면, 제1 기기(200)는 제1 컨텐츠를 저장할 수 있다 (S1805). 그리고, 제1 기기(200)는 제2 기기(300)에 제1 컨텐츠를 전송할 수 있다 (S1810). 그리고, 제1 기기(200)는 전자 장치(100)에 제1 컨텐츠를 전송할 수 있다 (S1815).Referring to FIG. 18 , the
여기서, 전자 장치(100)는 제1 기기(200)로부터 수신된 제1 컨텐츠에 기초하여 제1 컨텐츠의 제1 이미지 데이터를 제1 특징 정보로서 획득할 수 있다 (S1820).Here, the
한편, 제2 기기(300)는 제1 기기(200)로부터 수신된 제1 컨텐츠에 기초하여 제1 컨텐츠의 제2 이미지 데이터를 획득할 수 있다 (S1825). 그리고, 제2 기기(300)는 제1 컨텐츠와 관련된 제2 컨텐츠를 생성할 수 있다 (S1830). 그리고, 제2 기기(300)는 제1 컨텐츠의 제2 이미지 데이터 및 제2 컨텐츠를 매칭하여 제2 특징 정보를 획득할 수 있다 (S1835). 그리고, 제2 기기(300)는 제2 특징 정보 및 제2 컨텐츠를 전자 장치(100)에 전송할 수 있다 (S1840).Meanwhile, the
전자 장치(100)는 S1820 단계를 통해 획득한 제1 특징 정보 및 S1840 단계를 통해 획득한 제2 특징 정보에 기초하여 제1 컨텐츠 및 제2 컨텐츠의 재생 시점을 동기화 할 수 있다 (S1845). 그리고, 전자 장치(100)는 제1 컨텐츠 및 제2 컨텐츠를 표시할 수 있다 (S1850).The
도 19는 본 개시의 일 실시 예에 따라, 제1 특징 정보 및 제2 특징 정보를 비교하여 재생 시점을 식별하는 동작을 설명하기 위한 도면이다.19 is a diagram for explaining an operation of identifying a reproduction time point by comparing first characteristic information and second characteristic information, according to an embodiment of the present disclosure.
도 19를 참조하면, 표(1905)는 전자 장치(100)에서 획득한 제1 특징 정보 및 제2 기기(300)로부터 수신된 제2 특징 정보를 포함할 수 있다. 여기서, 제1 특징 정보 및 제2 특징 정보는 이미지 데이터에 대응되는 값을 포함할 수 있다. 여기서, 이미지 데이터에 대응되는 값은 픽셀값을 의미할 수 있다. 제1 특징 정보에 포함된 제1 컨텐츠의 프레임 단위(예를 들어, 1초)의 픽셀값이 #223344, #334455, #445566, #556677, #667788이라고 가정한다. 그리고, 제2 특징 정보에 포함된 제1 컨텐츠의 프레임 단위(예를 들어, 1초)의 픽셀값이 #112233, #223344, #334455, #445566, #556677이라고 가정한다. 여기서, 제2 특징 정보는 제1 컨텐츠에 기초하여 획득된 정보이지만, 제2 컨텐츠의 재생 시점을 대표하는 정보일 수 있다. 제2 특징 정보는 제2 컨텐츠를 생성하는 제2 기기(300)에 의해 획득된 정보이며, 제2 특징 정보에는 제2 컨텐츠의 재생 시점과 관련된 정보가 포함될 수 있다.Referring to FIG. 19 , a table 1905 may include first characteristic information obtained from the
구체적으로, 제1 특징 정보는 제1 컨텐츠에 대응되는 제1 데이터(픽셀값)을 포함할 수 있다. 그리고, 제2 특징 정보는 제1 컨텐츠에 대응되는 제2 데이터(픽셀값) 및 제2 데이터에 대응되는 제2 컨텐츠의 프레임 정보를 포함할 수 있다. 제2 기기(300)는 제2 컨텐츠의 프레임 각각과 제1 컨텐츠의 픽셀값을 매칭시켜 제2 특징 정보를 획득할 수 있다.Specifically, the first characteristic information may include first data (pixel values) corresponding to the first content. In addition, the second characteristic information may include second data (pixel values) corresponding to the first content and frame information of the second content corresponding to the second data. The
예를 들어, 제2 데이터가 이미지 데이터의 픽셀값이고, #112233, #223344, #334455, #445566, #556677라고 가정한다. 여기서, 제2 기기(300)는 #112233에 대응되는 제1 컨텐츠의 프레임이 제공되는 동안 제2 컨텐츠의 #01프레임을 생성하고, #223344에 대응되는 제1 컨텐츠의 프레임이 제공되는 동안 제2 컨텐츠의 #02프레임을 생성하고, #334455에 대응되는 제1 컨텐츠의 프레임이 제공되는 동안 제2 컨텐츠의 #03프레임을 생성하고, #445566에 대응되는 제1 컨텐츠의 프레임이 제공되는 동안 제2 컨텐츠의 #04프레임을 생성하고, #556677에 대응되는 제1 컨텐츠의 프레임이 제공되는 동안 제2 컨텐츠의 #05프레임을 생성할 수 있다.For example, it is assumed that the second data are pixel values of image data and are #112233, #223344, #334455, #445566, and #556677. Here, the
전자 장치(100)가 획득한 제1 특징 정보 및 제2 특징 정보는 모두 제1 컨텐츠에 관한 것이지만, 특징 정보를 추출한 주체가 다를 수 있다. 주체가 다르더라도, 동일한 추출 방법을 이용하는 경우, 동일한 특징 정보가 추출될 수 있다. 다만, 딜레이 발생에 의하여 일부 싱크가 맞지 않을 수 있다.Although both the first characteristic information and the second characteristic information obtained by the
전자 장치(100)는 제1 특징 정보 및 제2 특징 정보를 비교함으로써 싱크를 맞출 수 있다. 표(1905)를 참조하면, 전자 장치(100)는 제1 특징 정보 및 제2 특징 정보에 기초하여 픽셀값의 변화 패턴을 획득할 수 있고, 획득된 픽셀값의 변화 패턴에 기초하여 제1 컨텐츠 및 제2 컨텐츠의 재생 시점 차이를 식별할 수 있다. 전자 장치(100)는 표(1905)에 기초하여 제1 컨텐츠가 제2 컨텐츠보다 1초 빠르게 재생됨을 식별할 수 있다.The
도 20은 본 개시의 다른 실시 예에 따른 제2 기기의 제2 특징 정보를 획득하는 동작을 설명하기 위한 시스템 흐름도이다.20 is a system flowchart for explaining an operation of acquiring second characteristic information of a second device according to another embodiment of the present disclosure.
도 20을 참조하면, 제1 기기(200)는 제1 컨텐츠를 저장할 수 있다 (S2005). 그리고, 제1 기기(200)는 제2 기기(300)에 제1 컨텐츠를 전송할 수 있다 (S2010). 그리고, 제1 기기(200)는 전자 장치(100)에 제1 컨텐츠를 전송할 수 있다 (S2015).Referring to FIG. 20 , the
여기서, 전자 장치(100)는 제1 기기(200)로부터 수신된 제1 컨텐츠에 기초하여 제1 컨텐츠의 제1 오디오 데이터를 제1 특징 정보로서 획득할 수 있다 (S2020).Here, the
한편, 제2 기기(300)는 제1 기기(200)로부터 수신된 제1 컨텐츠에 기초하여 제1 컨텐츠의 제2 오디오 데이터를 획득할 수 있다 (S2025). 그리고, 제2 기기(300)는 제1 컨텐츠와 관련된 제2 컨텐츠를 생성할 수 있다 (S2030). 그리고, 제2 기기(300)는 제1 컨텐츠의 제2 오디오 데이터 및 제2 컨텐츠를 매칭하여 제2 특징 정보를 획득할 수 있다 (S2035). 그리고, 제2 기기(300)는 제2 특징 정보 및 제2 컨텐츠를 전자 장치(100)에 전송할 수 있다 (S2040).Meanwhile, the
전자 장치(100)는 S2020 단계를 통해 획득한 제1 특징 정보 및 S2040 단계를 통해 획득한 제2 특징 정보에 기초하여 제1 컨텐츠 및 제2 컨텐츠의 재생 시점을 동기화 할 수 있다 (S2045). 그리고, 전자 장치(100)는 제1 컨텐츠 및 제2 컨텐츠를 표시할 수 있다 (S2050).The
도 21은 본 개시의 다른 실시 예에 따라, 제1 특징 정보 및 제2 특징 정보를 비교하여 재생 시점을 식별하는 동작을 설명하기 위한 도면이다.21 is a diagram for explaining an operation of identifying a reproduction time point by comparing first characteristic information and second characteristic information, according to another embodiment of the present disclosure.
도 21을 참조하면, 표(2105)는 전자 장치(100)에서 획득한 제1 특징 정보 및 제2 기기(300)로부터 수신된 제2 특징 정보를 포함할 수 있다. 여기서, 제1 특징 정보 및 제2 특징 정보는 오디오 데이터에 대응되는 값을 포함할 수 있다. 여기서, 오디오 데이터에 대응되는 값은 소리 크기값을 의미할 수 있다. 제1 특징 정보에 포함된 제1 컨텐츠의 프레임 단위(예를 들어, 1초)의 소리 크기값이 20dB, 30dB, 40dB, 50dB, 60dB이라고 가정한다. 그리고, 제2 특징 정보에 포함된 제1 컨텐츠의 프레임 단위(예를 들어, 1초)의 소리 크기값이 10dB, 20dB, 30dB, 40dB, 50dB 이라고 가정한다. 여기서, 제2 특징 정보는 제1 컨텐츠에 기초하여 획득된 정보이지만, 제2 컨텐츠의 재생 시점을 대표하는 정보일 수 있다. 제2 특징 정보는 제2 컨텐츠를 생성하는 제2 기기(300)에 의해 획득된 정보이며, 제2 특징 정보에는 제2 컨텐츠의 재생 시점과 관련된 정보가 포함될 수 있다.Referring to FIG. 21 , a table 2105 may include first characteristic information obtained from the
구체적으로, 제1 특징 정보는 제1 컨텐츠에 대응되는 제1 데이터(소리 크기값)을 포함할 수 있다. 그리고, 제2 특징 정보는 제1 컨텐츠에 대응되는 제2 데이터(소리 크기값) 및 제2 데이터에 대응되는 제2 컨텐츠의 프레임 정보를 포함할 수 있다. 제2 기기(300)는 제2 컨텐츠의 프레임 각각과 제1 컨텐츠의 소리 크기값을 매칭시켜 제2 특징 정보를 획득할 수 있다.Specifically, the first characteristic information may include first data (a sound volume value) corresponding to the first content. In addition, the second characteristic information may include second data (a loudness value) corresponding to the first content and frame information of the second content corresponding to the second data. The
예를 들어, 제2 데이터가 이미지 데이터의 소리 크기값이고, 10dB, 20dB, 30dB, 40dB, 50dB라고 가정한다. 여기서, 제2 기기(300)는 10dB에 대응되는 제1 컨텐츠의 프레임이 제공되는 동안 제2 컨텐츠의 #01프레임을 생성하고, 20dB에 대응되는 제1 컨텐츠의 프레임이 제공되는 동안 제2 컨텐츠의 #02프레임을 생성하고, 30dB에 대응되는 제1 컨텐츠의 프레임이 제공되는 동안 제2 컨텐츠의 #03프레임을 생성하고, 40dB에 대응되는 제1 컨텐츠의 프레임이 제공되는 동안 제2 컨텐츠의 #04프레임을 생성하고, 50dB에 대응되는 제1 컨텐츠의 프레임이 제공되는 동안 제2 컨텐츠의 #05프레임을 생성할 수 있다.For example, it is assumed that the second data is a sound level value of image data and is 10dB, 20dB, 30dB, 40dB, or 50dB. Here, the
전자 장치(100)가 획득한 제1 특징 정보 및 제2 특징 정보는 모두 제1 컨텐츠에 관한 것이지만, 특징 정보를 추출한 주체가 다를 수 있다. 주체가 다르더라도, 동일한 추출 방법을 이용하는 경우, 동일한 특징 정보가 추출될 수 있다. 다만, 딜레이 발생에 의하여 일부 싱크가 맞지 않을 수 있다.Although both the first characteristic information and the second characteristic information obtained by the
전자 장치(100)는 제1 특징 정보 및 제2 특징 정보를 비교함으로써 싱크를 맞출 수 있다. 표(2105)를 참조하면, 전자 장치(100)는 제1 특징 정보 및 제2 특징 정보에 기초하여 소리 크기값의 변화 패턴을 획득할 수 있고, 획득된 소리 크기값의 변화 패턴에 기초하여 제1 컨텐츠 및 제2 컨텐츠의 재생 시점 차이를 식별할 수 있다. 전자 장치(100)는 표(2105)에 기초하여 제1 컨텐츠가 제2 컨텐츠보다 1초 빠르게 재생됨을 식별할 수 있다.The
도 22는 본 개시의 또 다른 실시 예에 따라, 제1 특징 정보 및 제2 특징 정보를 비교하여 재생 시점을 식별하는 동작을 설명하기 위한 도면이다.22 is a diagram for explaining an operation of identifying a reproduction time point by comparing first characteristic information and second characteristic information, according to another embodiment of the present disclosure;
도 22를 참조하면, 그래프(2201)는 제1 특징 정보에 포함된 제1 컨텐츠의 소리 파형일 수 있다. 그리고 그래프(2202)는 제2 특징 정보에 포함된 제1 컨텐츠의 소리 파형일 수 있다.Referring to FIG. 22 , a
전자 장치(100)는 제1 특징 정보 및 제2 특징 정보에 기초하여 제1 컨텐츠의 제2 컨텐츠의 재생 시점 차이를 식별할 수 있다. 그래프(2201) 및 그래프(2202)에 기초하여 전체적인 파형이 그래프(2201)가 빠름을 식별할 수 있다. 따라서, 전자 장치(100)는 제1 컨텐츠가 제2 컨텐츠보다 재생 시점이 1초 빠르게 재생되고 있음을 식별할 수 있다.The
도 23은 본 개시의 일 실시 예에 따른 전자 장치의 제어 방법을 설명하기 위한 흐름도이다.23 is a flowchart illustrating a method of controlling an electronic device according to an embodiment of the present disclosure.
도 23을 참조하면, 전자 장치(100)의 제어 방법은 제1 기기(200)로부터 제1 컨텐츠가 수신되면, 제1 컨텐츠에 대응되는 제1 특징 정보를 획득하는 단계 (S2305), 제2 기기(300)로부터 제1 컨텐츠에 대응되는 제2 특징 정보 및 제2 컨텐츠가 수신되면, 제1 특징 정보 및 제2 특징 정보에 기초하여 제1 컨텐츠 및 제2 컨텐츠의 재생 시점을 동기화하는 단계 (S2310) 및 재생 시점이 동기화된 제1 컨텐츠 및 동기화된 제2 컨텐츠를 표시하는 단계 (S2315)를 포함한다.Referring to FIG. 23 , in the method of controlling the
한편, 제어 방법은 제1 컨텐츠를 전자 장치(100)의 디스플레이(120)의 제1 영역에 표시하는 단계, 제2 컨텐츠를 디스플레이(120)의 제2 영역에 표시하는 단계를 더 포함할 수 있고, 재생 시점을 동기화하는 단계 (S2310)는 표시된 제1 컨텐츠에 대응되는 제1 특징 정보 및 표시된 제2 컨텐츠에 대응되는 제2 특징 정보에 기초하여 제1 컨텐츠 및 제2 컨텐츠의 재생 시점을 동기화할 수 있다.Meanwhile, the control method may further include displaying the first content on the first area of the
한편, 제1 특징 정보는 전자 장치(100)에서 획득된 제1 컨텐츠의 제1 이미지 데이터 또는 제1 컨텐츠의 제1 오디오 데이터 중 적어도 하나를 포함할 수 있고, 제2 특징 정보는 제2 기기(300)에서 획득된 제1 컨텐츠의 제2 이미지 데이터 또는 제1 컨텐츠의 제2 오디오 데이터 중 적어도 하나를 포함할 수 있다.Meanwhile, the first characteristic information may include at least one of first image data of the first content obtained by the
한편, 재생 시점을 동기화하는 단계 (S2310)는 제1 특징 정보 및 제2 특징 정보가 일치하지 않으면, 제1 컨텐츠 및 제2 컨텐츠의 재생 시점을 동기화할 수 있다.Meanwhile, in the step of synchronizing the playback timing ( S2310 ), when the first characteristic information and the second characteristic information do not match, the playback timing of the first content and the second content may be synchronized.
한편, 재생 시점을 동기화하는 단계 (S2310)는 제1 특징 정보 및 제2 특징 정보가 일치하지 않으면, 제1 컨텐츠 또는 제2 컨텐츠 중 하나의 컨텐츠의 재생 설정을 변경할 수 있다.Meanwhile, in the step of synchronizing the playback time ( S2310 ), if the first characteristic information and the second characteristic information do not match, the playback setting of one of the first content and the second content may be changed.
한편, 재생 시점을 동기화하는 단계 (S2310)는 컨텐츠의 재생을 일시 정지, 컨텐츠의 재생 속도를 감소 또는 컨텐츠의 재생 속도를 증가시킴으로써 제1 컨텐츠 또는 제2 컨텐츠 중 하나의 컨텐츠의 재생 설정을 변경할 수 있다.Meanwhile, in the step of synchronizing the playback time ( S2310 ), the playback setting of one of the first content or the second content may be changed by pausing the playback of the content, decreasing the playback speed of the content, or increasing the playback speed of the content. have.
한편, 재생 시점을 동기화하는 단계 (S2310)는 제1 특징 정보 및 제2 특징 정보에 기초하여 제1 컨텐츠 및 제2 컨텐츠 중 더 빠른 재생 시점을 갖는 컨텐츠를 식별할 수 있고, 식별된 컨텐츠의 재생 설정을 변경할 수 있다.Meanwhile, in the step of synchronizing the playback timing ( S2310 ), it is possible to identify a content having a faster playback timing from among the first content and the second content based on the first characteristic information and the second characteristic information, and to reproduce the identified content. You can change the settings.
한편, 재생 시점을 동기화하는 단계 (S2310)는 식별된 컨텐츠를 메모리(140)에 저장할 수 있고, 식별된 컨텐츠의 재생을 일시 정지하거나 식별된 컨텐츠의 재생 속도를 감소시킴으로써 식별된 컨텐츠의 재생 설정을 변경할 수 있다.On the other hand, in the step of synchronizing the playback time (S2310), the identified content may be stored in the
한편, 재생 시점을 동기화하는 단계 (S2310)는 식별된 컨텐츠와 다른 컨텐츠의 재생 속도를 유지할 수 있다.Meanwhile, in the step of synchronizing the playback time ( S2310 ), the playback speed of the identified content and other content may be maintained.
한편, 제1 컨텐츠에 대응되는 컨텐츠를 제공하는 적어도 하나의 기기를 포함하는 UI(User Interface)를 표시하는 단계 및 UI를 통해 제2 기기(300)를 선택하기 위한 사용자 입력이 수신되면, 제2 특징 정보 및 제2 컨텐츠를 요청하는 제어 신호를 제2 기기(300)에 전송하는 단계를 더 포함할 수 있다.On the other hand, when a user input for selecting the
한편, 도 23과 같은 전자 장치의 제어 방법은 도 4 또는 도 5의 구성을 가지는 전자 장치 상에서 실행될 수 있으며, 그 밖의 구성을 가지는 전자 장치 상에서도 실행될 수 있다.Meanwhile, the method of controlling the electronic device shown in FIG. 23 may be executed on the electronic device having the configuration of FIG. 4 or FIG. 5 , and may also be executed on the electronic device having other configurations.
한편, 상술한 본 개시의 다양한 실시 예들에 따른 방법들은, 기존 전자 장치에 설치 가능한 어플리케이션 형태로 구현될 수 있다.Meanwhile, the above-described methods according to various embodiments of the present disclosure may be implemented in the form of an application that can be installed in an existing electronic device.
또한, 상술한 본 개시의 다양한 실시 예들에 따른 방법들은, 기존 전자 장치에 대한 소프트웨어 업그레이드, 또는 하드웨어 업그레이드 만으로도 구현될 수 있다.In addition, the above-described methods according to various embodiments of the present disclosure may be implemented only by software upgrade or hardware upgrade of an existing electronic device.
또한, 상술한 본 개시의 다양한 실시 예들은 전자 장치에 구비된 임베디드 서버, 또는 전자 장치 및 디스플레이 장치 중 적어도 하나의 외부 서버를 통해 수행되는 것도 가능하다.In addition, various embodiments of the present disclosure described above may be performed through an embedded server provided in an electronic device, or an external server of at least one of an electronic device and a display device.
한편, 본 개시의 일시 예에 따르면, 이상에서 설명된 다양한 실시 예들은 기기(machine)(예: 컴퓨터)로 읽을 수 있는 저장 매체(machine-readable storage media)에 저장된 명령어를 포함하는 소프트웨어로 구현될 수 있다. 기기는, 저장 매체로부터 저장된 명령어를 호출하고, 호출된 명령어에 따라 동작이 가능한 장치로서, 개시된 실시 예들에 따른 전자 장치를 포함할 수 있다. 명령이 프로세서에 의해 실행될 경우, 프로세서가 직접, 또는 프로세서의 제어 하에 다른 구성요소들을 이용하여 명령에 해당하는 기능을 수행할 수 있다. 명령은 컴파일러 또는 인터프리터에 의해 생성 또는 실행되는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장 매체는, 비일시적(non-transitory) 저장 매체의 형태로 제공될 수 있다. 여기서, '비일시적'은 저장 매체가 신호(signal)를 포함하지 않으며 실재(tangible)한다는 것을 의미할 뿐 데이터가 저장 매체에 반영구적 또는 임시적으로 저장됨을 구분하지 않는다.Meanwhile, according to a temporary example of the present disclosure, the various embodiments described above may be implemented as software including instructions stored in a machine-readable storage media readable by a machine (eg, a computer). can The device is a device capable of calling a stored command from a storage medium and operating according to the called command, and may include the electronic device according to the disclosed embodiments. When the instruction is executed by the processor, the processor may perform a function corresponding to the instruction by using other components directly or under the control of the processor. Instructions may include code generated or executed by a compiler or interpreter. The device-readable storage medium may be provided in the form of a non-transitory storage medium. Here, 'non-transitory' means that the storage medium does not include a signal and is tangible, and does not distinguish that data is semi-permanently or temporarily stored in the storage medium.
또한, 본 개시의 일 실시 예에 따르면, 이상에서 설명된 다양한 실시 예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 온라인으로 배포될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.In addition, according to an embodiment of the present disclosure, the method according to the various embodiments described above may be provided by being included in a computer program product. Computer program products may be traded between sellers and buyers as commodities. The computer program product may be distributed in the form of a machine-readable storage medium (eg, compact disc read only memory (CD-ROM)) or online through an application store (eg, Play Store™). In the case of online distribution, at least a part of the computer program product may be temporarily stored or temporarily generated in a storage medium such as a memory of a server of a manufacturer, a server of an application store, or a relay server.
또한, 상술한 다양한 실시 예들에 따른 구성 요소(예: 모듈 또는 프로그램) 각각은 단수 또는 복수의 개체로 구성될 수 있으며, 전술한 해당 서브 구성 요소들 중 일부 서브 구성 요소가 생략되거나, 또는 다른 서브 구성 요소가 다양한 실시 예에 더 포함될 수 있다. 대체적으로 또는 추가적으로, 일부 구성 요소들(예: 모듈 또는 프로그램)은 하나의 개체로 통합되어, 통합되기 이전의 각각의 해당 구성 요소에 의해 수행되는 기능을 동일 또는 유사하게 수행할 수 있다. 다양한 실시 예들에 따른, 모듈, 프로그램 또는 다른 구성 요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱하게 실행되거나, 적어도 일부 동작이 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다.In addition, each of the components (eg, modules or programs) according to the above-described various embodiments may be composed of a single or a plurality of entities, and some sub-components of the above-described corresponding sub-components may be omitted, or other sub-components may be omitted. Components may be further included in various embodiments. Alternatively or additionally, some components (eg, a module or a program) may be integrated into a single entity to perform the same or similar functions performed by each corresponding component prior to integration. According to various embodiments, operations performed by a module, program, or other component may be sequentially, parallel, repetitively or heuristically executed, or at least some operations may be executed in a different order, omitted, or other operations may be added. can
이상에서는 본 개시의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 개시는 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 개시의 요지를 벗어남이 없이 당해 개시에 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형 실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 개시의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.In the above, preferred embodiments of the present disclosure have been illustrated and described, but the present disclosure is not limited to the specific embodiments described above, and it is common in the technical field pertaining to the present disclosure without departing from the gist of the present disclosure as claimed in the claims. Various modifications may be made by those having the knowledge of
100: 전자 장치
110: 통신 인터페이스
120: 디스플레이
130: 프로세서100: electronic device
110: communication interface
120: display
130: processor
Claims (20)
통신 인터페이스;
디스플레이; 및
상기 통신 인터페이스를 통해 제1 기기로부터 제1 컨텐츠가 수신되면, 상기 제1 컨텐츠에 대응되는 제1 특징 정보를 획득하고,
상기 통신 인터페이스를 통해 제2 기기로부터 상기 제1 컨텐츠에 대응되는 제2 특징 정보 및 제2 컨텐츠가 수신되면, 상기 제1 특징 정보 및 상기 제2 특징 정보에 기초하여 상기 제1 컨텐츠 및 상기 제2 컨텐츠의 재생 시점을 동기화하고,
상기 재생 시점이 동기화된 상기 제1 컨텐츠 및 상기 제2 컨텐츠를 표시하도록 상기 디스플레이를 제어하는 프로세서;를 포함하는, 전자 장치.In an electronic device,
communication interface;
display; and
When the first content is received from the first device through the communication interface, acquiring first characteristic information corresponding to the first content,
When second characteristic information and second content corresponding to the first content are received from a second device through the communication interface, the first content and the second content are based on the first characteristic information and the second characteristic information Synchronize the playback time of content,
The electronic device including a;
상기 프로세서는,
상기 제1 컨텐츠를 상기 디스플레이의 제1 영역에 표시하도록 상기 디스플레이를 제어하고,
상기 제2 컨텐츠를 상기 디스플레이의 제2 영역에 표시하도록 상기 디스플레이를 제어하고,
상기 표시된 제1 컨텐츠에 대응되는 제1 특징 정보 및 상기 표시된 제2 컨텐츠에 대응되는 제2 특징 정보에 기초하여 상기 제1 컨텐츠 및 상기 제2 컨텐츠의 재생 시점을 동기화하는, 전자 장치.According to claim 1,
The processor is
controlling the display to display the first content on a first area of the display;
controlling the display to display the second content on a second area of the display;
An electronic device for synchronizing the reproduction timing of the first content and the second content based on first characteristic information corresponding to the displayed first content and second characteristic information corresponding to the displayed second content.
상기 제1 특징 정보는,
상기 전자 장치에서 획득된 상기 제1 컨텐츠의 제1 이미지 데이터 또는 상기 제1 컨텐츠의 제1 오디오 데이터 중 적어도 하나를 포함하고,
상기 제2 특징 정보는,
상기 제2 기기에서 획득된 상기 제1 컨텐츠의 제2 이미지 데이터 또는 상기 제1 컨텐츠의 제2 오디오 데이터 중 적어도 하나를 포함하는, 전자 장치.According to claim 1,
The first characteristic information is
and at least one of first image data of the first content acquired by the electronic device and first audio data of the first content,
The second characteristic information,
The electronic device comprising at least one of second image data of the first content and second audio data of the first content acquired by the second device.
상기 프로세서는,
상기 제1 특징 정보 및 상기 제2 특징 정보가 일치하지 않으면, 상기 제1 컨텐츠 및 상기 제2 컨텐츠의 재생 시점을 동기화하는, 전자 장치.According to claim 1,
The processor is
When the first characteristic information and the second characteristic information do not match, the electronic device synchronizes playback times of the first content and the second content.
상기 프로세서는,
상기 제1 특징 정보 및 상기 제2 특징 정보가 일치하지 않으면, 상기 제1 컨텐츠 또는 상기 제2 컨텐츠 중 하나의 컨텐츠의 재생 설정을 변경하는, 전자 장치.3. The method of claim 2,
The processor is
If the first characteristic information and the second characteristic information do not match, change a reproduction setting of one of the first content and the second content.
상기 프로세서는,
컨텐츠의 재생을 일시 정지, 컨텐츠의 재생 속도를 감소 또는 컨텐츠의 재생 속도를 증가시킴으로써 상기 제1 컨텐츠 또는 상기 제2 컨텐츠 중 하나의 컨텐츠의 재생 설정을 변경하는, 전자 장치.6. The method of claim 5,
The processor is
An electronic device for changing a playback setting of one of the first content and the second content by pausing the playback of the content, decreasing the playback speed of the content, or increasing the playback speed of the content.
상기 프로세서는,
상기 제1 특징 정보 및 상기 제2 특징 정보에 기초하여 상기 제1 컨텐츠 및 상기 제2 컨텐츠 중 더 빠른 재생 시점을 갖는 컨텐츠를 식별하고,
상기 식별된 컨텐츠의 재생 설정을 변경하는, 전자 장치.6. The method of claim 5,
The processor is
Identifying a content having a faster playback time from among the first content and the second content based on the first characteristic information and the second characteristic information,
An electronic device for changing a reproduction setting of the identified content.
메모리;를 더 포함하고,
상기 프로세서는,
상기 식별된 컨텐츠를 상기 메모리에 저장하고,
상기 식별된 컨텐츠의 재생을 일시 정지하거나 상기 식별된 컨텐츠의 재생 속도를 감소시킴으로써 상기 식별된 컨텐츠의 재생 설정을 변경하는, 전자 장치.8. The method of claim 7,
memory; further comprising
The processor is
storing the identified content in the memory;
and changing a playback setting of the identified content by pausing the playback of the identified content or decreasing a playback speed of the identified content.
상기 프로세서는,
상기 식별된 컨텐츠와 다른 컨텐츠의 재생 속도를 유지하는, 전자 장치.9. The method of claim 8,
The processor is
An electronic device that maintains a playback speed of content different from the identified content.
상기 프로세서는,
상기 제1 컨텐츠에 대응되는 컨텐츠를 제공하는 적어도 하나의 기기를 포함하는 UI(User Interface)를 표시하도록 상기 디스플레이를 제어하고,
상기 UI를 통해 상기 제2 기기를 선택하기 위한 사용자 입력이 수신되면, 상기 제2 특징 정보 및 상기 제2 컨텐츠를 요청하는 제어 신호를 상기 제2 기기에 전송하도록 상기 통신 인터페이스를 제어하는, 전자 장치.According to claim 1,
The processor is
controlling the display to display a UI (User Interface) including at least one device that provides content corresponding to the first content;
When a user input for selecting the second device is received through the UI, the electronic device controls the communication interface to transmit a control signal for requesting the second characteristic information and the second content to the second device. .
제1 기기로부터 제1 컨텐츠가 수신되면, 상기 제1 컨텐츠에 대응되는 제1 특징 정보를 획득하는 단계;
제2 기기로부터 상기 제1 컨텐츠에 대응되는 제2 특징 정보 및 제2 컨텐츠가 수신되면, 상기 제1 특징 정보 및 상기 제2 특징 정보에 기초하여 상기 제1 컨텐츠 및 상기 제2 컨텐츠의 재생 시점을 동기화하는 단계; 및
상기 재생 시점이 동기화된 상기 제1 컨텐츠 및 상기 제2 컨텐츠를 표시하는 단계;를 포함하는, 제어 방법.A method for controlling an electronic device, comprising:
when the first content is received from the first device, obtaining first characteristic information corresponding to the first content;
When the second characteristic information and the second content corresponding to the first content are received from the second device, the playback time of the first content and the second content is determined based on the first characteristic information and the second characteristic information. synchronizing; and
Displaying the first content and the second content in which the playback time is synchronized; including, a control method.
상기 제1 컨텐츠를 상기 전자 장치의 디스플레이의 제1 영역에 표시하는 단계;
상기 제2 컨텐츠를 상기 디스플레이의 제2 영역에 표시하는 단계; 를 더 포함하고,
상기 재생 시점을 동기화하는 단계는,
상기 표시된 제1 컨텐츠에 대응되는 제1 특징 정보 및 상기 표시된 제2 컨텐츠에 대응되는 제2 특징 정보에 기초하여 상기 제1 컨텐츠 및 상기 제2 컨텐츠의 재생 시점을 동기화하는, 제어 방법.12. The method of claim 11,
displaying the first content on a first area of a display of the electronic device;
displaying the second content on a second area of the display; further comprising,
The step of synchronizing the playback time includes:
A control method for synchronizing reproduction times of the first content and the second content based on first characteristic information corresponding to the displayed first content and second characteristic information corresponding to the displayed second content.
상기 제1 특징 정보는,
상기 전자 장치에서 획득된 상기 제1 컨텐츠의 제1 이미지 데이터 또는 상기 제1 컨텐츠의 제1 오디오 데이터 중 적어도 하나를 포함하고,
상기 제2 특징 정보는,
상기 제2 기기에서 획득된 상기 제1 컨텐츠의 제2 이미지 데이터 또는 상기 제1 컨텐츠의 제2 오디오 데이터 중 적어도 하나를 포함하는, 제어 방법.12. The method of claim 11,
The first characteristic information is
and at least one of first image data of the first content acquired by the electronic device and first audio data of the first content,
The second characteristic information,
A control method comprising at least one of second image data of the first content and second audio data of the first content obtained by the second device.
상기 재생 시점을 동기화하는 단계는,
상기 제1 특징 정보 및 상기 제2 특징 정보가 일치하지 않으면, 상기 제1 컨텐츠 및 상기 제2 컨텐츠의 재생 시점을 동기화하는, 제어 방법.12. The method of claim 11,
The step of synchronizing the playback time includes:
When the first characteristic information and the second characteristic information do not match, the playback time of the first content and the second content is synchronized.
상기 재생 시점을 동기화하는 단계는,
상기 제1 특징 정보 및 상기 제2 특징 정보가 일치하지 않으면, 상기 제1 컨텐츠 또는 상기 제2 컨텐츠 중 하나의 컨텐츠의 재생 설정을 변경하는, 제어 방법.13. The method of claim 12,
The step of synchronizing the playback time includes:
If the first characteristic information and the second characteristic information do not match, changing a reproduction setting of one of the first content and the second content.
상기 재생 시점을 동기화하는 단계는,
컨텐츠의 재생을 일시 정지, 컨텐츠의 재생 속도를 감소 또는 컨텐츠의 재생 속도를 증가시킴으로써 상기 제1 컨텐츠 또는 상기 제2 컨텐츠 중 하나의 컨텐츠의 재생 설정을 변경하는, 제어 방법.16. The method of claim 15,
The step of synchronizing the playback time includes:
A control method for changing a playback setting of one of the first content and the second content by pausing the playback of the content, decreasing the playback speed of the content, or increasing the playback speed of the content.
상기 재생 시점을 동기화하는 단계는,
상기 제1 특징 정보 및 상기 제2 특징 정보에 기초하여 상기 제1 컨텐츠 및 상기 제2 컨텐츠 중 더 빠른 재생 시점을 갖는 컨텐츠를 식별하고,
상기 식별된 컨텐츠의 재생 설정을 변경하는, 제어 방법.16. The method of claim 15,
The step of synchronizing the playback time includes:
Identifying a content having a faster playback time from among the first content and the second content based on the first characteristic information and the second characteristic information,
A control method for changing a reproduction setting of the identified content.
상기 재생 시점을 동기화하는 단계는,
상기 식별된 컨텐츠를 메모리에 저장하고,
상기 식별된 컨텐츠의 재생을 일시 정지하거나 상기 식별된 컨텐츠의 재생 속도를 감소시킴으로써 상기 식별된 컨텐츠의 재생 설정을 변경하는, 제어 방법.18. The method of claim 17,
The step of synchronizing the playback time includes:
storing the identified content in a memory;
The control method of changing the playback setting of the identified content by pausing the playback of the identified content or reducing the playback speed of the identified content.
상기 재생 시점을 동기화하는 단계는,
상기 식별된 컨텐츠와 다른 컨텐츠의 재생 속도를 유지하는, 제어 방법.19. The method of claim 18,
The step of synchronizing the playback time includes:
A control method for maintaining a playback speed of content different from the identified content.
상기 제1 컨텐츠에 대응되는 컨텐츠를 제공하는 적어도 하나의 기기를 포함하는 UI(User Interface)를 표시하는 단계; 및
상기 UI를 통해 상기 제2 기기를 선택하기 위한 사용자 입력이 수신되면, 상기 제2 특징 정보 및 상기 제2 컨텐츠를 요청하는 제어 신호를 상기 제2 기기에 전송하는 단계;를 더 포함하는, 제어 방법.12. The method of claim 11,
displaying a user interface (UI) including at least one device providing content corresponding to the first content; and
When a user input for selecting the second device is received through the UI, transmitting a control signal for requesting the second characteristic information and the second content to the second device; .
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210014953A KR20220111552A (en) | 2021-02-02 | 2021-02-02 | Electronic apparatus and controlling method thereof |
PCT/KR2022/000135 WO2022169116A1 (en) | 2021-02-02 | 2022-01-05 | Electronic device and control method therefor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210014953A KR20220111552A (en) | 2021-02-02 | 2021-02-02 | Electronic apparatus and controlling method thereof |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20220111552A true KR20220111552A (en) | 2022-08-09 |
Family
ID=82742253
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210014953A KR20220111552A (en) | 2021-02-02 | 2021-02-02 | Electronic apparatus and controlling method thereof |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR20220111552A (en) |
WO (1) | WO2022169116A1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102624659B1 (en) * | 2023-06-01 | 2024-01-15 | 주식회사 스크리나 | Method for adjusting sync of content by referring to environment information of personal broadcasting and server using the same |
KR102636562B1 (en) * | 2023-12-01 | 2024-02-14 | 주식회사라이브아레나 | Device for providing content through spherical display |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101279848B1 (en) * | 2011-06-27 | 2013-06-28 | 인피언컨설팅 주식회사 | Method for merging broadcating contents with related news contents using smart device |
KR101967818B1 (en) * | 2011-08-12 | 2019-04-10 | 삼성전자주식회사 | Receiver and the receiving method thereof |
KR101885215B1 (en) * | 2011-12-30 | 2018-08-06 | 삼성전자주식회사 | Display apparatus and display method using the same |
JP6349977B2 (en) * | 2013-10-21 | 2018-07-04 | ソニー株式会社 | Information processing apparatus and method, and program |
RU2673560C1 (en) * | 2016-10-31 | 2018-11-28 | Бейджин Сяоми Мобайл Софтвеа Ко., Лтд. | Method and system for displaying multimedia information, standardized server and direct broadcast terminal |
-
2021
- 2021-02-02 KR KR1020210014953A patent/KR20220111552A/en unknown
-
2022
- 2022-01-05 WO PCT/KR2022/000135 patent/WO2022169116A1/en active Application Filing
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102624659B1 (en) * | 2023-06-01 | 2024-01-15 | 주식회사 스크리나 | Method for adjusting sync of content by referring to environment information of personal broadcasting and server using the same |
KR102636562B1 (en) * | 2023-12-01 | 2024-02-14 | 주식회사라이브아레나 | Device for providing content through spherical display |
Also Published As
Publication number | Publication date |
---|---|
WO2022169116A1 (en) | 2022-08-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10992451B2 (en) | Audio and video playback system and method for playing audio data applied thereto | |
KR20220111552A (en) | Electronic apparatus and controlling method thereof | |
KR20200063777A (en) | Display apparatus and controlling method thereof | |
EP3169075A1 (en) | Audio and video playback device | |
US20170195614A1 (en) | Method and electronic device for playing video | |
US9996893B2 (en) | Display apparatus constituting multi display system and control method thereof | |
KR102646030B1 (en) | Image providing apparatus, controlling method thereof and image providing system | |
WO2017101361A1 (en) | Audio playback control device, video display device and audio and video playback system | |
WO2020038344A1 (en) | Method and device for audio and video synchronization, and display apparatus | |
US11412341B2 (en) | Electronic apparatus and controlling method thereof | |
US8681205B2 (en) | Systems and methods for controlling a three dimensional (3D) compatible viewing device | |
JP2015088203A (en) | Content creation method, content creation device, and content creation program | |
KR102553250B1 (en) | Electronic apparatus, method for controlling thereof and the computer readable recording medium | |
US11758204B2 (en) | Electronic device and control method therefor | |
KR20160093404A (en) | Method and Apparatus for Multimedia Contents Service with Character Selective Audio Zoom In | |
US20210019113A1 (en) | Display apparatus and controlling method thereof | |
US11259080B2 (en) | Sensing based audio signal injection | |
KR102118523B1 (en) | Electronic apparatus and controlling method thereof | |
US10477269B2 (en) | Transmission apparatus, transmission method, reception apparatus, and reception method | |
US20210044875A1 (en) | Electronic device and control method therefor | |
JPWO2016163329A1 (en) | Transmitting apparatus, transmitting method, receiving apparatus, and receiving method | |
KR102659863B1 (en) | Electronic apparatus and controlling method thereof | |
US11545158B2 (en) | Electronic apparatus, method for controlling mobile apparatus by electronic apparatus and computer readable recording medium | |
WO2023160100A1 (en) | Display device, external device, and audio playing and sound effect processing method | |
EP4117297A1 (en) | Electronic apparatus and controlling method therefor |